• Live: io-techin Tekniikkapodcast tänään perjantaina noin klo 15:05 alkaen. Keskustellaan viikon mielenkiintoisimmista tietotekniikka- ja mobiiliaiheista. Suora lähetys YouTubessa. Tule mukaan katselemaan ja keskustelemaan! Linkki lähetykseen >>

NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Jo 3090 TI:ssä tehopiikit ovat 550 watin luokkaa ja olettaisin että ongelma ei katoa 4090:ssa. Joten kun tuohon lisää 13900K:n niin kohtuu helposti pääsee tilanteeseen jossa piikit ovat 900+ watin luokkaa ja osassa 850 watin powereissa menee suojaukset päälle. Joten ei toi 1200 wattia ole ylikellotuskäytössä kovinkaan overkill.
 
Refuissa kyllä, mutta AIB:n kortteja ei ole vielä testattu. Yksi iso juttu AIB:n kannalta on se, että 4090 on hyvin lähellä 3090 TI:tä, joten AIB:t voivat maksimoida uudelleenkäytettävyyden 3090 TI:n piirikortin suhteen. Eli vielä avoin kyssäri kuinka moni on parantanut tehopuolta. Mutta kohtahan toi nähdään.
 
Jo 3090 TI:ssä tehopiikit ovat 550 watin luokkaa ja olettaisin että ongelma ei katoa 4090:ssa. Joten kun tuohon lisää 13900K:n niin kohtuu helposti pääsee tilanteeseen jossa piikit ovat 900+ watin luokkaa ja osassa 850 watin powereissa menee suojaukset päälle. Joten ei toi 1200 wattia ole ylikellotuskäytössä kovinkaan overkill.
Millaisessa käytössä ajattelit saada ajettua molempia samanaikaisesti 100 % rasituksessa? Tuo ei ehkä ole se kaikkein realistisin skenaario. Asialliset powerit kestävät myös piikkejä paremmin kuin mainostettua jatkuvaa kulutusta.
 
Löytyy noita esimerkkejä jos kuinka viimeisen parin vuoden ajalta ja ongelmana varsin hyvin tutkittu. Ja kannattaa huomioida, että 850 watin powerille jää 300 wattia muulle koneelle jos näytönohjain piikkaa 550 wattia.

 
Löytyy noita esimerkkejä jos kuinka viimeisen parin vuoden ajalta ja ongelmana varsin hyvin tutkittu. Ja kannattaa huomioida, että 850 watin powerille jää 300 wattia muulle koneelle jos näytönohjain piikkaa 550 wattia.


Onhan tätä jo se pari vuotta jauhettu. Ongelma koski lähinnä joitakin Seasonicin valmistamia virtalähteitä, jotka ovat olleet jo tovin poissa kierrosta. Itsellänikin oli 650 w Seasonicci, joka rippasi 350-400 w avg loadeilla transientteihin, vaikka uudemmat vastaavan tason virtalähteet eivät kärsi samasta ongelmasta.

Esimerkiksi tekin tuoreimmasta testistä voi katsoa, mitä ne avg virrankulutukset ovat, kun rasitetaan sekä prosessoria että näytönohjainta. Siitä voi laskeskella turvarajaa oman virtalähteen jatkuvan kulutuksen kestoon ja vielä sen yli transienttien kestoon. Tyypillisesti noiden PSU-suositusten käytäntönä on ollut se, että pitäisi toimia tiettyyn wattimäärään speksatulla pommi-tason virtalähteelläkin. Paremmilla laitteilla se ei ole niin tarkkaa.
 
Viimeksi muokattu:
Löytyy noita esimerkkejä jos kuinka viimeisen parin vuoden ajalta ja ongelmana varsin hyvin tutkittu. Ja kannattaa huomioida, että 850 watin powerille jää 300 wattia muulle koneelle jos näytönohjain piikkaa 550 wattia.

Laadukkaat virtalähteet kestävät piikkejä selvästi yli paketissa lukevan rajan, nykyään niiden on pakkokin näiden näyttisten takia. Ei enää uudet seasonicitkaan trippaa vaan ongelma on huomioitu uusissa malleissa.
 
nykyään niiden on pakkokin näiden näyttisten takia.
Tuo saa kuulostamaan että mentäisiin pelkästään näyttisvalmistajien mukaan, kumminkin noissa on stantardit.
Tukkajeesuksen videolla mainittiin että psu ja näyttis/gpu valmistajat syyttelevät toisiaan
En nyt pikaisesti löytänyt mitä atx 2.52 mukaan mutta 3.0 mukaan ilmeisesti pitäisi kestää 200% 100us piikkejä (ei varmistettu tieto).
 
Jo 3090 TI:ssä tehopiikit ovat 550 watin luokkaa ja olettaisin että ongelma ei katoa 4090:ssa. Joten kun tuohon lisää 13900K:n niin kohtuu helposti pääsee tilanteeseen jossa piikit ovat 900+ watin luokkaa ja osassa 850 watin powereissa menee suojaukset päälle. Joten ei toi 1200 wattia ole ylikellotuskäytössä kovinkaan overkill.

850W virtalähde ei sammu 900W+ piikeillä.
Jos mennään ihan speksin mukaan, niin se 12V linjasta tuleva (yleensä 800-850W) voidaan ylittää kolminkertaisesti - eli 2550W lyhyet piikit ok.

--

Seasonicin "liian alhaalle laitetut suojarajat" oli luokkaa 150%.. Ja ne aiheutti takaisinvedon.
 

PCI-SIG warned of potential overcurrent/overpower risk with 12VHPWR connectors using non-ATX 3.0 PSU & Gen 5 adapter plugs. Why did PCI-SIG issue the warning and how does this affect NVIDIA’s new products?


It does not affect NVIDIA’s new products. During early development and testing we identified a potential issue with a prototype connector manufactured from a sole supplier. As a PCI-SIG member, we informed the supplier, asked them to fix it (which they did), and shared our findings to help suppliers who are implementing the new standard. The PCI-SIG was passing along those learnings to other suppliers.

Are the RTX 40 Series Adapters “smart” enough to interface with a ATX 2.0 PSU and appropriately regulate the power to the GPU?

Yes. The adapter has active circuits inside that translate the 8-pin plug status to the correct sideband signals according to the PCIe Gen 5 (ATX 3.0) spec.

What’s a ‘smart’ power adapter?


The adapter has an active circuit that detects and reports the power capacity to the graphics card based on the number of 8-pin connectors plugged in. This enables the RTX 4090 to increase the power headroom for overclocking when 4x 8-pin connectors are used versus 3x 8-pin connectors.

Nyt kyllä haluttais nähdä avattuna tollanen yksi adapteri... että onko vaan markkinointi bullshittia vai onko ne oikeasti tehny sinne jotain...
Vai onko tämä hieno active circuit se jumppi lanka siinä 4 pin liittimessä....
 
Proshopissa varastosaldotkin päivittyneet

Listasta näyttää että Gigabyteä on jo nyt varastossa
Varastossa
+15 kpl
 
Alla linkki näiden näytönohjainten viralliseen ketjuun. Kannattaa ehkä siirtyä sinne keskustelemaan, niin ei suotta haaraudu. Itse en ollut huomannut tätä aiemmin, niin oli jäänyt paljon viestejä huomaamatta
 
Digitalfoundryb videosta tarttui kouraan, että latenssi ei ole ongelma. Pelejä ei ole optimoitu latenssi edellä. Kun optimoidaan reflexin kera engine niin latenssi vähenee niin paljon, että dlss3:en päällelisäämä latenssi ei ole ongelma.

Kuvanlaatuongelmista oli lopussa pieni pätkä. Jäi aika avoimeksi, että miten paljon niitä ongelmia nyt sitten voi huomata liikkeessä. Jäi myös etenkin HUD-ongelmien osalta avoimeksi, että voiko nvidia tuon jotenkin korjata vai ei. Ehkä toi teknologia voi olla ihan toimivakin,jos pitää saada fps tuplattua vaikka dlss2 120fps tuloksesta 240fps:aan tms.
 
Jotain haloja tuossa myös huomaan hämiksen reunoilla. Veikkaan kyllä et nuo ensimmäisen iteraation artifaktit 120fps:llä (eli 60fps oikeasti) osuvat silmään, mutta ehkä noita korjaillaan kuten DLSS:kin. Tosiaan 120->240fps tuo on jo paljon hyödyllisempi, kun ero 120fps:llä framejen välissä jää niin pieneksi, että artifakteja on vähemmän ja ne ovat pienempiä.

Kuvittelin NVidian alkuperäisen matskunperusteella tuon ennustavan frameja, mutta se onkin tosiaan vaan kehittynyt interpolaattori joka lisää latsenssia, vaikkakin niin vähän ettei sillä ei-esports peleissä ole niin väliä.
 
Olihan siinä videolla kuitenkin edes vähän käsitelty niitä DLSS3:n virheitä, mikä on positiivista. Ja suoraan kuitenkin todettiin, että eSports hommiin ei ole järkevää laittaa päälle, koska ilman DLSS3:a saa pienemmän latenssin.

Mutta ei tästä videosta kyllä mitään tarkempaa arviota pysty/kannata tehdä, DLSS3:n laadusta, kuten oli ennakkoon jo oikeastaan tiedossa. Sekin jäi vähän harmittamaan, kun puhtaasta rasterointi perffin noususta ei ollu mitään, vaikka tiiserivideolla siitä mainittiin.

Vähän kyllä ihmetyttää tuo vertailu/hehkutus noihin offline interpolaattoreihin, kun eivät oikeastaan ole samalla lähtöviivalla. DLSS3:llä on kuitenkin valtava etu liikevektoreiden ja syvyysdatan muodossa. Olisko ollu NVIDIA:n vaatimus, että ko. vertailu pitää löytyä?

Liikkeessä hän nuo virheet näkyy enimmäkseen sumeutena siinä kohtaa, missä virhe käväisee. Toisaalta jos se virhe ei tule peräkkäisissä AI frameissa samaan kohtaan, niin aika nopeita vilauksiahan noi on. Helpommin toki näkyy/huomaa 60-->120 FPS tilanteessa, kun 120-->240 tilanteessa. Se nyt alkaa olla jo aika selkeä homma, että ei tämä DLSS3:n todennäköisesti ole mikään low end korttien ja matalien FPS lukemien "pelastaja", vaan ennemminkin mahdollinen kiva lisä korkea herzisten näyttöjen mahdollisuuksien hyödyntämiseen.
 
Kun tuo DF:n DLSS3 preview oli vedetty performance moodissa ja ADA:n esittely oli todella paljon käytännön AI sovelluspuolta, niin itsellä vahvistui se johtopäätös, ettei Ada ole hirviö rasterointinopeudessa. Se Cyberpunk videon noin 67% voi olla todella lähellä totuutta.

Tuo ajatus tuli näistä spekulaatioista:
1) Ada piiri menee myös quadroihin ja hyötykäyttöön. Eli siinä on taas paljon rautaa mukana, mikä ei suoraan vaikuta rasterointiin, mutta on hyödyksi ammattikäytössä. Pelipuolen merkitys on koko ajan laskussa Nvidialla, vaikka hiton iso osuus se onkin.
2) DF:n previewin suorituskyky osioon on taatusti valittu paras mahdollinen skenaario, joka oli nyt DLSS performance. Jos vaikka rasterointiboosti on 70%, tensor/ai/whatever puolella on 200% teholisäys, niin mitä pienemmällä resoluutiolla peliä pyöritetään ennen skaalausta, niin sitä isommaksi ero vs Ampere kasvaa.

Esim aivan hatusta heitetyt lukemat pelkästään esimerkin vuoksi: Ampere ultra 10ms frame + 10ms dlss prosessointi. Performance 5ms frame + 10ms dlss. Jos Ada tekisi framen samat ultra/performance framet 7/3ms, mutta dlss prosessointi olisikin vain 5ms, niin saadakseen maksimitulokset käyriin on lähtöresoluutiota kutistettava mahdollisimman pieneksi, jotta enemmän nopeutuneen dlss prosessoinin vaikutus näkyisi parhaiten. Tässä vertailuesimerkissä olisikin 66% vs 87.5% palkit riippuen lähtöresosta.
 
Viimeksi muokattu:
Koko keskustelu latenssista on turhaa, koska jokainen e-sportspeli pyörii 4K:na näillä näyttiksillä satoja frameja sekunnissa ihan ilman DLSS tekniikkaa. Minun 1060 pyörittää kaikkia tunnetuimpia e-sportspelejä 4K 60Hz näytöllä hienosti, toki joissaki joutuu laskeen tekstuureja. Latenssilla ei ole mitään merkitystä yksinpeleissä.
 
En olisi kyllä uskonut että highend-näyttisten tehoja aletaan lisäämään frameja interpoloimalla. Onko todellisten tehojen lisääminen sitten muuttunut vaikeaksi/mahdottomaksi.. Mun 10 vuotta sitten ostama Samsungin telkkari teki tätä interpolointia jo.
 
En olisi kyllä uskonut että highend-näyttisten tehoja aletaan lisäämään frameja interpoloimalla. Onko todellisten tehojen lisääminen sitten muuttunut vaikeaksi/mahdottomaksi.. Mun 10 vuotta sitten ostama Samsungin telkkari teki tätä interpolointia jo.
2v välein 50% lisää tehoa ei riitä. Pelaajat on vaativampia ja pelit sitä kautta hienompia. Pitäisi saada joka vuosi 10x lisää tehoa jos brute-forcella halutaan lisää frameja. 4k240Hz Cyberpunk Psycho-RT... Nykyisellään 3090Ti pyörittää jotakuinkin 25fps tuota peliä natiivina 4k "ilman huijauksia". 50% lisää tarkoittaisi 37fps. Ei minulla ainakaan ole aikaa odottaa monta kymmentä vuotta että tuo peli pyörii 4k240fps locked. Sitäpaitsi 20v päästä haluan palata tähän klassikon ääreen 16k2000Hz näytölläni täydellä path tracing modilla.

Jotain uutta pitää keksiä ja tällaisia algoritmitason innovaatioita kaivataan nyt paljon.
 
On se nyt silti uskomatonta että yli 2 tonnin näyttiksellä pitää jotain upskaalaimia käyttää ja ruutuja lisätä interpoloimalla, ei jotenkin istu omaan "high end" käsitykseen millään. Itse olen edelleen sitä mieltä, että asiat olisi toisin jos pelit kehitettäisiin/optimoitaisiin täysin high end PC-rautaa silmällä pitäen ja siitä sitten skaalataan alaspäin tehottomalle raudalle / konsoleille eikä toisten päin, tuloksena on sitten tälläisiä ihme super raskaita virityksiä kuten Cyberpunk RT Psycho Extreme.
 
On se nyt silti uskomatonta että yli 2 tonnin näyttiksellä pitää jotain upskaalaimia käyttää ja ruutuja lisätä interpoloimalla, ei jotenkin istu omaan "high end" käsitykseen millään. Itse olen edelleen sitä mieltä, että asiat olisi toisin jos pelit kehitettäisiin/optimoitaisiin täysin high end PC-rautaa silmällä pitäen ja siitä sitten skaalataan alaspäin tehottomalle raudalle / konsoleille eikä toisten päin, tuloksena on sitten tälläisiä ihme super raskaita virityksiä kuten Cyberpunk RT Psycho Extreme.
No siis.. Jollainhan nää uudet näyttikset pitää myydä. Heikosti optimoidut ja tahallaan raskaaksi tehdyt pelit ovat hyvää markkinointikamaa.
 
Nvidia keskittyy uuden ihmeominaisuutensa hypetykseen, koska erottuu sillä kilpailijoista. Tykittävät tuota nyt sen aikaa kun ehtivät, koska sitten kun on arvostelut ulkona ei Nvidialla enää ole samanlaista mahdollisuutta vaikuttaa siihen, mihin keskustelu fokusoituu.

Kuluttajanahan kannattaa ohittaa hypet ja keskittyä siihen mikä itselle on olennaista, esim. rasterointiperffiin tms. ja mikään pakko ei ole pelata Cyberpunkkia säteenseuranta, DLSS tai DLSS 3 päällä.
 
Digitalfoundryb videosta tarttui kouraan, että latenssi ei ole ongelma. Pelejä ei ole optimoitu latenssi edellä. Kun optimoidaan reflexin kera engine niin latenssi vähenee niin paljon, että dlss3:en päällelisäämä latenssi ei ole ongelma.
Latenssi on ongelma, jos se ei lähtötilanteessakaan ole riittävän pieni. Reflexin voi pistää päälle myös ilman DLSS 3:sta, jolloin GPU-rajoitetuissa tilanteissa latenssi tippuu, ja apples to apples vertailussa DLSS 3 ei näytäkään latenssin osalta enää niin hienolta.
 
Viimeksi muokattu:
Jos nyt jotakin iteraatiota osasin tehdä, niin 4090 olisi 100% tehokkaampi kuin 3080 Overwatch 2:ssa, 1440p resolla.

Hinta sitten 170% suurempi (739 vs. 1999€).
 
Sitä FPS-limittiä nostettiin noiden uusien näyttisten takia. Ensimmäinen Overwatch oli myös hyvä esimerkki toimivasta ECS-toteutuksesta, joten oletan tuon uudemmakin perustuvan samalle arkkitehtuurille ja se FPS-limitti voisi olla täten vielä huomattavasti korkeampikin.
 
Sitä FPS-limittiä nostettiin noiden uusien näyttisten takia. Ensimmäinen Overwatch oli myös hyvä esimerkki toimivasta ECS-toteutuksesta, joten oletan tuon uudemmakin perustuvan samalle arkkitehtuurille ja se FPS-limitti voisi olla täten vielä huomattavasti korkeampikin.
Tuo on pelkkää peeärrää. 3080:sta saa jo 600 fps irti, mutta Overwatch on ensisijaisesti CPU- ja rammiriippuvainen peli.
 
Igor kirjoitteli jotta nää mammuttikokoiset rtx4090 johtuu siitä että nvidia meinasi alkujaan tehdä Adan samsungin ilmeisesti "5nm" nodella ja sillä kulutukset olis ollu 600W, jossain vaiheessa suunnitelma muuttui TSMC:lle, mutta korttien valmistajille oli speksit annettu vanhan suunnitelman mukaan. Ilmeisesti jotkut valmistajat ollu hiukan käärmeissään myös tilanteesta koska joutuivat tekemään ylimitoitetun coolerin josta tietysti seuraa ylimääräisiä kuluja.
Se miksi on menty vanhalla suunnitelmalla, sitä ei tarina kerro. Onko sitten tarkoituksella haluttu pitää salassa toi TSMC:lle siirtyminen vai mikä tuossa on ollut nvidialla syynä.
 
Igor kirjoitteli jotta nää mammuttikokoiset rtx4090 johtuu siitä että nvidia meinasi alkujaan tehdä Adan samsungin ilmeisesti "5nm" nodella ja sillä kulutukset olis ollu 600W, jossain vaiheessa suunnitelma muuttui TSMC:lle, mutta korttien valmistajille oli speksit annettu vanhan suunnitelman mukaan. Ilmeisesti jotkut valmistajat ollu hiukan käärmeissään myös tilanteesta koska joutuivat tekemään ylimitoitetun coolerin josta tietysti seuraa ylimääräisiä kuluja.
Se miksi on menty vanhalla suunnitelmalla, sitä ei tarina kerro. Onko sitten tarkoituksella haluttu pitää salassa toi TSMC:lle siirtyminen vai mikä tuossa on ollut nvidialla syynä.

Igor selittelee tuota, mutta en tuohon usko. Se nodepäätös on pitänyt tehdä hiton kauan sitten, sitä ei vain vaihdeta lennosta. Enkä nyt usko, että joku 1-1.5v sitten on AIB partnereille kerrottu, että alkakaas harjoitella 600W jäähyjen tekemistä.
 
Tuo on pelkkää peeärrää. 3080:sta saa jo 600 fps irti, mutta Overwatch on ensisijaisesti CPU- ja rammiriippuvainen peli.
Mutta ei kai 3080 kuitenkaan saa 600 FPS, kun reso on 1440p ja asetukset ovat maksimissa? Eli nyt kyse ei ole siitä millä asetuksilla peliä pelaavat e-sports -ammattilaiset, vaan siitä että peli toimii hyvin näytönohjainten benchmark-käyttöön. Itse pelimoottori jaksaa todistetusti pyöriä 600 FPS, ja kun nostetaan resoa ja kuvanlaatuasetuksia niin noita näytönohjaimia on helppo verrata keskenään.
 
Igor selittelee tuota, mutta en tuohon usko. Se nodepäätös on pitänyt tehdä hiton kauan sitten, sitä ei vain vaihdeta lennosta. Enkä nyt usko, että joku 1-1.5v sitten on AIB partnereille kerrottu, että alkakaas harjoitella 600W jäähyjen tekemistä.

Niin ellei nvidialla ole ollut sitten alkujaankin suunnitelmat molemmille nodeille tekeillä kun tekihän ne amperen dacenter piirin TSMC:llä, niin varmaan riittävät tiedot on ollut siihen että molemmille nodeille on voitu hommaa vetää. Ja eihän se olis mikään ihme jos lowend kortit vaikka tulis samsungin nodella.
Ovat jossain vaiheessa saanu varmistettua kapaa niin paljon TSMC:ltä että vaihdettu polkua. Voi kuulostaa hullulta mutta ei mielestäni mahottomalta.
 
Niin ellei nvidialla ole ollut sitten alkujaankin suunnitelmat molemmille nodeille tekeillä kun tekihän ne amperen dacenter piirin TSMC:llä, niin varmaan riittävät tiedot on ollut siihen että molemmille nodeille on voitu hommaa vetää. Ja eihän se olis mikään ihme jos lowend kortit vaikka tulis samsungin nodella.
Ovat jossain vaiheessa saanu varmistettua kapaa niin paljon TSMC:ltä että vaihdettu polkua. Voi kuulostaa hullulta mutta ei mielestäni mahottomalta.
Tämä on hyvinkin todennäköistä. Otettu varman päälle.
 
Optimistisimmassakin tapauksessa se on 1.5v ennen julkaisua kun pitää päättää valmistusprosessi. Pitää piiri suunnitella juuri tietylle valmistusprosessille, tapeout, valmistaa piirit, herättää piiri henkiin ja mahdollisesti tehdä muutoksia piiriin/metallikerrokseen,aloittaa riskituotanto ja myöhemmin aloittaa massatuotanto. Realisisemmin ehkä 1.5-2v ennen julkaisua jo päätetty millä prosessilla piiri valmistetaan. Tuskin on resursseja tehdä kahta versiota piiristä eri prosesseille.

Eli ei ole mitään ideaa siinä, että jäähy olisi suunniteltu liian massiiviseksi jonkin samsung-tsmc virityksen vuoksi. Syitä voi hakea ennemminkin ada vs. rdna3 kilpailutilanteesta ja siitä, että ada piiri saattaisi toimia paremmin kuin mihin oli varauduttu. Ehkä oli varauduttu siihen, että otetaan 3GHz ulos 600W kulutuksella ja nyt saadaankin 3GHz ulos alle 500W kulutuksella +- virtapiikit.

 
Viimeksi muokattu:
RTX Titan Ada on ilmeisesti peruttu, tai ainakin lykätty kortin sulaamisen vuoksi. :kahvi:

Rumors claim the card itself was occasionally melting

The source adds that the Titan Ada never had an 800W – 1,000W TGP like many claimed but was around 600W – 700W in testing. It was supposedly to be so big that the motherboard was usually mounted to the side of the card, as opposed to the card being seated in the motherboard. It's also said to require two 16-pin power connectors, be four slots thick, and pack the full-fat AD102 GPU rather than the cut-down version found in the RTX 4090.

But it appears that the Titan Ada was simply too much card to handle, tripping power supplies, breaking PSUs, and melting. As such, the project has been canceled -- at least for now.

 
RTX Titan Ada on ilmeisesti peruttu, tai ainakin lykätty kortin sulaamisen vuoksi. :kahvi:



Eiköhän toi huhu voida laittaa romukoppaan. 4090 arvostelujen jälkeen näkee, että selkeästi vielä on varaa ti/titanille jäähyssä ja piirissä. Leikkaamaton piiri+nopeemmat muistit+binnataan hyvin kellottuvat yksilöt lipoulaivaan. Huonommin kellottuvat täydet rtx 6000:een.
 
Saisi tulla jo jotain virallisempaa tietoa RTX 4070:sta. Sen verran pitkään ollut jo himot päivittää näyttistä. 800€ olen valmis maksamaan ja kun RTX 4080 12GB maksaa alkaen 1129€, niin 4070 voisi osua tuohon hintaluokkaan.

Teho on edelleen vähän mysteeri. Videocardz:n vuodossa RTX 4080 12GB oli yllättävän hidas ja oletettavasti RTX 4070 olisi täten RTX 3080:n tasolla. Vähän erikoista, jos olisi rasteroinnissa yhtä tehokas ja saman hintainen kuin RTX 3080 julkaisussa. Mutta tuokin vuoto voi olla mitä sattuu, eli pitää malttaa odottaa virallisempia testejä. Lisäksi en halua nykyisestä i7-11700F:stä järkyttävää pullonkaulaa 1440p-resoluutiolla, niin ei viitsi ihan ylitehokasta näyttistä ostaa. Jossain vaiheessa hypättävä DDR5-aikaan, mutta sekin on jo vähän kalliimpi päivitys ja tehtävä myöhemmin erikseen. Talvella tuli onneksi hankittua ripeät 32GB Dual Rank -muistit tuomaan hieman jatkoaikaa nykyiselle alustalle :D

DLSS 3.0 ja parempi säteenseurannan suorituskyky kyllä kiinnostavat. Harkistin jossain vaiheessa käytetyn halvan RTX 3000 -sarjalaisen ostoa, mutta nuo ominaisuudet saivat pään kääntymään 4000-sarjan puoleen.
 
Viimeksi muokattu:
Jos haluaa hyvät suorituskyvyt edullisesti niin kun 4080 launchaa, ostaa niiltä miehiltä 3080/3090-kortin käytettynä pois. Perffiero ei ole niin suuri, DLSS3 ei näytä kovin kummoiselta käytännössä ja hinta tulee olemaan selvästi halvempi tuossa vaiheessa. Ja sitten skippaa koko 40-generaation.
 
Tuohon 4080:n ja 4090:n väliin sopisi hyvin 4080Ti. Jospa AMD auttaisi nVidiaa työntämään sellaisen pian markkinoille :think:
 
Tuohon 4080:n ja 4090:n väliin sopisi hyvin 4080Ti. Jospa AMD auttaisi nVidiaa työntämään sellaisen pian markkinoille :think:
Vähän luulen, että Nvidia ei halua valmistaa 4080 Ti jos ei ole ihan pakko. 3090 ei varmasti myynyt tyydyttävällä tasolla, kun 3080 oli niin kilpailukykyisesti asemoitu, että luulen nyt kun 4090 vaikuttaa suorituskyvyn osalta isolta hyppäykseltä 3090 verrattuna, Nvidia haluaa että mahdollisimman montaa ostajaa kiinnostaisi 4090 ostaminen 4080 sijaan.
 
Jos haluaa hyvät suorituskyvyt edullisesti niin kun 4080 launchaa, ostaa niiltä miehiltä 3080/3090-kortin käytettynä pois. Perffiero ei ole niin suuri, DLSS3 ei näytä kovin kummoiselta käytännössä ja hinta tulee olemaan selvästi halvempi tuossa vaiheessa. Ja sitten skippaa koko 40-generaation.
no siinä ei varmaan hinnassa tule olemaan kuin 200-300e ero käytetyn vanhan ja uuden raudan kanssa. Siitä voi sitten jokainen tehdä oman päätöksen kumman ostaa.
 

4080 12gb ei julkaistakaan. Yllättävä veto, mutta oikea. Aikamoisen sopan kehittivät.
 

4080 12gb ei julkaistakaan. Yllättävä veto, mutta oikea. Aikamoisen sopan kehittivät.
Oho enpä olisi uskonut että näin käy. Hyvä veto on.
 
Varmaan lakimiehet sanoi, että riskialtista menoa nimetä 2 eri tasoista korttia 4080.

Kyllähän toi sellasen paskamyrskyn aiheutti että imagotappio olisi ollut tätäkin suurempi jos sen olisivat julkaissu. Nyt saadaan jotain vielä pelastettua mutta tottakai damagee ehti tulla.

Siis eihän siinä olis ollu mitään jos olisivat julkaissu 16GB ja 8GB 4080 mallit ja cuda määrät samat. Onhan näitä ollu iät ja ajat, mutta toi että toisessa pari gigatusta vähemmän muistia ja myös cudaa selvästi vähemmän niin meni kyllä pahasti metsään.
 
Kyllähän toi sellasen paskamyrskyn aiheutti että imagotappio olisi ollut tätäkin suurempi jos sen olisivat julkaissu. Nyt saadaan jotain vielä pelastettua mutta tottakai damagee ehti tulla.

Siis eihän siinä olis ollu mitään jos olisivat julkaissu 16GB ja 8GB 4080 mallit ja cuda määrät samat. Onhan näitä ollu iät ja ajat, mutta toi että toisessa pari gigatusta vähemmän muistia ja myös cudaa selvästi vähemmän niin meni kyllä pahasti metsään.

Olisihan siinä voinu olla joku pieni (~5%) ero cuda määrissä, mutta nyt oli aika rankasti leikattu sitä ja vielä muistikaistaa kuristettu.

Selvää oli kaikille, että alunperin 4070 mallihan tuo on ollut ja semmoiseksi se varmaan nimetäänkin sitten, kun lopulta myyntiin pistetään.
 
Selvää oli kaikille, että alunperin 4070 mallihan tuo on ollut ja semmoiseksi se varmaan nimetäänkin sitten, kun lopulta myyntiin pistetään.

Onkohan AIB:t ehtiny noita jo mitenkä paljon valmistamaan.. Voi joutua nvidia niille korvauspuuhiin kun tarttee kuoret vaihtaa uusilla printeillä ja uudet paketit. Tuskin mihinkään tarravirityksiin lähetään, tai ehkä ne tarttavirityksien kanssa voisi johonkin kiinaan uittaa ;D
 
Luin kanssa tuosta että se "pienempi" 4080 sitten kuopattiin, kai se paskahurrikaani sitten teki pahempaa tuhoa kuin Ian koskaan joten nyt sitten paniikkiliikkeenä tehdään tälläinen veto.

Tässähän on nyt myöskin se kohu että CEO on suoraan sanonut että manipuloidaan markkinoita nyt heidän edukseen, ja tämän sanoi ihan julkisesti earnings callin aikana joten todisteet on olemassa.

Nvidialle tuntuu nyt osuvan näitä pr-katastrofeja toinen toisensa perään, itsellä kyllä olo "ei helvetti, mitä seuraavaks?!!"


 
Viimeksi muokattu:
Kopite7kimi mukaa Titan eli 48Gb malli on kuopattu... eli ainoa kortti joka sieltä tulee on 24Gb 4090 ti enään huippu malleihin...
 

Statistiikka

Viestiketjuista
258 212
Viestejä
4 486 019
Jäsenet
74 182
Uusin jäsen
jampp-77-

Hinta.fi

Back
Ylös Bottom