NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Colorfulin mukaan olisi tulossa lokakuun 14 ja ilmeisesti SUPERina 16GB:n RTX 3070:n kanssa.

Taisi olla ankka ne Colorfulin 16/20gb jutut. Julkistamistaulukko vedettiin aika pian pois missä nämä näkyi. Kotisivuillakaan ei näy moisia malleja.
 
Mistä nyt keksitty yht´äkkiä ettei 3090 olisi pelikortti(kin)? Tuo 3080 kyykkäilee jo vuototesteissä 4k:lla joten tuskin se nyt näillä uusilla 144Hz 4k näytöillä mikään takuutuote ole. Jos 3090 on sen 20% tehokkaampi niin se on jo aika monta fps lisää jos lähtökohta vaikka100-120. Jos pyrkimys on korkeat fps 4k:lla niin kaikki jerkku mitä lähtee niin tarvitaan, viimeistään ylihuomenna :)

Hinta on kova kyllä, sille ei mahda minkään. Oispa 3080 NvLink,

Sehän se vähän on kun on vaan +20% niin äkkiä se 3080 kyykkää minimeissä sinne 50fps maximiasetuksilla ja se onkin vaan hikiseen se 60fps 3090:llä. Luopuu jostain detaileista niin tuon 20% ikään kuin kuroo umpeen helposti. Hinta ei vaan ole mitenkään linjassa tuon pienen boostin kanssa. Ehkä jossain kohtaa ne detailit on juuri ne mistä ei enää halua luopua ja boosti on juuri ja juuri riittävä. Mitään järkeä tuossa ei kuitenkaan ole ellei pelaaminen ole koko elämä. Eriasia sitten jos haluaa fiilistellä parhaalla kortilla eikä hinnalla ole mitään väliä. Jos sieltä tulee ti alta tonnin niin se on todennäköisesti enenmmän linjassa suorituskykyyn nähden.
 
Oliko tästä 3090 tuomasta "vain" +20% tehonlisäyksestä vrt. 3080 jossain jo ihan testattua tietoa?
 
Isoin vammaisuus oled näyttöjä ajatellen on meitä vankinaan pitävä HDMI 2.1 hikisine spekseineen. Oled näytöt kykenisi heittämällä 1000+ fps virkistystaajuuksiin. mutta ollaan kaapelin takia rajoitetetut 4k 120Hz. Kun maksan sen korkean hinnan siitä oled näytöstä, niin haluaisin toki, että siitä saa enemmän irti sitten kun näyttikset kasvaa tehoissa ripeästi aina sinne 3nm piireihin asti. Ehkä nää on näitä first world problems tyylisiä. 120Hz on jo kohtuu hyvä mihin tahansa pelaamiseen. Sitten kun ottaa huomioon oled burn in ongelmat, niin ehkä max 10 vuoden elinkaaren tuote anyways.
Ei se HDMI-kaapeli sitä kuvaa sinne näytölle toimita. Se toimittaa kuvan vasta näytön ohjainpiirille (piirin muistiin).
Tuon näytön ohjainpiirin pitää sitten sieltä puskurimuistista siirtää (kuvan muuttuessa) kuvainformaatio varsinaiselle OLED-paneelille (tai LCD-paneelille).
Ja tuon ohjainpiirin pitäisi saada 4K-kuva näytölle 1000 kertaa sekunnissa eri näytön ohjainlinjoille jaetuksi, mikä on sitten se työläin vaihe. Taitaisivat näytötkin kuumentua tuollaisesta prosessoinnista vähän liikaa.
 
Tämä. Ja 20% on luultavasti yläkanttiin.

2080 Ti on n. 27% nopeampi kuin 2080 4K resolla. Muistikaistaa +37,5% ja SM:iä +47,8%

3090 vs 3080 muistikaista +23,2% ja SM 20,6%.
Joo, tätä itte täs katellu. Että jos teoreettinen suorituskykylisä on tuon 20% ja todellinen toteuma peleissä 5-20% pelistä riippuen, varmaan painottuen johonkin 10-15% keskiarvoon niin ei jotenkin napostele ihan älyttömästi. 10gb muisti on semmonen mikä tossa 3080 :ssa arveluttaa, näyttönä kun on 4k/144hz ja pelimaku on kaikkea muuta kuin noita pienellä muistilla pyöriviä e-sportteja. Silläpä toivonkin tiittimalleja myyntiin, se niissä huhuttu 16-20gb muisti olis just hyvä.
 
Kannattaa muistaa että koska 3070 ja 3080 myy varmasti hyvin niin pelintekijöillä on paine tehdä pelejä joissa tuo muisti on riittävä, eli tästä ei varmaan suurempaa ongelmaa ihan pariin vuoteen tule. Hyvin harva pelintekijä lähtee linjalle jossa oletetaan että ihmisillä on 3090 tai joku tuleva TI versio.
 
Saakos näitä jotenkin ennakkotilata jostain? Nvidian sivuilta tais saada vain jonkun ilmoituksen kun niitä on tarjolla.
 
Kyl tommonen 3080 Tiitinen olis kiva. Joku 10% hitaampi kun 3090 ja 20GB, muistia vs 24 GB ja hinta 999€.

Sitä odotellessa.
 
Jos 3080 ja 3090 välillä on vain 20% eroa suorituskyvyssä, niin kyllä on aika ahdas rako tuohon väliin julkaista vielä Ti?? 3080+10% hintaan 1000-1200€ kuulostaa aika surkealta diililtä, johan tuon 10 pinnan eron saa kellottamalla kiinni...
 
Jos 3080 ja 3090 välillä on vain 20% eroa suorituskyvyssä, niin kyllä on aika ahdas rako tuohon väliin julkaista vielä Ti?? 3080+10% hintaan 1000-1200€ kuulostaa aika surkealta diililtä, johan tuon 10 pinnan eron saa kellottamalla kiinni...
Ja mitäs sitten kun otat ja kellotat myös sitä tonnin Ti:tä. Tai jos tilanne on se, että muisti loppuu.
 
Sehän se vähän on kun on vaan +20% niin äkkiä se 3080 kyykkää minimeissä sinne 50fps maximiasetuksilla ja se onkin vaan hikiseen se 60fps 3090:llä. Luopuu jostain detaileista niin tuon 20% ikään kuin kuroo umpeen helposti. Hinta ei vaan ole mitenkään linjassa tuon pienen boostin kanssa. Ehkä jossain kohtaa ne detailit on juuri ne mistä ei enää halua luopua ja boosti on juuri ja juuri riittävä. Mitään järkeä tuossa ei kuitenkaan ole ellei pelaaminen ole koko elämä. Eriasia sitten jos haluaa fiilistellä parhaalla kortilla eikä hinnalla ole mitään väliä. Jos sieltä tulee ti alta tonnin niin se on todennäköisesti enenmmän linjassa suorituskykyyn nähden.

Tämä on totta. Hintaloikka on naurettava 3090:ssa, tuo tonnin 3080Ti kuullostaa jo huomattavasti paremmalta ja tehot olisi varmaan lähes identtiset. Toivottavasti 3080Ti:stä tulosta tulee jotain vahvistuksia ennenkuin 3090 on saannilla.
 
On väliä.
G-Sync ei toimi AMD:n näytönohjaimilla vaikka voissa paistaisi, NVIDIA on pitänyt G-Sync-moduulin ihan omana ilonaan.
Sekoitat sen nyt luultavasti G-Sync Compatibleen mikä on NVIDIAn nimi FreeSync- eli Adaptive-sync-näytöille, jotka se on testannut toimiviksi omilla näytönohjaimillaan.
Kyllä uusimmissa g-sync moduuleissa on tai pitäisi tulla adaptive sync tuki ja hdmi vrr myös.

Edit: Olitko jo mainunnut tuosta
 
Köyhillä ei ole varaa. Itsehän olen suht. köyhä, mutta tarpeettomia sisäelimiä myymällä saan ostettua 3090:n. Miksi? Koska 3080 ei kuitenkaan riitä Cyberpunk 2077:n pelaamiseen 4K:na kaikki nupit kaakossa.
Cyberpunk rullaa varmasti "4K:na" ihan hyvin millä tahansa RTX 2080ti ja ylöpäin korteilla DLSS2.0 päällä asetukset tapissa, en usko että mikään kortti natiivina tuota pyörittää 4K:na hyvin asetukset tapissa ja RT päällä.
 
Viimeksi muokattu:
Tämä on totta. Hintaloikka on naurettava 3090:ssa, tuo tonnin 3080Ti kuullostaa jo huomattavasti paremmalta ja tehot olisi varmaan lähes identtiset. Toivottavasti 3080Ti:stä tulosta tulee jotain vahvistuksia ennenkuin 3090 on saannilla.
3080Ti julkistetaan varmaan heti, kun ensimmäinen erä 3080:a on myyty loppuun (eli varmaan aika pian myyntiintulon jälkeen).
Olisikohan myös niin, että GDDR6X:n saatavuus on jonkin verran rajoitettua, joten ei ole varaa laittaa 20G versiota heti myyntiin?
 
PCI-E liitin + 2x 8pin antaa maksimissaan 375W (75+150+150) tehoa ja 3080:n TDP:n ollessa 320W tuossa on vielä 55W varaa kortilla boostailla tai kellotuksille.
Todennäköisesti kuitenkin edelleen fiksuinta on kellottaa käyrän (curve) avulla, jolloin boostikelloja saa ylemmäs samalla kuin jännitettä saa alennettua.
Tuo 150W per 8pin on ATX-standardin minimivaatimus, ja laadukkaat virtalähteet pystyvät paljon parempaan. Esimerkiksi R9 295x2 ylitti tuon speksin vakiotehollakin. Eri asia sitten on, kuinka korkealle näiden korttien valmistajat antavat nostaa power limittiä.
 
Jos 3080 ja 3090 välillä on vain 20% eroa suorituskyvyssä, niin kyllä on aika ahdas rako tuohon väliin julkaista vielä Ti?? 3080+10% hintaan 1000-1200€ kuulostaa aika surkealta diililtä, johan tuon 10 pinnan eron saa kellottamalla kiinni...

Todennäköisesti siinä on muistia se 20GB ja todennäköisesti sitä ei nyt ole heti tulossa, vaikka täällä sen perään kuolataan.
Oma veikkaus on Q3 2021 ja se perustuu siihen , että Nvidia yleensä odottaa vuoden, ennenkuin tulee nämä "välimallit".
 
3080Ti julkistetaan varmaan heti, kun ensimmäinen erä 3080:a on myyty loppuun (eli varmaan aika pian myyntiintulon jälkeen).
Olisikohan myös niin, että GDDR6X:n saatavuus on jonkin verran rajoitettua, joten ei ole varaa laittaa 20G versiota heti myyntiin?

Viimeksi tuli tosiaan nopsaan se Ti malli tietoon myös, jos nyt malttais kotvan ennen kuin lähtee tehonhimoissaan tilaamaan 3090.

Taas tämä sama vanha itkuvirsi mutta silloin kuin nämä huippukortit maksoi 500-700€ niin oli tapana osta kaks että sai "Overkill" tehot :)
 
Todennäköisesti siinä on muistia se 20GB ja todennäköisesti sitä ei nyt ole heti tulossa, vaikka täällä sen perään kuolataan.
Oma veikkaus on Q3 2021 ja se perustuu siihen , että Nvidia yleensä odottaa vuoden, ennenkuin tulee nämä "välimallit".

Aikaisemmin tais tulla nopeesti myös Ti mallit tietoon, nyt viimeksi näissä Super malleissa meni se vuosi tosiaan. Eihän niin kauaa ihminen siedä odottelua.
 
Tuo 150W per 8pin on ATX-standardin minimivaatimus, ja laadukkaat virtalähteet pystyvät paljon parempaan. Esimerkiksi R9 295x2 ylitti tuon speksin vakiotehollakin. Eri asia sitten on, kuinka korkealle näiden korttien valmistajat antavat nostaa power limittiä.
Tokihan sieltä voidaan enemmänkin ottaa, mutta speksiin kirjattuja lukuja on hyvä käyttää ohjearvona, kun ei välttämättä tiedä mikä virtalähde kysyjällä on, mitkä muut osat kuormittaa kokoonpanoa, onko käytetty jotain custom kaapeleita joissa kuparin paksuus on normaalista poikkeava jne.
Edit: 2080 Ti oli TDP 250W, FE 260W ja customit taisivat hörpätä jopa 320-330W.
 
Aikaisemmin tais tulla nopeesti myös Ti mallit tietoon, nyt viimeksi näissä Super malleissa meni se vuosi tosiaan. Eihän niin kauaa ihminen siedä odottelua.

Myös GTX 1070 Ti, joka tuli noin vuosi myöhemmin (kuten 1080 Ti). 1080 Ti vähän aikaisemmin keväällä, kuten @AeshmA sanoi, GTX 1070 Ti sitten syksyllä.

Sitä ennen kyllä oli taukoa tässä käytännössä, mutta minulla oli ~1v jälkeen julkaistu 560 Ti 448 cores ja 8800 GTS 112.
 
Cyberpunk rullaa varmasti "4K:na" ihan hyvin millä tahansa RTX 2080ti ja ylöpäin korteilla DLSS2.0 päällä asetukset tapissa, en usko että mikään kortti natiivina tuota pyörittää 4K:na hyvin asetukset tapissa ja RT päällä.
Saahan sitä toivoa; pelin preview-versio pyöri kehnolla ruudunpäivityksellä 2080 Ti:llä ray tracing päällä Full HD:na - DLSS päällä. Tuossa jutussa mainitaan, että The RTX 2080Ti should be able to play the game at 4K resolution with DLSS 2.0 active and all ray tracing effects enabled. Ruudunpäivityksestä ei tosin mainita mitään, eikä myöskään muista grafiikka-asetuksista.

Itse kun siirryin aikoinaan konsolipelaajasta PC-pelaajaksi, oli syynä se, että halusin pelata kaikkia pelejä sulavalla ruudunpäivityksellä kaikki grafiikka-asetukset tapissa. Moni peli on jäänyt odottamaan seuraavaa näytönohjainsukupolvea, vaikka koneesta onkin viimeisten vuosien aikana löytynyt tehokkainta pelirautaa. Onko se halpaa? Ei. Onko siinä järkeä? Ei. Mutta ei harrastuksissa tarvitsekaan olla :interested:
 
Tokihan sieltä voidaan enemmänkin ottaa, mutta speksiin kirjattuja lukuja on hyvä käyttää ohjearvona, kun ei välttämättä tiedä mikä virtalähde kysyjällä on, mitkä muut osat kuormittaa kokoonpanoa, onko käytetty jotain custom kaapeleita joissa kuparin paksuus on normaalista poikkeava jne.
Edit: 2080 Ti oli TDP 250W, FE 260W ja customit taisivat hörpätä jopa 320-330W.
Totta tuokin. Strix 3090 on käsittääkseni 400W ja siinä on 3x8pin. TUF:ssa on vain 2x8pin, toivottavasti antaa kuitenkin nostaa poweria enemmän kuin sen 7%, joka perustuisi 8pin vakiospeksiin.
 
Saahan sitä toivoa; pelin preview-versio pyöri kehnolla ruudunpäivityksellä 2080 Ti:llä ray tracing päällä Full HD:na - DLSS päällä. Tuossa jutussa mainitaan, että The RTX 2080Ti should be able to play the game at 4K resolution with DLSS 2.0 active and all ray tracing effects enabled. Ruudunpäivityksestä ei tosin mainita mitään, eikä myöskään muista grafiikka-asetuksista.

Itse kun siirryin aikoinaan konsolipelaajasta PC-pelaajaksi, oli syynä se, että halusin pelata kaikkia pelejä sulavalla ruudunpäivityksellä kaikki grafiikka-asetukset tapissa. Moni peli on jäänyt odottamaan seuraavaa näytönohjainsukupolvea, vaikka koneesta onkin viimeisten vuosien aikana löytynyt tehokkainta pelirautaa. Onko se halpaa? Ei. Onko siinä järkeä? Ei. Mutta ei harrastuksissa tarvitsekaan olla :interested:
Asetukset tapissa meinaa nykypäivänä sitä, että pistetään PC:llä "Uber ultra" asetukset päälle (varjojen reunat tyyliin 3% blurrimmat kun muuten), jotka ovat varta vasten PC:lle tehty ja on optimoitu todella huonosti, koska lähtökohta on konsoli portti jota ruvetaan ruuvaamaan "hienommaksi". Toivottavasti tämä muuttuu uusien konsolien myötä, kun lähtökohtana on se, että löytyy kaikki mahdolliset uudet tekniikat käytöstä ja tehoakin hyvin.
 
Kyllä uusimmissa g-sync moduuleissa on tai pitäisi tulla adaptive sync tuki ja hdmi vrr myös.

Edit: Olitko jo mainunnut tuosta
Pitäisi pitäisi, mutta ainakin itselle on tullut vastaan vain yksi japanissa mainostettu G-sync-näyttö, missä oli Adaptive-syncikin tuettuna. Se että on optio tukea ei tarkoita että sitä käytettäisiin.
 
Miksi se kortti on ihan pakko saada heti ensimmäisestä erästä?
Kerkeehän tuon myöhemminkin ostaa. Vähän aikaa odottelee niin tietää paremmin mikä malli on hyvä...
ei käy silleen että odottelee ja tulee seuraava halvemmalla 1v.
Spekuloin Jos amd:n 3090 pieksevän big-f-navin saa kohta 799€ onko nvidialla enää heittää sille mitään vastinetta vai onko se hinnan alennus ja slap in the face juuri sen +1500€ ostaneille?
Tähän riittää 3080 lyäminen ja isommalla muistilla.
 
Mikään pehmuste ei auta suomen postin runtelua, kaikki paketit vaarassa.

Cyberpunk rullaa varmasti "4K:na" ihan hyvin millä tahansa RTX 2080ti ja ylöpäin korteilla DLSS2.0 päällä asetukset tapissa, en usko että mikään kortti natiivina tuota pyörittää 4K:na hyvin asetukset tapissa ja RT päällä.

...ja eikö kyseessä ole kuitenkin aivan tavallinen yksinpeliseikkailu? Ei se peli käytännössä muutu tunnelmaltaan, jos fps on 60 vs 120. Jos puhdas seikkalupeli olisi, niin alempikin hyvin riittäisi. Nettiräiskinnät ja VR-pelit sitten asia erikseen.
 
...ja eikö kyseessä ole kuitenkin aivan tavallinen yksinpeliseikkailu? Ei se peli käytännössä muutu tunnelmaltaan, jos fps on 60 vs 120. Jos puhdas seikkalupeli olisi, niin alempikin hyvin riittäisi. Nettiräiskinnät ja VR-pelit sitten asia erikseen.
Älä yleistä. Täältäkin foorumilta löytyy muutamia ihmisiä joille tässäkin pelissä niiden näytön täyden potentiaalin käyttäminen ja vihollisten helpompi havainnointi matalilla grafiikka-asetuksilla on tähdellisempää kuin tunnelma, tarinankerronta, tekijöiden taiteellinen näkemys tai oikeastaan mikään muu asia kuin latenssit ja osumatarkkuus. Vai mitä @Savolainen ?


edit: itse pelailen tälläiset elokuvamaiset nautiskelupelit motion blurrit ja DoF efektit päällä lukitulla 60 fps:llä. Ei tule hiki pelatessa kun kone ei pumppaa kilowattia sähköä lämmöksi ja latenssit pysyy kuitenkin aisoissa kun GPU usage on jatkuvasti reippaasti alle 99%.
 
Viimeksi muokattu:
Vaikkei tietäisi mitään niin tuo on aika turvallinen neuvo kun next-gen on kulman takana ja nykyiset laitteet jäämässä jokatapauksessa kakkossijalle.

MLID on huhupaja villimmästä päästä ja sen "vuodoista" useampi osoittautui valheiksi kun Ampere julkaistiin.
Mutta vastaavasti tää kopite7 kaveri ja catti corgi twitterhemmot olivat hyvin perillä jo 6kk sitten specseistä--luotettavampia.
 
Mutta vastaavasti tää kopite7 kaveri ja catti corgi twitterhemmot olivat hyvin perillä jo 6kk sitten specseistä--luotettavampia.
Mutta vastaavasti myös vääriä vuotoja pitkät rivit ainakin kopitella, en tuota toista juuri ole seurannut.
 
Mutta vastaavasti tää kopite7 kaveri ja catti corgi twitterhemmot olivat hyvin perillä jo 6kk sitten specseistä--luotettavampia.

Joo ne pari veti aika hyvin. Uskottavuutta laski kyllä toisen uusi twitter tili ja gddr6x, mutta se on edelleen ihme tuote: Olemassa, mutta ei standardoitu. Ei taida olla vieläkään selvää onko se micronin nvidia only ratkaisu, vai oikea muistityyppi. Eli poikkeaa radikaalisti tavasta, millä uudet muistitekniikat on julkaistu.
 
Joo ne pari veti aika hyvin. Uskottavuutta laski kyllä toisen uusi twitter tili ja gddr6x, mutta se on edelleen ihme tuote: Olemassa, mutta ei standardoitu. Ei taida olla vieläkään selvää onko se micronin nvidia only ratkaisu, vai oikea muistityyppi. Eli poikkeaa radikaalisti tavasta, millä uudet muistitekniikat on julkaistu.
On myös muiden kuin NVIDIAn saatavilla, ei ole standardoitu ainakaan vielä.
 
Tuo 150W per 8pin on ATX-standardin minimivaatimus, ja laadukkaat virtalähteet pystyvät paljon parempaan. Esimerkiksi R9 295x2 ylitti tuon speksin vakiotehollakin. Eri asia sitten on, kuinka korkealle näiden korttien valmistajat antavat nostaa power limittiä.

Juu näin on. 16 virtakaapelista (2x8pin) voi katkaista 10 ja vieläkin riittää teho 250w näytönohjaimeen.




Rajuin esimerkki 1080ti kingpin.
2x8 pin on riittänyt 1344w virrankulutukseen.


 
OLI siellä ga 103 3840 core sotkemassa välillä.

Oli, jonka pois tiputuksesta ne kertoi jo keväällä ja samaan infoon tuli, että 3080 on siirretty GA103:sta GA102:lle. Eihän ne nyt jumalan sanaa olleet, mutta selkeästi niillä oli oikeita lähteitä ja valtaosa huhuista osui kohdalleen. (ytimet, fp32 tuplaus, prosessi, v-mallin pcb, kellot, muistityyppi ja lopulta nopeudetkin meni kun useamman kerran hakivat.) Ihan vertailun vuoksi tätä infoa moore's law is dead syötti pihalle.
 

Statistiikka

Viestiketjuista
258 246
Viestejä
4 490 885
Jäsenet
74 169
Uusin jäsen
tater

Hinta.fi

Back
Ylös Bottom