NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Moni seikka kuitenkin puhuu sen puolesta, että 3090 korvaisi molemmat, sekä 2080 Ti:n että Titan RTX:n
- hinta on näiden kahden välimaastossa
- Jensen kuvaili korttia Titan class -kortiksi
- AIB eivät ole saaneet valmistaa koskaan Titania, 3090 saavat
- 3090 ei ole täysi piiri (82SM 84:stä), kuten ei ole myöskään 2080 Ti, Titan on tähän asti ollut täydellä piirillä


Speksien puolesta puhutaan noin +20% teholisästä 3080 nähden. Muistia toki on se +140%.
Skaalautuvuus ei kuitenkaan liene täysin lineaarista, eli todellinen ero lienee jossain 10-15% tuntumassa, ellei ajeta muistiriippuvaisia sovelluksia.
Eiköhän sieltä ole se 3080 Ti tulossa tuohon 3080 ja 3090 väliin, siinä missä on tulossa varmastikin myös 3060 jne. Veikkaisin että se täyden piirin korttikin nähdään, mahdollisesti nimellä 3090 Ti, eli nVidia varmaan tekee ns. "titan xp":t. Eli siis sama setti mitä pascal generaatiossa jossa mallisarjan huipulle julkaistiin ensin "titan x (pascal)" ja myöhemmin siitä vielä täyden piirin versio "titan xp", kortteja joita kumpaakaan ei muuten markkinoitu 'pelaajille' vaan ns. 'prosumer', aivan kuten 3090 nyt. Jos niinkö muistellaan niin nVidia julkaisi Titanin, sitten tuli Titan Z, GTX Titan X, sitten tuli uudestaan Titan X (pascal, ilman GTX etuliitettä, pascal arkkitehtuurilla ja kutsumanimi Titan Xp), ja siitä tuli biiffattu versio Titan Xp (nVidia trollaus, otettiin communityn edellisestä käyttämä nimi uudelle kortille).

Veikkaan että nVIdia luopui varmaan kokonaan tosta Titan nimestä kun siitä tuli jo hyvin, hyvin sekava. RTX Titan oli vaihteeksi ihan selkeä, kun 2000-sarja oli eka RTX-sarja. Nyt niiden ois pitäny taas keksiä uusi nimi Titanille, joka ei sekottuis jo noihin aiempiin jotka oli jo todella sekaisin.

xx90 nimeä taas ei ole käytetty 600-sarjan jälkeen, joten sieltäpä löytyi sitten hyvä. Toivottavasti toi Titan-sekoilu on nyt loppu :D
 

According to Igor, Samsung’s 8nm node is not having bad yields. In fact, the limited launch availability is due to a shortage of Founders Edition coolers. But the truth according to my main source is that there isn’t a shortage of coolers per se. If Nvidia wanted more of them, they could have had more of them – it’s scarcity by design.
Eikös se cooleripula tullut siitä, että ensimmäinen erä piti romuttaa kun kaseja ei saatu käännettyä oikein päin?
:srofl:
 
Eiköhän sieltä ole se 3080 Ti tulossa tuohon 3080 ja 3090 väliin, siinä missä on tulossa varmastikin myös 3060 jne. Veikkaisin että se täyden piirin korttikin nähdään, mahdollisesti nimellä 3090 Ti, eli nVidia varmaan tekee ns. "titan xp":t. Eli siis sama setti mitä pascal generaatiossa jossa mallisarjan huipulle julkaistiin ensin "titan x (pascal)" ja myöhemmin siitä vielä täyden piirin versio "titan xp", kortteja joita kumpaakaan ei muuten markkinoitu 'pelaajille' vaan ns. 'prosumer', aivan kuten 3090 nyt. Jos niinkö muistellaan niin nVidia julkaisi Titanin, sitten tuli Titan Z, GTX Titan X, sitten tuli uudestaan Titan X (pascal, ilman GTX etuliitettä, pascal arkkitehtuurilla ja kutsumanimi Titan Xp), ja siitä tuli biiffattu versio Titan Xp (nVidia trollaus, otettiin communityn edellisestä käyttämä nimi uudelle kortille).

Veikkaan että nVIdia luopui varmaan kokonaan tosta Titan nimestä kun siitä tuli jo hyvin, hyvin sekava. RTX Titan oli vaihteeksi ihan selkeä, kun 2000-sarja oli eka RTX-sarja. Nyt niiden ois pitäny taas keksiä uusi nimi Titanille, joka ei sekottuis jo noihin aiempiin jotka oli jo todella sekaisin.

xx90 nimeä taas ei ole käytetty 600-sarjan jälkeen, joten sieltäpä löytyi sitten hyvä. Toivottavasti toi Titan-sekoilu on nyt loppu :D
Veikkaan itse että 3090 nimitys titanin sijaan myykin paremmin. Ne, jotka etsivät absoluuttisen parasta pelikorttia, nyt katsovat myös 3090:ä kun se on samaa sarjaa. Itse en esimerkiksi ennen ollut Titaneista yhtään sillain kiinnostunut, mutta nyt kun se on 3090, tuntuu 3080:n ostaminen ”huonon” kortin ostamiselta.
 
Eiköhän sieltä ole se 3080 Ti tulossa tuohon 3080 ja 3090 väliin, siinä missä on tulossa varmastikin myös 3060 jne. Veikkaisin että se täyden piirin korttikin nähdään, mahdollisesti nimellä 3090 Ti, eli nVidia varmaan tekee ns. "titan xp":t. Eli siis sama setti mitä pascal generaatiossa jossa mallisarjan huipulle julkaistiin ensin "titan x (pascal)" ja myöhemmin siitä vielä täyden piirin versio "titan xp", kortteja joita kumpaakaan ei muuten markkinoitu 'pelaajille' vaan ns. 'prosumer', aivan kuten 3090 nyt. Jos niinkö muistellaan niin nVidia julkaisi Titanin, sitten tuli Titan Z, GTX Titan X, sitten tuli uudestaan Titan X (pascal, ilman GTX etuliitettä, pascal arkkitehtuurilla ja kutsumanimi Titan Xp), ja siitä tuli biiffattu versio Titan Xp (nVidia trollaus, otettiin communityn edellisestä käyttämä nimi uudelle kortille).

Veikkaan että nVIdia luopui varmaan kokonaan tosta Titan nimestä kun siitä tuli jo hyvin, hyvin sekava. RTX Titan oli vaihteeksi ihan selkeä, kun 2000-sarja oli eka RTX-sarja. Nyt niiden ois pitäny taas keksiä uusi nimi Titanille, joka ei sekottuis jo noihin aiempiin jotka oli jo todella sekaisin.

xx90 nimeä taas ei ole käytetty 600-sarjan jälkeen, joten sieltäpä löytyi sitten hyvä. Toivottavasti toi Titan-sekoilu on nyt loppu :D
Samaa veikkaan. 3080ti saattaa mennä jo sen verran lähelle 3090:aa, että julkaisevat sitten 3090ti:n täydellä piirillä ja pysyy tuo järein kortti riittävän kaukana. Varsinkin jos amd:ltä tulee kunnon haastaja tuolle 3080:lle, niin saattaa joutua myös 3080ti:n tehoja nostamaan ihan kunnolla muistin määrän lisäämisen ohella.
 
Moni seikka kuitenkin puhuu sen puolesta, että 3090 korvaisi molemmat, sekä 2080 Ti:n että Titan RTX:n
- hinta on näiden kahden välimaastossa
- Jensen kuvaili korttia Titan class -kortiksi
- AIB eivät ole saaneet valmistaa koskaan Titania, 3090 saavat
- 3090 ei ole täysi piiri (82SM 84:stä), kuten ei ole myöskään 2080 Ti, Titan on tähän asti ollut täydellä piirillä
Speksien puolesta puhutaan noin +20% teholisästä 3080 nähden. Muistia toki on se +140%.
Skaalautuvuus ei kuitenkaan liene täysin lineaarista, eli todellinen ero lienee jossain 10-15% tuntumassa, ellei ajeta muistiriippuvaisia sovelluksia.
RTX 3080 Ti odottaa takataskussa AMD:n vastausta, eiköhän se ole aika selvää. Toivotaan ettei 3080 hankkineet pety, hinnassa kuitenkin tulee olemaan eroa.
 
RTX 3080 Ti odottaa takataskussa AMD:n vastausta, eiköhän se ole aika selvää. Toivotaan ettei 3080 hankkineet pety, hinnassa kuitenkin tulee olemaan eroa.
Samaa olen itsekin sanonut siitä asti kun julkaisu tapahtui, mutta siinä missä 3080 Ti on miltei varmasti tulossa jossain kohtaa, niin mielenkiintoisempaa (ei ostomielessä, vaan teknisessä mielessä) lienee onko 3090 Ti / Titan RTX2 tulossa.
Nvidia kun on hieman tykännyt hyppiä sopimusvalmistajien varpaille; ensiksi oli 10-sarjan $100 halvemmat FE:t, 20-sarjassa oli piirien binnausta (FE sai olla muita korkeammilla kelloilla) ja nyt tuotiin oma custom-kortti.
Titanin kohdalla taas käytännössä aina valmistajille sanonut, että "tepäs ette saakaan tätä parasta piiriä", mutta mahdollisesti nyt 3090 tuotiin antamaan heille se tunne... kunnes myöhemmin sitten ehkä tulee Titan RTX2 täydellä piirillä.
 
Tämmönen tuli vastaan mitä olen vähän itsekkin miettinyt. 250w vs 320w tai jos pitää paikkansa niin founders editionissa on 370w limitti. Nvidia virittänyt kyllä aika tappiin uutuutensa. Samalla virrankulutuksella 2080 ti alkaa olemaan aika lähellä 3080 jos ne leakatut tulokset on todellisia.
Tietenkään ei voi suoraan verrata kun pitäisi olla kokoonpano sama millä tulokset tehty, mutta ei taida olla tuo 3080 läheskään niin hyvä mitä on hypetetty.

3080.png
 
Tämmönen tuli vastaan mitä olen vähän itsekkin miettinyt. 250w vs 320w tai jos pitää paikkansa niin founders editionissa on 370w limitti. Nvidia virittänyt kyllä aika tappiin uutuutensa. Samalla virrankulutuksella 2080 ti alkaa olemaan aika lähellä 3080 jos ne leakatut tulokset on todellisia.
Tietenkään ei voi suoraan verrata kun pitäisi olla kokoonpano sama millä tulokset tehty, mutta ei taida olla tuo 3080 läheskään niin hyvä mitä on hypetetty.

3080.png

Jännintä on lukea videocardzin foorumihemmojen kiistelyä 3080 vs 2080x2
ja tuossa kuvassa näkyy 2080ti imevän yli 400w ja ei vieläkään samassa 3080.
1080p resolla taitaa 10900k cpu raukka hyytyä?
 
Tämmönen tuli vastaan mitä olen vähän itsekkin miettinyt. 250w vs 320w tai jos pitää paikkansa niin founders editionissa on 370w limitti. Nvidia virittänyt kyllä aika tappiin uutuutensa. Samalla virrankulutuksella 2080 ti alkaa olemaan aika lähellä 3080 jos ne leakatut tulokset on todellisia.
Tietenkään ei voi suoraan verrata kun pitäisi olla kokoonpano sama millä tulokset tehty, mutta ei taida olla tuo 3080 läheskään niin hyvä mitä on hypetetty.

3080.png


No noi 3080 tuloksethan on ajettu stockina, eli kyllähön sielläkin varmaan jonkun verran on kellitysvaraa.

Toki jos 3080 ei kellotu "yhtään" niin sitten ero voi jäädä pienehköksi ainakin noissa parissa pelissä ja karkkimarkeissa.

Ps. On muuten harvinaisen ärsyttävä jantteri videolla. :darra:
 
Jännintä on lukea videocardzin foorumihemmojen kiistelyä 3080 vs 2080x2
ja tuossa kuvassa näkyy 2080ti imevän yli 400w ja ei vieläkään samassa 3080.
1080p resolla taitaa 10900k cpu raukka hyytyä?

CPU pullonkaula on jopa ylikellotetulla 10900K:lla ja ylikellotetulla 2080 ti:llä 1440p resoon asti 3080:sta puhumattakaan. Sitähän se tuossa videollakin sanoi että noita FarCry tuloksia ei kannata paljon tuijottaa. Mutta pointti oli lähinnä että Ampere on enemmänkin ylikellotettu Turing pienemmällä viivanleveydellä. Tuostahan ne "up to 2X performance over 2080" tulee koska 215w TGP vs 320w TGP.

Kohta ollaan viisaampia kun revikat tulee ja nähdään tehonkulutukset ja suorituskyky. En pidättelisi hengitystä tuon Amperen puolesta. Taitaa hype olla lähtenyt hieman lapasesta. Ainoa hyvä puoli on että ei tarvitse sitä munuaista myydä ostaakseen tuota 3080sta. Viekaan että AMD:llä on ihan hyvät saumat laittaa kampihin tällä kertaa.
 
No noi 3080 tuloksethan on ajettu stockina, eli kyllähön sielläkin varmaan jonkun verran on kellitysvaraa.

Toki jos 3080 ei kellotu "yhtään" niin sitten ero voi jäädä pienehköksi ainakin noissa parissa pelissä ja karkkimarkeissa.

Ps. On muuten harvinaisen ärsyttävä jantteri videolla. :darra:
Siis videon pointti oli että tulokset on lähellä toisiaan samalla virrankulutuksella. 3080 tuloksien virrankulutusta ei voi tietenkään mitenkään tietää joten tulokset on lähinnä suuntaa antavia.
 
En pidättelisi hengitystä tuon Amperen puolesta. Taitaa hype olla lähtenyt hieman lapasesta. Ainoa hyvä puoli on että ei tarvitse sitä munuaista myydä ostaakseen tuota 3080sta. Viekaan että AMD:llä on ihan hyvät saumat laittaa kampihin tällä kertaa.
AMD pystyy siihen 2080 ti suorituskykyyn tscm ansiosta. Hype on juuri sen munuaisen säästävän hinnan takia. + DLSS on ollut vakuuttava.
 
AMD pystyy siihen 2080 ti suorituskykyyn tscm ansiosta. Hype on juuri sen munuaisen säästävän hinnan takia. + DLSS on ollut vakuuttava.
puoli-ilmainen siis niinkuin jensen totesi.
jäähy möhkäle joka näyttää minusta hienolta maksoi 25% tuon kortin hinnasta...
 
Näkisin toisaalta myös mahdollisena että 3080 Ti:n kohdalla tehtäisiin "780 Ti:t", eli täydellä piirillä mutta puolella muistilla.

Tätä pitäisin itse myös jopa todennäköisenä. Eli 12GB:n muistilla varustettu 3080Ti. Toisaalta mahdollisuuksia on useita ja tulevien samalla piirillä varustettujen korttien specsit (ja julkaisuaikataulu) riippuvat varmasti osin AMD:nkin vastineesta, koska itseltään on aivan turhaa markkinoida syödä.
 
Viekaan että AMD:llä on ihan hyvät saumat laittaa kampihin tällä kertaa.

Amdllä on ollut kolmisen vuotta aikaa pistää kampoihin koska 1000 sarjan jälkeen on ollut aika heikkoa (lievästi sanoen) ja se on reilusti yli 4 vuotta vanha jo. Nyt on ehkä huonoimmat saumat vuosiin. Pidän kyllä peukkuja punaiselle puolellekin vaikka tulen 3080n tilaamaan.
 
Siis videon pointti oli että tulokset on lähellä toisiaan samalla virrankulutuksella. 3080 tuloksien virrankulutusta ei voi tietenkään mitenkään tietää joten tulokset on lähinnä suuntaa antavia.

Miten voi olla samalla virran kulutuksella, kun ei sitten tiedetäkkään 3080:n virrankulutusta...

Olemme nähneet ihan livenä digital foundryn videolla, miten 3080 vetää 70-100% kaulaa 2080:n, useassa eri pelissä. Tuo on minusta paljon vakuuttavampi todiste Amperen tehosta, kun joku videocarz sivustolla oleva vuotanut taulukko. Tietenkin riippuu pelistä, kuinka paljon Ampere repii eroa Turingeihin ja Videocarz sivuston slidessä voi hyvinkin olla ne heikoimmat tulokset.

Noh kohtahan se nähdään, mitä sieltä tulee.
 
Noista Digital Foudryn testeistä 60-80% nopeampi 48% korkeammalla virrankulutuksella ei teknisessä mielessä mikään massiivinen loikka. Samalla virrankulutusrajalla mitä 2080 ei 3080 olisi kuin ehkä 20% nopeampi. Ei näyttäis niin kovin hyvältä. Samsungin prosessin rajoituksen takia nvidia käytännössä oli pakotettu tekemään 3080 suuremmalla sirulla ja korkeammalla virrankulutusrajalla. Kyllä sillä AMD:llä on hyvinkin mahdollisuus päästä jopa 3080 ohi tehoissa ja pienemällä virrankulutuksella. 5700XT on vain 25% päässä 2080ti:stä ja 3080 on sen 30% nopeampi kuin 2080ti
Miten voi olla samalla virran kulutuksella, kun ei sitten tiedetäkkään 3080:n virrankulutusta...

Olemme nähneet ihan livenä digital foundryn videolla, miten 3080 vetää 70-100% kaulaa 2080:n, useassa eri pelissä. Tuo on minusta paljon vakuuttavampi todiste Amperen tehosta, kun joku videocarz sivustolla oleva vuotanut taulukko. Tietenkin riippuu pelistä, kuinka paljon Ampere repii eroa Turingeihin ja Videocarz sivuston slidessä voi hyvinkin olla ne heikoimmat tulokset.

Noh kohtahan se nähdään, mitä sieltä tulee.
No jos oletetaan että 3080 repii lähelle sitä 320 rajaa virtaa ja 2080 ti oli rajoitettu siihen 320 wattiin. Ainahan se kulutus sahaa edestakaisin eikä ole välttämättä siellä kortin limiitissä, tuota lähinnä tarkoitin. 2080 ti oli power modattu ja varmaan vetili aika tarkaan sen 320w. Tämähän on kaikki silkkaa arvailua ennen kuin on kortit kunnolla testattu ja totuus esillä. Kyllä se 3080 suorituskyky loikka on saatu aikaiseksi pitkälti tuolla virrankulutuksen nousulla.
 
RTX 3080 on varmasti parempi. Mutta tuskin Nvidia on niitä heikompia tuloksia valinnut mainoksiinsa, joten Perf/watt ei ole niin suuresti kasvanut.
 
Kyllähän kaikki aina sanoo että panostaa virtalähteeseen mutta myös kuullaan siitä että liian iso wattimäärä on tuhlausta.
Sitten ekaa kertaa tulee tämmöistä 350w gpu:ta jota kukaan ei voi käyttää ellei virtalähdettä ostettu SLI setuppia varten.
Luulisin että ne 650w powerit kyllä toiminee, riippuen lopun systeemin kulutuksesta.

Onhan tässä myös sitä että vuosien varrella on saanut lukea että hyvin piisaa 650W poweri kun ajatusmaailma on se että maailmassa on ainoastaan nvidian näytönohjaimia joissa kieltämättä on ollut varsin kohtuulliset kulutuslukemat.
Nyt sitten ollaankin yht äkkiä ns. nesteessä kun nvidia tuokin markkinoille kiukaita. Aina kannattaisi niitä mitoituksia tehdä sen mukaan mitä on ollut historiassa ja mitä mahdollisesti on kilpailijalla koska jossain vaiheessa todennäköisesti aina mennään siihen tilanteeseen että ne viimeisetkin speksin sallimat watit puristellaan irti, kuten nyt näyttää että on käynyt.
Ja joku 1kW poweri ei kyllä mielestäni ole mitään liioittelua vielä single GPU tuhnu koneeseen. Siinä on kivasti suojakerrointa että voi hyvillä mielin nakata kortin kuin kortin kiinni ilman mitään pelkoa ja lisäksi se suurella todennäköisyydellä takaa sen että vaikka sinne koneen sisälle iskee kiukaan, niin se poweri itsessään ei ala käyttäytyä suihkumoottorin tavoin koska siitä ei vielä puristella niitä viimeisiä irti.

Olemme nähneet ihan livenä digital foundryn videolla, miten 3080 vetää 70-100% kaulaa 2080:n, useassa eri pelissä. Tuo on minusta paljon vakuuttavampi todiste Amperen tehosta, kun joku videocarz sivustolla oleva vuotanut taulukko. Tietenkin riippuu pelistä, kuinka paljon Ampere repii eroa Turingeihin ja Videocarz sivuston slidessä voi hyvinkin olla ne heikoimmat tulokset.

Noh kohtahan se nähdään, mitä sieltä tulee.

Riippuen miten paljon nvidia on halunnut kikkailla, tuossa kun on sellainen mahdollisuus että DF on pitänyt ajaa noi testit non-FE kortilla, jolloin on saatu 3080 näyttämään entistä mukavammalta, joka voisi selittää sen että suoria FPS lukemia ei saanut kertoa koska silloin tämä bluffi olisi paljastunut. Voi olla foliopipoilua toki, mutta ihmetyttää se suorien lukemien piilottelu.
Eikös toi non-FE ollut aika pitkälti paperijulkaisu, eli sellaista ei taidettu myydä kuin paperilla?
 
Riippuen miten paljon nvidia on halunnut kikkailla, tuossa kun on sellainen mahdollisuus että DF on pitänyt ajaa noi testit non-FE kortilla, jolloin on saatu 3080 näyttämään entistä mukavammalta, joka voisi selittää sen että suoria FPS lukemia ei saanut kertoa koska silloin tämä bluffi olisi paljastunut. Voi olla foliopipoilua toki, mutta ihmetyttää se suorien lukemien piilottelu.
Et varmaan kattonut videota? Se DF:n äijä kyllä näyttää sitä FE korttia.

Eikös toi non-FE ollut aika pitkälti paperijulkaisu, eli sellaista ei taidettu myydä kuin paperilla?
Mistäs tällainen tieto peräisin?
 
Et varmaan kattonut videota? Se DF:n äijä kyllä näyttää sitä FE korttia.

Katsoin kyllä. Kuorethan nyt voi olla ihan mitä vaan, tärkeintä on mitä kuorien alla on biossin muodossa.

Mistäs tällainen tieto peräisin?

No eikös siitä ollut kova porina nimenomaan kun on non-FE ja FE speksit mutta vain FE:tä voi ostaa joka on satkun kalliimpi? Ei pysty enää tarkistaa kun eivät enää myy kuin supereita.
 
No eikös siitä ollut kova porina nimenomaan kun on non-FE ja FE speksit mutta vain FE:tä voi ostaa joka on satkun kalliimpi? Ei pysty enää tarkistaa kun eivät enää myy kuin supereita.
30-sarjassa ei ole kuin yksi speksi per kortti ja se on FE. 20-sarjassa FE oli hieman korkeammilla kelloilla esim. 2080 Ti tuotesivuilta löytyy spekseistä Uuden aikakauden grafiikka: NVIDIA GeForce RTX 2080 Ti -näytönohjain
Huhut kuitenkin mainitsevat, että 20-sarjan tavoin Nvidia edelleen harrastaisi 30-sarjassa piirien binnausta, mikä sinällään on ihan ok ja järkevääkin, että näille eri malleille saadaan jotain eroa. Sitä ei tosin tiedä minkä tason binnaus olisi FE:ssä käytössä jos ollenkaan.
 
Miten voi olla samalla virran kulutuksella, kun ei sitten tiedetäkkään 3080:n virrankulutusta...

Olemme nähneet ihan livenä digital foundryn videolla, miten 3080 vetää 70-100% kaulaa 2080:n, useassa eri pelissä. Tuo on minusta paljon vakuuttavampi todiste Amperen tehosta, kun joku videocarz sivustolla oleva vuotanut taulukko. Tietenkin riippuu pelistä, kuinka paljon Ampere repii eroa Turingeihin ja Videocarz sivuston slidessä voi hyvinkin olla ne heikoimmat tulokset.

Noh kohtahan se nähdään, mitä sieltä tulee.
kuva on, jossa 3080 kellot 1935 mhz, lämpötila 71c ja kulutus 317 w?
pilipalipili testit, jossa 3080 oli 30% nopeampi 2080ti min.
kyllä se on vaan silleen että 2080ti on lyäty ja selvästi starting at 699.
 
En tiedä oliko tää jo täällä, mutta piirien "bindaukset" menee tästedes 3 luokkaan. Nvidia GeForce RTX 30 series chips are reportedly split into three binning tiers - KitGuru


Tais igor olla eka joka tuosta uutisoi jo päiviä sitten.
 
Riippuen miten paljon nvidia on halunnut kikkailla, tuossa kun on sellainen mahdollisuus että DF on pitänyt ajaa noi testit non-FE kortilla, jolloin on saatu 3080 näyttämään entistä mukavammalta, joka voisi selittää sen että suoria FPS lukemia ei saanut kertoa koska silloin tämä bluffi olisi paljastunut. Voi olla foliopipoilua toki, mutta ihmetyttää se suorien lukemien piilottelu.
Eikös toi non-FE ollut aika pitkälti paperijulkaisu, eli sellaista ei taidettu myydä kuin paperilla?

Kyllä ne DF:n testit oli ajettu ihan heidän hallussa olleella 2080:lla kortilla. Videolla sanoo vielä, että ihan omalla raudallaan on ajanut testit ja videolla näkyy 2080 FE kortti.
 
Kohta alkaa tekoäly näyttiksissä kehittymään:
 
Katsoin kyllä. Kuorethan nyt voi olla ihan mitä vaan, tärkeintä on mitä kuorien alla on biossin muodossa.
DF:n videolla mainitaan, että "Founders Edition tested. 2080 has +90MHz factory OC". Pyöritteletkö näitä salaliittoteorioita ihan vain lämpimiksesi vai onko sulla todisteita/viitteitä joiden valossa kusetusta on syytä pitää varteenotettavan todennäköisenä?

No eikös siitä ollut kova porina nimenomaan kun on non-FE ja FE speksit mutta vain FE:tä voi ostaa joka on satkun kalliimpi? Ei pysty enää tarkistaa kun eivät enää myy kuin supereita.
Tehdasylikellottamattomia malleja myytiin AIB partnereiden toimesta. Oli ihan erilliset sirutkin OC ja non-OC malleille. Ei ollut mikään paperijulkaisu.
 
Vakiojäähdytyksen teho ei taida olla mitenkään ihmeellinen, ottaen huomioon että benchi on mitä ilmeisemmin ajettu avoimessa penkissä:

(Kyseessä olikin custom-jäähy)

NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png



Kuten kuvastakin näkee, GPU-kellot hyppii läpötilan ollessa liian korkealla. Sama mitä RTX 2-sarjankin kohdalla oli/on.
 
Viimeksi muokattu:
Vakiojäähdytyksen teho ei taida olla mitenkään ihmeellinen, ottaen huomioon että benchi on mitä ilmeisemmin ajettu avoimessa penkissä:

NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png



Kuten kuvastakin näkee, GPU-kellot hyppii läpötilan ollessa liian korkealla. Sama mitä RTX 2-sarjankin kohdalla oli/on.
320w ja 71astetta ei ole kyllä mielestäni huono suoritus FE kortilta. Tiettyhän custom coolerien pitäisikin olla parempia. Eriasia on toki jos tuo 71 astetta on tulos 100% tuuletinasetuksella
 
320w ja 71astetta ei ole kyllä mielestäni huono suoritus FE kortilta. Tiettyhän custom coolerien pitäisikin olla parempia. Eriasia on toki jos tuo 71 astetta on tulos 100% tuuletinasetuksella
Suhteessa lämökuormaan, ei ole huono, mutta suhteessa GPU-kellojen tasiaisuuteen kyllä on. Väittäisin että jälkimmäisellä on enemmän painoarvoa keskivertopelaajan kannalta.
 
Vakiojäähdytyksen teho ei taida olla mitenkään ihmeellinen, ottaen huomioon että benchi on mitä ilmeisemmin ajettu avoimessa penkissä:

NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png



Kuten kuvastakin näkee, GPU-kellot hyppii läpötilan ollessa liian korkealla. Sama mitä RTX 2-sarjankin kohdalla oli/on.
320w ja 71astetta ei ole kyllä mielestäni huono suoritus FE kortilta. Tiettyhän custom coolerien pitäisikin olla parempia. Eriasia on toki jos tuo 71 astetta on tulos 100% tuuletinasetuksella
Eihän tuossa kerrottu mikä kortti. ”This test was on the non-Founders Edition model”
 
Vakiojäähdytyksen teho ei taida olla mitenkään ihmeellinen, ottaen huomioon että benchi on mitä ilmeisemmin ajettu avoimessa penkissä:

(Kyseessä olikin custom-jäähy)

NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png



Kuten kuvastakin näkee, GPU-kellot hyppii läpötilan ollessa liian korkealla. Sama mitä RTX 2-sarjankin kohdalla oli/on.
Tuohan ei tainnut olla FE kortti?
 
Kuten kuvastakin näkee, GPU-kellot hyppii läpötilan ollessa liian korkealla. Sama mitä RTX 2-sarjankin kohdalla oli/on.
Siinä näkyy myös että jännite hyppii ja tämä on syynä kellojen hyppiseen, kun liikutaan vfr käyrän pisteestä toiseen. Tämä on ihan normaalia kun hakataan power limittiä vasten. 3dmarkissa ja peleissähän kamera liikkuu ja GPU kuorma vaihtelee.

Jos naulataan GPU tiettyyn jännitteeseen niin sitten kellot ei liiku (paitsi kun boost reagoi lämpötilojen muutoksiin). Tällöin tehonkulutus vaihtelee renderöitävän scenen vaativuuden mukaan.
 
Suhteessa lämökuormaan, ei ole huono, mutta suhteessa GPU-kellojen tasiaisuuteen kyllä on. Väittäisin että jälkimmäisellä on enemmän painoarvoa keskivertopelaajan kannalta.

Oli tuossa kellotustestistä videocardzin sivulla tämäkin:

"The GPU was only overclocked by 70 MHz and memory by 850 MHz. This was the highest clock speed for this particular sample (for GPU and memory overclock). The sample had a maximum TDP of 320W (so NVIDIA reference, even lower than the sample screenshotted above). The results are not spectacular but at least we know that RTX 3080 can finish the tests with such memory overclock."

Ja:

"it seems that the best choice in terms of power limitations is Founders Edition with a TDP at 370W: "

Tuo testi ajettiin AIB kortilla, joten se hakkasi 320W rajaa vasten. Saa nähdä miten tuo 370W rajalla varustettu FE kulkee.
 
Suhteessa lämökuormaan, ei ole huono, mutta suhteessa GPU-kellojen tasiaisuuteen kyllä on. Väittäisin että jälkimmäisellä on enemmän painoarvoa keskivertopelaajan kannalta.
Miten niin se on huono? Systeemi on tarpeeksi älykäs että siinä voidaan käyttää useita muuttujia valiten minkä tasaisuutta painotetaan ja tässä kohtaa kellot on yksi muuttujista joiden avulla lämpötila pidetään tavoitteessa. Jos kellot pysyvät yli asetetun minimin systeemi on oikein suunniteltu.
 
Siinä näkyy myös että jännite hyppii ja tämä on syynä kellojen hyppiseen, kun liikutaan vfr käyrän pisteestä toiseen. Tämä on ihan normaalia kun hakataan power limittiä vasten. 3dmarkissa ja peleissähän kamera liikkuu ja GPU kuorma vaihtelee.

Jos naulataan GPU tiettyyn jännitteeseen niin sitten kellot ei liiku (paitsi kun boost reagoi lämpötilojen muutoksiin).
Liikkuhan kellot jo pelkän lämpötilankin takia jos lukemat ylittää n. 60C.

Miten niin se on huono? Systeemi on tarpeeksi älykäs että siinä voidaan käyttää useita muuttujia valiten minkä tasaisuutta painotetaan ja tässä kohtaa kellot on yksi muuttujista joiden avulla lämpötila pidetään tavoitteessa. Jos kellot pysyvät yli asetetun minimin systeemi on oikein suunniteltu.

Minusta yli 70C (todennäköisesti avoimessa penkissä), 317W kuormalla ei ole hehkutuksen arvoinen saavutus. 10C pois tai enemmän olisi jo hyvä saavutus.

Tämä on siis oma mielipiteeni joka perustuu tähänastiseen tietoon. Katsotaan kuitenkin mitä testit tuovat tullessaan ennen lopullista päätöstä. :)
 
Viimeksi muokattu:
Vakiojäähdytyksen teho ei taida olla mitenkään ihmeellinen, ottaen huomioon että benchi on mitä ilmeisemmin ajettu avoimessa penkissä:

(Kyseessä olikin custom-jäähy)

NVIDIA-GeForce-RTX-3080-Memory-OC-Test.png



Kuten kuvastakin näkee, GPU-kellot hyppii läpötilan ollessa liian korkealla. Sama mitä RTX 2-sarjankin kohdalla oli/on.
Itsehän en mistään mitään tiedä, mutta eikös toi "PerfCap Reason Pwr" meinaa sitä, että tulee power limit vastaan, eli kun jännite (ja täten tehot) vaihtelee, niin myös kellotaajuus heittelee?
Jos ois lämmöistä kiinni, niin eikös tossa PerfCap Reason ois Tmp?
 
Itsehän en mistään mitään tiedä, mutta eikös toi "PerfCap Reason Pwr" meinaa sitä, että tulee power limit vastaan, eli kun jännite (ja täten tehot) vaihtelee, niin myös kellotaajuus heittelee?
Jos ois lämmöistä kiinni, niin eikös tossa PerfCap Reason ois Tmp?
Ainakin RTX 2-sarjalla kellot heitteli heti kun lämpötila ylsi 60C, riippumatta siitä mikä oli Power Limit. Pian selviää onko asia näin Amperenkin kohdalla.
 
Liikkuhan kellot jo pelkän lämpötilankin takia jos lukemat ylittää n. 60C.
Toki ja tuostakin mainitsin. Jännitteen vaihtelu liikuttaa lähes varmasti kelloja GPU-Z shotista päätellen, siksi toin sen esiin.

Turingilla lämmöt taisivat muuttaa kelloja yhden 15MHz pykälän verran noin 6c välein. Tuossa lämmöt melko tasaiset, joten ei välttämättä vaikutusta ellei tuo 70-71 ole juuri siinä rajalla. Voi toki olla että käytöstä myös muutettu Amperessa.
 
Onko tietoa tuleeko kukaan suomessa myymään sillä noin 500€ ja vähän yli hinnalla 3070:sta?
 
Onko tietoa tuleeko kukaan suomessa myymään sillä noin 500€ ja vähän yli hinnalla 3070:sta?
tässä huomattavaa että "alustava hinta", mutta kun founders edition lähtee siitä 529€, niin ei siitä alaspäin mennä
 

Statistiikka

Viestiketjuista
258 216
Viestejä
4 489 707
Jäsenet
74 169
Uusin jäsen
tater

Hinta.fi

Back
Ylös Bottom