NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Paras kohta on se kun sitä takapuolen tuuletinta perustellaan tolla. Millä ihmeellä tuuletin, jonka ylälaita olisi samalla tasolla kuin ko. siru, jäähdyttäisi sitä sirua mikä on toisessa päässä korttia backplaten alla? :D

Sitä ittekin ihmettelen.

Itte tosin alkujaan ajattelin sämpyläksi tuota ja kortin takapuolella olis jotain ja että jäähdyttimiä olisi 2 erillistä, mutta sitten tarpemmin kun katseli niin ei vaikuttanut mahdolliselta ja myöhemmin tuli vuoto itse coolerista joka viimeistään kumosi tuon oletuksen.
 
Ja miksi ihmeessä sitä ”co-processoria” ei integroitaisi osaksi GPU:ta kuten tossa nvidian patentissa? :’D
 
Paras kohta on se kun sitä takapuolen tuuletinta perustellaan tolla. Millä ihmeellä tuuletin, jonka ylälaita olisi samalla tasolla kuin ko. siru, jäähdyttäisi sitä sirua mikä on toisessa päässä korttia backplaten alla? :D

Ei kun paras kohta on tämä:

"It would also allow them to ship the coprocessors as a standalone AIC card - which is something Coreteks mentions as well. Remember the PhysX AIC cards of olde? Well, if this rumor turns out to be true, we might be getting RTX Raytracing AIC cards that can enable strong raytracing performance on a non-raytracing GPU (likely only NVIDIA ones). This is a very feasible business model and something that would greatly enhance the company's push for raytracing without adding cost to users that do not want to pay for it. I for one have my fingers crossed and sincerely hope this turns out to be true - innovation is always incredibly exciting."

Mahdollisesti erillinen RTX on kortti. Eli pcie tai sli linkki riittäisi muka yhdistämään rasteroinnin ja raytracingin. Taitaisi tulla aika kovat viiveet, kun dataa pallotellaan eri korttien välillä.
 
Ei kovinkaan hyvä idea. Piisirun ulkopuolinen liikennäinti on hidasta. physX siirtyi juuri ko syystä nopeasti GPU:n sisään, erilliseltä kortilta.

Muistit tietysti tosaalta saataisiin hyvin lähelle GPU:ta. tosin mitenlie johteiden järjestely, liekkö mitenkään mahdollista. Näyttikset tunnetusti tykkäisivät mahdollisimman pienilatenssisista, nopeista muisteista..
 
Täysin älytön huhu.

Voin uskoa sellaisen vielä jossa on erillinen chipletti RT coreille Ampere-chipletin ja mahdollisten HBM-muistien vieressä, mutta erilliskortit tai piirilevyllä erikseen olevat erillispiirit ovat täyttä huuhaata. Datansiirto on hidasta ja et todellakaan halua mennä pois piiriltä tämmöisten kanssa.
 
Ei kovinkaan hyvä idea. Piisirun ulkopuolinen liikennäinti on hidasta. physX siirtyi juuri ko syystä nopeasti GPU:n sisään, erilliseltä kortilta.

Muistit tietysti tosaalta saataisiin hyvin lähelle GPU:ta. tosin mitenlie johteiden järjestely, liekkö mitenkään mahdollista. Näyttikset tunnetusti tykkäisivät mahdollisimman pienilatenssisista, nopeista muisteista..
Täysin älytön huhu.

Voin uskoa sellaisen vielä jossa on erillinen chipletti RT coreille Ampere-chipletin ja mahdollisten HBM-muistien vieressä, mutta erilliskortit tai piirilevyllä erikseen olevat erillispiirit ovat täyttä huuhaata. Datansiirto on hidasta ja et todellakaan halua mennä pois piiriltä tämmöisten kanssa.



Lukitaanko vastaukset?
 


Lukitaanko vastaukset?
Tottakai. Piirin ulkopuolelle liikennöinti on aina hidasta. Vaikka esimerkiksi zenissä on samalla alustalla ja välissä niin nopea väylä, kuin mihin AMD vain ikinä kykenee, niin silti ZEN nimenomaan peleissä tahtoo hävitä CtC Intelin 1xxx alustan prossuille, koska ko rakenne kasvattaa muistilatensseja.

Jos noiden tarvitsee kommunikoida paljon keskenään ja käyttää samaa muistia ym, niin tuollainen erilliset piirit on ehdottomasti suorituskykyä rampauttava ratkaisu, jota ei mitä suurimmalla todennäköisyydellä mennä tekemään.

Noita on aina välillä ollut, mutta aina, jos vain mahdollista, noita on vältetty, mm. piisirun ulkoisten väylien hitauden takia..

Patentteja kannattaa aina hakea, jos on jotain, jota voisi edes potentiaalisesti käyttää.

Tietysti GPU:hun voisi liittää suoraan esim mahdollisimman nopean flash ohjaimen ja flashia tai intelin muistia vastaavaa, lisämuistiksi. Ko muisti kun on näyttiksen preusmuistiin verrattuna jokatapauksessa hidasta (Esim PS5:n "mieletön" nopeus on käytännössä vain 1*ddr2 muistikanavan suuruinen), tekipä mitä tahansa, niin sille välttäisi tuollainen hidaskin ratkaisu..
 
Viimeksi muokattu:
Lukitaanko vastaukset?
Lukitaan. Grafiikkapiirit ovat täynnä erilaisia prosessoreita, tuossa kuvataan SMM-yksikön (Multiprocessor) ja sen ulkopuolella (mutta edelleen GPU:n sisällä) olevan muun yksikön(prosessorin) yhteyttä, ei ulkoista.
Sehän on ihan ekassa lauseessa tossa
Systems and methods for an efficient and robust multiprocessor-coprocessor interface that may be used between a streaming multiprocessor and an acceleration coprocessor in a GPU are provided.

Tietysti GPU:hun voisi liittää suoraan esim mahdollisimman nopean flash ohjaimen ja flashia tai intelin muistia vastaavaa, lisämuistiksi. Ko muisti kun on näyttiksen preusmuistiin verrattuna jokatapauksessa hidasta (Esim PS5:n "mieletön" nopeus on käytännössä vain 1*ddr2 muistikanavan suuruinen), tekipä mitä tahansa, niin sille välttäisi tuollainen hidaskin ratkaisu..
Ei vaan voisi, vaan AMD:lla on ollut tuki noille jo hyvän aikaa ja NVIDIAkin on kehittänyt oman tapansa ohittaa prosessori (GPUDirect Storage)
 
Lukitaanko vastaukset?

Lukitaan.

Tuo patentti koskee sitä, kuinka (saman piilastun sisällä olevat) SMt ja RT-yksiköt kommunikovat keskenään, sillä ei ole mitään tekemistä minkään ulkoisen liitännän kanssa. Ulkoinen liitäntä olisi aivan liian hidas.
 
Lukitaan. Grafiikkapiirit ovat täynnä erilaisia prosessoreita, tuossa kuvataan SMM-yksikön (Multiprocessor) ja sen ulkopuolella (mutta edelleen GPU:n sisällä) olevan muun yksikön(prosessorin) yhteyttä, ei ulkoista.
Sehän on ihan ekassa lauseessa tossa

Eli tuo koko huhu Nvidian erillisestä kiihdytinyksiköstä RT-käyttöön lienee alunperinkin vain jonkin epäteknisen uutissivuston väärä tulkinta tästä patenttihakemuksesta?
 
Eli tuo koko huhu Nvidian erillisestä kiihdytinyksiköstä RT-käyttöön lienee alunperinkin vain jonkin epäteknisen uutissivuston väärä tulkinta tästä patenttihakemuksesta?
Hyvin mahdollista.
 
Juuripa näin. Chiplet-virityksen voin jotenkin uskoa mutta pidän sitäkin epätodennäköisenä. Erillistä piiriä kortilla en todellakaan. Pelkästään jo kustannukset itse kortin valmistuksessa ottavat tajuttoman hypyn jos piirilevylle pitää änkeä kaksi isoa pintaliitospiiriä, ja varsinkin vielä jos kahdelle puolelle niinkuin tuossa typerässä "leakissa" häröiltiin.

Ei tule tapahtumaan.

Ja ainoa järkevä syy chiplet-ratkaisuun on se että meinaavat julkaista osan saman GPU-sektion korteista ilman RT coreja. En pidä tätäkään hirveän todennäköisenä vaan GTX 16xx jää Viimeiseksi Mohikaaniksi ilman rauta-raytracingia. Tai no, ehkä jonkinlainen viritys voi myös olla jos yieldit ei muuten ole siedettävät, mutta en siihenkään oikein usko, TSMC on näitä paistanut jo vuoden päivät ja homma on hanskassa.
 
Eikä siitä hirvittävän kauaa vissiin ole kun jotkut NVIDIAn insinööreistä, jotka puhuivat chipleteistä, sanoivat myös että kuluttajapiirit tulevat pysymään tulevaisuudessakin monoliittisina
 
TSMC on näitä paistanut jo vuoden päivät ja homma on hanskassa.

Jaa täällä ei ole ilmeisesti siitä huhusta kuiskittu jotta GA100 olisi TSMC:llä ja muut simsungilla?

Tätä perusteltu sillä että nvidia koitti vedättää halvempaa hintaa TSMC:ltä mutta TSMC ei niellyt koukkua niin nvidialla jäi TSMC:n kapasiteetista vain luu käteen.
Ja niitä RTX korttien power rohmuumista perusteltu myös tuolla simsungin "huonommalla" prosessilla.

Lähdettä on muista, sori. Oli varmaan joku juutuubin puhuvapää.
 
Luultavasti ehkä alemman tason piirejä teettävät Samsungilla niin kuin aiemmin ovat tehneet.
 
Tosiaan NVIDIA on ihan erikseen varmistanut että suurin osa siruista tulee jatkossakin TSMC:ltä, eli ei ole mikään A100 TSMC muut Samsung jako tms
 
3DMark tulos on bongattu. Postataan oleelliset kohdat uutisesta:

  • GPU vendor : NVidia Corporation
  • GPU core clock : 1935MHz (Time Spy only reports boost clocks)
  • Memory clock : 6000MHz
I’m sure some of you have questions about that memory clock. It doesn’t match any of the usual known memory clocks for GDDR6 of HBM2. For context :

  • 14Gbps GDDR6 is reported as 1750MHz
  • 16Gbps GDDR6 is reported as 2000MHz
  • 2GT/s HBM2 is reported as 1000MHz
From my experience, this type of weird reported clocks is either the result of an early/internal driver or a new type of memory that is still unknown to 3dmark detection software.

30.98% better than a stock RTX 2080 Ti Founders Edition
 
3DMark tulos on bongattu. Postataan oleelliset kohdat uutisesta:

  • GPU vendor : NVidia Corporation
  • GPU core clock : 1935MHz (Time Spy only reports boost clocks)
  • Memory clock : 6000MHz
I’m sure some of you have questions about that memory clock. It doesn’t match any of the usual known memory clocks for GDDR6 of HBM2. For context :

  • 14Gbps GDDR6 is reported as 1750MHz
  • 16Gbps GDDR6 is reported as 2000MHz
  • 2GT/s HBM2 is reported as 1000MHz
From my experience, this type of weird reported clocks is either the result of an early/internal driver or a new type of memory that is still unknown to 3dmark detection software.

30.98% better than a stock RTX 2080 Ti Founders Edition
JOS tuo pitää paikkansa, niin tulee isompi hyppäys, kun oletin jos tuo on noita keskikastin kokoisella /paljon leikatulla GPU:lla olevia kortteja.
Toisaalta kyllähän Nvidia on nyt sekä siirtymässä pienempään viivanleveyteen ja lisäksi arkkitehtuuria on ollut ihan reilusti aikaa tuunata, eikä kehitysbudjeteissakaan ole tarvinnut pihistellä..
 
JOS tuo pitää paikkansa, niin tulee isompi hyppäys, kun oletin jos tuo on noita keskikastin kokoisella /paljon leikatulla GPU:lla olevia kortteja.
Toisaalta kyllähän Nvidia on nyt sekä siirtymässä pienempään viivanleveyteen ja lisäksi arkkitehtuuria on ollut ihan reilusti aikaa tuunata, eikä kehitysbudjeteissakaan ole tarvinnut pihistellä..
Joo pitää toivoa että tää tulos on korkeintaan joku 3070, muuten tulee ihan tuhnu sinne huipulle.
 
Joo pitää toivoa että tää tulos on korkeintaan joku 3070, muuten tulee ihan tuhnu sinne huipulle.
Mitä meinaat?
jos 3080 on tuossa, niin 3080Ti (tai liekkö tällä kertaa 3090) on sitten taas suorituskykyisempi, X:n verran.

Olisi myös hintojen kannalta ikävää, jos AMD ei kykenisi taaskaan kilpailemaan, kuin keskisarjan (esim 3080) korttien kanssa..
 
JOS tuo pitää paikkansa, niin tulee isompi hyppäys, kun oletin jos tuo on noita keskikastin kokoisella /paljon leikatulla GPU:lla olevia kortteja.
Toisaalta kyllähän Nvidia on nyt sekä siirtymässä pienempään viivanleveyteen ja lisäksi arkkitehtuuria on ollut ihan reilusti aikaa tuunata, eikä kehitysbudjeteissakaan ole tarvinnut pihistellä..

Tuossa on vielä ihan liikaa "ehkä/jos" vaihtoehtoja. Väärennetty tulos ei ole täysin pois laskuista. Kellot voi olla lopulliset, tai engineer samplen alhaiset ja kortti voi olla iso/keskikoon piiri. Lähinnä tuo nyt indikoi sitä, että nopeampaa on tulossa ja julkaisu lähestyy.
 
Mitä meinaat?
jos 3080 on tuossa, niin 3080Ti (tai liekkö tällä kertaa 3090) on sitten taas suorituskykyisempi, X:n verran.

Olisi myös hintojen kannalta ikävää, jos AMD ei kykenisi taaskaan kilpailemaan, kuin keskisarjan (esim 3080) korttien kanssa..
Kyllä se kilpailu (ja siten järkevä hintataso) tulee ulottumaan joka tapauksessa niin korkealle kuin AMD:lla on tällä erää rahkeita. Se ei ole keltään pois jos sen yläpuolelle jää jotain tehokkaampia kortteja. Mitään järkeä ei siis ole toivoa että nvidia saa vain tuhnun ulos, etenkään ”koska kilpailu”.

Kyllä semmosta 980 ti -> 1080 ti boostia ainakin ite toivon. Jos huippukortti on vain 2080ti +50%, niin kyllä se tuhnu on. Vähän voi tilanne pelastua sillä jos RTX suorituskyky on esim. 8x tms. järkevää.
 
Kyllä se kilpailu (ja siten järkevä hintataso) tulee ulottumaan joka tapauksessa niin korkealle kuin AMD:lla on tällä erää rahkeita. Se ei ole keltään pois jos sen yläpuolelle jää jotain tehokkaampia kortteja. Mitään järkeä ei siis ole toivoa että nvidia saa vain tuhnun ulos, etenkään ”koska kilpailu”.

Kyllä semmosta 980 ti -> 1080 ti boostia ainakin ite toivon. Jos huippukortti on vain 2080ti +50%, niin kyllä se tuhnu on. Vähän voi tilanne pelastua sillä jos RTX suorituskyky on esim. 8x tms. järkevää.
Sanoisin, että odotuksesi ovat täysin epärealistiset.
Nykyisin ei enää tiheämmästä valmistustekniikasta tipu läheskään samanlaista etua, kuin esim 980Ti-1080Ti aikaan.. Nuo ajat ovat menneitä. Kannattaa palata suosiolla maan pinnalle.

Pidän vielä hyvinkin mahdollisena, että edes huippukortit eivät ongelmitta kykene 4k resoon, ilman karkkien leikkaamista, osassa pelejä. ainankin 4K@120Hz jää saavuttamatta. Tietysti tulevat konsolit nämä tulevat näyttikset hakkaavat maanrakoon helposti (varsinkin Midendin yläpuolella olevat).
 
Nykyisin ei enää tiheämmästä valmistustekniikasta tipu läheskään samanlaista etua
28nm -> 16nm tehonkulutus samoilla kelloilla laski 60% ja tiheys nousi n. 70%.
16nm -> 7nm tehonkulutus samoilla kelloilla laskee n. 50% ja tiheys nousee yli 100%. Jos vaan nvidia ei ole alkanu himmailemaan piirien kokojen kanssa niin kyllä noilla luvuilla pitäisi saada samaan tehonkulutukseen +100% laskentayksiköitä, joku pieni IPC parannus vielä päälle niin eiköhän se 980ti -> 1080ti muutosta vastaava boosti pitäis olla täysin mahdollisuuksien rajoissa.

Toki jos nvidia on päättänyt lopettaa high end näyttisten valmistamisen niin tuhnu sieltä voi tulla.
 
nVidia Ampere (RTX 3080 Ti, 3090 tai 3080?) 3Dmark tuloksia?
1592729498907.png
 
Sanoisin, että odotuksesi ovat täysin epärealistiset.
Nykyisin ei enää tiheämmästä valmistustekniikasta tipu läheskään samanlaista etua, kuin esim 980Ti-1080Ti aikaan.. Nuo ajat ovat menneitä. Kannattaa palata suosiolla maan pinnalle.

Pidän vielä hyvinkin mahdollisena, että edes huippukortit eivät ongelmitta kykene 4k resoon, ilman karkkien leikkaamista, osassa pelejä. ainankin 4K@120Hz jää saavuttamatta. Tietysti tulevat konsolit nämä tulevat näyttikset hakkaavat maanrakoon helposti (varsinkin Midendin yläpuolella olevat).
puuttuu kuu taivaalta.
 
Joo pitää toivoa että tää tulos on korkeintaan joku 3070, muuten tulee ihan tuhnu sinne huipulle.
No ei tässä tollasii odotuksia voi olla että Rtx3070 olisi 30% nopeampi kuin 2080Ti ja vieläpä tuollaisilla kelloilla.
3070 hyvä jos on tasoissa 2080Ti kanssa olisi jo melkoisen hyvä "suoritus"

Rtx3080 toi voisi olla
Kellot tuossa hämää ja ne tuskin noin alhaiset tulee valmiissa tuotteessa olemaan.
 
No ei tässä tollasii odotuksia voi olla että Rtx3070 olisi 30% nopeampi kuin 2080Ti ja vieläpä tuollaisilla kelloilla.
3070 hyvä jos on tasoissa 2080Ti kanssa olisi jo melkoisen hyvä "suoritus"

Rtx3080 toi voisi olla
Kellot tuossa hämää ja ne tuskin noin alhaiset tulee valmiissa tuotteessa olemaan.
jos on 3080 me lepakonmäyrä kanssa ennustettiin aika hyvin.
 
Kyllä semmosta 980 ti -> 1080 ti boostia ainakin ite toivon. Jos huippukortti on vain 2080ti +50%, niin kyllä se tuhnu on. Vähän voi tilanne pelastua sillä jos RTX suorituskyky on esim. 8x tms. järkevää.
Eikö tämä sun kommentti nyt vähän sodi keskenään?

Toivot 980Ti ->> 1080Ti boostia
mutta pidät +50% tuhnuna? :facepalm:
perfrel_2560_1440.png

980Ti 57%
1080Ti 100%
 
Eikö tämä sun kommentti nyt vähän sodi keskenään?

Toivot 980Ti ->> 1080Ti boostia
mutta pidät +50% tuhnuna? :facepalm:

980Ti 57%
1080Ti 100%
Onhan tuo 980 Ti > 1080 Ti:n 75% selvästi enemmän kuin 50%, eli ei se sitä vastaan sodi? Se on sitten ihan toinen asia onko sellaiset odotukset realistisia ja se nähdään sitten kun tiedetään mikä malli tarjoaa millaista kun suosituskykyä
 
Jos huhut pitää paikkaansa ja 3080:ssa on sama CUDA määrä kuin 2080 ti:ssä ei se +30% suorituskykyä ole ollenkaan huono hyppäys.
 
Jos huhut pitää paikkaansa ja 3080:ssa on sama CUDA määrä kuin 2080 ti:ssä ei se +30% suorituskykyä ole ollenkaan huono hyppäys.

On tuossa myös se optio, että tuo on se 3080TI/3090, kuten videocardzkin uutisotsikossaan veikkaisi. Silloin 3080 olisi about 2080TI tehoinen.
 
On tuossa myös se optio, että tuo on se 3080TI/3090, kuten videocardzkin uutisotsikossaan veikkaisi. Silloin 3080 olisi about 2080TI tehoinen.

Silloin tuskin 3080:ssa on samaa määrää Cuda-coreja kuin 2080ti:ssä. Muuten Ampere olisi hitaampi kuin Turing koska kellot tuossa on korkeemmat...
 
Silloin tuskin 3080:ssa on samaa määrää Cuda-coreja kuin 2080ti:ssä. Muuten Ampere olisi hitaampi kuin Turing koska kellot tuossa on korkeemmat...

Nuo twitter hemmot huutelee noin näistä coremääristä:

2nd Gen NVIDIA TITAN GA102-400-A1 5376 24GB 17Gbps
GeForce RTX 3090 GA102-300-A1 5248 12GB 21Gbps
GeForce RTX 3080 GA102-200-Kx-A1 4352 10GB 19Gbps

Jos noissa on nyt yhtään perää, niin tuo 3dmark tulos olisi todennäköisesti 3090. Siinä olisi noin 20% enemmän coreja mitä 2080TI ja ilman kellotusta techpowerupissa 2080TI founders arvostelussa boostikellot oli myös 1950mhz, joten vähän ipc parannusta ja lisää muistikaistaa, niin kyllä tuo 30% parempi tulos heilahtaa helposti.

Oli siellä twitterissä kellot +40% väitettäkin, mutta se voi olla ihan puhdasta sontaa, tai sitten just jotain base +40% tai boostia on muutettu, joten virallinen boostikello onkin up to, eikä arvo jonka päälle boostaillaan vielä extraa. Eli ei voi ottaa vakavasti kun konteksti puuttuu ja vuotajien speksit elää koko ajan.
 
Jos historiaa katsoo niin 3070 olisi peleissä hiukan hitaampi kuin 2080 Ti.
Esimerkit historiasta:
2070 vs 1080 Ti
1070 vs 980 Ti
970 vs 780 Ti

Jotenkin en usko että 3060 ääsisi tasoihin 2080 Ti:n kanssa. Tuo siis varmaan oletus, että 3070 korvaisi huippukortin. Lisäksi 4x nopeus RT-puolella. Mikään parempi kehityssuunta olisi toki toivottavaa, ja varsinainen yllätys.
 
Jos noissa on nyt yhtään perää, niin tuo 3dmark tulos olisi todennäköisesti 3090. Siinä olisi noin 20% enemmän coreja mitä 2080TI ja ilman kellotusta techpowerupissa 2080TI founders arvostelussa boostikellot oli myös 1950mhz, joten vähän ipc parannusta ja lisää muistikaistaa, niin kyllä tuo 30% parempi tulos heilahtaa helposti.
Samaa mietin itse ensin, mutta toisaalta jos 2080Ti:ssä ja 3080:ssä on sama määrä coreja, on tuo 3dmark tulos mahdollisesti 3080, kun +30% suorituskykyä on aikalailla linjassa 1080 -> 2070S vertauksen kanssa, joissa on myöskin sama määrä coreja (2560).
 
Samaa mietin itse ensin, mutta toisaalta jos 2080Ti:ssä ja 3080:ssä on sama määrä coreja, on tuo 3dmark tulos mahdollisesti 3080, kun +30% suorituskykyä on aikalailla linjassa 1080 -> 2070S vertauksen kanssa, joissa on myöskin sama määrä coreja (2560).

Se tarkoittaisi 30% nostoa IPC:ssä, johon en usko. 10% on helppo uskoa, 20% vielä menettelee. 30% on jo aika kaukaa haettu. Se IPC ei nouse ilmaiseksi, vaan siinä palaa transistoreja. GPU:t kun skaalautuu sen verran hyvin, joten koska kustannuksista johtuen pinta-ala on se rajoitava tekijä, niin helpommin saa tehoa lisättyä kasvattamalla corejen lukumäärää.

Vähän on kyllä Amperesta alkanut tulla Turing 2.0 fiilikset, eli R&D panokset on pistetty RTX ja AI puolelle, kun niitä voidaan kaupata muillekkin, kuin pelaajille.
 
Se tarkoittaisi 30% nostoa IPC:ssä, johon en usko. 10% on helppo uskoa, 20% vielä menettelee. 30% on jo aika kaukaa haettu. Se IPC ei nouse ilmaiseksi, vaan siinä palaa transistoreja. GPU:t kun skaalautuu sen verran hyvin, joten koska kustannuksista johtuen pinta-ala on se rajoitava tekijä, niin helpommin saa tehoa lisättyä kasvattamalla corejen lukumäärää.

Vähän on kyllä Amperesta alkanut tulla Turing 2.0 fiilikset, eli R&D panokset on pistetty RTX ja AI puolelle, kun niitä voidaan kaupata muillekkin, kuin pelaajille.

Onhan tuolla mysteerikortilla myös korkeammat kellotaajuudet kuin 2080Ti FE:llä?
 
Se tarkoittaisi 30% nostoa IPC:ssä, johon en usko. 10% on helppo uskoa, 20% vielä menettelee. 30% on jo aika kaukaa haettu. Se IPC ei nouse ilmaiseksi, vaan siinä palaa transistoreja. GPU:t kun skaalautuu sen verran hyvin, joten koska kustannuksista johtuen pinta-ala on se rajoitava tekijä, niin helpommin saa tehoa lisättyä kasvattamalla corejen lukumäärää.

Vähän on kyllä Amperesta alkanut tulla Turing 2.0 fiilikset, eli R&D panokset on pistetty RTX ja AI puolelle, kun niitä voidaan kaupata muillekkin, kuin pelaajille.
Varmasti tulee sellaiset fiilikset jos olettaa että tämä tulos olisi 3090

Mutta jos 3090 on 5248ydintä ja vain 30% nopeampi niin sehän olisi suhteellisesti melkeimpä hitaampi kuin Turing joten ei ole mahdollista.

Eiköhän kyseessä ole +30% suorituskykyä samalla määrällä ytimiä kuin 2080Ti.ssä
Enemmän muistikaistaa+kovemmat kellot+IPC
Mitä muutoksia/parannuksia sitten on Ampereen on niin en tiedä, mutta turing se ei ole eikä mene täten 1:1 ytimien suorituskyky näissä

Noi coren/muistien kellot voi olla myös virheellisiä.
Ja koko huhukin voi toki olla höpöhöpöä.

ilmeisesti enemmistö näistä olisi kanssasi erimieltä.
Screenshot_20200621-204235__01.jpg
 
Viimeksi muokattu:
Onhan tuolla mysteerikortilla myös korkeammat kellotaajuudet kuin 2080Ti FE:llä?

Eihän ole:
Esim tässä on 2080TI vakiona, ilman mitään kellotusta:
https://www.3dmark.com/spy/5414918 : Raportoidut kellot 1905mhz

Vastaaavasti vain power targettia nostettu 2080TI:lla, mutta kellot on jätetty vakioksi:
https://www.3dmark.com/spy/5414994 : Raportoidut kellot 1965mhz

Tuo mysteerikortti on aika tarkkaan samoissa kelloissa, mitä 2080TI vakiona ja silti sen 30% nopeampi.
 
Varmasti tulee sellaiset fiilikset jos olettaa että tämä tulos olisi 3090

Mutta jos 3090 on 5248ydintä ja vain 30% nopeampi niin sehän olisi suhteellisesti melkeimpä hitaampi kuin Turing joten ei ole mahdollista.

Eiköhän kyseessä ole +30% suorituskykyä samalla määrällä ytimiä kuin 2080Ti.ssä
Enemmän muistikaistaa+kovemmat kellot+IPC
Mitä muutoksia/parannuksia sitten on Ampereen on niin en tiedä, mutta turing se ei ole eikä mene täten 1:1 ytimien suorituskyky näissä

Tuossa on kyllä pointtia. luvut ei täsmää vuotojen core arvoihin. Eli vuotohuhut on joko pielessä, tuo on joko 3080, tai tuo on 3090 jota on ajettu matalalla power targetilla/lämpörasituskokeessa, jolloin maksimiboostit on raportoitu, mutta kortti on throttlannut testin ajan. Tai koko 3dmark tulos on feikki.
 

Statistiikka

Viestiketjuista
258 182
Viestejä
4 485 135
Jäsenet
74 179
Uusin jäsen
Flere-Imsaho

Hinta.fi

Back
Ylös Bottom