AMD-spekulaatioketju (RDNA:n ja CDNA:n tulevat sukupolvet)

Mielenkiintoinen juttu on se, että jos rasterisuorituskykyä ei tarvita lisää, että tulisiko jossain kohtaa gpu:hun softarasteroija ja nykyisen hardis rasteroijan viemät transistorit pois? vrt. unified shaders muutos aikoinaan. UE5:nhan softarasteroi jo pienet kolmiot ja vain isojen kolmioiden kanssa käytetään rautarasteroijaa.

Ei isoja muutoksia varmaan 2v välein nähdä, mutta 6v-12v aikajänteellä voi jo jotain jännittävää tapahtua gpu:n arkkitehtuureissa.

Rasterointispesifisen raudan osuus nyky-GPUssa on hyvin pieni, ja se on jatkuvasti laskenut. Ei ole mitään järkeä alkaa sitä pudottamaan kokonaan pois. Riittää, että sitä vaan ei lisätä enempää.

GPUiden pii-pinta-alasta ylivoimaisesti suurin osa on jo n. 15 vuoden ajan kulunut rinnakkaislaskennan prosessoreihin, joissa ei ole mitään rasterointispesifistä. Niitä tarvitaan sen rasteroinnin päälle tehtävän valaistus- ja varjopurkan toteuttamiseen, yleiseen geometrialaskentaan 3d-rendauksessa, sekä lisäksi niitä voidaan käyttää muuhunkin kuin grafiikkaan. Ja myös säteenjäljitys tarvii niitä uusien säteiden luomiseen ja värarvojen laskemiseen yms. (sekä mahdollisesti myös BVH-puun rakennukseen)

Lisäksi näiden rinnakkaislaskentaprossujen kyljessä on teksturointiyksiköt, jotka on grafiikkaspesifistä erikoisrautaa, mutta ihan yhtä lailla niitä tarvitaan säteenjäljityksessä kuin rasteroinnissakin, ne ei ole rasterointirautaa.
 
Säteenjäljityksessä tarvii käyttää vähemmän tekniikoita

Kun ei tarvi käyttää ziljoona purkkatekniikkaa valojen ja varjojen feikkaamiseem

Eli et edelleenkään tajua.

Tavallinen rasterointi ei ole vuosiin poistumassa. Siirtymäaikana joudutaan pelit tekemään tukemaan rasterointia ja raytracingiä. Se lisää työtä koska kumpikaan ei itsestään synny ns. bonuksena kun toisen tekee.
 
Joo kyllä ainakin yksinpeleissä (ei tarvitse mtn. 100+fps, riittää 60-80 @Gsync).

Esim. CP2077 ja nVidian DLSS2:lla (balanced tai perf.) saa hyvin kuitattua FPSt minkä RT:llä menettää kun ei ole mikään pakko pitää RT Ultralla.

En tiedä miten FSR/DLSS sotkee jos 1080 näytöllä sitä käyttää mutta itsellä 4K näyttö ja DLSS performancella (1920x1080 renderöinti) +20% terävöinti niin näyttää hyvälle. Ultra Perf. DLSS on jo sitten ei kiitos.

Enemmän FPS ja visuaalisesti ihan eri luokkaa (varsinkin yöllisessä kaupungissa) kuin RT:disabled/Ultra preset -natiivi 4K.

Tänään tullut CP2077 päivitys, mm. FSR2.1 tuki, onko jo joku kokeillut AMD:n kortilla oliko tuosta hyötyä?

FSR toimivuus kun vähitellen kiinnostaa koska seuraava näyttis ~10 vuoden jälkeen voi olla AMD:n kortti (7900XTX).
Ei kyllä mitään tietoa millä asetuksilla tuota pitäisi testata, mutta testasin kuitenkin.
Eli RT asetuksista oli kaikki nappulat ON ja quality medium.
Alustana 5900X / 64GB 3666 C14 / RX6900XT
Kokeilin ensin edellisellä versiolla.
Natiivi 1440p RT off
Min. 16FPS
Max. 181FPS
Avg. 93FPS

1440p RT medium
Min. 19FPS
Max. 38.5FPS
Avg. 28FPS

1440p FSR1 quality / RT medium
Min. 12.5FPS
Max. 89FPS
Avg. 53FPS

Sitten V1.61.
Natiivi 1440p RT off
Min. 61.5FPS
Max. 168.5FPS
Avg. 90FPS

1440p RT medium
Min. 19FPS
Max. 38FPS
Avg. 27.5FPS

FSR2.1 quality / Image sharpening 0 / RT medium
Min. 35FPS
Max. 64.5FPS
Avg. 50FPS

FSR2.1 quality / Image sharpening 0.5 / RT medium
Min. 35FPS
Max. 61FPS
Avg. 47.5FPS
Joku voi sitten testata myös ja kauhistella huonoa suorituskykyä joka ei jostain syystä minun koneella vastaa nettitarinoita parin ekan päivityksen jälkeen. :rolleyes:
 
Alueella on tarkoitus keskustella ketjun aiheesta, ei kanssakeskustelijoista. Henkilökohtaiset loukkaukset ja hyökkäykset toista keskustelijaa kohtaan ovat ankarasti kielletty
Eli et edelleenkään tajua.

Tajuan oikein hyvin. Vedät asioita korkealla tasolla bullet pointeista ymmärtämättä asioista joista puhut oikeasti yhtään mitään. Mitään muuta tajuamista käsienheiluttelussasi ei sitten olekaan.

Ja sitten aktiivisesti kieltäydyt edes yrittämättä ymmärtää/kieltäydyt hyväksymästä sellaisia argumentteja, jotka menevät ymmärryksesi/osaamisesi yli.


Tavallinen rasterointi ei ole vuosiin poistumassa.

"Tavallinen rasterointi" poistui kaikista mainstream-peleistä jo vuosia sitten. Se, mitä mainstream-pelit nykyään tekee ei ole mitään "tavallista rasterointia".

Ja sen takia esim. MSAA ei nykypeleillä toimi, koska MSAA vaatii toimiakseen sen, että pikselin väriarvo lasketaan rasteroinnin yhteydessä, mitä nykypelit eivät tee.

Se minecraftin alkuperäinen rasterointiengine on suurinpiirtein niitä ainoita "tavallista rasterointia" tekeviä peliengineitä mitä nykyaikana vielä näkee.

Puhut "tavallaisesta rasteroinnista" ilman mitään ymmärrystä siitä, mitä se "tavallinen rasterointi" on.

Ei juuri mikään moderni hienolta näyttävä peli tee mitään "tavallista rasterointia".

Nykyajan pelit tekee rasterointia multipassia deferred-renderöinnillä jossa ei ekalla passilla rendata itse grafiikkaa vaan käytetään vaan rasterointia keinona selvittää, mikä kolmio osuu mihinkäkin pikseliin.

Ja sitten tehdään toinen renderöintipassi, jotka laskee vaikka mitä jotta saadaan jonkinlaiset valot ja varjot mukaan. Ja tässä passissa (jossa väriarvot lasketaan) ei varsinaisesti usein käytännössä hyödynnetä/tarvita 3d-kortin rasterointispesifistä rautaa. Ja joissakin peleissä tämä renderöintipassi jopa sisältää valaistuksen laskentaan shader-prossuilla softalla tehtyä alkeellista säteenjäljitystä, ilman että säteenjäljitystä missään mainostetaan.


Ja välissä tai ennen usein tehdään lisää renderöintipasseja joissa esim. rendataan varjoja tekstuuriin (esim. rasteroimalla scene käyttäen kameran paikkana valojen paikkaa).

Ja lopuksi vielä usein ajetaan jotkut jälkikäsittelyfiltterit.

Tästä on "tavallinen rasterointi" todella kaukana.

Ja se, mitä kaikkia temppuja tehdään ja millä tavalla vaihtelee todella paljon eri pelien välillä. Eli nykypeleissä ole mitään "yhtä tavallista rasterointirendausalgoritmia" jota nykyään yleisesti käytetään.

Eri peleissä on käytössä ziljoona erilaista rendausalgoritmia, joissa rasterointi on yhdessä tai monessa vaiheessa osa koko rendausprosessia.

Joskus >10 vuotta sitten pelit tekivät vielä "tavallista rasterointia".


Että oikeasti ei kannattasi käyttää termejä, joiden merkitystä ei oikeasti ymmärrä, ja yrittää argumentoida niillä mitään.

Siirtymäaikana joudutaan pelit tekemään tukemaan rasterointia ja raytracingiä. Se lisää työtä koska kumpikaan ei itsestään synny ns. bonuksena kun toisen tekee.

Ihan samat kolmiot voi syöttää rasterointienginelle ja säteenjäljitysenginelle. Säteenjäljityksen yhteydessä pitää toki tehdä puunrakennus mutta ajurit tekee sen aika lailla itsekseen ettei pelikoodarin siitä paljoa tarvi murehtia.

Sen sijaan se monimutkainen rasterointipohjainen rendaaja on se, mikä nimenomaan vaatii sitä lisätyötä, verrattuna joko yksinkertaiseen rasteroijaan tai säteenjäljitykseen, jotka taas keskenään toimivat melko samoilla inputeilla melko kivasti.

Että sinulla meni tämäkin melko täysin päinvastoin.



Ja edelleen kieltäydyt tajuamasta sitä, että se säteenjäljitysengine on paljon yksinkertaisempi kuin se kaikki purkka mitä sen rasteroinnin päälle tehdään että se saadaan näyttämään hienolta. 1+1 < 1+1+1+1
 
Viimeksi muokattu:
Vau! Kolme peliä löysit. Yksikään ei ole sellainen joka minua napostelisi edes pelata. Joten ei paljoa lohduta jos pari peliä löytyy hienoilla efekteillä jos ne pelit kuuluu sellaiseen genreen joka ei napostele.

Nii kun hän kysyi, niin listasin 3 isosti RT:ä käyttävää peliä, mitkä tuli ekana itselle mieleen. Onhan niitä kevyesti RT:tä käyttäviä pelejä sitten huomattavasti enemmän.

Ja miten se liittyy mitenkään tuohon, että ko. pelit eivät sinua kiinnosta... :think:
 
Ja edelleen kieltäydyt tajuamasta sitä, että se säteenjäljitysengine on paljon yksinkertaisempi kuin se kaikki purkka mitä sen rasteroinnin päälle tehdään että se saadaan näyttämään hienolta. 1+1 < 1+1+1+1

Mikäli sinun väittämäsi pitäisi paikkaansa niin se raytracing olisi jo kaikissa peleissä käytössä kun se ei kerran vaadi mitään lisäpanostusta eikä se maksa pelin kehittäjille mitään lisätä kun se kerta tulee kuin manulle illallinen ihan itsestään.

Sitä en ole missään vaiheessa väittänyt taikka epäillyt etteikö se raytracing olisi helpompi toteuttaa kuin se miten nykyisin pelit toteutetaan. Oli se sitten tavan rasteroinilla tai ihan millä tahansa pilkun viilaamisella. Edelleen se ei tule ilmaiseksi ja se miten pelit tänäpäivänä tehdään ei tule katoamaan vielä vuosiin koska ei ole riittävän tehokasta rautaa vielä tarjolla sinne isojen massojen budjetille sopivaan hintaan jolla se raytracing sujuu hyvin.


Ja miten se liittyy mitenkään tuohon, että ko. pelit eivät sinua kiinnosta... :think:

Siten että 3 ei ole vielä kovin paljon kun pelejä on tuhansia ja taas tuhansia. Ihmisiä vielä enemmän ja niillä enemmillä ihmisillä on erillaiset kiinnostuksen kohteet. Jollekin noi kolme peliä voi olla elämääkin tärkeämpiä jolloin heille se raytracing saattaa jo nyt olla hyvinkin relevantti jos on valmis maksamaan siitä paljon.
 
Vaikkei suoraan aiheen rauta arkkitehtuuriin juuri kuulukkaan mutta silti AMDn kehittelemä tekniikka. Ja ainakin alussa FSR3 tulee olemaan RX7000 -sarja mielessä suunniteltu.

AMD FSR 2.1 videoita jo tubessa @CP77.

Suorituskyky about sama kuin DLSS, 0-2% suuntaan tai toiseen eli nopeuseroja ei huomaa. Miksikähän eivät päivittäneet samalla kertaa FSR 2.2?

Kunhan tulee sitten jtn. kuvanlaatu vertailu artikkeleita.
Itse en äkkiseltään huomannut eroja liikkeestä FSR<>DLSS kun ajelin parit benchmarkit ko. pelissä. GPU 3080@+60mhz/21Gbps.

1440 natiivi, RT medium (min-avg-max):
44-53-66 fps

1440 FSR 2.1 quality, RT medium (min-avg-max):
56-71-97 fps

1440 DLSS quality, RT medium (min-avg-max):
54-72-93 fps

Sitten vielä pahin yksittäinen FPS:n tappaja eli Screen Space Reflections Quality Ultrasta > Low ja...

1440 FSR 2.1 quality, RT medium (min-avg-max):
54-87-111 fps
 
CP2077 FSR1 VS FSR2 pisti silmään, että GPU kuormitus putosi n.320W lukemista n.290W tasolle.
 
Sen verran oli FSR2.1:lla (Balanced, ero toisin Qualityyn oli vain muutama fps) vaikutusta, että kellotettu 6800XT veti 3840x1600 resolla digital foundryn cyberpunk suositusasetuksilla 40fps benchmarkista RT päällä.
 
Nii kun hän kysyi, niin listasin 3 isosti RT:ä käyttävää peliä, mitkä tuli ekana itselle mieleen. Onhan niitä kevyesti RT:tä käyttäviä pelejä sitten huomattavasti enemmän.

Ja miten se liittyy mitenkään tuohon, että ko. pelit eivät sinua kiinnosta... :think:
Tuohon listaan voi lisätä vielä Dying Light 2. Siinäkin säteenseuranta muuttaa pelin ulkoasua aika radikaalisti. Hyviä pelejä kaikki ja eiköhän lisää ole tulossa. Erityisesti odotan Witcher 3:n säteenseurannalla remasteroitua versiota :D

Säteenseuranta kyllä jakaa tunteita. Osan mielestä se on aivan turha ja sanotaan, että mikään omasta mielestä hyvä peli ei tue sitä. Itse taas kuulun siihen joukkoon, jolle säteenseuranta ja sen suorituskyky on tärkeää. Tykkään pysähtyä peleissä fiilistelemään grafiikoita ja ottaa screenshotteja. Cyberpunkin öinen kaupunki tai Metro Exoduksen lähes fotorealistiset hylätyt maisemat toimivat siinä erittäin hyvin. Varsinkin Cyberpunkin valaistus näyttää ilman säteenseurantaa todella lattealta ja tasapaksulta. Sitten taas esimerkiksi Watch Dogs legionin heijastukset tai Tomb Raiderin varjot ovat vähän turha toteutus säteenseurannalle yksinään.

RTX 4080:n raa'asta säteenseurantatehosta on nyt tullut vuotoja ja aika kovia lukemia. Voi olla, että AMD jää niistä jälkeen reippaasti, mikä on harmi. Nytkin päätynyt Nvidian RTX 3000-sarjalaiseen AMD:n sijaan juuri selvästi paremman säteenseurannan suorituskyvyn vuoksi. Onneksi sentään FSR 2.1 alkaa olla aika hyvällä tasolla ja auttaa vähän.
 
Toisaalta tällaiselle multiplayer shoottereita pelaavalle säteenseuranta ja monesti ne ultratason muutkin grafiikka-asetukset tulee veivattua pois ihan varmistaakseen tasaisen korkean ruudunpäivityksen ja toisaalta myös paremman erottelun, jotta se vihollinen näkyy sieltä.

Muokataan sen verran ettei jää väärää käsitystä. Itselleni 7000-sarjan säteenseurannan tehonlisäys oli iso pettymys. Yli 2x oli odotus ja jos samaan hintaan saisi enemmän säteenseurantaa niin se olisi helppo valinta.
 
Viimeksi muokattu:
Mikähän AMD:llä on kun eivät saaneet nytkään voimaa riittävästi RT:lle?

7900XTX taitaa olla esim. CP2077:ssa RT päällä luokkaa 3080-3080Ti. Joissakin cherry-pick testeissä luokkaa 3090-3090Ti.
 
Viimeksi muokattu:
Mikähän AMD:llä on kun eivät saaneet nytkään voimaa riittävästi RT:lle?

7900XTX taitaa olla esim. CP2077:ssa RT päällä luokkaa 3080-3090Ti.

AMD:llä RT teho on sidoksissa siihen shader vääntöön ja kun sitä ei kasvatettu kuin maltillisesti, niin RT tehoakaan ei voinut tulla kovin paljoa lisää. 80CU:sta hypättiin 96CU:n. Ja AMD kertoo että jokainen CU sisältää yhden ns. RT coren. Tuo on siis 20% loikka jolloin ei ole mahdollista että se RT teho olisi kasvanut julmetusti.

nVidia vastaavasti hyppäsi 84 -> 128 hypyn joka on siis yli 52% loikka ja siihen päälle huomattava kellojen nosto. Taino jos lasketaan sen täyden piirin mukaan joka taitaa olla 142SM/RT cores, niin hyppy on melkein 70%

Eivät nähneet sitä tarpeelliseksi nähden lisäkustannuksiin. Tässä generaatiossa ykkösprioriteetti taisi olla tuon chiplet arkkitehtuurin toteuttaminen.

Jooh, rogame muistaakseni se oli joka vasta twiittasi että tää on vasta maratonin alku AMD:llä, eli ei olla nähty vielä mitään.
 
Millä perusteella tuhnu?

Ehkä RT suorituskyky on huono, mutta muuten vaikuttaa hinta / suorituskyky olevan ihan hyvä.
Päätellen RT juupas eipäs keskustelun kiivaudesta odotukset eivät tainneet ihan täyttyä. Lisäksi selittelyt miten 7900 on suunnattu kilpailemaan 4080 segmentissä, no miksi eivät sitten ristinneet suoraan 7800:ksi.
 
Mikähän AMD:llä on kun eivät saaneet nytkään voimaa riittävästi RT:lle?

7900XTX taitaa olla esim. CP2077:ssa RT päällä luokkaa 3080-3080Ti. Joissakin cherry-pick testeissä luokkaa 3090-3090Ti.

Epäilen että he joutuivat tekemään saman valinnan kuin Nvidia ja päättivät että sulavat sekä tuleen syttyvät kortit, lisävirtaliittimet jne. eivät ole se valinta minkä ovat valmiita maksamaan lisääntyvästä RT tehosta?

Muutenhan tuo uusi kortti tuo asioita mihin kilpailija ei nyt edes pysty, kuten tuen 165FPS 8K resoluutiolle ja 480 4K:lle Display Port 2.1 tekniikan ansiosta. Myös hinta on iso bonus, kun mietitään että Suomessa se ainoa Jimm.s:n Nvidian 4000-sarjan kortti mitä sai ulos ja heti mukaan kaupasta on 2600€ niin nuo tulevat myyntiin 999$ ja 899$ hintaan eli uskoisin että niitä alkaa saamaan jopa 1000€ halvemmalla (alle 1600€ hintaan) Suomesta.
screenshot-2022-11-04-at-8-45-48-png.987966


Edit: toki tämäkin on vain spekulaatiota kuten omakin viestisi enkä omaa siis mitään suhteita Nahkatakkimieheen tai Lisaan. Mutta sopii oikein hyvin tänne AMD:n spekulaatioketjuun... :smoke:
 
Epäilen että he joutuivat tekemään saman valinnan kuin Nvidia ja päättivät että sulavat sekä tuleen syttyvät kortit, lisävirtaliittimet jne. eivät ole se valinta minkä ovat valmiita maksamaan lisääntyvästä RT tehosta?

Muutenhan tuo uusi kortti tuo asioita mihin kilpailija ei nyt edes pysty, kuten tuen 165FPS 8K resoluutiolle ja 480 4K:lle Display Port 2.1 tekniikan ansiosta. Myös hinta on iso bonus, kun mietitään että Suomessa se ainoa Jimm.s:n Nvidian 4000-sarjan kortti mitä sai ulos ja heti mukaan kaupasta on 2600€ niin nuo tulevat myyntiin 999$ ja 899$ hintaan eli uskoisin että niitä alkaa saamaan jopa 1000€ halvemmalla (alle 1600€ hintaan) Suomesta.
screenshot-2022-11-04-at-8-45-48-png.987966
Paitsi, että tuo ei tue koko 2.1 standardia. Siitä puuttuu tuki 80 gigan nopeudelle
 
Epäilen että he joutuivat tekemään saman valinnan kuin Nvidia ja päättivät että sulavat sekä tuleen syttyvät kortit, lisävirtaliittimet jne. eivät ole se valinta minkä ovat valmiita maksamaan lisääntyvästä RT tehosta?

Mitä tekemistä liittimen tyypillä on RT perffin kanssa... Ja kortin tehobudjetti on ollut mööritettynö jo ajat sitten, ennen kun ko. liittimen mahdollisista ongelmista on ollut mitään tietoa.

Muutenkin jengi käyttäytyy, Ihan kun tämä olisi nyt joku todella yleinen ja laaja ongelma.

Lainaus techradarin artikkelista:
"If you want to buy an RTX 4090 yourself (or you’ve been lucky enough to already find one), the odds of it catching fire are admittedly vanishingly low. While we don’t know exactly how many units Nvidia has sold, it’s sure to be a lot - the card sold out on day one, after all - but 23 confirmed failure cases isn’t astronomical, even if it’s also not statistically insignificant."


Ilmiötä on esiintynyt monen valmistajan malleissa, mikä viittaa viallisiin adptereihin. Todennäköisesti hyvin pienessä osassa adpatereitsa on ollut valuvikoja, mitä on estänyt niiden saamisen kunnolla pohjaan tms. Mahdollisista valuvikaisista adaptereita on ollut kuvia redditissä. Missään taivutustesteissä ei olla saatu tuota ilmiötä aikaan, vaikka aika moni tech tubettaja niitä on tehnyt.
 
Mitä tekemistä liittimen tyypillä on RT perffin kanssa...

En nyt tiedä, mutta kun spekulaatio ketjussa ollaan niin tässä oma mielipiteeni:
- Yleensähän mitä tehokkaampi kortti on saman sukupolven sisällä kyseessä sen enemmän se vaatii virtaa.
- Mitä enemmän kortti vaatii virtaa sen enemmän / uudempia ja (teoriassa) parempia liittimiä siihen täytyy käyttää.
- Mitä tehokkaampi ja kalliimpi se saman sukupolven sisällä oleva kortti on sen parempi (yleensä?) sen RT perffi myös on.

Esimerkki: jos verrataan 3060TI vs 3090TI kortteja keskenään voidaan huomata että 3090TI kortti vie enemmän virtaa ja myös erinäisissä testeissä sekä peleissä sen RT perffi kuten asian ilmaisit on suurempi, eli parempi.

Jos siis kortti on tehokkaampi ja vaatii enemmän virtaa ja käyttää ehkä siksi uudempaa virtaliitin tyyppiä se myös yleensä omaa paremman RT perffin.

Eli: jos uusi (viallinen ja helpommin sulamista / tulipaloja ja syttymistä aiheuttava) liitintyyppi antaa enemmän virtaa kuin vanhempi liitintyyppi JA jos parempaa RT (sekä muutakin) perffiä tarjoava kortti VAATII enemmän virtaa voidaan siis vetää johtopäätös että saadakseen parempaa / suurempaa RT (sekä muutakin) perffiä kortti helposti myös vaatii (saman valmistus sukupolven sisällä) enemmän virtaa mikä yleensä johtaa myös siihen että korttiin täytyisi tehdä muutoksia millä tuota virtaa saadaan tuotua lisää. Eli liittimen tyyppi saattaa vaihtua.

On siis täysin mahdollista (oma ennustukseni) että kun myöhemmin saamme esimerkiksi 4050 kortin Nvidialta he EIVÄT käytä tuota liitintä missä on ongelmia, mikä aiheuttaa sulamista, tulipaloja sekä lämpöongelmia MUTTA tämä 4050 kortti omaisi myös heikomman RT perffin kuin esim. 4090 kortti mikä taas KÄYTTÄÄ tätä liitintä missä on havaittu ongelmia.

Toivottavasti nyt näet miksi eri liitintyyppi (sekä kohonnut virrantarve) voi ja minun käsitykseni mukaan (tietysti tämän voimme vahvistaa vasta kun Nvidia julkaisee tuon 4050 kortin, mikä EI käytä uutta liitintyyppiä) myös tulee vaikuttamaan sitten RT perffiin. Eli kun näytönohjain saman valmistusperheen ja teknologian alla kuluttaa VÄHEMMÄN virtaa ja myös toimii vanhemmilla (hyviksi todetuilla, ei sulamista tai syttymistä uhkaavilla) liittimillä sen RT perffi ja myös muu suorituskyky jää jälkeen näistä uuudemmista (esim. 4090) korteista.

Tuo siis täysin omaa spekulaatiotani eikä enää niin hirveästi liity AMD:n tuleviin kortteihin.. mutta toivottavasti selvitti sinulle tätä asiaa.
 
Mitä tekemistä liittimen tyypillä on RT perffin kanssa... Ja kortin tehobudjetti on ollut mööritettynö jo ajat sitten, ennen kun ko. liittimen mahdollisista ongelmista on ollut mitään tietoa.

Muutenkin jengi käyttäytyy, Ihan kun tämä olisi nyt joku todella yleinen ja laaja ongelma.
No Taneli veteli mutkia suoraksi sieltä täältä että sai AMD:n kortit näyttämään paremmalta. Voi tosiaan olla kuten Timo 2 sanoi, että tässä generaatiossa AMD:lla oli täysi työ ehtiä saamaan chipletarkkitehtuuria käyttävä pelinäytönohjain ulos ja parannukset RT:n tulevat vasta seuraavassa generaatiossa. Heikko oli tuo lisäys tuolla alueella. Toisaalta Nvidia meni ns. all in ja sieltä tuli tehoa ja vääntöä, mutta tolkuttoman kalliiseen hintaan. Jopa niin kalliiseen hintaan, että 4080 voi näyttäytyä tuolla hinnalla ja perffillä lähinnä vitsiltä 7900XTX:n rinnalla muuten kuin RT-peleissä.

En kuitenkaan lähtisi vähättelemään myöskään Nvidian ongelmaa liittimissä. Ongelma ei koske kaikkia kortteja mutta ongelma on todella iso. Ei kukaan halua mahdollisesti syttyvää korttia koneeseensa ehdoin tahdoin. Sinänsä tuo 16pinninen virtaliitin tai yleensä joku liitin niin, että yhdellä johdolla saisi syötettyä näyttiksen on mahtava parannus, mutta se pitää tehdä niin ettei se aiheuta nyt nähtyjä ongelmia missään tapauksessa.
 
En nyt tiedä, mutta kun spekulaatio ketjussa ollaan niin tässä oma mielipiteeni:
- Yleensähän mitä tehokkaampi kortti on saman sukupolven sisällä kyseessä sen enemmän se vaatii virtaa.
- Mitä enemmän kortti vaatii virtaa sen enemmän / uudempia ja (teoriassa) parempia liittimiä siihen täytyy käyttää.
- Mitä tehokkaampi ja kalliimpi se saman sukupolven sisällä oleva kortti on sen parempi (yleensä?) sen RT perffi myös on.

Esimerkki: jos verrataan 3060TI vs 3090TI kortteja keskenään voidaan huomata että 3090TI kortti vie enemmän virtaa ja myös erinäisissä testeissä sekä peleissä sen RT perffi kuten asian ilmaisit on suurempi, eli parempi.

Jos siis kortti on tehokkaampi ja vaatii enemmän virtaa ja käyttää ehkä siksi uudempaa virtaliitin tyyppiä se myös yleensä omaa paremman RT perffin.

Eli: jos uusi (viallinen ja helpommin sulamista / tulipaloja ja syttymistä aiheuttava) liitintyyppi antaa enemmän virtaa kuin vanhempi liitintyyppi JA jos parempaa RT (sekä muutakin) perffiä tarjoava kortti VAATII enemmän virtaa voidaan siis vetää johtopäätös että saadakseen parempaa / suurempaa RT (sekä muutakin) perffiä kortti helposti myös vaatii (saman valmistus sukupolven sisällä) enemmän virtaa mikä yleensä johtaa myös siihen että korttiin täytyisi tehdä muutoksia millä tuota virtaa saadaan tuotua lisää. Eli liittimen tyyppi saattaa vaihtua.

On siis täysin mahdollista (oma ennustukseni) että kun myöhemmin saamme esimerkiksi 4050 kortin Nvidialta he EIVÄT käytä tuota liitintä missä on ongelmia, mikä aiheuttaa sulamista, tulipaloja sekä lämpöongelmia MUTTA tämä 4050 kortti omaisi myös heikomman RT perffin kuin esim. 4090 kortti mikä taas KÄYTTÄÄ tätä liitintä missä on havaittu ongelmia.

Toivottavasti nyt näet miksi eri liitintyyppi (sekä kohonnut virrantarve) voi ja minun käsitykseni mukaan (tietysti tämän voimme vahvistaa vasta kun Nvidia julkaisee tuon 4050 kortin, mikä EI käytä uutta liitintyyppiä) myös tulee vaikuttamaan sitten RT perffiin. Eli kun näytönohjain saman valmistusperheen ja teknologian alla kuluttaa VÄHEMMÄN virtaa ja myös toimii vanhemmilla (hyviksi todetuilla, ei sulamista tai syttymistä uhkaavilla) liittimillä sen RT perffi ja myös muu suorituskyky jää jälkeen näistä uuudemmista (esim. 4090) korteista.

Tuo siis täysin omaa spekulaatiotani eikä enää niin hirveästi liity AMD:n tuleviin kortteihin.. mutta toivottavasti selvitti sinulle tätä asiaa.

Eiköhän tässä ollut enemmänkin kyse RT suorituskyvyn heikkoudesta suhteessa rasterointisuorituskykyyn, eikä erosta lippulaivan ja budjettikortin välillä.
AMD ei lisännyt CU määrää kuin hieman ja ei myöskään tuplannut RT-yksiköiden määrää / CU. (Ehkä tämä olisi vaatinut niin paljon muitakin muutoksia arkkitehtuuriin että ei ollut mahdollista tässä vaiheessa)
Ehkä se RDNA4 on sitten suunniteltu enemmän RT suorituskykyä varten ja toivottavasti saadaan sinnekkin puolelle kilpailua.
 
En nyt tiedä, mutta kun spekulaatio ketjussa ollaan niin tässä oma mielipiteeni:
- Yleensähän mitä tehokkaampi kortti on saman sukupolven sisällä kyseessä sen enemmän se vaatii virtaa.
- Mitä enemmän kortti vaatii virtaa sen enemmän / uudempia ja (teoriassa) parempia liittimiä siihen täytyy käyttää.
- Mitä tehokkaampi ja kalliimpi se saman sukupolven sisällä oleva kortti on sen parempi (yleensä?) sen RT perffi myös on.

Esimerkki: jos verrataan 3060TI vs 3090TI kortteja keskenään voidaan huomata että 3090TI kortti vie enemmän virtaa ja myös erinäisissä testeissä sekä peleissä sen RT perffi kuten asian ilmaisit on suurempi, eli parempi.

Jos siis kortti on tehokkaampi ja vaatii enemmän virtaa ja käyttää ehkä siksi uudempaa virtaliitin tyyppiä se myös yleensä omaa paremman RT perffin.

Eli: jos uusi (viallinen ja helpommin sulamista / tulipaloja ja syttymistä aiheuttava) liitintyyppi antaa enemmän virtaa kuin vanhempi liitintyyppi JA jos parempaa RT (sekä muutakin) perffiä tarjoava kortti VAATII enemmän virtaa voidaan siis vetää johtopäätös että saadakseen parempaa / suurempaa RT (sekä muutakin) perffiä kortti helposti myös vaatii (saman valmistus sukupolven sisällä) enemmän virtaa mikä yleensä johtaa myös siihen että korttiin täytyisi tehdä muutoksia millä tuota virtaa saadaan tuotua lisää. Eli liittimen tyyppi saattaa vaihtua.

On siis täysin mahdollista (oma ennustukseni) että kun myöhemmin saamme esimerkiksi 4050 kortin Nvidialta he EIVÄT käytä tuota liitintä missä on ongelmia, mikä aiheuttaa sulamista, tulipaloja sekä lämpöongelmia MUTTA tämä 4050 kortti omaisi myös heikomman RT perffin kuin esim. 4090 kortti mikä taas KÄYTTÄÄ tätä liitintä missä on havaittu ongelmia.

Toivottavasti nyt näet miksi eri liitintyyppi (sekä kohonnut virrantarve) voi ja minun käsitykseni mukaan (tietysti tämän voimme vahvistaa vasta kun Nvidia julkaisee tuon 4050 kortin, mikä EI käytä uutta liitintyyppiä) myös tulee vaikuttamaan sitten RT perffiin. Eli kun näytönohjain saman valmistusperheen ja teknologian alla kuluttaa VÄHEMMÄN virtaa ja myös toimii vanhemmilla (hyviksi todetuilla, ei sulamista tai syttymistä uhkaavilla) liittimillä sen RT perffi ja myös muu suorituskyky jää jälkeen näistä uuudemmista (esim. 4090) korteista.

Tuo siis täysin omaa spekulaatiotani eikä enää niin hirveästi liity AMD:n tuleviin kortteihin.. mutta toivottavasti selvitti sinulle tätä asiaa.

Niin ymmärsin kyllä mitä kuvittelet. Kuvittelet, että AMD päätti rajoittaa kortin tehon tarvetta liittimen takia, mikä on ihan täyttä kuvitelmaa. Kuten jo ensimmäisessä viestittää sanoin, nuo korttien tehobudjetti on suunniteltu jo ajat sitten, eikä niillä ole mitään tekemistä näiden liittimien kanssa.
 
Toisaalta Nvidia meni ns. all in ja sieltä tuli tehoa ja vääntöä, mutta tolkuttoman kalliiseen hintaan. Jopa niin kalliiseen hintaan, että 4080 voi näyttäytyä tuolla hinnalla ja perffillä lähinnä vitsiltä 7900XTX:n rinnalla muuten kuin RT-peleissä.

Paitsi että ei mennyt vielä lähellekkään all-in. A100 rupeaa olemaan lähellä all-in. Lähimpänä tähän asti all-in on kuluttaja näyttiksissä RTX2080Ti jopa on 754mm2. Maksimi koko kun pyörii siellä 850mm2 tienoilla ja sitä lähelle tuolla A100:lla mentiin kun se on 826mm2.

Eli nvidialla olisi siis varaa lihottaa sirua vielä noin 40%. Vastaavasti AMD:llä olisi varaa lihottaa tuota laskentasirua vielä noin 176%

Siinä suhteessa toki nVidia pelasi all-in tämän noden kanssa että tuskin seuraavaa sukupolvea tällä nodella julkaistaan koska noiden 850mm2 sirujen kustannukset räjähtäisi käsiin. AMD todennäköisesti tulee tällä nodella julkaisemaan uutta. Onko se sitten RDNA4 vaiko RDNA3 "refresh" huomattavasti isommalla laskentasirulla, se jää nähtäväksi.
Mahdollisuushan siis AMD:llä on tuplata CU:t jolloin laskentasirun koko voi edelleen jäädä alle 600mm2 koska siellä on kuitenkin edelleen tavaraa jota ei tartte tuplata. Navi 31 siru sitten jatkaisi refreshin myötä korteissa jotka olisi segmentissä pykälän alempana. Tää vois olla sellainen strategia joka voi vaikka tapahtua esim. vuoden päästä. Suunnittelet yhden uuden sirun ja voit julkaista kokonaan uuden sarjan kortteja kierrättämällä jo olemassa olevaa.
Eli uusi siru olisi esim. RX8900XT kun nykyinen RX7900XT/XTX siru olisi sitten RX8800XT jne.
EIkä AMD:n edes tartte välttämättä tuplata CU määrää että saadaan ihan uuden teholuokan siru ulos. 50% kasvatuskin riittää siihen, koska Navi 31 TDP on kuitenkin jo 355W niin tuplauksessa ei oikein ole järkeä koska sitä jouduttaisiin sitten ajelemaan huomattavasti alhaisemmilla kelloilla jos targettina on joku 450W TDP.

RT tehossa ei silti pärjätä, se vaatii sen RDNA4 jossa suurella todennäköisyydellä on pistetty koko RT homma uusiksi. Olisin hyvin yllättynyt jos ei olisi. Tää nykyinen on siis sellainen hätäratkaisu joka saatiin äkkiää viritelty koska RT:n kanssa nvidia yllätti AMD:n housutkintuissa.
 
Paitsi että ei mennyt vielä lähellekkään all-in. A100 rupeaa olemaan lähellä all-in. Lähimpänä tähän asti all-in on kuluttaja näyttiksissä RTX2080Ti jopa on 754mm2. Maksimi koko kun pyörii siellä 850mm2 tienoilla ja sitä lähelle tuolla A100:lla mentiin kun se on 826mm2.

Eli nvidialla olisi siis varaa lihottaa sirua vielä noin 40%. Vastaavasti AMD:llä olisi varaa lihottaa tuota laskentasirua vielä noin 176%

Siinä suhteessa toki nVidia pelasi all-in tämän noden kanssa että tuskin seuraavaa sukupolvea tällä nodella julkaistaan koska noiden 850mm2 sirujen kustannukset räjähtäisi käsiin. AMD todennäköisesti tulee tällä nodella julkaisemaan uutta. Onko se sitten RDNA4 vaiko RDNA3 "refresh" huomattavasti isommalla laskentasirulla, se jää nähtäväksi.
Mahdollisuushan siis AMD:llä on tuplata CU:t jolloin laskentasirun koko voi edelleen jäädä alle 600mm2 koska siellä on kuitenkin edelleen tavaraa jota ei tartte tuplata. Navi 31 siru sitten jatkaisi refreshin myötä korteissa jotka olisi segmentissä pykälän alempana. Tää vois olla sellainen strategia joka voi vaikka tapahtua esim. vuoden päästä. Suunnittelet yhden uuden sirun ja voit julkaista kokonaan uuden sarjan kortteja kierrättämällä jo olemassa olevaa.
Eli uusi siru olisi esim. RX8900XT kun nykyinen RX7900XT/XTX siru olisi sitten RX8800XT jne.
EIkä AMD:n edes tartte välttämättä tuplata CU määrää että saadaan ihan uuden teholuokan siru ulos. 50% kasvatuskin riittää siihen, koska Navi 31 TDP on kuitenkin jo 355W niin tuplauksessa ei oikein ole järkeä koska sitä jouduttaisiin sitten ajelemaan huomattavasti alhaisemmilla kelloilla jos targettina on joku 450W TDP.

RT tehossa ei silti pärjätä, se vaatii sen RDNA4 jossa suurella todennäköisyydellä on pistetty koko RT homma uusiksi. Olisin hyvin yllättynyt jos ei olisi. Tää nykyinen on siis sellainen hätäratkaisu joka saatiin äkkiää viritelty koska RT:n kanssa nvidia yllätti AMD:n housutkintuissa.

Tai onhan huhuja ollut myös 2xGCD kortista. Jos saavat sen toimimaan niin sellainen refresh toisi todella paljon lisää suorituskykyä.
Tuskin kuitenkaan ihan 2xCU määrää, mutta jos vaikka +50% (144CU) kortti tulisi niin rasterointisuorituskyky todennäköisesti olisi AMD:llä parempi kuin mahdollisella 4090 ti kortilla. RT suorituskyvyssä tosin jäisi silti kauas taakse, ehkä jotain toivoa voisi olla päästä lähelle 4080:aa...
 
Paitsi että ei mennyt vielä lähellekkään all-in. A100 rupeaa olemaan lähellä all-in. Lähimpänä tähän asti all-in on kuluttaja näyttiksissä RTX2080Ti jopa on 754mm2. Maksimi koko kun pyörii siellä 850mm2 tienoilla ja sitä lähelle tuolla A100:lla mentiin kun se on 826mm2.

Eli nvidialla olisi siis varaa lihottaa sirua vielä noin 40%. Vastaavasti AMD:llä olisi varaa lihottaa tuota laskentasirua vielä noin 176%

Siinä suhteessa toki nVidia pelasi all-in tämän noden kanssa että tuskin seuraavaa sukupolvea tällä nodella julkaistaan koska noiden 850mm2 sirujen kustannukset räjähtäisi käsiin.
juuri näin, teoriassa voisi toki kasvattaa vielä, mutta kyllä ostajat vähenee merkittävästi joka kerta kun näyttiksen hinta menee seuravalle tonniluvulle. Kolmas tonni olisi voinut olla liikaa ja siihen enemmänkin viittasin all innillä, että nyt ollaan jossain määrin hintakatossa tai näin uskoisin.
 
juuri näin, teoriassa voisi toki kasvattaa vielä, mutta kyllä ostajat vähenee merkittävästi joka kerta kun näyttiksen hinta menee seuravalle tonniluvulle. Kolmas tonni olisi voinut olla liikaa ja siihen enemmänkin viittasin all innillä, että nyt ollaan jossain määrin hintakatossa tai näin uskoisin.

Jonkun 20-25% isomman ne voisi ehkä seuraavassa genissä tällä samalla nodella julkaistakkin, sillä saisi kuitenkin ihan merkittävästi lisää cudaa edellyttäen että muistikaistaa saadaan lisää nopeampien muistien kautta. Silloin TSMC:llä on kuitenkin jo taas uutta nodea tarjolla jolloin vanhempien hinnat laskee jolloin tuollaisen ison sirun kustannukset ei välttämättä lähde vielä ihan lapasesta ja saannotkin on jo silloin saatu viilattua sille tasolle että tuossa voisi olla järkeä. Tai sitten seuraava tulee jollain muulla nodella taas. Vaikka intelin..

Tai onhan huhuja ollut myös 2xGCD kortista. Jos saavat sen toimimaan niin sellainen refresh toisi todella paljon lisää suorituskykyä.
Tuskin kuitenkaan ihan 2xCU määrää, mutta jos vaikka +50% (144CU) kortti tulisi niin rasterointisuorituskyky todennäköisesti olisi AMD:llä parempi kuin mahdollisella 4090 ti kortilla. RT suorituskyvyssä tosin jäisi silti kauas taakse, ehkä jotain toivoa voisi olla päästä lähelle 4080:aa...

En jaksa uskoa että tupla GCD olisi tulossa. Se vaatisi ihan älyttömän nopean väylän noiden sirujen välille kun käsittääkseni graffa kuormassa on niin paljon riippuvuuksia. Ja ihan jo muistikaistan takiakkin vaatisi todella nopean väylän. Jos mietitään että Navi 32 siruilla vaikka toteutettaisiin toi niin yhdellä sirulla olisi 256-bit kaistaa ja toisella sama määrä. Eli 4 muisti/cache chiplettiä per GCD.
 
Muutenkin jengi käyttäytyy, Ihan kun tämä [adapterivika] olisi nyt joku todella yleinen ja laaja ongelma.
4090 on erittäin pienen ostajakunnan kortti, varmaan maksimissaan muutama prosentti näytönohjainten ostajista edes harkitsee kyseistä mallia. Ja silti vika havaittiin melkein heti korttien myyntiin tulon jälkeen.
Kun muistetaan, että tulevat 4070/-80 kortit käyttävät samaa adapteria, niin ongelman voidaan todellakin odottaa olevan yleinen ja laaja. Tai ainakin riski sille on merkittävä, 4070/-80 ostajia kun on moninkertaisesti näiden halokorttien ostajiin verrattuna.
 
4090 on erittäin pienen ostajakunnan kortti, varmaan maksimissaan muutama prosentti näytönohjainten ostajista edes harkitsee kyseistä mallia. Ja silti vika havaittiin melkein heti korttien myyntiin tulon jälkeen.
Kun muistetaan, että tulevat 4070/-80 kortit käyttävät samaa adapteria, niin ongelman voidaan todellakin odottaa olevan yleinen ja laaja. Tai ainakin riski sille on merkittävä, 4070/-80 ostajia kun on moninkertaisesti näiden halokorttien ostajiin verrattuna.
Meinaako ne pakottaa tuon uuden adapterin myös kaikkiin 4070/4080-kortteihin? Eikö 375W muka riitä kahdella 8-pinnisellä?
 
Jonkun 20-25% isomman ne voisi ehkä seuraavassa genissä tällä samalla nodella julkaistakkin, sillä saisi kuitenkin ihan merkittävästi lisää cudaa edellyttäen että muistikaistaa saadaan lisää nopeampien muistien kautta. Silloin TSMC:llä on kuitenkin jo taas uutta nodea tarjolla jolloin vanhempien hinnat laskee jolloin tuollaisen ison sirun kustannukset ei välttämättä lähde vielä ihan lapasesta ja saannotkin on jo silloin saatu viilattua sille tasolle että tuossa voisi olla järkeä. Tai sitten seuraava tulee jollain muulla nodella taas. Vaikka intelin..



En jaksa uskoa että tupla GCD olisi tulossa. Se vaatisi ihan älyttömän nopean väylän noiden sirujen välille kun käsittääkseni graffa kuormassa on niin paljon riippuvuuksia. Ja ihan jo muistikaistan takiakkin vaatisi todella nopean väylän. Jos mietitään että Navi 32 siruilla vaikka toteutettaisiin toi niin yhdellä sirulla olisi 256-bit kaistaa ja toisella sama määrä. Eli 4 muisti/cache chiplettiä per GCD.
Ei se mielestäni mahdotontakaan ole, kun vain suunnitellaan tavanomaisesta poikkeavalla tavalla.
Tullaanhan esim. Intelin Sapphire Rapids (kuvassa HBM eli max -versio) ja muutkin tulevat Xeonit toteuttamaan aivan vastaavalla tavalla.

1668356843741.png

Ajatellaan vaikka niin, että suunnitellaan tuo tupla GCD samalle piille niin, että siinä on kaksi erillistä puoliskoa, jotka yhdessä toimivat kuin yksi piiri.
Puoliskojen välissä on suurio määrä hyvin nopeita johtimia johtimia puoliskalta toiselle.
Leikataan piiri tuosta keskeltä halki, laitetaan piirit piipohjaiselle substraatiolle ja kytketään toisiinsa sopivilla liittimillä.

Nyt, sen sijaan että tupla GCD leikattaisiin halki, tehdään kaksi identtistä GCD:tä ja liitetään toisiinsa yllä kuvatulla tavalla.
Tällöin piiri toimisi (lähes) kuten yksi monoliittinen piiri.

Tähän Intel menee prosessoreiden ja GPU/laskentapiirien osalta pian, ja varmaan AMD siirtyy vastaavaan ratkaisuun tulevaisuudessa.
GPU voisi olla hyvä harjoittelualusta tällaiselle.

Ja onhan tässä CDNA3:ssa jo tuo piirien välinen liitos toteutettu GCD:den ja MCD:en välillä - Infinity Linkin avulla.
Yhden Infinity Linkin nopeus on n. 900GB/s, eli yhteesä 5,3TB/s (6x Infinity Link).

Nyt samat (tai nopeammat / useammat) Infinity Linkit tehdään myös CGD:en välille.
1668356884121.png
1668357084136.png
 
Viimeksi muokattu:
Nyt, sen sijaan että tupla GCD leikattaisiin halki, tehdään kaksi identtistä GCD:tä ja liitetään toisiinsa yllä kuvatulla tavalla.
Tällöin piiri toimisi (lähes) kuten yksi monoliittinen piiri.

Applella on tuollainen ratkaisu tuotannossa m1 ultra piirissä. Reilu 2TB/s kaistaa piirien välillä. Ei skaalaa applen nykyisellä ratkaisulla pelisuorituskyky yhtä lineaarisesti kuin monoliitilla. Applen tapauksessa ei tarvikkaan skaalata, kun laskentakuormat mitä ajetaan hyötykäytössä eivät ole samanlaisia kuin pelikuormat.

Mielenkiinnolla odotan saadaanko tupla gcd tehtyä jossain vaiheessa niin, että suorituksen jakaminen piirien välillä ei eroa monoliitista. Olisi erittäin kätevä tapa skaalata suorituskykyä nyt kun perinteinen tapa lisätä suorituskykyä paremmalla valmistusprosesseilla, isommalla piirillä, isommalla virrankulutuksilla alkaa olemaan vaikeampaa ja vaikeampaa tai ainakin kallista.

FNWZ0TuVUAAraZc.png
 
Päätellen RT juupas eipäs keskustelun kiivaudesta odotukset eivät tainneet ihan täyttyä. Lisäksi selittelyt miten 7900 on suunnattu kilpailemaan 4080 segmentissä, no miksi eivät sitten ristinneet suoraan 7800:ksi.
Pitäisikö kaikkien yritysten mielestäsi nimetä tuotteensa kilpailijan tuotteiden mukaan? Eli kuka ekana ehtii antaa suuntaviivat ja myöhemmin julkaisevat sitten käyttävät jotain samoja numeroita, vai miten se menisi?
Edit: Odotukset ei täyttyneet muuten kuin kulutuksen osalta.
 
Mun mielestä ainakin paperilla 7900xt on oikein mainio tuote. Tietty he pettyivät, jotka uskoivat huhuja ja odottivat amd:n vievän nopeimman peligpu tittelin nvidialta. Uskon, että amd oletti vievänsä myös suorituskykykruunun. Oliko ad102 sitten nopeampi kuin mitä amd oletti vai tapahtuiko jotain rdna3:en kellojen kanssa niin ei voi tietää.

Mulle kuluttajana hinta/teho ja hinta/laatu on metriikat millä gpu ostetaan. Tän takia viimeksi tuli 3070fe taloon, tämä päivityskierros skipataan ja katsotaan päivitystä rdna4/nvidian seuraava paletista. Siihen aikaan selvinnee myös mikä se ue5 enginepelien vaatimustaso on ssd:n(directstorage), säteenseurannan, cpu:n jne. suhteen niin saa kerralla päivitettyä koko koneen vastaamaan "moderneja peliengeitä". Samalla vois päivittää monitorin 4k:hon.
 
EIkä AMD:n edes tartte välttämättä tuplata CU määrää että saadaan ihan uuden teholuokan siru ulos. 50% kasvatuskin riittää siihen, koska Navi 31 TDP on kuitenkin jo 355W niin tuplauksessa ei oikein ole järkeä koska sitä jouduttaisiin sitten ajelemaan huomattavasti alhaisemmilla kelloilla jos targettina on joku 450W TDP.
Toisaalta tuplaamalla CU ja ajelemalla sopivilla kelloilla voidaan "sopiva" määritellä sitten sen mukaan mikä kilpailutilanne ja mihin suuntaan asiat menossa. Eli halutaanko vähemmän virtaa vievä hieman hitaampi vai vetää nvidiat ja TBP sinne taivaaseen. Toisekseen CU määrän tuplaus ei tuplaa sen piirin kokoa edes samalla nodella. Jos tehdään paremmalla/optimoidummalla nodella niin koko ei kasva tuplaan kun CU ytimiä tuplataan. Sitähän esim nuo AdoredTV videot juuri spekuloi. AMD on hyvin helppo tehdä seuraavan tehotason kortti ensi vuonna ja nvidialla ei ole oikein mitään mahdollisuutta kilpailla ellei sieltäkin löydy takataskusta MCM ratkaisua, kuten jotkut täälläkin viittailivat. En usko että nvidialla vielä pariin vuoteen sellaista tulisi joten AMD tulee silloin voittamaan ainakin perus rasteroinnissa ihan helposti.
 
Meinaako ne pakottaa tuon uuden adapterin myös kaikkiin 4070/4080-kortteihin? Eikö 375W muka riitä kahdella 8-pinnisellä?
Oli tuo 3070/3080 FE:ssäkin, AIB malleissa tosin ei. Olisiko sitten tosiaan sama, että 40x0 AIB:t voisivat tehdä korttinsa 8-pinnisillä.
 
Mun mielestä ainakin paperilla 7900xt on oikein mainio tuote. Tietty he pettyivät, jotka uskoivat huhuja ja odottivat amd:n vievän nopeimman peligpu tittelin nvidialta.

Ilmeisesti kukaan ei osannut ennakoida että AMD tekee ns. nvidiat tuolla "tupla" shader määrällä. Kaikki tuntui olettavan että oikeasti shaderien määrä yli tuplaantuu, joka toki olisi ollut mahdollista eikä toi siru silti olisi ollut vielä mikään älyttömän iso, varmaan jotain reilu 500mm2.

Uskon, että amd oletti vievänsä myös suorituskykykruunun.

Tuskin oletti kun shader määrää ei tuon enempää kasvatettu.

Oliko ad102 sitten nopeampi kuin mitä amd oletti vai tapahtuiko jotain rdna3:en kellojen kanssa niin ei voi tietää.

Vaikka ne kellot saisi sinne 3GHz niin ei se silti voittaisi. Ehkä jossain mutta ei niin laajasti että AMD olisi voinut rummuttaa itseään selvänä voittajana. Eiköhän se tulevaisuudessa selviä että mihin niillä 3GHz kelloilla päästään jos ne huhut pitää paikkaansa että on tosiaan joku bugi ja se on Navi 32 saatu korjattua, niin eiköhän se korjata myös Navi 31:n ja jossain vaiheessa sitten julkaistaan RX7950XT refresh korjatulla sirulla.

AMD on hyvin helppo tehdä seuraavan tehotason kortti ensi vuonna ja nvidialla ei ole oikein mitään mahdollisuutta kilpailla ellei sieltäkin löydy takataskusta MCM ratkaisua, kuten jotkut täälläkin viittailivat.

Niin tämä on sellainen asia että joidenkin mielestä nvidialla ei ole mitään mahdollisuutta kun ei ole chipleteistä kokemusta. Ja sitten taas toiset on sitä mieltä että nvidia voi siirtyä chipletteihin ihan tuosta vaan sormia napsauttamalla, että ei siinä mitään erikoista ole kun muistiohjain ja cache erotellaan omaksi siruksi.

Mikä sitten on totuus, ehkä se on jotain tuolta väliltä. Kyllä se varmaan jotain kokemusta vaatii että saadaan homma optimaalisesti toimimaan, mutta tuskin se myöskään on niin suurtata rakettitiedessä etteikö nvidia voisi siihen ryhty suht nopeallakin aikataululla. Tosin arkkitehtuurin suunnittelu voi mennä täysin uusiksi joka ei ihan hetkessä tapahdu.
Jos nvidia ei ole kyennyt näkemään tätä AMD siirtymää jo vuosia sitten, että tää tuli nyt yllärinä, niin sitten voi olla että vastauksessa menee vielä vuosia, sillä oletuksella että oma chipletteihin pohjautuvan arkkitehtuurin suunnittelu on aloitettu tänä vuonna. Niin ei taida seuraavaan geniin vielä ehtiä.
 
Saa nyt nähdä miten paikkaansa pitäviä noi kellotusongelma huhut on mutta jos oletetaan että ne on ja päästään vain johonkin 2.7GHz lukemiin 3+GHz lukemien sijaan niin onhan se tietty pieni pettymys kun ei heti uunista tuu uutta parhaana mahdollisena. Positiivisena puolena voisi taas pitää siitä seuraavaa respiniä jolloin kellot saadaan kohdalleen ja miksei sitten päivitetä niitä piirejä infinity cachen tuplaamisella yhdistettynä nopeammalla GDDR6 muistilla. Nythän on vain yhden kerroksen infinity cache muistipiirit ytimen kaverina ja aika hidasta GDDR6 muistia.
 
Epäilen että he joutuivat tekemään saman valinnan kuin Nvidia ja päättivät että sulavat sekä tuleen syttyvät kortit, lisävirtaliittimet jne. eivät ole se valinta minkä ovat valmiita maksamaan lisääntyvästä RT tehosta?

Muutenhan tuo uusi kortti tuo asioita mihin kilpailija ei nyt edes pysty, kuten tuen 165FPS 8K resoluutiolle ja 480 4K:lle Display Port 2.1 tekniikan ansiosta. Myös hinta on iso bonus, kun mietitään että Suomessa se ainoa Jimm.s:n Nvidian 4000-sarjan kortti mitä sai ulos ja heti mukaan kaupasta on 2600€ niin nuo tulevat myyntiin 999$ ja 899$ hintaan eli uskoisin että niitä alkaa saamaan jopa 1000€ halvemmalla (alle 1600€ hintaan) Suomesta.
screenshot-2022-11-04-at-8-45-48-png.987966


Edit: toki tämäkin on vain spekulaatiota kuten omakin viestisi enkä omaa siis mitään suhteita Nahkatakkimieheen tai Lisaan. Mutta sopii oikein hyvin tänne AMD:n spekulaatioketjuun... :smoke:
Displayport 2.1 sen verran, että sekin vaatii DSC käyttöä, että päästään noihin kuvan lukuihin.

Realistisesti HDMI 2.1 + DSC todennäköisesti riittää hyvin lähivuosina julkaistaville näytöille. Saa vaan nähdä tuleeko näytöissä jotain kahtiajakoa, että HDMI 2.1 on rajoitettu vaikka 4K 240 Hz tms ja DP 2.1 taipuu korkeammalle. Tietty eka tarvittaisiin ne näytöt...

Silti paska veto Nvidialta jättää DP 2.1 tuki seuraaviin kortteihinsa. 4090 jaksaa joitain pelejä pyörittää jo ihan oikeasti 8K 60 fps ilman DLSS ja tietysti 8K näytöllä integer scale toimii 4K, 1440p ja 1080p jolloin 8K + korkea virkistystaajuus olisivat tervetulleita.
 
Niin tämä on sellainen asia että joidenkin mielestä nvidialla ei ole mitään mahdollisuutta kun ei ole chipleteistä kokemusta. Ja sitten taas toiset on sitä mieltä että nvidia voi siirtyä chipletteihin ihan tuosta vaan sormia napsauttamalla, että ei siinä mitään erikoista ole kun muistiohjain ja cache erotellaan omaksi siruksi.

Mikä sitten on totuus, ehkä se on jotain tuolta väliltä. Kyllä se varmaan jotain kokemusta vaatii että saadaan homma optimaalisesti toimimaan, mutta tuskin se myöskään on niin suurtata rakettitiedessä etteikö nvidia voisi siihen ryhty suht nopeallakin aikataululla. Tosin arkkitehtuurin suunnittelu voi mennä täysin uusiksi joka ei ihan hetkessä tapahdu.
Jos nvidia ei ole kyennyt näkemään tätä AMD siirtymää jo vuosia sitten, että tää tuli nyt yllärinä, niin sitten voi olla että vastauksessa menee vielä vuosia, sillä oletuksella että oma chipletteihin pohjautuvan arkkitehtuurin suunnittelu on aloitettu tänä vuonna. Niin ei taida seuraavaan geniin vielä ehtiä.
Jotenkin voisin kuvitella että AMD puolella chiplet suunnitelmat on olleet mukana RDNA alusta lähtien ja joku porukka sitä suunnittelemassa (tosin hyvin pienellä porukalla). Nyt sitten on ollut sopiva aika siirtyä siihen ja kun Zen tuo rahaa taloon niin on voitu iskeä se tuotekehitys oikeasti käyntiin. Ei se nvidialle mitään mahdotonta ole, mutta aikaa se varmasti vie enemmän kuin vuoden.

Saa nyt nähdä miten paikkaansa pitäviä noi kellotusongelma huhut on mutta jos oletetaan että ne on ja päästään vain johonkin 2.7GHz lukemiin 3+GHz lukemien sijaan niin onhan se tietty pieni pettymys kun ei heti uunista tuu uutta parhaana mahdollisena. Positiivisena puolena voisi taas pitää siitä seuraavaa respiniä jolloin kellot saadaan kohdalleen ja miksei sitten päivitetä niitä piirejä infinity cachen tuplaamisella yhdistettynä nopeammalla GDDR6 muistilla. Nythän on vain yhden kerroksen infinity cache muistipiirit ytimen kaverina ja aika hidasta GDDR6 muistia.
Jos nuo pitäisi paikkaansa niin siellä olisi aika paljon potentiaalista tehoa saatavilla mahdollisella pienellä korjauksella. Tuollainen korjattu versio ehtisi hyvin ensi vuodelle.
 
Jos nuo pitäisi paikkaansa niin siellä olisi aika paljon potentiaalista tehoa saatavilla mahdollisella pienellä korjauksella. Tuollainen korjattu versio ehtisi hyvin ensi vuodelle.

Oliko se jotain 6kk uuden maskin teko pikku muutoksilla? Joten jos on bugi ollut ja se korjataan, niin riippuen milloin on aloitettu niin voi olla varsin piankin valmis.
Mutta julkkari on jo ollut, niin kyllä näitä nyt jonkin aikaa myydään ennen kuin lähdetään päivittämään. Tai sitten tehdään hiljainen korjaus ja jossain vaiheessa alkaakin tulla kortteja jotka kellottuu hyvin.
Tosin tää on voitu jo huomioida ja bios tasolla lukittu niin ettei kuluttajat tästä pääse hyötymään jotta voidaan myöhemmin se 7950XT julkaista.
 
Niin tämä on sellainen asia että joidenkin mielestä nvidialla ei ole mitään mahdollisuutta kun ei ole chipleteistä kokemusta. Ja sitten taas toiset on sitä mieltä että nvidia voi siirtyä chipletteihin ihan tuosta vaan sormia napsauttamalla, että ei siinä mitään erikoista ole kun muistiohjain ja cache erotellaan omaksi siruksi.

Mikä sitten on totuus, ehkä se on jotain tuolta väliltä. Kyllä se varmaan jotain kokemusta vaatii että saadaan homma optimaalisesti toimimaan, mutta tuskin se myöskään on niin suurtata rakettitiedessä etteikö nvidia voisi siihen ryhty suht nopeallakin aikataululla. Tosin arkkitehtuurin suunnittelu voi mennä täysin uusiksi joka ei ihan hetkessä tapahdu.
Jos nvidia ei ole kyennyt näkemään tätä AMD siirtymää jo vuosia sitten, että tää tuli nyt yllärinä, niin sitten voi olla että vastauksessa menee vielä vuosia, sillä oletuksella että oma chipletteihin pohjautuvan arkkitehtuurin suunnittelu on aloitettu tänä vuonna. Niin ei taida seuraavaan geniin vielä ehtiä.
Nvidia Hopper arkkitehtuurin huhuttiin olevan multi chip module mallia, mutta eipä ollut sittenkään. Nvidia oletettavasti työstää vielä omaa ratkaisuaan ja se nähdään varmaan sitten parin vuoden päästä.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
262 437
Viestejä
4 556 571
Jäsenet
74 964
Uusin jäsen
LinogeFly

Hinta.fi

Back
Ylös Bottom