Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ei tuo liity mitenkään DX12 asiaan. Mainituilla spekseillä AMD:n pitäisi olla selvästi Nvidiaa hitaampi myös DX12:a, mutta eipä ole. Miksi ei? Jotain AMD:n on pakko tehdä paremmin jo pelkästään em. syistä (valmistustekniikka, panostus myös laskentaan) kun pärjää DX12:a noin hyvin.

Huonon DX11 nopeuden voi selittää huonoilla ajureilla, muttei hyvää DX12 nopeutta.
Logiikkasi ontuu. DX11-suorituskyky on mitä se on ajureiden vuoksi, DX12-suorituskyky on sitä mitä sen pitäisikin olla ilman mitään taikatemppuja. Asian kääntäen: jos AMD:lla olisi yhtä hyvät DX11-ajurit kuin NVIDIAlla, ei se AMD:nm DX12-suorituskyky näyttäisi mitenkään niin poikkeuksellisen hyvältä.
 
Logiikkasi ontuu. DX11-suorituskyky on mitä se on ajureiden vuoksi, DX12-suorituskyky on sitä mitä sen pitäisikin olla ilman mitään taikatemppuja. Asian kääntäen: jos AMD:lla olisi yhtä hyvät DX11-ajurit kuin NVIDIAlla, ei se AMD:nm DX12-suorituskyky näyttäisi mitenkään niin poikkeuksellisen hyvältä.

Eli jos AMD:lla olisi yhtä hyvät DX11 ajurit kuin Nvidialla, Vega64 olisi yhtä lähellä GTX1080Ti:ta DX11:a kuin se on DX12:a?
 
Monissa DX12 tilanteissa Vega64 pääsee hyvin lähelle tai menee ohi GTX1080Ti:sta.

Ei pääse eikä mene. Joissain hyvin harvinaisessa yksittäisessä GCNlle hyvin sopivassa tilantessa voi mennä. Tähän ei päde sana "monissa" ja keskimäärin tilanne on hyvin selvästi nvidian eduksi.

Se, että toistelet samaa valhetta ei tee siitä valheesta yhtään todempaa.

Monissa DX-12-peleissä/tilanteissa se menee juuri ja ohi GTX1080stä joka on aivan eri piiri, paljon pienempi ja halvempi valmistaa, ja paljon pienemällä laskentayksikköäärällä ja kapeammalla muistikaistalla.

Huomioidaan seuraavat faktat:
- Transistoreita on suunnilleen sama määrä

Vegassa n. 4% enemmän, mutta GTX1080 TI:ssä kahdeksasosa piirin laskentayksiköistä, sekä 1/12 muistiohjaimista ja ulomman tason välimuistista on pois päältä.

käytössä olevia transistoreita GTX1080Ti:ssä ssä on siis n. 14% vähemmän.

- AMD:n piirissä on panostettu enemmän muuhun kuin pelkkään pelaamiseen

Jotain perusteluja/lähteitä tälle väitteelle.

Jälleen lauot "faktoina" asioita, jotka on vaan omia tulkintojasi tai päätelmiäsi.

AMDn arkkitehtuurit soveltuvat "muuhun kuin pelaamiseen" hyvin sen takia, että sen arkkitehtuurin (ja ajurien) huonoudet tulee esiin vain pelikäytössä. Ei sen takia että niissä olisi siihen "panostettu" tai että ne olisivat siinä erityisen hyviä.

Huonomman pelisuorituskyvyn takia AMD joutuu myymään piirinsä ulos matalammalla katteella kuin nVidia, "alihinnalla" jolloin ne asiakkaan näkökulmasta on "hintansa nähden erinomaisia piirejä muuhun kuin laskentaan" vaikka ne ei sitä absoluuttisella teknisellä mittarilla (suhteessa valmistuskustannuksiinsa) olisi.

- Pelkästään valmistustekniikan ansiosta Nvidia kellottuu korkeammalle (ja AMD:n piirissä "haaskattiin" transistoreita jotta saatiin pidemmät liukuhihnat ja enemmän kelloa)

.. ihan niinkuin niitä ei nvidia olisi siihen samaan "haaskannut" :facepalm:

Silloin kun molemmat käyttivät samaa TSMCn 28nm prosessia, nvidian näyttikset kellottuivat korkeammalle kellolle kuin AMDn.
Tätä ei oikein selitetä valmistusprosessilla.

Oletetaan seuraavat asiat:

- AMD:n ja Nvidian DX12 ajuri on "samaa tasoa"
- AMD:n ja Nvidian piirin DX12 toteutus on "samaa tasoa"

Pelkästään näillä faktoilla ja oletuksilla, Nvidian pitäisi kaikissa DX12 tilanteissa mennä kauas edelle

Väitteestäsi idioottimaisen tekevä sana boldattu.

Kun kyse on täysin erilaisista arkkitehtuureista, niin on hyvin helppo löytää joku yksi yksittäinen tilanne, jossa toinen, keskimäärin hitaampi onkin sitä keskimäärin nopeampi.

Se, että sen yksittäisen tilanteen löytää ei todista yhtään mitään niiden yleisestä tasosta.

Keskimäärin GTX1080ti pieksee DX12-softilla Vegaa selvästi.

. Koska ei mene, jokin asia mättää. Joko AMD:n DX12 piirin toteutus tai ajuri on täysin ylivoimainen.

Menee, ja mikään muu ei mätä kuin se, että sinä
1) et ymmärrä mitkä asiat vaikuttaa suorituskykyyn eri arkkitehtuurien välillä
2) kiistät faktat
3) keksit juttuja omasta päästäsi (tai luet ja uskot epämääräisten huhusivujen paikkaansapitämättömiä paskajuttuja ja otat ne faktoina)
 
Viimeksi muokattu:
Eli jos AMD:lla olisi yhtä hyvät DX11 ajurit kuin Nvidialla, Vega64 olisi yhtä lähellä GTX1080Ti:ta DX11:a kuin se on DX12:a?
Suurinpiirtein kyllä, pientä lisäboostia voi tulla async computea hyödyntävissä peleissä ja ehkä jossain muuallakin, mutta pääpiirteittäin kuitenkin noin.
 
Ei pääse eikä mene. Joissain hyvin harvinaisessa yksittäisessä GCNlle hyvin sopivassa tilantessa voi mennä. Tähän ei päde sana "monissa" ja keskimäärin tilanne on hyvin selvästi nvidian eduksi.

Se, että toistelet samaa valhetta ei tee siitä valheesta yhtään todempaa.

Monissa DX-12-peleissä/tilanteissa se menee juuri ja ohi GTX1080stä joka on aivan eri piiri, paljon pienempi ja halvempi valmistaa, ja paljon pienemällä laskentayksikköäärällä ja kapeammalla muistikaistalla.

Tuohon "keskimäärin" hommaan on otettu huomioon myös sellaiset pelit joihin on jälkikäteen laitettu jonkinlainen DX12 tuki eikä peliä ole alusta saakka tehty tukemaan DX12:a. Ongelmanahan on DX12 pelien pieni määrä yleensäkin.

Onko lähdettä tuolle "paljon halvempi valmistaa? Siinä hyvin suuri merkitys on sillä paljonko TSMC pyytää valmistuksesta GF:n nähden. Ja koska Nvidian kannatti suunnitella halpispiiri Samsungilla valmistettavaksi, hintaero voi olla suuri.

Vegassa n. 4% enemmän, mutta GTX1080 TI:ssä kahdeksasosa piirin laskentayksiköistä, sekä 1/12 muistiohjaimista ja ulomman tason välimuistista on pois päältä.

käytössä olevia transistoreita GTX1080Ti:ssä ssä on siis n. 14% vähemmän.

Transistoreita siis sama määrä, eri määrä käytössä.

Jotain perusteluja/lähteitä tälle väitteelle.

Jälleen lauot "faktoina" asioita, jotka on vaan omia tulkintojasi tai päätelmiäsi.

AMDn arkkitehtuurit soveltuvat "muuhun kuin pelaamiseen" hyvin sen takia, että sen arkkitehtuurin (ja ajurien) huonoudet tulee esiin vain pelikäytössä. Ei sen takia että niissä olisi siihen "panostettu" tai että ne olisivat siinä erityisen hyviä.

Huonomman pelisuorituskyvyn takia AMD joutuu myymään piirinsä ulos matalammalla katteella kuin nVidia, "alihinnalla" jolloin ne asiakkaan näkökulmasta on "hintansa nähden erinomaisia piirejä muuhun kuin laskentaan" vaikka ne ei sitä absoluuttisella teknisellä mittarilla (suhteessa valmistuskustannuksiinsa) olisi.

Esimerkiksi RX580 on hyvin lähelle samaa tasoa mainauksessa kuin GTX1070, on noin kolmanneksen pienempi piiri ja käyttää halvempia muisteja. "Saman kategorian" GTX1060 taas häviää sen verran RX580:lle mainauksessa ettei GTX1060:a ostettu ennen kuin RX580:t loppuivat.

RX580 (ja RX570) olivat siis aivan erinomaisia piirejä valmistuskustannuksiltaan Nvidian vastaaviin nähden mainauksessa.

.. ihan niinkuin niitä ei nvidia olisi siihen samaan "haaskannut" :facepalm:

Silloin kun molemmat käyttivät samaa TSMCn 28nm prosessia, nvidian näyttikset kellottuivat korkeammalle kellolle kuin AMDn.
Tätä ei oikein selitetä valmistusprosessilla.

Totta kai Nvidia on tehnyt samaa. 14/16nm kuviossa AMD:lla oli siihen suurempi tarve koska valmistustekniikka on selvästi huonompi kellottumaan.

Väitteestäsi idioottimaisen tekevä sana boldattu.

Kun kyse on täysin erilaisista arkkitehtuureista, niin on hyvin helppo löytää joku yksi yksittäinen tilanne, jossa toinen, keskimäärin hitaampi onkin sitä keskimäärin nopeampi.

Se, että sen yksittäisen tilanteen löytää ei todista yhtään mitään niiden yleisestä tasosta.

Keskimäärin GTX1080ti pieksee DX12-softilla Vegaa selvästi.

Kuten aiemmin sanoin, tuo "keskimäärin" sisältää hyvin paljon pelejä joita ei ole alusta saakka tehty tukemaan DX12 vaan tuki on jälkikäteen pultattu päälle jotta on päästy sanomaan tämän olevan DX12 peli.

Samaa on nähty muissakin DX-vaihdoksissa. Kuten vaikka Far Cry 2, joka tuki DX10. Valitettavasti visuaalisia eroja DX9:n sai hakea suurennuslasilla. Tai vielä parempi, Far Cry 64-bit. Vaati 64-bittisen prosessorin. Muita eroja olikin sitten aika vähän. Mutta olihan se 64-bit. DX12 näyttää paremmalta kuin DX11 ja 64-bit näyttää paremmalta kuin 32-bit, joten miksikäs ei vaikka mitään eroa ei olisi.

Menee, ja mikään muu ei mätä kuin se, että sinä
1) et ymmärrä mitkä asiat vaikuttaa suorituskykyyn eri arkkitehtuurien välillä
2) kiistät faktat
3) keksit juttuja omasta päästäsi (tai luet ja uskot epämääräisten huhusivujen paikkaansapitämättömiä paskajuttuja ja otat ne faktoina)

Kuten eräässä aiemmassa keskustelussa, esittämäni faktat eivät kelvanneet ja käytännössä koko internet oli väärässä.

Niin , tai siis yhtä kaukana ;)

Suurinpiirtein kyllä, pientä lisäboostia voi tulla async computea hyödyntävissä peleissä ja ehkä jossain muuallakin, mutta pääpiirteittäin kuitenkin noin.

Eli AMD saisi karkeasti 20% lisää nopeutta pelkästään kehittämällä parempia ajureita tutulle arkkitehtuurille? Siinä vaiheessa voisi melkein kysyä miksi eivät keskity ajurien kehittämiseen arkkitehtuurin sijaan. Luulisi sen olevan helpompaa.
 
Eli AMD saisi karkeasti 20% lisää nopeutta pelkästään kehittämällä parempia ajureita tutulle arkkitehtuurille? Siinä vaiheessa voisi melkein kysyä miksi eivät keskity ajurien kehittämiseen arkkitehtuurin sijaan. Luulisi sen olevan helpompaa.
Jos en ihan väärin muista AMD joskus kommentoi että tuo DX11:n "multithreadaus tuki" olisi enemmän tai vähemmän rikki ihan rajapinnan itsensä osalta ja jossain huhussa muistaakseni puhuttiin että NVIDIAlla meni paitsi pari vuotta saada se ylipäätään toimimaan, myös käytännössä lähes kaikki pelit vaatisivat jotain pelikohtaista säätöä että homma pysyy kasassa.
Ottaen huomioon NVIDIAn suuremmat resurssit ja etenkin keskittymisen AMD:ta enemmän softapuolelle on todennäköisin selitys niinkin yksinkertainen, kuin että AMD:lla ei ole tai ei ollut ainakaan silloin kun se oli relevanttia resursseja lähteä ko. hommaan.

Riippumatta kuitenkin tuosta ylemmästä jolle en nyt tähän hätään muista lähteitä, NVIDIAn DX11-ajurit ovat ihan säikeistyksestä riippumatta selvästi suorituskykyisemmät DX11:llä eikä se multithreadaustuki tuo kuin vähän lisää suorituskykyä siellä, eli vaikka AMD:lla olisi MT-tuki mukana (kuten osittain olikin yhdessä pelissä jolle erikseen sallittiin command listit) se jäisi edelleen silti kauas jälkeen. Todennäköisesti ero juontaa juurensa juurikin resursseihin.
 
Viimeksi muokattu:
Jos en ihan väärin muista AMD joskus kommentoi että tuo DX11:n "multithreadaus tuki" olisi enemmän tai vähemmän rikki ihan rajapinnan itsensä osalta ja jossain huhussa muistaakseni puhuttiin että NVIDIAlla meni paitsi pari vuotta saada se ylipäätään toimimaan, myös käytännössä lähes kaikki pelit vaatisivat jotain pelikohtaista säätöä että homma pysyy kasassa.
Ottaen huomioon NVIDIAn suuremmat resurssit ja etenkin keskittymisen AMD:ta enemmän softapuolelle on todennäköisin selitys niinkin yksinkertainen, kuin että AMD:lla ei ole tai ei ollut ainakaan silloin kun se oli relevanttia resursseja lähteä ko. hommaan.

Riippumatta kuitenkin tuosta ylemmästä jolle en nyt tähän hätään muista lähteitä, NVIDIAn DX11-ajurit ovat ihan säikeistyksestä riippumatta selvästi suorituskykyisemmät DX11:llä eikä se multithreadaustuki tuo kuin vähän lisää suorituskykyä siellä, eli vaikka AMD:lla olisi MT-tuki mukana (kuten osittain olikin yhdessä pelissä jolle erikseen sallittiin command listit) se jäisi edelleen silti kauas jälkeen. Todennäköisesti ero juontaa juurensa juurikin resursseihin.

Onhan tuossa järkeä. AMD kehitti onnistuneesti Mantlen jonka jälkeen oli selvää että se tai sen johdannaiset (tai jokin ihan muu) tulee syrjäyttämään DX11:a jossakin vaiheessa. Aikansa siihen menee mutta väistämättä jossakin vaiheessa se tapahtuu. Kaikki se mitä panostetaan DX11 korjaamiseen menee tavallaan hukkaan koska sitä ei pysty käyttämään tulevissa projekteissa. Myös mitä myöhemmin tekee DX11 korjaukset, sitä vähemmän niistä ehtii hyötyä. Ehkä sitten katsottiin ettei ole vaivan arvoista alkaa korjaamaan vaan laitetaan rajalliset resurssit johonkin tuottavampaan.
 
Jos en ihan väärin muista AMD joskus kommentoi että tuo DX11:n "multithreadaus tuki" olisi enemmän tai vähemmän rikki ihan rajapinnan itsensä osalta ja jossain huhussa muistaakseni puhuttiin että NVIDIAlla meni paitsi pari vuotta saada se ylipäätään toimimaan, myös käytännössä lähes kaikki pelit vaatisivat jotain pelikohtaista säätöä että homma pysyy kasassa.
Ottaen huomioon NVIDIAn suuremmat resurssit ja etenkin keskittymisen AMD:ta enemmän softapuolelle on todennäköisin selitys niinkin yksinkertainen, kuin että AMD:lla ei ole tai ei ollut ainakaan silloin kun se oli relevanttia resursseja lähteä ko. hommaan.

Onhan tuossa järkeä. AMD kehitti onnistuneesti Mantlen jonka jälkeen oli selvää että se tai sen johdannaiset (tai jokin ihan muu) tulee syrjäyttämään DX11:a jossakin vaiheessa. Aikansa siihen menee mutta väistämättä jossakin vaiheessa se tapahtuu. Kaikki se mitä panostetaan DX11 korjaamiseen menee tavallaan hukkaan koska sitä ei pysty käyttämään tulevissa projekteissa. Myös mitä myöhemmin tekee DX11 korjaukset, sitä vähemmän niistä ehtii hyötyä. Ehkä sitten katsottiin ettei ole vaivan arvoista alkaa korjaamaan vaan laitetaan rajalliset resurssit johonkin tuottavampaan.
Vähäisen kiinnostuksen vuoksi Mantlea ruvettiin hautaamaan nelisen vuotta sitten ja sen seuraajan, Vulkan apin ja/tai dx12 tukevia pelejä on vähänlaisesti. Jälkiviisaana voi vain todeta että amd:n olisi kannattanut ohjata suurempi osa mantle hömppään ja muutamien pelitalojen voiteluun upotetuista taaloista 2014 - 2018 yleisimmän dx11 rajapinnan tukeen ja ajurikehitykseen.
 
Vähäisen kiinnostuksen vuoksi Mantlea ruvettiin hautaamaan nelisen vuotta sitten ja sen seuraajan, Vulkan apin ja/tai dx12 tukevia pelejä on vähänlaisesti. Jälkiviisaana voi vain todeta että amd:n olisi kannattanut ohjata suurempi osa mantle hömppään ja muutamien pelitalojen voiteluun upotetuista taaloista 2014 - 2018 yleisimmän dx11 rajapinnan tukeen ja ajurikehitykseen.

Lyhyellä tähtäimellä noin, pidemmällä ei välttämättä. Tällä hetkellä näyttää DX12/Vulkan ottaneen "tulevan standardin" aseman eikä AMD:n tarvitse kehittää mitään todella uutta tukeakseen "tulevaa standardia". Jos/kun tämä" tuleva standardi" valtaa markkinat, AMD:lla on valmiiksi tekniikka sitä varten. Pitkällä tähtäimellä Mantle voi olla loistava veto tuon takia.

Vähän sama kuin x86-64. Alussa täysin turha, myöhemmin x86-64 valtasi 95% serverimarkkinoista ja nyt kun AMD julkaisi Ryzenin, täysin sama prosessoriydin kelpaa sekä palvelimiin että työpöydälle. Eikä tarvitse palvelimiin kehittää erikseen jotain muuta.
 
Onko lähdettä tuolle "paljon halvempi valmistaa? Siinä hyvin suuri merkitys on sillä paljonko TSMC pyytää valmistuksesta GF:n nähden. Ja koska Nvidian kannatti suunnitella halpispiiri Samsungilla valmistettavaksi, hintaero voi olla suuri.



Esimerkiksi RX580 on hyvin lähelle samaa tasoa mainauksessa kuin GTX1070, on noin kolmanneksen pienempi piiri ja käyttää halvempia muisteja. "Saman kategorian" GTX1060 taas häviää sen verran RX580:lle mainauksessa ettei GTX1060:a ostettu ennen kuin RX580:t loppuivat.RX580 (ja RX570) olivat siis aivan erinomaisia piirejä valmistuskustannuksiltaan Nvidian vastaaviin nähden mainauksessa.
Kaippa tuossa haettiin sitä, että Vegan piiri on yli 1/2 isompi kuin mitä GTX 1080/1070:sta löytyy? Tosiaan olisi hyvä nähdä lähdettä eri valmistajien hinnoille. Täysin yhtä hyvin TSMC ja Samsung voivat olla merkittävästi halvempia kuin GF. Olisi mukavaa tietää myös minkälaiset kuviot nykyään on: Ennen Nvidia maksoi kaikista valmistetuista piireistä ja AMD vain toimivista. Nvidia sai piirit halvemmalla ja homman järkevyys riippui saannoista. Ainakin Nvidia on tuomassa markkinoille GTX 1060-korttia GP104-piirillä (1070/1080), mistä on poistettu käytöstä melkein puolet.
 
Kaippa tuossa haettiin sitä, että Vegan piiri on yli 1/2 isompi kuin mitä GTX 1080/1070:sta löytyy? Tosiaan olisi hyvä nähdä lähdettä eri valmistajien hinnoille. Täysin yhtä hyvin TSMC ja Samsung voivat olla merkittävästi halvempia kuin GF. Olisi mukavaa tietää myös minkälaiset kuviot nykyään on: Ennen Nvidia maksoi kaikista valmistetuista piireistä ja AMD vain toimivista. Nvidia sai piirit halvemmalla ja homman järkevyys riippui saannoista. Ainakin Nvidia on tuomassa markkinoille GTX 1060-korttia GP104-piirillä (1070/1080), mistä on poistettu käytöstä melkein puolet.

Jos TSMC on halvempi kuin Samsung/GF, miksi Nvidia valmistaa halpapiirejä Samsungilla? Suunnitellaan piirinvalmistus uudelleen eri tehtaaseen sopivaksi vaikka valmistus on kalliimpaa? Ei kovin uskottavaa.

Tarkkaa lähdettä hinnoille tuskin saadaan koska ei taida olla julkista tietoa.
 
Lyhyellä tähtäimellä noin, pidemmällä ei välttämättä. Tällä hetkellä näyttää DX12/Vulkan ottaneen "tulevan standardin" aseman eikä AMD:n tarvitse kehittää mitään todella uutta tukeakseen "tulevaa standardia". Jos/kun tämä" tuleva standardi" valtaa markkinat, AMD:lla on valmiiksi tekniikka sitä varten. Pitkällä tähtäimellä Mantle voi olla loistava veto tuon takia.
Toisaalta, amd:n näytönohjaimien omistajat on saaneet nauttia jo vuosia (R9, RX jne) vain keskinkertaisesta dx11 suorituskyvystä, syystä että yritys ei halua tukea käytössä olevaa standardia.

Ehkä amd:llä on edessä loistava tulevaisuus vaikka jälkikäteen arvioiden fiji- ja vega arkkitehtuureita ei voi kehua onnistuneiksi. Toki nykyisessä 5th gen ja tulevassa olevassa 6th gcn arkkitehtuurissa saattaa olla jotain "tulevaa standardia" kilpailijaa paremmin tukevia ominaisuuksia, mikä ne sitten ovatkaan.

Fakta on kuitenkin se että amd:llä ei ole tällä hetkellä tarjolla, rajapinnasta riippumatta, nvidian vanhaa (pascal) sukupolvea nopeampia, halvempia ja vähemmän kuluttavia näytönohjaimia peli- tai hyötykäyttöön.
 
Fakta on kuitenkin se että amd:llä ei ole tällä hetkellä tarjolla, rajapinnasta riippumatta, nvidian vanhaa (pascal) sukupolvea nopeampia, halvempia ja vähemmän kuluttavia näytönohjaimia peli- tai hyötykäyttöön.
Eipä NVIDIAkaan ole näyttänyt sen parempaa saada, ellet nyt rupea väittämään Titan V:tä pelinäytönohjaimeksi $3k hintoineen. Ja hyötypuolellahan asia riippuu ihan täysin siitä mitä tehdään, joihinkin hommiin AMD:n tuotokset sopii paremmin, toisiin NVIDIAn.
 
Ehkä amd:llä on edessä loistava tulevaisuus vaikka jälkikäteen arvioiden fiji- ja vega arkkitehtuureita ei voi kehua onnistuneiksi. Toki nykyisessä 5th gen ja tulevassa olevassa 6th gcn arkkitehtuurissa saattaa olla jotain "tulevaa standardia" kilpailijaa paremmin tukevia ominaisuuksia, mikä ne sitten ovatkaan.

Tais AMD:n roadmapin mukaan Vega olla viiimenen GCN arkkitehtuurin tuote vai oliko Navi vielä GCN, jokatapauksessa GCN:stä ollaan vihdoin pääsemässä eroon ja ihan uutta on tulossa. Ja juu Navi vaikuttaisi olevan viimeinen GCN.

AMD%20GPU%20roadmap.png
 
Tais AMD:n roadmapin mukaan Vega olla viiimenen GCN arkkitehtuurin tuote vai oliko Navi vielä GCN, jokatapauksessa GCN:stä ollaan vihdoin pääsemässä eroon ja ihan uutta on tulossa. Ja juu Navi vaikuttaisi olevan viimeinen GCN.

AMD%20GPU%20roadmap.png

Tuolla dialla ei ole mitään tekemistä alla olevan arkkitehtuurin kanssa, "Next-gen" saattaa yhtä hyvin olla GCN kuin olla olemattakin
 
Jos TSMC on halvempi kuin Samsung/GF, miksi Nvidia valmistaa halpapiirejä Samsungilla? Suunnitellaan piirinvalmistus uudelleen eri tehtaaseen sopivaksi vaikka valmistus on kalliimpaa? Ei kovin uskottavaa.

Tarkkaa lähdettä hinnoille tuskin saadaan koska ei taida olla julkista tietoa.
Entä jos hintojen suhteen toimiikin seuraava kuvio: GF > TSMC > Samsung? Eli Samsung olisi halvempi kuin kumpikaan vaihtoehto.
Hommassa voi olla kyse siitäkin, ettei TSMC:llä ole tarpeeksi kapasiteettia valmistaa näitä halpis-piirejä ja Samsungin tehtaat voivat myös soveltua hyvin halpis-piiriä varten. Tämä ei ole ensimmäinen kerta kun Nvidia käyttää TSMC:n rinnalla toista valmistajaa.

Joka tapauksessa Vegan piiri on yli 50% isompi kuin GTX 1070/1080:n. Vaikeaa vain uskoa, ettei näiden valmistuskuluissa olisi isoa eroa. Tarkkaa tietoa tuskin juu koskaan saadaan.
 
Tuolla dialla ei ole mitään tekemistä alla olevan arkkitehtuurin kanssa, "Next-gen" saattaa yhtä hyvin olla GCN kuin olla olemattakin

No miten tyhmä pitää olla että hakkaa vaan päätä seinään?

Taino. Jossain oli hyvää settiä spekuloinnista että ei tuossa itse arkkitehtuurissa ole välttämättä niinkään vikaa vaan vika on enemmänkin tuossa shader:tmu:rop suhteessa joka AMD:llä on pielessä. 1080 ja vega 64:ssa on molemmissa 64ROP ja suorituskyky on aika pitkälti sama. Vegassa tolkuttomasti enemmän shadereita mutta niitä ei spekuloinnin mukaan pystytä kunnolla hyödyntämään koska ROP on niin vähän.
nVidialla Ti:ssä cuda/rop suhde on 40,7 ja Titan Xp:ssä 40, Titan V:ssä suhde on 53,3 ja täydessä GV100 piirissä joka on ainoastaan quatrossa toi suhde on taas takas 40.
Vega 64 se suhde on 64. nVidialla ei ole yhtään korttia jossa toi suhdeluku olisi noin korkea.
 
Joka tapauksessa Vegan piiri on yli 50% isompi kuin GTX 1070/1080:n. Vaikeaa vain uskoa, ettei näiden valmistuskuluissa olisi isoa eroa. Tarkkaa tietoa tuskin juu koskaan saadaan.

Tosin AMD:llä kun on ollut voimassa se diili GloFo:n kanssa niin voi olla että AMD:lle GloFo on ollut varsin edullinen kumppani tuon diilin takia.
Nythän AMD on rönsyilemässä ulos tuosta diilistä kun alkaa 7nm romuja tuottamaan molemmilla valmistajilla.
 
Tosin AMD:llä kun on ollut voimassa se diili GloFo:n kanssa niin voi olla että AMD:lle GloFo on ollut varsin edullinen kumppani tuon diilin takia.
Nythän AMD on rönsyilemässä ulos tuosta diilistä kun alkaa 7nm romuja tuottamaan molemmilla valmistajilla.
AMD on tuotattanut piirejä jatkuvasti myös TSMC:llä (konsoli-APU:t nyt viimeisimpinä) ja Samsungiltakin on ainakin välillä tilattu muutamia piirieriä.
 
Toisaalta, amd:n näytönohjaimien omistajat on saaneet nauttia jo vuosia (R9, RX jne) vain keskinkertaisesta dx11 suorituskyvystä, syystä että yritys ei halua tukea käytössä olevaa standardia.

Ehkä amd:llä on edessä loistava tulevaisuus vaikka jälkikäteen arvioiden fiji- ja vega arkkitehtuureita ei voi kehua onnistuneiksi. Toki nykyisessä 5th gen ja tulevassa olevassa 6th gcn arkkitehtuurissa saattaa olla jotain "tulevaa standardia" kilpailijaa paremmin tukevia ominaisuuksia, mikä ne sitten ovatkaan.

Fakta on kuitenkin se että amd:llä ei ole tällä hetkellä tarjolla, rajapinnasta riippumatta, nvidian vanhaa (pascal) sukupolvea nopeampia, halvempia ja vähemmän kuluttavia näytönohjaimia peli- tai hyötykäyttöön.

Mikä on onnistunut ja mikä ei? Vega kelpaa mainiosti pelikonsoleihin, kryptomainaajat vievät ne käsistä, kelpaa hyvin myös ammattilaispuolelle, kelpaa hyvin DX12 peleihin...

Oikeastaan ainoa mihin Vega kelpaa huonosti on DX11 pelit. Se ei suuremmin hetkauta kokonaisuutta.

Entä jos hintojen suhteen toimiikin seuraava kuvio: GF > TSMC > Samsung? Eli Samsung olisi halvempi kuin kumpikaan vaihtoehto.
Hommassa voi olla kyse siitäkin, ettei TSMC:llä ole tarpeeksi kapasiteettia valmistaa näitä halpis-piirejä ja Samsungin tehtaat voivat myös soveltua hyvin halpis-piiriä varten. Tämä ei ole ensimmäinen kerta kun Nvidia käyttää TSMC:n rinnalla toista valmistajaa.

Joka tapauksessa Vegan piiri on yli 50% isompi kuin GTX 1070/1080:n. Vaikeaa vain uskoa, ettei näiden valmistuskuluissa olisi isoa eroa. Tarkkaa tietoa tuskin juu koskaan saadaan.

Mikään ei viittaa GF:n olevan kalliimpi kuin TSMC:n. Se mitä Samsung maksaa on toinen juttu. GF ja Samsung käyttävät 1:1 samaa prosessia eli hinnoittelu riippuu muista asioista.

Halpispiirit ovat hyvin pieniä ja syövät valmistuskapasiteettia vähän, siksi TSMC:n tuotantopulakaan ei vaikuta todennäköiseltä teorialta. Halpispiireihin 14nm LPP soveltuu hyvin, suurempiin ei niin hyvin.

Ei välttämättä ole isoa eroa mikäli hinta per kiekko on hatusta vedettynä TSMC:lla 10K$ ja GF:lla 6K$.
 
AMD on tuotattanut piirejä jatkuvasti myös TSMC:llä (konsoli-APU:t nyt viimeisimpinä) ja Samsungiltakin on ainakin välillä tilattu muutamia piirieriä.

Eikös noitten konsoliapujen kanssa ollut joku koukku että ne ei ole AMD:n tuottamia, ainoastaan suunnittelemia ja tuotannosta vastaa sony ja mikrosoft itse?
 
Eipä NVIDIAkaan ole näyttänyt sen parempaa saada, ellet nyt rupea väittämään Titan V:tä pelinäytönohjaimeksi $3k hintoineen. Ja hyötypuolellahan asia riippuu ihan täysin siitä mitä tehdään, joihinkin hommiin AMD:n tuotokset sopii paremmin, toisiin NVIDIAn.
Ei saa, nvidialla ei ole ollut toistaiseksi tarvetta julkaista 1080ti nopeampia volta pelileluja vaikka se olisi (kenties) mahdollista.
 
Ei saa, nvidialla ei ole ollut toistaiseksi tarvetta julkaista 1080ti nopeampia volta pelileluja vaikka se olisi (kenties) mahdollista.
Ei näillä markkinoilla ole varaa pantata jos on jotain julkaistavaa, se sekoittaisi kaikki syklit ja se pantattava piiri on joka päivä todennäköisemmin ja todennäköisemmin jäljessä tulevaa kilpailua
 
Ei näillä markkinoilla ole varaa pantata jos on jotain julkaistavaa, se sekoittaisi kaikki syklit ja se pantattava piiri on joka päivä todennäköisemmin ja todennäköisemmin jäljessä tulevaa kilpailua
Kilpailua ei ole joten voisi kuvitella että miljardituloksia tekevä yritys voi lykätä julkaisuja ja aloittaa massatuotanto heille paremmin sopivana ajankohtana.
 
Viimeksi muokattu:
Toisaalta, amd:n näytönohjaimien omistajat on saaneet nauttia jo vuosia (R9, RX jne) vain keskinkertaisesta dx11 suorituskyvystä, syystä että yritys ei halua tukea käytössä olevaa standardia

Mistä ihmeen tukemattomasta standardista nyt oikein puhut?
 
Esimerkiksi RX580 on hyvin lähelle samaa tasoa mainauksessa kuin GTX1070, on noin kolmanneksen pienempi piiri ja käyttää halvempia muisteja.

:facepalm:

Molemmat käyttävät aivat samanlaisia muisteja. (8 GiB GDDR5, 256-bittisellä väylällä).
Mikä niistä muisteista tekee AMDllä halvempia kuin nVidialla?

Ja jälleen vertaat täyttä AMDn piiriä leikattuun nVidian piiriin.

Otappas AMDltä RX570 niin saat reilumman vertailun.

Mutta Polaris 10 tosiaan on pienempi piiri kuin gp104. Tosin "kolmanneksen pienempi" on paskapuhetta.

Todellisuudessa se on 26% pienempi, käyttäessään 9% harvempaa valmistustekniikkaa, ja sen laskentayksiköistä 25% on kytketty pois päältä.

Kuten aiemmin sanoin, tuo "keskimäärin" sisältää hyvin paljon pelejä joita ei ole alusta saakka tehty tukemaan DX12 vaan tuki on jälkikäteen pultattu päälle jotta on päästy sanomaan tämän olevan DX12 peli.'

:facepalm:

Ei DX12-tukea voi mitenkään "pultata päälle" kun koko APIn toimintaperiaatteet on aivan erilaiset.

Samaa on nähty muissakin DX-vaihdoksissa.

Monet muut DX-vaihdokset ovat olleet teknisesti aivan erilaisia muutoksia. Niissä usein toimintaperiaate ja se ajurikutsujen pää on pysynyt samana, mutta renderöinnin loppupäähän on tullut uusia toimintoja. Näitä on ollut helppo ottaa käyttöön vaikka "yksi kerrallaan".

DX12 näyttää paremmalta kuin DX11

Usein nimenomaan ei. DX12n pointti on vähentää ajurioverheadeja ja tarjota parempaa/suorempaa pääsyä käsiksi siihen näyttisrautaan matalalla tasolla.

DX11lla saa muutamaa ihan merkityksetöntä pikkujuttua lukuunottamatta piirrettyä aivan samat efektit, mutta usein hitaammin.

Kuten eräässä aiemmassa keskustelussa, esittämäni faktat eivät kelvanneet ja käytännössä koko internet oli väärässä.

Et esittänyt faktoja vaan omia tulkintojasi ja ymmärtämättömien huhusitejen spekulaatiojuttuja.
 
Viimeksi muokattu:
:facepalm:

Molemmat käyttävät aivat samanlaisia muisteja. (8 GiB GDDR5, 256-bittisellä väylällä).
Mikä niistä muisteista tekee AMDllä halvempia kuin nVidialla?

Ja jälleen vertaat täyttä AMDn piiriä leikattuun nVidian piiriin.

Otappas AMDltä RX570 niin saat reilumman vertailun.

Mutta Polaris 10 tosiaan on pienempi piiri kuin gp104. Tosin "kolmanneksen pienempi" on paskapuhetta.

Todellisuudessa se on 26% pienempi, käyttäessään 9% harvempaa valmistustekniikkaa, ja sen laskentayksiköistä 25% on kytketty pois päältä.

RX580:a saa 4 gigan muistilla, GTX1070:a ei. Ainakin tietääkseni.

Miksi pitäisi verrata leikattuun? GF:n prosessin saannot ovat kuulemma erinomaiset.

:facepalm:

Ei DX12-tukea voi mitenkään "pultata päälle" kun koko APIn toimintaperiaatteet on aivan erilaiset.

Voisit niinkuin yrittää ottaa edes jotain selvää asioista mistä mutuilet.

Pultata päälle = peliä ei suunnitella alusta alkaen käyttämään uutta DX:a.

Kun katsotaan Far Cry 2:ta, DX 10 ei anna käytännössä mitään hyötyä DX9:n verrattuna, eli DX10 on turha. Vai olisiko niin että peli on tehty pääasiassa tukemaan DX9:a ja DX10:n tarjoamat hyödyt on pitkälti jätetty käyttämättä.

Monet muut DX-vaihdokset ovat olleet teknisesti aivan erilaisia muutoksia. Niissä usein toimintaperiaate ja se ajurikutsujen pää on pysynyt samana, mutta renderöinnin loppupäähän on tullut uusia toimintoja. Näitä on ollut helppo ottaa käyttöön vaikka "yksi kerrallaan".

Tarkoitan sitä etteivät useinkaan ensimmäiset uutta tekniikkaa tukevat pelit sisällä mitään erikoista verrattuna vanhan tekniikan peleihin. Tietyissä tapauksissa eroja ei tule yhtään. Ajan kuluessa eroja alkaa tulla enemmän.

Usein nimenomaan ei. DX12n pointti on vähentää ajurioverheadeja ja tarjota parempaa/suorempaa pääsyä käsiksi siihen näyttisrautaan matalalla tasolla.

DX11lla saa muutamaa ihan merkityksetöntä pikkujuttua lukuunottamatta piirrettyä aivan samat efektit, mutta usein hitaammin.

Tässä oli kyse markkinoinnista. 12>11, 64>32. Kyllä tuollainenkin tiettyihin ostajiin uppoaa.

Et esittänyt faktoja vaan omia tulkintojasi ja ymmärtämättömien huhusitejen spekulaatiojuttuja.

Tulkintani perustuivat pitkälti useaan netistä löytyvään lähteeseen. Sinä taas tulkitsit niiden lähteiden olevan väärässä eikä sinun tulkintaasi tukenut yksikään lähde. En vetänyt niitä aikatauluja hatusta vaan käytin lähteitä.
 
Se, että AMD:n DX11-ajureiden suorituskyky on eri tasolla NVIDIAn kanssa ei tarkoita etteikö sitä tuettaisi
Tuki ja tuen tasoon panostus (käytössä olevat resurssit, kehittäminen, optimointi jne) ei ole sama asia. Amd kulutti rajallisia resursseja mantle apiin, samaan aikaan kilpailijan näytönohjaimien dx11 suorituskyky nousi huomattavasti pelkillä ajureilla.
 
Tuki ja tuen tasoon panostus (käytössä olevat resurssit, kehittäminen, optimointi jne) ei ole sama asia. Amd kulutti rajallisia resursseja mantle apiin, samaan aikaan kilpailijan näytönohjaimien dx11 suorituskyky nousi huomattavasti pelkillä ajureilla.
Ja kiitos AMD:n panostuksen Mantleen meillä on nyt Vulkan ja DirectX 12
 
RX580:a saa 4 gigan muistilla, GTX1070:a ei. Ainakin tietääkseni.

Miksi pitäisi verrata leikattuun?

Koska sinä valitsit nvidialta leikatun mallin verrokiksi. Joko otetaan molemmilta leikattu malli tai ei kummaltakaan. Se, että otetaan toiselta leikattu malli ja toiselta ei on todella epäreilu vertailu.

GF:n prosessin saannot ovat kuulemma erinomaiset.

Ihan yhtä lailla TSMCn

Tässä oli kyse markkinoinnista. 12>11, 64>32. Kyllä tuollainenkin tiettyihin ostajiin uppoaa.

:facepalm:

Vain todella typerät ihmiset ostaa pelin sen takia että siinä lukee "DX12". Ihmiset ostaa pelin koska ne lukee arvotelun joka sanoo, että se on hyvä, tai kuulee kaverilta, että se on hyvä.

Sen sijaan ihminen voi jättää pelin ostamatta jos se vaatii rajapinnan jota oma käyttis ei tue.


[offtopic]

Lähdit sitten vielä kaivelemaan kritiikkiäni aiempiin paskapostauksiisi.. menee kyllä todella pahsti offtopickisi.

Tulkintani perustuivat pitkälti useaan netistä löytyvään lähteeseen. Sinä taas tulkitsit niiden lähteiden olevan väärässä eikä sinun tulkintaasi tukenut yksikään lähde. En vetänyt niitä aikatauluja hatusta vaan käytin lähteitä.
[/quote]

Tulkintasi perustui täydelliseen ymmärtämättömyyteen siitä, miten digitaaliopiirejä suunnitellaan. Ihan sama, vaikka osa lähteistäksi piti paikkaansa, kun et ymmärtänyt, mitä niissä lähteissäsi luki ja väitit niiden tarkoittavat jotain ihan muuta kuin mitä ne tarkoittivat.

Toisekseen, väitteesi ettei "minun tulkintojani" (eli siis todellisia faktoja) tukenut yksikään lähde on aivan puhdasta valehtelua.

[/offtopic]
 
Viimeksi muokattu:
Mikä on onnistunut ja mikä ei? Vega kelpaa mainiosti pelikonsoleihin

Mihin konsoliin Vega on tämän mennessä kelvannut?

Tuoreimman sukupolven konsolit käyttää Polarista, toisessa tosin siihen polarikseen on Vegasta lainattu pari pikkuominaisuutta.

kryptomainaajat vievät ne käsistä

Kryptomainaajat veivät talvella KAIKKI GPUt käsistä.

Ja melkein kaikkien GPUlla mainattavien leikkirahojen mainaus on hommaa, jossa tarvitaan ainoastaan mahdollisimman suuri määrä muistiaccesseja pienessä ajassa riittävän suureen muistiin.
Siinä ei piirin muulla nopeudella ole juuri mitään väliä.

AMDllä sitä muistikaistaa on suhteessa paljon, koska AMDn huonomman arkkitehtuurin takia suhteessa nVidiaan sitä muistikaistaa "tuhlataan" näyttiskäytössä, joten sitä on ollut pakko laittaa paljon.

kelpaa hyvin myös ammattilaispuolelle,

Mitä nyt tarkoitat "ammattilaispuolella" ?

Ei ole mitään "yhtä ammattilaispuolta". On monta hyvin erilaista käyttötarkoitusta mihin GPUita käytetään työhommien tekemiseen.

Ja käsittääkseni nVidian Quadro- ja Tesla-myynti on ollut aika moninkertaista AMD-pohjaisiin ammattilaiskortteihin nähden.

kelpaa hyvin DX12 peleihin...

Joo, tämä pitää paikkaansa.

Oikeastaan ainoa mihin Vega kelpaa huonosti on DX11 pelit. Se ei suuremmin hetkauta kokonaisuutta.

... tämä vaan on (vielä toistaiseksi) se ylivoimaisesti suurin käyttötarkoitus niille korteille. AMD-fanille tosin tärkein käyttötarkoitus ei "suuremmin hetkauta kokonaisuutta" :facepalm:

Mikään ei viittaa GF:n olevan kalliimpi kuin TSMC:n. Se mitä Samsung maksaa on toinen juttu. GF ja Samsung käyttävät 1:1 samaa prosessia eli hinnoittelu riippuu muista asioista.

Halpispiirit ovat hyvin pieniä ja syövät valmistuskapasiteettia vähän, siksi TSMC:n tuotantopulakaan ei vaikuta todennäköiseltä teorialta. Halpispiireihin 14nm LPP soveltuu hyvin, suurempiin ei niin hyvin.

Mikään ei myöskään viittaa GF:n olevan halvempi kuin TSMC.

(Ja Toisessa viestissäsi juuri sanoit, että saannot on erinomaiset, nyt alat sanomaan, että "suurempiin ei sovellu niin hyvin". Mikä muu kuin ei-erinomaiset saannot niitä suuria piirejä alkaisi haitata?)

Ei välttämättä ole isoa eroa mikäli hinta per kiekko on hatusta vedettynä TSMC:lla 10K$ ja GF:lla 6K$.

Tai entäs jos kuu onkin juustoa?


Tämä kertoo täydellisesti argumenttiesi tason. Vetelet täysin hatusta lukuja(jotka säädät sopivasti siihen suuntana pieleen mikä tulee agendaasi) ja sitten perustelet niillä asioita jotka olet jo etukäteen päättänyt haluavasi uskoa :facepalm:

Yleensä homma menee toisinpäin. Katsotaan fakfat ja niiden perusteella tehdään johtopäätös. SInä taas olet ensin tehnyt johtopäätöksesi(perustuen puhtaaseen uskoosi AMDn ylivoimaisuudesta), ja sitten vedät hatusta"faktat" joilla sitä perustelet.


Jos nyt ajatellaan asioita järjellä ilman mitään fanilaseja, niin voi olettaa molempien prosessien maksavan melko saman verran, kun kyse on hyvin samantasoisista ja samanikäisistä valmistusprosesseista. Ja jos TSMC tarjoaa inasen paremman suorituskyvyn, se kompensoituu aika hyvin sillä n. 9% tiheyserolla.




nVidia tekee ihan älytöntä tulosta(viime kvartaali 3.21 miljardia) juuri sen takia, että se voi n. 310mm^2 piirillä kilpailla AMDn n. 480 mm piiiriä vastaan, AMDn ollessa hädin tuskin voiton puolella.
 
Viimeksi muokattu:
Koska sinä valitsit nvidialta leikatun mallin verrokiksi. Joko otetaan molemmilta leikattu malli tai ei kummaltakaan. Se, että otetaan toiselta leikattu malli ja toiselta ei on todella epäreilu vertailu.

Miksi? Valmistus maksaa yhtä paljon, oli leikattu tai ei. Ja mikäli suurin osa piireistä toimii "täysillä", ei se leikkaus paljoa hyödytä edes.

Samalla logiikalla ei voi verrata AMD:n 6-ytimisiä prosessoreita Intelin 6-ytimisiin koska kaikki Ryzenit paitsi 8-ytimiset ja Raven Ridget ovat leikattuja.

Ihan yhtä lailla TSMCn

Ehkä.

:facepalm:

Vain todella typerät ihmiset ostaa pelin sen takia että siinä lukee "DX12". Ihmiset ostaa pelin koska ne lukee arvotelun joka sanoo, että se on hyvä, tai kuulee kaverilta, että se on hyvä.

Sen sijaan ihminen voi jättää pelin ostamatta jos se vaatii rajapinnan jota oma käyttis ei tue.

Peli voi myös saada paljon ilmaista PR:a kun jälkikäteen lisätään tuki uudelle DX:lle. Kun tuki lisätään jälkikäteen, ei kellään ole tarvetta jättää sitä ostamatta koska vanhaa käyttöjärjestelmää DX oletettavasti tukee.

Typeriä ihmisiä kyllä riittää myös ns. tietävien puolella.

[offtopic]

Lähdit sitten vielä kaivelemaan kritiikkiäni aiempiin paskapostauksiisi.. menee kyllä todella pahsti offtopickisi.

Tulkintasi perustui täydelliseen ymmärtämättömyyteen siitä, miten digitaaliopiirejä suunnitellaan. Ihan sama, vaikka osa lähteistäksi piti paikkaansa, kun et ymmärtänyt, mitä niissä lähteissäsi luki ja väitit niiden tarkoittavat jotain ihan muuta kuin mitä ne tarkoittivat.

Toisekseen, väitteesi ettei "minun tulkintojani" (eli siis todellisia faktoja) tukenut yksikään lähde on aivan puhdasta valehtelua.

[/offtopic]

Sehän se ongelma olikin. Et missään vaiheessa antanut yhtäkään lähdettä joka olisi esittämiäsi tulkintoja tukenut. Esitin moneen klertaan lähteet jotka tukevat esittämiäni aikatauluja. Vastaavasti et esittänyt yhtäkään lähdettä joka olisi tukenut omia tulkintojasi aikatauluista.

Tässä on vähän samaa ongelmaa tuon valmistuksen kustannusten kanssa.

Mihin konsoliin Vega on tämän mennessä kelvannut?

Tuoreimman sukupolven konsolit käyttää Polarista, toisessa tosin siihen polarikseen on Vegasta lainattu pari pikkuominaisuutta.

Entä seuraavan sukupolven konsolit? Niiden suunnittelun täytyy tässä vaiheessa olla todella pitkällä. Vahvasti veikkaan niistä löytyvän enemmän Vegan ominaisuuksia ellei suoraan Vegaan perustuvaa piiriä.

Kryptomainaajat veivät talvella KAIKKI GPUt käsistä.

Ja melkein kaikkien GPUlla mainattavien leikkirahojen mainaus on hommaa, jossa tarvitaan ainoastaan mahdollisimman suuri määrä muistiaccesseja pienessä ajassa riittävän suureen muistiin.
Siinä ei piirin muulla nopeudella ole juuri mitään väliä.

AMDllä sitä muistikaistaa on suhteessa paljon, koska AMDn huonomman arkkitehtuurin takia suhteessa nVidiaan sitä muistikaistaa "tuhlataan" näyttiskäytössä, joten sitä on ollut pakko laittaa paljon.

Totta kai koska AMD:ta ei ollut tarpeeksi saatavilla. Ei kukaan olisi ostanut Nvidiaa jos AMD:lla olisi ollut loputtomasti tarjontaa.

Kyllä sillä piirilläkin näyttää olevan väliä kun vertaa Nvidian uudempia piirejä vanhempiin. Vanhemmissa oli muistikaistaan panostettu enemmän.

Mitä nyt tarkoitat "ammattilaispuolella" ?

Ei ole mitään "yhtä ammattilaispuolta". On monta hyvin erilaista käyttötarkoitusta mihin GPUita käytetään työhommien tekemiseen.

Ja käsittääkseni nVidian Quadro- ja Tesla-myynti on ollut aika moninkertaista AMD-pohjaisiin ammattilaiskortteihin nähden.

Yleistermi samalla tavalla kuin "palvelimet". Nvidia myy paremmin koska Nvidialla on parempi brandi, ei siihen muuta tarvita. AMD on kuitenkin saanut suuria asiakkaita kuten Alibaba.

... tämä vaan on (vielä toistaiseksi) se ylivoimaisesti suurin käyttötarkoitus niille korteille. AMD-fanille tosin tärkein käyttötarkoitus ei "suuremmin hetkauta kokonaisuutta" :facepalm:

Määrällisesti ehkä, myynnillisesti ei välttämättä.

Mikään ei myöskään viittaa GF:n olevan halvempi kuin TSMC.

(Ja Toisessa viestissäsi juuri sanoit, että saannot on erinomaiset, nyt alat sanomaan, että "suurempiin ei sovellu niin hyvin". Mikä muu kuin ei-erinomaiset saannot niitä suuria piirejä alkaisi haitata?)

GF:lla ei ole kilpailua juuri ollenkaan, ainoa suuri asiakas 14nm prosessille on AMD. TSMC:lla 16nm asiakkaita on selvästi enemmän koska prosessi on parempi. Luonnollisesti parempi prosessi ja enemmän asiakkaita antaa mahdollisuuden laskuttaa enemmän. Lisäksi koska GF ja Samsung käyttävät 1:1 samaa prosessia, asiakkaat voivat loikata GF:lta Samsungille ja toisin päin hyvin helposti.

Suurempiin piireihin ei sovellu yhtä hyvin koska prosessin takia piirit eivät kellotu yhtä hyvin kuin TSMC:lla. Pienessä ja viileässä pikkupiirissä sillä on vähemmän merkitystä.

Tai entäs jos kuu onkin juustoa?

Tämä kertoo täydellisesti argumenttiesi tason. Vetelet täysin hatusta lukuja(jotka säädät sopivasti siihen suuntana pieleen mikä tulee agendaasi) ja sitten perustelet niillä asioita jotka olet jo etukäteen päättänyt haluavasi uskoa :facepalm:

Yleensä homma menee toisinpäin. Katsotaan fakfat ja niiden perusteella tehdään johtopäätös. SInä taas olet ensin tehnyt johtopäätöksesi(perustuen puhtaaseen uskoosi AMDn ylivoimaisuudesta), ja sitten vedät hatusta"faktat" joilla sitä perustelet.

Tuossa tuli aika monta perustelua sille miksi GF on halvempi. Vaikea keksiä yhtäkään järkevää syytä miksi TSMC olisi halvempi.

Jos nyt ajatellaan asioita järjellä ilman mitään fanilaseja, niin voi olettaa molempien prosessien maksavan melko saman verran, kun kyse on hyvin samantasoisista ja samanikäisistä valmistusprosesseista. Ja jos TSMC tarjoaa inasen paremman suorituskyvyn, se kompensoituu aika hyvin sillä n. 9% tiheyserolla.

nVidia tekee ihan älytöntä tulosta(viime kvartaali 3.21 miljardia) juuri sen takia, että se voi n. 310mm^2 piirillä kilpailla AMDn n. 480 mm piiiriä vastaan, AMDn ollessa hädin tuskin voiton puolella.

Jostain syystä monet tuntuvat arvostavan TSMC:n prosessia Samsungin vastaavaa enemmän. Applella ehkä oli jotain Samsungia vastaan, mutta TSMC:lla on "contract manufacturingissa" peräti 50,6% markkinaosuus eikä Samsung pärjää edes GF:lle Samsung takes aim at TSMC with plans to triple chip foundry market...

Pelkästään asiakkaiden määrästä voisi päätellä valmistuskapasiteetista olevan kilpailua. Väitettä tukee Nvidian päätös tehdä halvimpia piirejä (joiden ei tarvitse kellottua kummoisesti) Samsungilla. Piirisuunnittelu eri prosessille maksaa eli hintojen pitäisi olla paljon edullisemmat jotta kustannus tulisi katettua. Nvidialla on myös kokemusta riskeistä joita uusien valmistusprosessien kanssa voi tulla, eli tarvitaan aika painavia syitä lähteä valmistamaan yhtä piiriä uudella prosessilla.

Mitä tuo voitto kertoo yhtään mistään? Tekihän Intelkin huikeaa voittoa takavuosina AMD:n nähden vaikkei sillä ollut mitään järkevää prosessoria AMD:n vastaavia vastaan. Ei näkynyt kummoisesti AMD:n voitoissa vaikka oli Athlon64 vastaan kuuma kiuas nimeltään Prescott :smoke: Tuohon aikaan oli hyvin vaikea keksiä yhtäkään järkiperustelua ostaa Inteliä. Ei se silti Intelin tuloksessa näkynyt juuri mitenkään.

Q4/2017 AMD lisäsi markkinaosuuttaan 8% kun Nvidia menetti 6%. Odotan jännityksellä mitä tapahtui Q1/2018 :think:
 
Ja kiitos AMD:n panostuksen Mantleen meillä on nyt Vulkan ja DirectX 12
Kannattaa varmasti kiitellä, dx12 kehityksessä on tosin mukana myös n kertaa isommat gpu valmistajat. Ehkä microsoft lopetti direcx:n kehittämisen 11 version jälkeen ja amd:n 2014 kuopattu mantle api vaikutti jotenkin dx12 kehitykseen.
 
Miksi? Valmistus maksaa yhtä paljon, oli leikattu tai ei. Ja mikäli suurin osa piireistä toimii "täysillä", ei se leikkaus paljoa hyödytä edes.

Samalla logiikalla ei voi verrata AMD:n 6-ytimisiä prosessoreita Intelin 6-ytimisiin koska kaikki Ryzenit paitsi 8-ytimiset ja Raven Ridget ovat leikattuja.

Mietihän hetki mistä tuo lähti:
"
Esimerkiksi RX580 on hyvin lähelle samaa tasoa mainauksessa kuin GTX1070, on noin kolmanneksen pienempi piiri ja käyttää halvempia muisteja."

Vertaat täyden piirin kokoa leikattuun piiriin. Joka on siis täyden piirin kokoinen, mutta osia on kytketty päällä. Siitä sitten syntyy pari virheellistä päätelmää:
- Verrataan tehoja suhteessa piirin kokoon, jossa toisessa on pois kytkettyjä alueita. Eli sen saisi tehtyä samantehoisena pienempänä, mutta noin saa kierrätettyä hyvin huonot yksilöt 1080:n tuotannosta.
- Verrantaan mainaustehoa, joka nyt on aikalailla muistikaista/latenssiriippuvaista.
 
Kannattaa varmasti kiitellä, dx12 kehityksessä on tosin mukana myös n kertaa isommat gpu valmistajat. Ehkä microsoft lopetti direcx:n kehittämisen 11 version jälkeen ja amd:n 2014 kuopattu mantle api vaikutti jotenkin dx12 kehitykseen.

AMD kehitti Mantlea Microsoftin kanssa yhteistyössä. AMD teki Mantlen, Microsoftin teki oman ratkaisunsa DX12 joka lainaa Mantlesta aika paljon. Sitten Kronos group julkaisi Vulkanin joka on käytännössä Mantle eri nimellä.

Mietihän hetki mistä tuo lähti:
"
Esimerkiksi RX580 on hyvin lähelle samaa tasoa mainauksessa kuin GTX1070, on noin kolmanneksen pienempi piiri ja käyttää halvempia muisteja."

Vertaat täyden piirin kokoa leikattuun piiriin. Joka on siis täyden piirin kokoinen, mutta osia on kytketty päällä. Siitä sitten syntyy pari virheellistä päätelmää:
- Verrataan tehoja suhteessa piirin kokoon, jossa toisessa on pois kytkettyjä alueita. Eli sen saisi tehtyä samantehoisena pienempänä, mutta noin saa kierrätettyä hyvin huonot yksilöt 1080:n tuotannosta.
- Verrantaan mainaustehoa, joka nyt on aikalailla muistikaista/latenssiriippuvaista.

Ja pointtisi oli mikä? Ne poiskytketyt alueet eivät vähennä valmistuskustannuksia niin kauan kuin piirin "saisi" tehtyä pienempänä muttei tehdä (vertaa Ryzen, 4-ytimisen Ryzenin valmistus maksaa saman mitä 8-ytimisen Ryzenin vaikka 4-ytimisen "saisi" tehtyä halvemmalla). Tuossa verrattiin soveltuvuutta mainaukseen ja kun katselee Q4/2017 markkinaosuuksia (AMD+8%, Nvidia -6%) veikkaisin mainauksella olevan jonkin verran tekemistä asian kanssa.
 
Kannattaa varmasti kiitellä, dx12 kehityksessä on tosin mukana myös n kertaa isommat gpu valmistajat. Ehkä microsoft lopetti direcx:n kehittämisen 11 version jälkeen ja amd:n 2014 kuopattu mantle api vaikutti jotenkin dx12 kehitykseen.
Mantle vaikutti vahvasti kehittämissuuntiin myös DirectX 12:n osalta, varmasti rajapinta olisi tullut ennemmin tai myöhemmin muutoinkin mutta se ei välttämättä olisi ollut 'matalan tason rajapinta' tai jos olisikin, se olisi tullut paljon myöhemmin. Kun Mantlen olemassa olosta kerrottiin, DirectX 12 ei ollut ainakaan vielä aktiivisessa kehitysvaiheessa rajapintana. Muistaakseni DirectX 12:n jossain kehitysvaiheessa itseasiassa sieltä löytyi dokkareita jotka oli käytännössä 1:1 Mantlen kanssa, mikä on yksi lisäviite siitä miten paljon Mantle siihenkin vaikutti.
Vulkan taas perustuu suoraan Mantleen, vaikka onkin tietenkin edelleen kehitetty kaikkien valmistajien yhteistyöllä ihan kuten DX:kin.
 
AMD kehitti Mantlea Microsoftin kanssa yhteistyössä.
Ei kehittänyt, vaan muutaman pelistudion kanssa.
edit: tarkennetaan sen verran että AMD kyllä jakoi kaiken Mantlesta Microsoftille koko Mantlen kehityskaaren ajan, mutta Microsoft ei kehittänyt Mantlea AMD:n kanssa.
Sitten Kronos group julkaisi Vulkanin joka on käytännössä Mantle eri nimellä.
Ei ole, se vain perustuu Mantleen.
 
Viimeksi muokattu:
Ja pointtisi oli mikä? Ne poiskytketyt alueet eivät vähennä valmistuskustannuksia niin kauan kuin piirin "saisi" tehtyä pienempänä muttei tehdä (vertaa Ryzen, 4-ytimisen Ryzenin valmistus maksaa saman mitä 8-ytimisen Ryzenin vaikka 4-ytimisen "saisi" tehtyä halvemmalla). Tuossa verrattiin soveltuvuutta mainaukseen ja kun katselee Q4/2017 markkinaosuuksia (AMD+8%, Nvidia -6%) veikkaisin mainauksella olevan jonkin verran tekemistä asian kanssa.

Kerran vertailussa oli teho vs piirin pinta-ala, niin se on aika oleellinen osa. RX470 ja 1080 on varmaan sitten yhtä reilu pari, valmistus maksaa saman verran ja piirien koot ei muutu?
 
Ja pointtisi oli mikä? Ne poiskytketyt alueet eivät vähennä valmistuskustannuksia niin kauan kuin piirin "saisi" tehtyä pienempänä muttei tehdä (vertaa Ryzen, 4-ytimisen Ryzenin valmistus maksaa saman mitä 8-ytimisen Ryzenin vaikka 4-ytimisen "saisi" tehtyä halvemmalla).
Vähentävät niin kauan kuin se samalla mahdollistaa piirin käytön jota ei olisi voitu käyttää täydessä konfiguraatiossaan.
 
Vähentävät niin kauan kuin se samalla mahdollistaa piirin käytön jota ei olisi voitu käyttää täydessä konfiguraatiossaan.

Just näin. On halvempää hyväksyä pikkuvikaiset piirit toisena tuotteena, kuin hylätä ne ottaen siitä puhtaat tappiot.
 
Kerran vertailussa oli teho vs piirin pinta-ala, niin se on aika oleellinen osa. RX470 ja 1080 on varmaan sitten yhtä reilu pari, valmistus maksaa saman verran ja piirien koot ei muutu?

Tuossa kylläkin puhuttiin valmistuskustannuksista.

Esimerkiksi RX580 on hyvin lähelle samaa tasoa mainauksessa kuin GTX1070, on noin kolmanneksen pienempi piiri ja käyttää halvempia muisteja. "Saman kategorian" GTX1060 taas häviää sen verran RX580:lle mainauksessa ettei GTX1060:a ostettu ennen kuin RX580:t loppuivat.

RX580 (ja RX570) olivat siis aivan erinomaisia piirejä valmistuskustannuksiltaan Nvidian vastaaviin nähden mainauksessa.

Ja se lainaus johon tuossa vastasin puhuttiin valmistuskustannuksista myös. Joten en vaihteesta tajua miten saatiin teho vs pinta-ala kun koko ajan oli puhe teho vs valmistuskustannukset.

Huonomman pelisuorituskyvyn takia AMD joutuu myymään piirinsä ulos matalammalla katteella kuin nVidia, "alihinnalla" jolloin ne asiakkaan näkökulmasta on "hintansa nähden erinomaisia piirejä muuhun kuin laskentaan" vaikka ne ei sitä absoluuttisella teknisellä mittarilla (suhteessa valmistuskustannuksiinsa) olisi.

Ainoa kysymys oli siitä otetaanko leikattu piiri vai ei. Piirin leikkaus ei kuitenkaan valmistuskustannuksia pienennä, ellei tehdä piiriä "leikattuna" eli pienempänä versiona.

Vähentävät niin kauan kuin se samalla mahdollistaa piirin käytön jota ei olisi voitu käyttää täydessä konfiguraatiossaan.

Tuolla tavalla vähentävät kustannuksia. Kuitenkin piirin valmistus itsessään maksaa enemmän koska piiri on suurempi. Muutenhan ollaan tilanteessa jossa suuremman piirin valmistus on halvempaa kuin pienen.

Just näin. On halvempää hyväksyä pikkuvikaiset piirit toisena tuotteena, kuin hylätä ne ottaen siitä puhtaat tappiot.

On halvempaa mutta on myös halvempaa tehdä pienempää piiriä kuin isoa.
 
Jonkun kokoista piiriä on nyt vain pakko tehdä. Ja niistä valmistetuista osa ei toimi (täysin). Nyt mitä fiksummin piiri on suunniteltu, niin sitä pienempi ongelma nuo virheet on. Jos on todella mutkikas piiri, niin voisi olla että esim 50% toimisi täysin. Voisi ajatella, että onpa kallista, kun puolet tuotannosta menee roskiin. Tilanne muuttuukin täysin, kun suunnittelu kattaa virheet ja toimimattomista 50%:sta saadaan vielä esim 40% käyttöön s.e. silti jäädään voitolle. Tällöin ollaan oikeasti siinä, kuin oltaisiin alunperinkin 90%:n saannoissa..

Ja koska ei viallisen tuotteen ei voi ajatella olevan saman hintainen, kuin ehjän tuotteen, niin silloin noiden viallisten piirienkin on oltava halvempia. Muutoinhan leikattu ja leikkaamaton piiri olisi OEMille samanhintainen. Ja tähän on hyvin varaa, koska leikatut piirit nimenomaan pudottavat valmistuskustannuksia, sallimalla virheitä.

Lisäksi kun sitten tarkistellaan piirin suorituskykyä ja mietitään, paljonko siinä on transistoreja, niin tietenkään kukaan ei voi olla niin urvelo, jotta laskee ei käytössä olevat transistorit.
 
Jonkun kokoista piiriä on nyt vain pakko tehdä. Ja niistä valmistetuista osa ei toimi (täysin). Nyt mitä fiksummin piiri on suunniteltu, niin sitä pienempi ongelma nuo virheet on. Jos on todella mutkikas piiri, niin voisi olla että esim 50% toimisi täysin. Voisi ajatella, että onpa kallista, kun puolet tuotannosta menee roskiin. Tilanne muuttuukin täysin, kun suunnittelu kattaa virheet ja toimimattomista 50%:sta saadaan vielä esim 40% käyttöön s.e. silti jäädään voitolle. Tällöin ollaan oikeasti siinä, kuin oltaisiin alunperinkin 90%:n saannoissa..

Leikatun piirin hinta on poikkeuksetta alhaisempi kuin leikkaamattoman. Lähes poikkeuksetta leikattua piiriä myydään huomattavasti enemmän kuin leikkaamantonta. Tämän seurauksena lähes poikkeuksetta ollaan jossakin vaiheessa tilanteeseen jossa täysin toimivia piirejä joudutaan leikkaamaan koska muuten jouduttaisiin myymään eioota. Säästöä tulee siitä ettei tarvitse suunnitella uudelleen toista piiriä. Se ei kuitenkaan ole halvempi tapa kuin pienemmän piirin valmistus (mikäli saannot ovat hyvät).

Ja koska ei viallisen tuotteen ei voi ajatella olevan saman hintainen, kuin ehjän tuotteen, niin silloin noiden viallisten piirienkin on oltava halvempia. Muutoinhan leikattu ja leikkaamaton piiri olisi OEMille samanhintainen. Ja tähän on hyvin varaa, koska leikatut piirit nimenomaan pudottavat valmistuskustannuksia, sallimalla virheitä.

Lisäksi kun sitten tarkistellaan piirin suorituskykyä ja mietitään, paljonko siinä on transistoreja, niin tietenkään kukaan ei voi olla niin urvelo, jotta laskee ei käytössä olevat transistorit.

Leikatut piirit laskevat valmistuskustannuksia sallimalla virheitä. Ne eivät kuitenkaan tee piiristä pienempää ja siten piirin valmistus maksaa ihan saman verran, oli piiri leikattu tai ei. Mitä paremmat saannot, sitä vähemmän tulee todellista tarvetta leikata. Varsinkin kalliimpien piirien osalta leikkaustarvetta on yleensä enemmän kuin viallisia piirejä tulee jolloin leikataan niitä täysin toimivia.

Kun tarkastellaan valmistuskustannuksia, niin kyllä ne ei käytössä olevat transistorit lasketaan ihan syystä mukaan.
 
Leikatun piirin hinta on poikkeuksetta alhaisempi kuin leikkaamattoman. Lähes poikkeuksetta leikattua piiriä myydään huomattavasti enemmän kuin leikkaamantonta. Tämän seurauksena lähes poikkeuksetta ollaan jossakin vaiheessa tilanteeseen jossa täysin toimivia piirejä joudutaan leikkaamaan koska muuten jouduttaisiin myymään eioota. Säästöä tulee siitä ettei tarvitse suunnitella uudelleen toista piiriä. Se ei kuitenkaan ole halvempi tapa kuin pienemmän piirin valmistus (mikäli saannot ovat hyvät).



Leikatut piirit laskevat valmistuskustannuksia sallimalla virheitä. Ne eivät kuitenkaan tee piiristä pienempää ja siten piirin valmistus maksaa ihan saman verran, oli piiri leikattu tai ei. Mitä paremmat saannot, sitä vähemmän tulee todellista tarvetta leikata. Varsinkin kalliimpien piirien osalta leikkaustarvetta on yleensä enemmän kuin viallisia piirejä tulee jolloin leikataan niitä täysin toimivia.

Kun tarkastellaan valmistuskustannuksia, niin kyllä ne ei käytössä olevat transistorit lasketaan ihan syystä mukaan.
Myyntimäärät on monesti hyvinkin hinnoittelukysymys. Fiksu valmistaja ei hinnoittele leikattua tuotetta liian alas tai yksinkertaisesti hilaa hintaa ylös, jos joudutaan myymään merkittävän paljon"ei oo"ta (eli leikkaamattomia piirejä.)

Jos piirin suunnittelu ei salli leikkauksia -> ei saa olla virheitä, niin tällöin on voi voi ja ongelma, kun yksikin transistori tai muu kohta on rikki. Jos taas leikkaukset sallitaan, niin tällöin kaikkia transistoreja ei voida laskea täydellä hinnalla, koska ne eivät ole mitenkään välttämättömiä kokonaisuuden kannalta
 
Leikatun piirin hinta on poikkeuksetta alhaisempi kuin leikkaamattoman. Lähes poikkeuksetta leikattua piiriä myydään huomattavasti enemmän kuin leikkaamantonta. Tämän seurauksena lähes poikkeuksetta ollaan jossakin vaiheessa tilanteeseen jossa täysin toimivia piirejä joudutaan leikkaamaan koska muuten jouduttaisiin myymään eioota. Säästöä tulee siitä ettei tarvitse suunnitella uudelleen toista piiriä. Se ei kuitenkaan ole halvempi tapa kuin pienemmän piirin valmistus (mikäli saannot ovat hyvät).



Leikatut piirit laskevat valmistuskustannuksia sallimalla virheitä. Ne eivät kuitenkaan tee piiristä pienempää ja siten piirin valmistus maksaa ihan saman verran, oli piiri leikattu tai ei. Mitä paremmat saannot, sitä vähemmän tulee todellista tarvetta leikata. Varsinkin kalliimpien piirien osalta leikkaustarvetta on yleensä enemmän kuin viallisia piirejä tulee jolloin leikataan niitä täysin toimivia.

Kun tarkastellaan valmistuskustannuksia, niin kyllä ne ei käytössä olevat transistorit lasketaan ihan syystä mukaan.

Tilanne missä lähes kaikki piirit toimii täytenä piirinä olisi täydellinen, jos olisi kunnon kilpailua. Esim. zeppeliniä myytiin satkulla, vaikka se se oli leikattu käytäbbössä puoleen ja huippumallia myytiin jopa 500€ hintalapulla. Tämä ei olisi koskaan tapahtunut, jos olisi ollut yhtään tasaisempi kilpailu.
 
Just näin. On halvempää hyväksyä pikkuvikaiset piirit toisena tuotteena, kuin hylätä ne ottaen siitä puhtaat tappiot.

Tämä on totta valmistusprosessin alkuvaiheessa kun saannot on vielä huonoja. Kun valmistusprosessi kypsyy ja saannot kasvaa merkittävästi, niin tullaan tilanteeseen että täysin toimivia piirejä myydään leikattuna jolloin se hyöty häviää.

Lisäksi kun sitten tarkistellaan piirin suorituskykyä ja mietitään, paljonko siinä on transistoreja, niin tietenkään kukaan ei voi olla niin urvelo, jotta laskee ei käytössä olevat transistorit.

Laskee mihin? Valmistuskustannuksiin ne tottakai lasketaan koska onhan se menoerä vaikka ne ei käytössä olisikaan.
 

Statistiikka

Viestiketjuista
262 379
Viestejä
4 549 009
Jäsenet
74 978
Uusin jäsen
Omi77

Hinta.fi

Back
Ylös Bottom