Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Tai tokihan jokainen saa ihan vapaasti pelata 4K töllöltänsä 60hz ja toista tonnia maksavalla näyttiksellä ja ottaa pataan niiltä jonneilta joilla mummon vanha kone ja 3x halvempi näyttis mutta isompi virkistystaajuus ja FPS:t. Pidän muutenkin tätä koko 2080Ti vääntöä todella outona ja ymmärtäisin sen jos oikeasti olisi kyseessä harrastepelaajat tai ammattilaisiksi pyrkivät, tai striimaajat. Mutta, että 4K ja 60 FPS takia, niin vähän pistää ihmetyttämään.

Katsot nyt vain nettimoninpelaamisen näkökulmasta asiaa. Mulle riittää 60fps hyvin kun pelaan yksinpelejä joista harva on edes räiskintä. Se ei tarkoita sitä, ettenkö näkisi yli 60fps etua ( kunhan virkistystaajuus täsmää myös ), mutta että pelaan ihan mielelläni yksinpelit 60hz. Muutenhan käytössä olisi toki edelleen 165hz 2560x1440 IPS, mutta kun OLEDin kuvanlaatu ja koko on ihan eri sfääreissä niin 60hz saa olla se kompromissi. Yksinpeleissä katselen mieluumin huikean upeaa kuvaa kuin huikean sulavaliikkeistä kuvaa.

PC-näyttöjen kuvanlaatu on kauttaaltaan aika surkeaa. Mulle tämän hetken Graalin malja olisi LG OLED CX seuraavan sukupolven NVidian kortilla. Olisi loistava kuva, iso ruutu, 120hz 4K G-Syncillä ja pieni input lag.
 
Katsot nyt vain nettimoninpelaamisen näkökulmasta asiaa. Mulle riittää 60fps hyvin kun pelaan yksinpelejä joista harva on edes räiskintä. Se ei tarkoita sitä, ettenkö näkisi yli 60fps etua ( kunhan virkistystaajuus täsmää myös ), mutta että pelaan ihan mielelläni yksinpelit 60hz. Muutenhan käytössä olisi toki edelleen 165hz 2560x1440 IPS, mutta kun OLEDin kuvanlaatu ja koko on ihan eri sfääreissä niin 60hz saa olla se kompromissi. Yksinpeleissä katselen mieluumin huikean upeaa kuvaa kuin huikean sulavaliikkeistä kuvaa.

PC-näyttöjen kuvanlaatu on kauttaaltaan aika surkeaa. Mulle tämän hetken Graalin malja olisi LG OLED CX seuraavan sukupolven NVidian kortilla. Olisi loistava kuva, iso ruutu, 120hz 4K G-Syncillä ja pieni input lag.
En pelkästään, kuten sanoin jossain Assassins Creedissä sillä ei ole niin merkitystä. Mutta kun samoja koneita käytetään muuhunkin kuin yhden pelin pelaamiseen, niin se kuvakulma muuttuu siihen, että ei oikein tää must be 4K, must be 2080Ti juttu kanna. Siinä hupenee käyttäjäkunta aika vähiin ja nopeasti. Toki näillä jampoilla varmasti on varaa myös hommailla pelinäytöt erikseen ja pienemmillä resoluutioilla, mutta no ne on niitä pienempiä ja "paskoja" resoluutioita.

Lisätään nyt vielä, että pointtinit on vähän siinä, että kun ei mikään nykyinen näyttis riitä edes sinne 1080p tasolle toimittamaan varmasti sitä riittävää ruuudunpäivitystä, niin minusta tuo koko 4K touhu ja lesoileminen kalliilla kortilla on aika outoa. "Mutku AMD:llä ei ole mitään niin pakko olla nvidia" mikä sekään ei sitten kuitenkaan ole vielä riittävä. Vaan pitäisi olla niiltäkin parempi kortti. Ehkä jo ensi sukupolvessa edes toinen saa 1080p pelaamisen riittävälle tasolle jotta voidaan alkaa haaveilemaan 1440p pelaamisesta ns. riittävällä ja kilpailukykyisellä tasolla (suhteessa siis muihin samaa peliä pelaaviin). Yksinpeleissä riittää kummankin firman kortit suuressa osassa aika pitkälle ja toki 2080Ti on paljon edellä AMD:n tän hetken tarjontaa ei se itsessään ole mikään juttu. Sitten valitetaan jostain 60 FPS kun halutaan tahallaan valittaa, vaikka konsoleilla on rittänyt 30 FPS kauan ja aina eivät pysty edes siihen.
 
Viimeksi muokattu:
Ja harva peli engine skaalautuu sinne yli 144 fps lukemiin vaikka olis millaista rautaa alla. Jotkin tökkää jo siihen 100 fps tienoille.

Ja sitten kun mennään moninpeleihin niin on se ja sama että pyöriikö se peli 60FPS vaiko 120FPS jos se serveri itsessään jauhaa 30FPS. Se serveri on kun lopulta se määräävä tekiä että osutko vaiko et.
 
Ja ennenkuin joku sanoo turha, pelatkaa QuakeIIRT tai MineCraft RT:tä.
Eli about turha tällä hetkellä, jos ei pelaa Quake 2 tai minecraftii.

Q2 tuli pelailtua 20v sitten ihan tarpeeksi. Minecraft ei ole napstellut koskaan. Mieltäny sen pelin kuitenkin ain palikka grafiikaksi, jossa ulkonäöllä ei ole niin väliä.
 
Höpsönlöpsön, tensorit ovat täysin identtisiä kaikissa malleissa GeForceista Tesloihin, ainut mikä erottaa Titan RTX:n ja 2080 Ti:n millään tasolla on yksiköiden määrä (sidottu SM-yksiköihin) ja kellotaajudet. Turingeissa ei ole yhtään mitään FP16-suorituskykyä karsittu millään tapaa, Pascaleissa oli kuluttajapuolella kuristettu mutta silläkään ei ollut mitään tekemistä minkään tensoreiden kanssa.

Ei ehkä fyysisesti, mutta ohjelmallisesti kyllä (muistin vain hieman väärin tuon tarkkuuden, eli fp16 w/fp32 accumulate on puolitehoinen geforceilla. Tarpeellinen neuroverkkojen opettamisessa)...

1589228740361.png
 
Ja sitten kun mennään moninpeleihin niin on se ja sama että pyöriikö se peli 60FPS vaiko 120FPS jos se serveri itsessään jauhaa 30FPS. Se serveri on kun lopulta se määräävä tekiä että osutko vaiko et.
Harvemmassa pelissä tick rate on enää vain 30. Ja suuri fps helpottaa myös tähtäämistä.
 
Lisätään nyt vielä, että pointtinit on vähän siinä, että kun ei mikään nykyinen näyttis riitä edes sinne 1080p tasolle toimittamaan varmasti sitä riittävää ruuudunpäivitystä, niin minusta tuo koko 4K touhu ja lesoileminen kalliilla kortilla on aika outoa.

En mä mitään lesoile, vaan tarvitsen ihan aidosti lisää tehoa, että voin pelata pelini haluamallani ruudunpäivitysnopeudella, resoluutiolla ja asetuksilla. Jonkun 1080p:n pyöriminen kilpapelissä 240fps tai alle on ihan merkityksetöntä mulle. Miten se olisi relevanttia näyttisvalintaani? Yleistät nyt vaan jatkuvasti. Ei sen tarvitse olla 4K ja 2080ti kaikille kaikkeen käyttöön, mutta mulle mun käyttöön pitäisi.

Ja sitten kun mennään moninpeleihin niin on se ja sama että pyöriikö se peli 60FPS vaiko 120FPS jos se serveri itsessään jauhaa 30FPS. Se serveri on kun lopulta se määräävä tekiä että osutko vaiko et.

Todella karkea yksinkertaistus. Se oman koneen FPS vaikuttaa ihan suoraan siihen, kuinka nopeasti ja tarkasti tähtäimen saa pään kohdalle. Serverin FPS vaikuttaa sitten muihin juttuihin, mutta ei se tee oman koneen FPS:stä merkityksetöntä.
 
Nyt täytyy kyllä sanoa, että 60 fps ei pitkälle riitä esim kilpailullisissa fps peleissä.

Riippuu mitä pitää riittävänä. Kyllä 60fps tekee faktuaalisesti pelaamisesta vaikeamman tietyissä tilanteissa, kuten esim. tuo Linusin testi osoitti, mutta ei ne erot kyllä isoja ole. Jos pelailet omaksi iloksesi etkä ammatiksi, niin joku 144hz ei tee sinusta merkittävästi parempaa pelaajaa vs 60hz. Kunhan on FPS:iä tarpeeks, eli liian alhainen FPS tuo 60 hertzille myös inputlagia, joka ei järkyttävä ollut Linusin testeissä, mutta kyllä pieniä eroja tuli.

Oma netin pingi ja serverin toiminta myös merkittävä tekijä viiveen kannalta. Jos viivettä on liikaa, niin ei jostain 144hz:stä ole hirveästi iloa, kun netti päivittää sulle tietoa joka tapauksessa myöhässä. Tai no joo pysyy se kuva mahdollisesti sujuvampana, mutta jos et ole samassa tahdissa serverin kanssa, niin muut tuppaa tappamaan sut ensin.

Sopii koittaa mikäli ei ole ennestään tuttu miten paljon eroa on esim. 60hz paneelilla ja 144hz paneelilla, kun siihen 144Hz näyttöön saadaan näytönohjaimella työnnettyä se 144fps vähintään kokoajan.

Itse päivitin tässä pari kuukautta takaperin 144hz, ja kyllä se ero on huomattava, mutta ei järkyttävä. IMO. Ja pelaan siis CS yms. FPS-räiskintäpelejä jossa ne erot myös merkitsee. Sitten kun mennään pelikategorioihin jossa ei mennä satalasissa, niin se 60hz on ihan riittävä ainakin itselleni. Joo onhan se kökkösemmän tuntoista jos hiirtä heilutat ympäri ämpäri, mutta rauhallisissa seikkailupeleissä tarkoitus ei ole pyöriä ADHD:na ympäriinsä. Jossain räiskinnässä taas otan mielummin vähän huonommat grafiikka settingsit ja paremmat FPS:ät.

Tulipahan kokeiltua pitkästä aikaa 60Hz:ä 120Hz:n sijaan, ja niinkin pieni asia kuin kursorin liike työpöydällä aiheuttaa jo hämmästystä ja inhoa. Miten ikinä joku on tullut tulokseen, että 60Hz on tarpeeksi tietotekniikassa?

Hohhoijaa... Aiheuttaako elokuvat sulle vastaavan tunteen? Esim 4k / 30 fps?
 
Viimeksi muokattu:
Todella karkea yksinkertaistus. Se oman koneen FPS vaikuttaa ihan suoraan siihen, kuinka nopeasti ja tarkasti tähtäimen saa pään kohdalle. Serverin FPS vaikuttaa sitten muihin juttuihin, mutta ei se tee oman koneen FPS:stä merkityksetöntä.

Sehän siinä onkin kun sen tähtäimen EI tartte edes olla pään kohdalla kun netcode, hitboxit ja serverin tick rate kusee sopivasti.
 
Hohhoijaa... Aiheuttaako elokuvat sulle vastaavan tunteen? Esim 4k / 30 fps?

No en mä ainakaan tykkää 24fps:stä leffoissa. Hobbitin ja jonkun Will Smithin rymistelyn olen nähnyt korkeammalla ruudunpäivityksellä, ja mulle ne oli yhtä juhlaa, vaikka leffat oli mitä oli ja heikot efektit paljastuikin selvemmin. Lisäksi leffoja ei ohjasteta, joten korkeampi ruudunpäivitys ei auta "tuntumaan" kuten peleissä tai työpöydällä.

Tässä ketjussa törmää jatkuvasti siihen, ettei pystytä käsittämään oman pienen pollan ulkopuolella olevan toisenlaisia vaatimuksia ja preferenssejä. Sitten jos voivottelee, ettei AMD:llä ole tarjota kilpailua tehokottien luokassa, niin joku on heti selittämässä kaiken maailman "X fps riittää" tai "ei NVidiakaan ole tarpeeksi nopea"-juttuja. Joo, ei ehkä ole, mutta helvetin paljon nopeampi kuin AMD, ja 2080ti:llä saisin sentään 4K-pelailut toimimaan siedettävästi, kun AMD:llä se on toivotonta.
 
Sehän siinä onkin kun sen tähtäimen EI tartte edes olla pään kohdalla kun netcode, hitboxit ja serverin tick rate kusee sopivasti.

Joo, mutta osut silti paljon enemmän päähän jos tähtäin on aina pään kohdalla, kuin että tähtäin on ruudulla kaksi senttiä ohi. Siksi esim. aimbotit toimivat. Miksi joudun vääntämään näin simppeliä asiaa sulle rautalangasta?
 
Tässä ketjussa törmää jatkuvasti siihen, ettei pystytä käsittämään oman pienen pollan ulkopuolella olevan toisenlaisia vaatimuksia ja preferenssejä. Sitten jos voivottelee, ettei AMD:llä ole tarjota kilpailua tehokottien luokassa, niin joku on heti selittämässä kaiken maailman "X fps riittää" tai "ei NVidiakaan ole tarpeeksi nopea"-juttuja. Joo, ei ehkä ole, mutta helvetin paljon nopeampi kuin AMD, ja 2080ti:llä saisin sentään 4K-pelailut toimimaan siedettävästi, kun AMD:llä se on toivotonta.

Sama homma on molemmin päin...

Hyvin kilpailukykyisiä kortteja on 1080p/1440p resoille on molemmilla valmistajilla. Toki 2080 ti on sitten varsinkin tulevia pelejä ajatellen mukavasti nopeampi kuin muut kortit.
 
Joo, mutta osut silti paljon enemmän päähän jos tähtäin on aina pään kohdalla, kuin että tähtäin on ruudulla kaksi senttiä ohi. Siksi esim. aimbotit toimivat. Miksi joudun vääntämään näin simppeliä asiaa sulle rautalangasta?

Silloin kun vielä tuli FPS pelejä tahkottua niin noita aimbot spedejä oli kiva kyykyttää nimenomaan kun se aimbot EI osu poikittaisliikkeessä olevaan kohteeseen. Ne toimi helvetin tehokkaasti hitaaseen liikkeeseen mutta ei nopeaan. Ainakin sellaiset aimbotit joissa oli tekstuureihin viritetty pixeli johon sitten lukittiin.
Tuli aikoinaan aina puukon kanssa otettua noita aimbot pellejä ja kun oli päänahka nyletty niin ne häipyi serveriltä samantien.

Voi tietty olla että aimbotit on noilta ajoilta kehittynyt ja osaavat lukittua hitboxeihin, en tiedä kun en ole 10v enää seurannut koko FPS skeneä saatikka ollut mukana anticheat taistossa.
 
No en mä ainakaan tykkää 24fps:stä leffoissa. Hobbitin ja jonkun Will Smithin rymistelyn olen nähnyt korkeammalla ruudunpäivityksellä, ja mulle ne oli yhtä juhlaa, vaikka leffat oli mitä oli ja heikot efektit paljastuikin selvemmin. Lisäksi leffoja ei ohjasteta, joten korkeampi ruudunpäivitys ei auta "tuntumaan" kuten peleissä tai työpöydällä.

Joo eihän nämä leffat ja pelaaminen täysin vertaudukkaan. Paska esimerkki siinä mielessä multa, mutta huvitti vaan joku ''hiiren kursori aiheuttaa hämmennystä ja inhoa 60fps:llä''. Mutta joo leffoissa jos kamera ei hirveästi heilu niin se leffan äksöni näyttää hieman eriltä 24hz vs peleissä itse ohjaat ja aiheutat liikettä ja sitten se äksöni edessäkin vielä liikkuu.

Tässä ketjussa törmää jatkuvasti siihen, ettei pystytä käsittämään oman pienen pollan ulkopuolella olevan toisenlaisia vaatimuksia ja preferenssejä.

Kyllä ainakin itse ymmärrän erilaiset vaatimukset, mutta jos väitetään että joku 60fps on ihan täyttä kuraa, niin kyllä sellaista tekee mieli kyseenalaistaa. Silloin herää kysymys että onko se ihmisen näkemys siitä oikeasti se (eli mitä silmät on nähneet), vai onko tarve kärjistää niitä eroja, esim. kun on se huipputehokas näytönohjain ja ''tottunut'' isompiin hertseihin yms jotka voi sumentaa objektiivista kokemusta.

Kyllä itsekin ehdin jossain CS:ssä tottua 144hz aika nopeasti, ja taas kun on pelannut vaativampia pelejä ~60 fps:llä, niin eron huomaa, mutta ei se nyt aivan kuralta tunnu. Täysin pelattava se 60fps on mielestäni, eikä 144hz tehnyt musta yhtään parempaa pelaajaa. Se mikä on kenellekkin ''pelattava'' on lopulta subjektiivista. Sanoisin että treenaaminen tekee ihmisestä merkittävästi paremman pelaajan, ei jotku laitteilla hifistelyt. Pienenpieniä etuja se 144hz jossain CS:ssä tuo, kuten Linusin testivideo osoitti. Sitä on turha kiistää. Ja katselu kokemuksena 144hz on kiistatta parempi kuin 60hz.
 
Joo, ei ehkä ole, mutta helvetin paljon nopeampi kuin AMD, ja 2080ti:llä saisin sentään 4K-pelailut toimimaan siedettävästi, kun AMD:llä se on toivotonta.

Näin on. AMD:lta puuttuu sen kilpailija kokonaan, ja toki itsekin toivoisin että jatkossa AMD toisi myös sen highest endin kilpailijan, vaikka itse en mitään yli 500e GPU:ta ikinä ostaisikaan. Silti kilpailun kannalta se olisi hyvä asia. Eiköhän RDNA2:sesta löydy hyvä kortti myös 4k-pelailuun. Jopa konsoleihin tulossa aika pirun tehokkaat kortit, joten eiköhän PC-puolelle ole myös saatu RDNA2:seen kivasti potkua.

Ja Nvidia toki laittaa varmaan vielä paremmaksi. Varmasti Nvidialla tulee taas olemaan se tehokkain kortti, ja AMD:lla taas parempaa perf / € -tarjontaa. Ajurisekoiluihin AMD:lla ei oikein ole enää varaa.
 
Kyllä ainakin itse ymmärrän erilaiset vaatimukset, mutta jos väitetään että joku 60fps on ihan täyttä kuraa, niin kyllä sellaista tekee mieli kyseenalaistaa. Silloin herää kysymys että onko se ihmisen näkemys siitä oikeasti se (eli mitä silmät on nähneet), vai onko tarve kärjistää niitä eroja, esim. kun on se huipputehokas näytönohjain ja ''tottunut'' isompiin hertseihin yms jotka voi sumentaa objektiivista kokemusta.

Kyllä itsekin ehdin jossain CS:ssä tottua 144hz aika nopeasti, ja taas kun on pelannut vaativampia pelejä ~60 fps:llä, niin eron huomaa, mutta ei se nyt aivan kuralta tunnu. Täysin pelattava se 60fps on mielestäni, eikä 144hz tehnyt musta yhtään parempaa pelaajaa. Se mikä on kenellekkin ''pelattava'' on lopulta subjektiivista. Sanoisin että treenaaminen tekee ihmisestä merkittävästi paremman pelaajan, ei jotku laitteilla hifistelyt. Pienenpieniä etuja se 144hz jossain CS:ssä tuo, kuten Linusin testivideo osoitti. Sitä on turha kiistää. Ja katselu kokemuksena 144hz on kiistatta parempi kuin 60hz.

Nämä on niin subjektiivisia juttuja. Ei mulle tuota vaikeuksia uskoa, että jonkun mielestä 60fps on "kuraa". Toki joskus mietin, ollaanko sitä kuraksi moitittua 60fps pelattu vsyncillä vai ilman, onko FPS liikkunut 60:n ympärillä vai ollut tasan 60 tasaisella framepacingillä, jne. Mun mielestä 30fps on aina kuraa, vaikka konsolipelit olisikin siihen lukittuja. 60fps on minunkin mielestä kelvoton nettiräiskintöihin, pääasiassa siksi, että kun muut siellä pelaa 144hz+ niin olet jo lähtökohtaisesti alakynnessä ennenkuin taitotasoja ruvetaan edes vertailemaan. Minusta korkea virkistystaajuus tekee paljon paremman pelaajan, jopa siinä määrin, etten halua edes 60hz ruudulla mitään nettiräiskintöjä pelata. Se on mulle vähän kuin osallistuisi äfykkösiin jollain kauppakassilla.

Toivon itsekin hartaasti, että AMD saisi kärkiluokkaan kilpailua. Yleensäkin NVidia-fanipojat tekee vain hallaa itselleen haukkumalla AMD:tä perusteettomasti joka paikassa. Tietysti AMD:tä on myös perusteltua haukkua jossain asioissa, ja perusteltu haukkuminen on ihan potentiaalisten ostajien informointia, eikä siinä ole mitään vikaa.
 
Lopeta nyt jo toi paskan jauhaminen kiukaasta. AMD olisi hyvin voinut tuplata 5700XT:n CU:t ja saanut näin markkinoille 2080Ti:n tehoisen kortin eikä tehon kulutus olisi ollut sen enempää kuin sillä 2080Ti:llä.
Esimerkin voit katsoa vaikka siitä mitä tapahtuu kun 64-core threadripper pistetään 32-core threadripperiä vastaan. Toisessa huomattavasti matalemmat kellot mutta coret kun on töissä niin 64-core threadripper antaa noin lähes 50% lisää suorituskykyä SAMALLA tehonkulutuksella. Ja tuossa pitää vielä huomioida se että 64-core threadripperissä palaa x määrä tehoa niihin IF linkkeihin joilla ne 4 ylimääräistä chiplettiä keskustelee IO-die:n kanssa verrattuna 32-core threadripperiin. Eli monoliittisessa GPU:ssa olisi vielä toi etuna. Toki muistikaistaa jouduttaisiin kasvattamaan, joten sinne vastaavasti palaisi osa budjetista.

Mutta toi on jokatapauksessa ihan täyttä paskaa että olisi kiuas.

Nyt on jo aikamoista legendaa...

AMD siis vaan yksinkertaisesti päätti olla julkaisematta 2080Ti:n kilpailijaa... Siinä kokousessa olisi ollu kiva olla mukana. :rofl2:

Jos AMD olisi saanut julkaistua jotain 2080Ti:n tasoista edes pienen kiukaan muodossa, niin se olisi tehty, puhumattakaan siitä, että se oltaisi saatu ulos samalla virrankulutuksella.
 
Nyt on jo aikamoista legendaa...

AMD siis vaan yksinkertaisesti päätti olla julkaisematta 2080Ti:n kilpailijaa... Siinä kokousessa olisi ollu kiva olla mukana. :rofl2:

Jos AMD olisi saanut julkaistua jotain 2080Ti:n tasoista edes pienen kiukaan muodossa, niin se olisi tehty, puhumattakaan siitä, että se oltaisi saatu ulos samalla virrankulutuksella.
Metsään menee @JiiPee osalta mutta niin kyllä sinunkin.
AMD päätti olla kehittämättä kilpailijaa 2080 Ti:lle, ei julkaisematta.
Todennäköisesti asiaan on vaikuttanut merkittävästi se, että AMD tiesi RDNA2:n olevan tulossa pian perästä DX12 Ultimate -tuen kera, jolloin ei nähty järkeväksi lähteä kehittämään jättisirua (kallista sekä ajallisesti että rahallisesti) mikä pärjäisi miten kuten 2080 Ti:lle vähemmin ominaisuuksin, halo-tuotteessa niillä on ihan eri merkitys. RDNA2:sta AMD on erikseen varmistanut jo, että myös "jättisiru" on tulossa.
 
Metsään menee @JiiPee osalta mutta niin kyllä sinunkin.
AMD päätti olla kehittämättä kilpailijaa 2080 Ti:lle, ei julkaisematta.
Todennäköisesti asiaan on vaikuttanut merkittävästi se, että AMD tiesi RDNA2:n olevan tulossa pian perästä DX12 Ultimate -tuen kera, jolloin ei nähty järkeväksi lähteä kehittämään jättisirua (kallista sekä ajallisesti että rahallisesti) mikä pärjäisi miten kuten 2080 Ti:lle vähemmin ominaisuuksin, halo-tuotteessa niillä on ihan eri merkitys. RDNA2:sta AMD on erikseen varmistanut jo, että myös "jättisiru" on tulossa.

No kyllä se olisi tehty, jos siitä olisi oikeasti saatu järkevä ilmajäähyllä toimiva piiri, josta olisi voinut saada voittoakin. Eiköhän se ole se syy, eikä mikään että "ei me nyt edes koiteta suunnitella mitään tehokkaampaa". AMD tiesi, mihin RDNA1 venyy ja julkaisi sille parhaan mahdollisen piirin, joka eri tarvi mitään vesijäähyjä ja kuluttaa suht maltisllisesti virtaa. Toki tieto siitä, että RDNA2 on tulossa suht nopsaan, varmasti edesauttoi päätöstä siitä, että ei lähdetä mitään uutta Furya suunnittelemaan.
 
No kyllä se olisi tehty, jos siitä olisi oikeasti saatu järkevä ilmajäähyllä toimiva piiri, josta olisi voinut saada voittoakin. Eiköhän se ole se syy, eikä mikään että "ei me nyt edes koiteta suunnitella mitään tehokkaampaa". AMD tiesi, mihin RDNA1 venyy ja julkaisi sille parhaan mahdollisen piirin, joka eri tarvi mitään vesijäähyjä ja kuluttaa suht maltisllisesti virtaa. Toki tieto siitä, että RDNA2 on tulossa suht nopsaan, varmasti edesauttoi päätöstä siitä, että ei lähdetä mitään uutta Furya suunnittelemaan.

Et kai nyt ihan tosissasi väitä tuollaista?

Miten tuolla sinun logiikallasi on mahdollista että 2080 super ja Titan RTX on molemmat 250W TDP kortteja?
 
Nyt on jo aikamoista legendaa...

AMD siis vaan yksinkertaisesti päätti olla julkaisematta 2080Ti:n kilpailijaa... Siinä kokousessa olisi ollu kiva olla mukana. :rofl2:

Jos AMD olisi saanut julkaistua jotain 2080Ti:n tasoista edes pienen kiukaan muodossa, niin se olisi tehty, puhumattakaan siitä, että se oltaisi saatu ulos samalla virrankulutuksella.

No kyllä se olisi tehty, jos siitä olisi oikeasti saatu järkevä ilmajäähyllä toimiva piiri, josta olisi voinut saada voittoakin. Eiköhän se ole se syy, eikä mikään että "ei me nyt edes koiteta suunnitella mitään tehokkaampaa". AMD tiesi, mihin RDNA1 venyy ja julkaisi sille parhaan mahdollisen piirin, joka eri tarvi mitään vesijäähyjä ja kuluttaa suht maltisllisesti virtaa. Toki tieto siitä, että RDNA2 on tulossa suht nopsaan, varmasti edesauttoi päätöstä siitä, että ei lähdetä mitään uutta Furya suunnittelemaan.

Keskustelun aiheena oli se että olisiko AMD pystynyt ja väitän että olisi. Se ei vaan olisi ollut taloudellisesti kannattavaa koska maskin teko ei ole halpaa eikä ne isot piirit olisi olleet myöskään halpoja valmistaa. Myöskään mitään halo efectiä ei tuolla olisi saatu juurikaan aikaan kun raytracing on nyt sitä kuuminta hottia. Myynti määrätkin noilla isoilla on pieniä joten ei ollut mitään järkeä alkaa tekemään noin lyhyeksi aikaa tuollaista piiriä pelkästään pelikäyttöön koska AMD:lla oli jo RDNA2 suunnitelmat selvillä.
Radeon 7 oli poikkeus, se julkaistiin lyhyeksi aikaa koska se on tehty laskentakortista jota myydään edelleen. Eli se ei juurikaan vaikuta AMD:llä mihinkään vaikka ne ei myyneet/myy kuin häkä.

RX5700XT käsittääkseni käyttäytyy kuitenkin ihan samojen lakien mukaan kuin kaikki muutkin piirit, eli kelloja tiputtamalla voidaan myös jännitettä tiputtaa ja tämä ei yleensä mene lineaarisesti, eli käsittääkseni tuota RX5700XT:tä on piiskattu jo aika hyvin ja laskeskelin että laskenta tehoa saataisiin 50% lisää kun CU:t tuplattaisiin ja kellot tiputettaisiin johonkin 1350MHz.
En nyt itse omista 5700XT:tä joten en pysty testaamaan että millaisia kulutuslukemia sillä tulisi noilla kelloilla, mutta veikkaan että huomattava tiputus kulutukseen jopa tapauksessa tulisi.

Eli kelloja tiputtamalla noin 30% se tehonkulutus saattaa itse GPU piirillä tippua 50% jopa enemmän koska noissa kulutuslukemissa on aina mukana myös muistit ja VRM joihin palaa X määrä tehoa. Monsteri Naviin olisi joutunut muistia ja kaistaa lyömään lisää joten tää vakio X olisi hiukan kasvanut. Mutta silti en näe että tuolla reseptillä olisi tullut kiuas.
Jos sinne Ti:n tehoihin olisi yritetty päästä 60CU:lla niin sitten olisi tullut kiuas, se on selvää.
 
Jos Nvidian 72SM kortti kuluttaa sähköä saman verran kuin Nvidian 48SM kortti, miksi AMD:n iso kortti kuluttaisi huomattavasti enemmän sähköä kuin pieni?
2080 Ti:n keskikulutus on ihan pelikäytössäkin selvästi yli TDP:n
 
Jos Nvidian 72SM kortti kuluttaa sähköä saman verran kuin Nvidian 48SM kortti, miksi AMD:n iso kortti kuluttaisi huomattavasti enemmän sähköä kuin pieni?

Ja kannattaa muistaa että eikös titanissa ole 24G muistia eli siinä palaa muisteihin reilusti enemmän tehoa kuin superissa.
 
Keskustelun aiheena oli se että olisiko AMD pystynyt ja väitän että olisi. Se ei vaan olisi ollut taloudellisesti kannattavaa koska maskin teko ei ole halpaa eikä ne isot piirit olisi olleet myöskään halpoja valmistaa. Myöskään mitään halo efectiä ei tuolla olisi saatu juurikaan aikaan kun raytracing on nyt sitä kuuminta hottia. Myynti määrätkin noilla isoilla on pieniä joten ei ollut mitään järkeä alkaa tekemään noin lyhyeksi aikaa tuollaista piiriä pelkästään pelikäyttöön koska AMD:lla oli jo RDNA2 suunnitelmat selvillä.
Radeon 7 oli poikkeus, se julkaistiin lyhyeksi aikaa koska se on tehty laskentakortista jota myydään edelleen. Eli se ei juurikaan vaikuta AMD:llä mihinkään vaikka ne ei myyneet/myy kuin häkä.

RX5700XT käsittääkseni käyttäytyy kuitenkin ihan samojen lakien mukaan kuin kaikki muutkin piirit, eli kelloja tiputtamalla voidaan myös jännitettä tiputtaa ja tämä ei yleensä mene lineaarisesti, eli käsittääkseni tuota RX5700XT:tä on piiskattu jo aika hyvin ja laskeskelin että laskenta tehoa saataisiin 50% lisää kun CU:t tuplattaisiin ja kellot tiputettaisiin johonkin 1350MHz.
En nyt itse omista 5700XT:tä joten en pysty testaamaan että millaisia kulutuslukemia sillä tulisi noilla kelloilla, mutta veikkaan että huomattava tiputus kulutukseen jopa tapauksessa tulisi.

Eli kelloja tiputtamalla noin 30% se tehonkulutus saattaa itse GPU piirillä tippua 50% jopa enemmän koska noissa kulutuslukemissa on aina mukana myös muistit ja VRM joihin palaa X määrä tehoa. Monsteri Naviin olisi joutunut muistia ja kaistaa lyömään lisää joten tää vakio X olisi hiukan kasvanut. Mutta silti en näe että tuolla reseptillä olisi tullut kiuas.
Jos sinne Ti:n tehoihin olisi yritetty päästä 60CU:lla niin sitten olisi tullut kiuas, se on selvää.

Jos AMD olisi ihan aikuisten oikeasti kyennyt kehittämään ja rakentamaan RDNA1 pohjaisen kortin, mikä olisi tehoiltaan ja virran kulutukseltaan 2080Ti:n luokkaa ja olisi pystynyt myymään sitä "järkevällä" hinnalla, missä vielä katetta (ei luulisi olevan vaikeaa, kun kattoo 2080Ti:n hintoja), niin ei ole mitään järkevää syytä olla sitä tuomasta markkinoille. Toki myyntiä olisi varmasti ollut aika vähän,jos hinta olisi ollut vaikka 800-1000€, mutta tuotantomäärätkin olisi voinut pitää pienenä.

Kyllä aika moni high end kortin ostaja olisi tuossa vaiheessa miettinyt, kannattaako Ray Tracingistä maksaa 200-400€ extraa. Imagollisesti olisi ollut myös aika iso juttu monen vuoden "rämpimisen" jälkeen.

Itse en keksi oikeasti mitään järkevää syytä olla rakentamatta ja julkaisematta korttia tuossa tilanteessa.

Huomattavasti todennäköisempi skenaario on se, että AMD teki omat laskelmansa ja testinsä ja totesi että RDNA1:stä ei saa tarpeeksi vahvaa kilpailijaa Turingin High Endiä vastaan ja sen vuoksi oli järkevintä päättää olla kasaamatta ja julkaisematta isompaa navia. Toki RDNA2 suunnitelmat vielä helpottivat tuon päätöksen tekoa.
 
2080 Ti:n keskikulutus on ihan pelikäytössäkin selvästi yli TDP:n

Ainakin tehdasylikellotettujen mallien... Mutta joka tapauksessa ei muuta sitä faktaa että AMD olisi virrankulutuksen puitteissa pystynyt tekemään kilpailijan 2080 ti:lle nostamalla CU määrän samoihin lukemiin kuin 2080 ti: SM määrä.
 
Metsään menee @JiiPee osalta mutta niin kyllä sinunkin.
AMD päätti olla kehittämättä kilpailijaa 2080 Ti:lle, ei julkaisematta.
Todennäköisesti asiaan on vaikuttanut merkittävästi se, että AMD tiesi RDNA2:n olevan tulossa pian perästä DX12 Ultimate -tuen kera, jolloin ei nähty järkeväksi lähteä kehittämään jättisirua (kallista sekä ajallisesti että rahallisesti) mikä pärjäisi miten kuten 2080 Ti:lle vähemmin ominaisuuksin, halo-tuotteessa niillä on ihan eri merkitys. RDNA2:sta AMD on erikseen varmistanut jo, että myös "jättisiru" on tulossa.
Tähän pitää vielä lisätä se, että koko ajan on ollut AMD:llä tiedossa, että jos ne sellaisen kortin julkaisisivatkin, niin siitä ei olisi millään voitu tehdä niin nopeaa, että Nvidia ei olisi voinut julkaista uutta Super mallia hyvin nopealla aikataululla ja saavuttaa jälleen sitä ykköstilaa jolloin koko kortin tekeminen olisi mennyt käytännössä hukkaan. Se on se etu kun omaa ne kovemmat kortit ja voi viivytellä omien julkaisujen kanssa. Tätähän Nvidia on nyt tehnyt jo pitkän aikaa aina kun AMD on julkaissut jotain niin sieltä on lyöty samaan kategoriaan vähän tehokkaampaa mallia pihalle.
 
Tähän pitää vielä lisätä se, että koko ajan on ollut AMD:llä tiedossa, että jos ne sellaisen kortin julkaisisivatkin, niin siitä ei olisi millään voitu tehdä niin nopeaa, että Nvidia ei olisi voinut julkaista uutta Super mallia hyvin nopealla aikataululla ja saavuttaa jälleen sitä ykköstilaa jolloin koko kortin tekeminen olisi mennyt käytännössä hukkaan. Se on se etu kun omaa ne kovemmat kortit ja voi viivytellä omien julkaisujen kanssa. Tätähän Nvidia on nyt tehnyt jo pitkän aikaa aina kun AMD on julkaissut jotain niin sieltä on lyöty samaan kategoriaan vähän tehokkaampaa mallia pihalle.
Ei AMD:llä ollut mitään varmuutta siitä mitä NVIDIAlla olisi tarjolla kun päätöksiä tehtiin, nuo on monivuotisia projekteja
 
Ei AMD:llä ollut mitään varmuutta siitä mitä NVIDIAlla olisi tarjolla kun päätöksiä tehtiin, nuo on monivuotisia projekteja
Aivan varmasti on ollut. Ei noi firmat nyt ihan "sattumalta" julkistele noita korttejaan samoihin aikoihin ja samoilla tehoilla, tai siis muutamia prosentteja toisen korttia tehokkaampana.
 
Jos Nvidian 72SM kortti kuluttaa sähköä saman verran kuin Nvidian 48SM kortti, miksi AMD:n iso kortti kuluttaisi huomattavasti enemmän sähköä kuin pieni?

No kyllä se 2080 Ti kuluttaa n.35w enemmän kun 2080 ja 5700xt kuluttaa vaan n. 10w vähemmän vs 2080Ti.

Toki 5700xt:n olisi voitu lisätä tietty määrä laskentayksinöitä nostamatta tuota virrankulutusta järjettömiin lukuihin, mutta olisiko se ollut riittävä 2080Ti:n lyömiseen... Tuskin ja siksi AMD ei siihen ryhtynyt.

Tuo 5700xt on varmasti virran kulutuksen, tehon ja saantien valossa se optimaalisin tuote ja se sopii tähän väliin hyvin, kun RDNA2 tulee jo syksyllö.

Mutta jos AMD olisi ns. helposti voinut rakentaa ja julkaista kilpailijan 2080Ti:lle, niin aika outoa olisi ollut jättää julkaisematta.
 
Aivan varmasti on ollut. Ei noi firmat nyt ihan "sattumalta" julkistele noita korttejaan samoihin aikoihin ja samoilla tehoilla, tai siis muutamia prosentteja toisen korttia tehokkaampana.
Tietenkin niillä on asiantuntemusta alasta ja saatavilla olevista prosesseista, minkä avulla tehdään valistuneita arvioita siitä mihin kilpailija todennäköisesti tulee päätymään, mutta esimerkiksi sitä, että 2080 Ti:n konfiguraatio tulee olemaan x, mikä jättää y suorituskykyä pöydälle Super-mallia varten ei.

Ainakin tehdasylikellotettujen mallien... Mutta joka tapauksessa ei muuta sitä faktaa että AMD olisi virrankulutuksen puitteissa pystynyt tekemään kilpailijan 2080 ti:lle nostamalla CU määrän samoihin lukemiin kuin 2080 ti: SM määrä.
Oli TPU:n taulukoissaan käyttämä referenssi sitten oikea referenssi tai tehdasylikellotettu FE, kulutus on yli TDP:n joka tapauksessa (referenssi 250W, FE 260W, keskikulutus peleissä 273W)

No kyllä se 2080 Ti kuluttaa n.35w enemmän kun 2080 ja 5700xt kuluttaa vaan n. 10w vähemmän vs 2080Ti.
5700 XT:n keskikulutus peleissä on 54 wattia pienempi kuin 2080 Ti:n, vain yli 5x heitto arviossasi. Ja 2080:n kulutus on 58W alle 2080 Ti:n, se jäi sentään alle 2x heiton.
 
No kyllä se olisi tehty, jos siitä olisi oikeasti saatu järkevä ilmajäähyllä toimiva piiri, josta olisi voinut saada voittoakin.

Tuossa lopussahan se oleellinen asia tuli: voittoakin pitäisi saada.

Eiköhän se ole se syy, eikä mikään että "ei me nyt edes koiteta suunnitella mitään tehokkaampaa". AMD tiesi, mihin RDNA1 venyy ja julkaisi sille parhaan mahdollisen piirin, joka eri tarvi mitään vesijäähyjä ja kuluttaa suht maltisllisesti virtaa. Toki tieto siitä, että RDNA2 on tulossa suht nopsaan, varmasti edesauttoi päätöstä siitä, että ei lähdetä mitään uutta Furya suunnittelemaan.

Mihinkäs se taloudellinen voitto nyt unohtui? Voiton tekeminen suorituskyvyltään ja sähkönkulutukseltaan RTX 2080 Ti:n tasoisella kortilla olisi ollut hyvin epävarma asia. Piiri olisi ollut iso ja kallis valmistaa, ja siitä olisi puuttunut Ray Tracing -kiihdytys. Eikä AMD näe tulevaisuuteen, joten sekin vaihtoehto täytyi ottaa huomioon, että isoa Navi 1:tä vastassa olisivat kilpailijaltakin olleet "7 nm" puolijohdeprosessilla valmistettavat piirit. Piirin suunnittelu on pitkäaikainen prosessi eikä sitä aloitettaessa tiedetä, mitä julkaisuhetkellä on vastassa.
 
Tietenkin niillä on asiantuntemusta alasta ja saatavilla olevista prosesseista, minkä avulla tehdään valistuneita arvioita siitä mihin kilpailija todennäköisesti tulee päätymään, mutta esimerkiksi sitä, että 2080 Ti:n konfiguraatio tulee olemaan x, mikä jättää y suorituskykyä pöydälle Super-mallia varten ei.


Oli TPU:n taulukoissaan käyttämä referenssi sitten oikea referenssi tai tehdasylikellotettu FE, kulutus on yli TDP:n joka tapauksessa (referenssi 250W, FE 260W, keskikulutus peleissä 273W)


5700 XT:n keskikulutus peleissä on 54 wattia pienempi kuin 2080 Ti:n, vain yli 5x heitto arviossasi. Ja 2080:n kulutus on 58W alle 2080 Ti:n, se jäi sentään alle 2x heiton.

Katsoin Guru3D:n 5700xt revikan kulutustaulusta nuo.
 
Katsoin Guru3D:n 5700xt revikan kulutustaulusta nuo.
Se on koko koneen kulutus. Siitä riippumatta en kyllä ymmärrä millä ne on tuollaiset erot saanut.
TPU mittaa pelkän näytönohjaimen kulutukset, siellä keski- ja piikkikulutukset pelikäytössä on 2080:lle 215 / 226W, 5700 XT:lle 219 / 227W ja 2080 Ti:lle 273 / 289W
Samoin Tom's Hardware mittaa pelkän kortin kulutusta, siellä 5700 XT:lle 217,80W keskiarvo, 243,39W piikki, 2080 ja 2080 Ti testit tehty eri pelillä ja osin eri metodilla, joten ei suoraan vertailukelpoinen 5700 XT:n kanssa, mutta ero samaa luokkaa kuin TPU:lla, 2080 225,5W ja 2080 Ti 278,8W
 
Tuossa lopussahan se oleellinen asia tuli: voittoakin pitäisi saada.



Mihinkäs se taloudellinen voitto nyt unohtui? Voiton tekeminen suorituskyvyltään ja sähkönkulutukseltaan RTX 2080 Ti:n tasoisella kortilla olisi ollut hyvin epävarma asia. Piiri olisi ollut iso ja kallis valmistaa, ja siitä olisi puuttunut Ray Tracing -kiihdytys. Eikä AMD näe tulevaisuuteen, joten sekin vaihtoehto täytyi ottaa huomioon, että isoa Navi 1:tä vastassa olisivat kilpailijaltakin olleet "7 nm" puolijohdeprosessilla valmistettavat piirit. Piirin suunnittelu on pitkäaikainen prosessi eikä sitä aloitettaessa tiedetä, mitä julkaisuhetkellä on vastassa.

Niin. Se gpu pitäisi myydä sillä hinnalla, että se 1 gpu tuottaa enemmän kun sen valmistus maksaa...

Jos tuo hinta muodostuu niin korkeaksi, että sitä ei kannata markkinoille tuoda, niin sitten sitä ei voi tuoda. Tällä hetkellä kilpailijan kortti maksaa 1200€, joten varaa olisi kyllä ollut sillä rintamalla aika koviinkin myyntihintoihin per gpu.
 
Gamers Nexus testannut aivan tuhottomasti 5700XT kortteja ja 220W kulutuksella ne menee käytännössä kaikki ei refu mallit. Esim. Red Devilissä on silent bios mikä pudottaa Watit 180 ja kelloja hurjat n. 120 MHz (1950MHz -> 1830) eli todella pienellä muutoksella putoaa kulutus 40W. Muissa korteissa yleensä se silent pudottaa n. 190W tasolle sen kulutuksen.
 
Se on koko koneen kulutus. Siitä riippumatta en kyllä ymmärrä millä ne on tuollaiset erot saanut.
TPU mittaa pelkän näytönohjaimen kulutukset, siellä keski- ja piikkikulutukset pelikäytössä on 2080:lle 215 / 226W, 5700 XT:lle 219 / 227W ja 2080 Ti:lle 273 / 289W
Samoin Tom's Hardware mittaa pelkän kortin kulutusta, siellä 5700 XT:lle 217,80W keskiarvo, 243,39W piikki, 2080 ja 2080 Ti testit tehty eri pelillä ja osin eri metodilla, joten ei suoraan vertailukelpoinen 5700 XT:n kanssa, mutta ero samaa luokkaa kuin TPU:lla, 2080 225,5W ja 2080 Ti 278,8W

Ok. Toi oli vaan eka, mikä kohdalle sattui. Aattelin, että ei kai noissa kulutuslukemissa nyt voi hirveesti eroja eri saittien välilllä olla ja en viittiny lähtä muualta kattelemään. Se oli sitten väärä oletus.
 
Niin. Se gpu pitäisi myydä sillä hinnalla, että se 1 gpu tuottaa enemmän kun sen valmistus maksaa...

Jos tuo hinta muodostuu niin korkeaksi, että sitä ei kannata markkinoille tuoda, niin sitten sitä ei voi tuoda. Tällä hetkellä kilpailijan kortti maksaa 1200€, joten varaa olisi kyllä ollut sillä rintamalla aika koviinkin myyntihintoihin per gpu.
Tarkentaen siis ne sirut pitää myydä ulos siihen hintaan, että sirujen odotettu yhteenlaskettu myyntituotto ylittää niiden tuotanto ja kehityskustannukset (rajautuen sen spesifin sirun kehityskustannuksiin tietenkin, ei koko arkkitehtuurin) kyllin korkealla marginaalilla.
 
Tarkentaen siis ne sirut pitää myydä ulos siihen hintaan, että sirujen odotettu yhteenlaskettu myyntituotto ylittää niiden tuotanto ja kehityskustannukset (rajautuen sen spesifin sirun kehityskustannuksiin tietenkin, ei koko arkkitehtuurin) kyllin korkealla marginaalilla.

No eikös se suunnitelu yleensä mene niin, että suunnitellaan se ns. big chip, mitä lähdetään sitten karsimaan halvempiin malleihin. Eli ei sen varsinaiseen suunnitteluun pitäisi mitään ylimääräistä mennä.

Eiköhän navistakin ole ollut suunnittelupöydällä jo se isompikin versio valmiina, mutta sitä ei ikinä toteutettu erinäisistä syistä johtuen.

Itse olen edelleen sitä mieltä, että AMD ei saanut navista niin hyvää, että olisivat uskaltaneet lähteä haastamaan Turingin high endiä.

Tässä kirjoitellessä tuli kyllä semmoinen skenaario mieleen, että ehkä AMD kuvitteli Turingin olevan suurempi loikka ja siksi päättivät olla edes yrittämättä haastaa sitä high endiä, kun peilasivat kehitteillä olevan navin tehoja Pascaliin. Tuo olisi jotenkin järkevä selitys sille vaihtoehdoille, että AMD päätti vaan olla tekemättä isoa navia.
 
No eikös se suunnitelu yleensä mene niin, että suunnitellaan se ns. big chip, mitä lähdetään sitten karsimaan halvempiin malleihin. Eli ei sen varsinaiseen suunnitteluun pitäisi mitään ylimääräistä mennä.

Eiköhän navistakin ole ollut suunnittelupöydällä jo se isompikin versio valmiina, mutta sitä ei ikinä toteutettu erinäisistä syistä johtuen.

Itse olen edelleen sitä mieltä, että AMD ei saanut navista niin hyvää, että olisivat uskaltaneet lähteä haastamaan Turingin high endiä.

Tässä kirjoitellessä tuli kyllä semmoinen skenaario mieleen, että ehkä AMD kuvitteli Turingin olevan suurempi loikka ja siksi päättivät olla edes yrittämättä haastaa sitä high endiä, kun peilasivat kehitteillä olevan navin tehoja Pascaliin. Tuo olisi jotenkin järkevä selitys sille vaihtoehdoille, että AMD päätti vaan olla tekemättä isoa navia.
Ei, vaan suunnitellaan se arkkitehtuuri elementteineen mitä läimitään sitten sopiva määrä kuhunkin siruun. Jokaisen erillisen sirun fyysinen toteutus on ihan muista irrallinen toimitus ns. tyhjältä pöydältä, vaikka käytettävät lego-palikat samoja onkin. Ja se sitten vaatii sitä insinöörien aikaa ja firman rahaa, unohtamatta käsi ojossa olevaa tuotantolaitosta joka ottaa ison hinnan joka maskista
 
Ei AMD:llä ollut mitään varmuutta siitä mitä NVIDIAlla olisi tarjolla kun päätöksiä tehtiin, nuo on monivuotisia projekteja
Melkein 100%;n varmuudella AMD on suunnitellut ainankin suurpiirteisesti isommankin RDNA1 piirin, homma on huomattavan helppo, VS arkkitehtuurin suunnittelu.

Siinä vaiheessa sitten, kun pienempi piiri on olemassa, sen isommankin suorituskyvystä ja virrankulutuksesta ym saadaan melkoisen hyviä arvioita.

Ja koska nuo RDNA:t muutenkin selkeästi vievät suorituskykyyn nähden yllättävän paljon sitä sähköä (käsitelty tuolla aikaisemmin), niin AMD vain katsoi lukuja ja tostesi selvästikin, ettei kannata. Ei tässä ole mitäänmuuta syytä. RDNA1 ei nyt vain ollut tarpeeksi kehittynyt kilpaillakseen Nvidian kanssa Highendissä (edes ilman Nvidian RTX ja tensor ominaisuuksia..) Puhumattakaan niiden kanssa.

Jos ja kun taas olisi käyty tiputtamaan jännitteitä, niin lopputuloksena olisi ollut iso läjä piirejä, jotka olisi pitänyt pistää johonkin kurahintaisiin kortteihin, kun AMD olisi jokatapauksessa joutunut kilpailemaan hinnalla hyvinkin raskaasti. AMD:llä on ollut jo ihan liikaa ajuripohjaisia ongelmia. Jos siihen olisi vielä lisätty alennetun käyttöjännitteen tuomat ongelmat (ei ne huvikseen ole niitä nykyisiä jännitteitä pistäneet, kun suurempi kulutus ei hyvältä todellakaan näytä). Se on ihan piilottoa, toimiiko kortti täysin luotettavasti, kaikissa vaadituissa tilanteissa kuin kikkaillaan jännitettä alentamalla..

Ei AMD:llä ja Intelillä ole oikein varaa tuollaiseen "ehkä toimii" kikkailuun, joita kellottelijat ym voivat käyttää. Jännitteet jne on valittava niin, että kaikissa tilanteissa, jokainen markkinoille päästetty yksilö toimii varmasti.
 
Ei, vaan suunnitellaan se arkkitehtuuri elementteineen mitä läimitään sitten sopiva määrä kuhunkin siruun. Jokaisen erillisen sirun fyysinen toteutus on ihan muista irrallinen toimitus ns. tyhjältä pöydältä, vaikka käytettävät lego-palikat samoja onkin. Ja se sitten vaatii sitä insinöörien aikaa ja firman rahaa, unohtamatta käsi ojossa olevaa tuotantolaitosta joka ottaa ison hinnan joka maskista
Tämä juttusi minusta sotii hieman tuota aiempaa väittämää vastaan, että AMD ei olisi voinut julkaista big RDNA sen takia, että olisi pitänyt aloittaa tekeminen jo vuosia sitten ja he eivät voineet reagoida kun RTX kortit tuli markkinoille. Jos elementtejä voidaan vain lätkiä sopiva määrä niin big RDNAn pitäisi olla hyvinkin yksinkertainen suunnitteluprosessi (mitä itse epäilen), se ei vain yksinkertaisesti olisi kannattava ja sitten valotus himmelit yms. maksaisi suhteessa siihen saatuun tehoon liikaa. Nvidialla on sellainen ikävä takataskussa oleva juttu kuin toi Titan joten he voivat aina sen takia puskea high endiinkin vähän riisuttua korttia ja se on silti kannattavaa koska Titanit kattaa kustannuksia. AMD:llä vastaavaa vaihtoehtoa ei oikein ole. (Tai no se Radeon VII hän oli just sellainen)
 
Melkein 100%;n varmuudella AMD on suunnitellut ainankin suurpiirteisesti isommankin RDNA1 piirin, homma on huomattavan helppo, VS arkkitehtuurin suunnittelu.

Siinä vaiheessa sitten, kun pienempi piiri on olemassa, sen isommankin suorituskyvystä ja virrankulutuksesta ym saadaan melkoisen hyviä arvioita.

Ja koska nuo RDNA:t muutenkin selkeästi vievät suorituskykyyn nähden yllättävän paljon sitä sähköä (käsitelty tuolla aikaisemmin), niin AMD vain katsoi lukuja ja tostesi selvästikin, ettei kannata. Ei tässä ole mitäänmuuta syytä. RDNA1 ei nyt vain ollut tarpeeksi kehittynyt kilpaillakseen Nvidian kanssa Highendissä (edes ilman Nvidian RTX ja tensor ominaisuuksia..) Puhumattakaan niiden kanssa.

Jos ja kun taas olisi käyty tiputtamaan jännitteitä, niin lopputuloksena olisi ollut iso läjä piirejä, jotka olisi pitänyt pistää johonkin kurahintaisiin kortteihin, kun AMD olisi jokatapauksessa joutunut kilpailemaan hinnalla hyvinkin raskaasti. AMD:llä on ollut jo ihan liikaa ajuripohjaisia ongelmia. Jos siihen olisi vielä lisätty alennetun käyttöjännitteen tuomat ongelmat (ei ne huvikseen ole niitä nykyisiä jännitteitä pistäneet, kun suurempi kulutus ei hyvältä todellakaan näytä). Se on ihan piilottoa, toimiiko kortti täysin luotettavasti, kaikissa vaadituissa tilanteissa kuin kikkaillaan jännitettä alentamalla..

Ei AMD:llä ja Intelillä ole oikein varaa tuollaiseen "ehkä toimii" kikkailuun, joita kellottelijat ym voivat käyttää. Jännitteet jne on valittava niin, että kaikissa tilanteissa, jokainen markkinoille päästetty yksilö toimii varmasti.
Suurinpiirtein-suunnitelmat eivät ihan samalla tavalla vie vielä aikaa kuin se piirin fyysinen suunnittelu.

Mitäköhän siellä on oikein käsitelty? 5700 XT on toki viritetty aika korkealle mikä karsii energiatehokkuutta, mutta RX 5700 ja RX 5600 XT tarjoavat parempaa energiatehokkuutta kuin yksikään NVIDIAn RTX-malli 4K-resoluutiota lukuunottamatta. Kyllä RDNA1:llä olisi taatusti saanut valmistettua suorituskyvyltään RTX 2080 Ti:n hujakoille yltävän kortin ja ihan tehonkulutuksenkin pysyessä samalla aisoissa.

Tässä on tuotu esiin niitä muita syitä miksi AMD on todennäköisesti siihen päätökseensä päätynyt, ettei kannata, kuten se että halo-tuotteissa uusimpien teknologioiden puute kun kilpailijalla on ne heikentää myyntipotentiaalia ihan eri tavalla kuin alemmissa luokissa, mikä on aika katastrofi luokassa minkä näytönohjaimia muutenkin myydään verrattain vähän, minkä lisäksi AMD tiesi että heiltä on tulossa pian RDNA2 missä on kaikki DX12U:n kilkkeet mukana, jolloin halotuotteen myyntiaikakin olisi korkeintaan vuoden paikkeilla, mikä on nykymarkkinoilla varsin lyhyt aika.

Tämä juttusi minusta sotii hieman tuota aiempaa väittämää vastaan, että AMD ei olisi voinut julkaista big RDNA sen takia, että olisi pitänyt aloittaa tekeminen jo vuosia sitten ja he eivät voineet reagoida kun RTX kortit tuli markkinoille. Jos elementtejä voidaan vain lätkiä sopiva määrä niin big RDNAn pitäisi olla hyvinkin yksinkertainen suunnitteluprosessi (mitä itse epäilen), se ei vain yksinkertaisesti olisi kannattava ja sitten valotus himmelit yms. maksaisi suhteessa siihen saatuun tehoon liikaa. Nvidialla on sellainen ikävä takataskussa oleva juttu kuin toi Titan joten he voivat aina sen takia puskea high endiinkin vähän riisuttua korttia ja se on silti kannattavaa koska Titanit kattaa kustannuksia. AMD:llä vastaavaa vaihtoehtoa ei oikein ole. (Tai no se Radeon VII hän oli just sellainen)
Kuvittelin viestin tyylin tekevän selväksi, että se oli hyvin yksinkertaistetusti ilmaistu, ei se mikään nopea leikkaa & liimaa -operaatio ole vaan vie tietenkin aikaa kun se fyysinen layout tehdään vaikka miten on "legopalikat" olemassa.
 
Kuvittelin viestin tyylin tekevän selväksi, että se oli hyvin yksinkertaistetusti ilmaistu, ei se mikään nopea leikkaa & liimaa -operaatio ole vaan vie tietenkin aikaa kun se fyysinen layout tehdään vaikka miten on "legopalikat" olemassa.
Tottakai se vie aikaa, mutta kun palikat on olemassa niin varsin nopeasti (kuukausia testeineen yms.) niistä sitten lopullinen kortti muodostuu. Selvästi AMD on todennut, että tuo olisi ajan tuhlaamista koska Nvidian vastine olisi liian kilpailukykyinen. Mehän emme oikeastaan edes tiedä paljonko 2080Ti:ssä olisi teknologisesti vielä varaa repiä irti. Titanin tiedämme, mutta onko niissäkään vielä vedetty edes kaikkea irti niin vastaus on varmaankin tuskin. Ainakin Titan V nähden esim. lämmöissä olisi pelivaraa eli kyllä siellä on vielä jätetty nykyisissäkin korteissa sitä pelivaraa, tai sitten jostain syystä Nvidian kortit ei kestäisi lämpöjä, mitä epäilen. AMD taas on joutunut jo nykyisellään repimään oikeastaan kaiken irti kellottamalla korteistaan.
 
Tietenkin niillä on asiantuntemusta alasta ja saatavilla olevista prosesseista, minkä avulla tehdään valistuneita arvioita siitä mihin kilpailija todennäköisesti tulee päätymään, mutta esimerkiksi sitä, että 2080 Ti:n konfiguraatio tulee olemaan x, mikä jättää y suorituskykyä pöydälle Super-mallia varten ei.


Oli TPU:n taulukoissaan käyttämä referenssi sitten oikea referenssi tai tehdasylikellotettu FE, kulutus on yli TDP:n joka tapauksessa (referenssi 250W, FE 260W, keskikulutus peleissä 273W)


5700 XT:n keskikulutus peleissä on 54 wattia pienempi kuin 2080 Ti:n, vain yli 5x heitto arviossasi. Ja 2080:n kulutus on 58W alle 2080 Ti:n, se jäi sentään alle 2x heiton.
"Minä taas vertailemassa referenssin arvoja koska se näyttää paremmalta ja puoltaa omaa agendaani eli näyttää AMD osalta paremmalta"

Niin paistaa taas läpi tämä puolueellisuus.
Amd referenssin kulutus luonnollisesti pienempi ihan pelkän paskan jäähynkin takia.
vähän kun otetaan parempaa mallia vertailuun niin alkaa erot 2080Ti olemaan melkoisen pienet.
Mutta tätähän ei voi sanoa koska se näyttäisi Amd kannalta huonolta, hieno homma perus touhua taas että jätetään faktat kertomatta.

power-gaming-average-1.png



power-gaming-average-2.png



power-gaming-average-3.png
 

Statistiikka

Viestiketjuista
257 261
Viestejä
4 471 368
Jäsenet
73 912
Uusin jäsen
The Bear

Hinta.fi

Back
Ylös Bottom