Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Yrittäisit edes :asif:

- Tilaajalla ei ole merkitystä mikäli testit ovat läpinäkyviä ja toistettavissa, kuten ne tässä tapauksessa ovat, jos haluaa haastaa tuloksen paikkansapitävyyden se on mahdollista toistamalla testi ja osoittamalla mahdolliset virheet.
Paitsi että nuo testit ovat kaikkea muuta kuin toistettavissa kuten tulosten epämääräisyys osoittaa, muuallakin tuota testiä on ihmetelty, toki jos näitä ei halua kuunnella niin sitten en voi auttaa.

- Yritätkö vihjata että toimittivat viallisia kortteja? Tuosta jäisi kiinni nopeammin kuin ehdit kissaa sanoa, järki käteen.
Miten ne tuosta ikinä jäisivät kiinni? Eihän nuo testaajat nytkään ihmetelleet mitään vaikka ylivoimaisesti suurin osa kaatumisista kasautui muutamalle kortille. Jo se, että vain AMD toimitti kortteja tekee koko testistä ihan naurettavan. Luuletko että AMD toimitti parhaat yksilöt?
- Ihan standardikäytäntö että yksi kortti per korttimalli, ellei testattu kortti osoita tavalla tai toisella olevansa rikki.
Mikä standardi tämä on?
- Testissä kerrotaan ihan suoraan mitä testimetodia käytettiin eikä se väitä kuvaavansa mitään muuta kuin sen tuloksia.
Kyllä tuossa "testin" lopussa vedetään mutkia vähän suoraksi: "based on our testing of the aforementioned 12GPUs, we believe that AMD has the most stable graphics driver in the industry. " Tuossa ei enää puhuta mistään tietystä versiosta tai tietyistä korteista.
 
Yrittäisit edes :asif:

- Tilaajalla ei ole merkitystä mikäli testit ovat läpinäkyviä ja toistettavissa, kuten ne tässä tapauksessa ovat, jos haluaa haastaa tuloksen paikkansapitävyyden se on mahdollista toistamalla testi ja osoittamalla mahdolliset virheet.
- Yritätkö vihjata että toimittivat viallisia kortteja? Tuosta jäisi kiinni nopeammin kuin ehdit kissaa sanoa, järki käteen.
- Vakautta ei testattu vain vaihtamalla resoluutiota/värejä/pivotia ja testaamalla wake/sleepiä intensiivisesti, vaan ne olivat osa testirutiinia.
- Käytetyt ajurit olivat kummankin valmistajan testin aikaan suosittelemat tuoreimmat viralliset ajurit eikä testi väitä yhtään mitään muista ajureista.
- Kummaltakin firmalta testatiin kolme ammattilais- ja pelikorttia eri suorituskykykategorioista, eikä testi yritä väittää yhtään mitään muista korteista.
- Ihan standardikäytäntö että yksi kortti per korttimalli, ellei testattu kortti osoita tavalla tai toisella olevansa rikki.
- Testissä kerrotaan ihan suoraan mitä testimetodia käytettiin eikä se väitä kuvaavansa mitään muuta kuin sen tuloksia.


Kuten odottaa saattaa tietyltä porukalta, pelkkää tyhjän huutelua ilman mitään dataa joka osoittaisi testin olevan virheellinen.
Ootko koskaan tutustunut tilastotieteeseen? Tieteellisessä testissä tulisi pyrkiä

1) toistettavuuteen (huom, eri asia kuin uusittavuus, johon sinä viittaat)
2) satunnaisuuksien minimoimiseen ja edustavan otoksen käyttämiseen (= käyttämällä useampia kortteja)
3) tyypillisesti testissä tulee ottaa huomioon outlierit jos tarkoitus on käyttää binäärisiä mittoja (pass/fail) testitulosten muodostamisessa
4) eikä lokeroida pass/fail tuloksia 4 tunnin segmentteihin, joka on täysin järjetön tapa kerätä testidataa

Ihan yliopiston tilastotieteen/kvantitatiivisten menetelmien peruskurssin läpäisijä osaisi silmäillä tuota testiä ja huomioida samat ongelmat.

Testi on läpinäkyvä mitä tulee metologiaan ja täten myös siihen mitä testissä mitataan. Sitähän en ole kyseenalaistanut - kyseinalaistin sen miten relevantti se on tässä ketjussa käytävään keskusteluun.

Lukijan tai tässä tapauksessa linkkaajan (= sun) vastuulla on taas osoittaa miten relevantti testin tulos on käynnissä olevaan keskustelun sisältöön, jos olet valmis käyttämään sitä keppihevosena oman mielipiteesi (tai lähinnä agendan) edistämiseksi.

Tyypillinen käyttäjä hyväksyisi tässä kohtaa triiditappion, mutta toiset taas ovat vältelleet sitä itseoivalluksen tuottamaa kipua toistakymmentä vuotta.

edit: tän lisäksi on hyvä huomioida se, että Quadroja pyöritettiin R391-ajurilla, eikä R396-ajurilla, joka on virallisesti yhteensopiva Windows 10 1803-päivityksen kanssa. Tää on vähän sitä että tankkaa Testarossaan E85sta, ja sitten ihmetellään miksi kone yskii ja Corollat menee vasemmalta ohi.
Eiköhän tää ollut nyt tässä.
 
Viimeksi muokattu:
Ootko koskaan tutustunut tilastotieteeseen? Tieteellisessä testissä tulisi pyrkiä

1) toistettavuuteen (huom, eri asia kuin uusittavuus, johon sinä viittaat)
2) edustavan otoksen käyttämiseen (= käyttämällä useampia kortteja)
3) tyypillisesti testissä tulee ottaa huomioon outlierit jos tarkoitus on käyttää binäärisiä mittoja (pass/fail) testitulosten muodostamisessa
4) eikä lokeroida pass/fail tuloksia 4 tunnin segmentteihin, joka on täysin järjetön tapa kerätä testidataa

Ihan yliopiston tilastotieteen/kvantitatiivisten menetelmien peruskurssin läpäisijä osaisi silmäillä tuota testiä ja huomioida samat ongelmat.

Testi on läpinäkyvä mitä tulee metologiaan ja täten myös siihen mitä testissä mitataan. Sitähän en ole kyseenalaistanut - kyseinalaistin sen miten relevantti se on tässä ketjussa käytävään keskusteluun.

Lukijan tai tässä tapauksessa linkkaajan (= sun) vastuulla on taas osoittaa miten relevantti testin tulos on käynnissä olevaan keskustelun sisältöön, jos olet valmis käyttämään sitä keppihevosena oman mielipiteesi (tai lähinnä agendan) edistämiseksi.
Olen toki, mutta tässä ei olla tekemässä tilastotiedettä vaan puhutaan yhdestä yksittäisestä tutkimuksesta ajureiden vakaudesta, minkä vuoksi esittämäsi argumentit eivät toimi (lisäksi mainittakoon että tuo 4 tunnin segmentti on ihan käytetystä MS:n testirutiinista kiinni).
PS. NVIDIAlta on kysytty kommenttia tuosta tutkimuksesta eikä heillä ollut siihen mitään purnattavaa.
 
no asuksen rx5700xt ssa oli vähän löysällä jäähdytys mutta noin kallis kun on niin ei se varmaan haittaa?
sitten olivat ensin sitä mieltä että on testattu toimii eivät meinanneet korjata.

Onhan noita tekovikaisia kortteja vaikka mitä ollut iät ja ajat silloin tällöin, ei kuitenkaan ole amd:n tai nvidian vika jos esim. asus tekee paskan coolerin.
Itse sain palitin gtx 1080 ti gamerockin viallisella coolerilla, läpätti tuuletin johonkin kiinni. Viasta dokumenttia talteen, kaupan aspaan viestiä, paska palautukseen ja vaikka toista mallia tilalle.
 
Asus ei ole missään nimessä ainakaan Radeon-näytönohjainten kohdalla mikään "komponenttien Apple" vaan täyttä kuraa, ollut jo pitkän aikaa (juu, on siellä ihan ok tai jopa hyviäkin mutta luvattoman monta täydellistä failia joukossa)

Tarkoitin siis tuota hinnoittelua, vaikkakaan ei sekään täysin vertaudu. Asuksella paljon brändilisää monissa tuotteissaan, Strix-tuotteet tästä yksi esimerkki. On niillä toki hyviäkin komponentteja, ei ne ihan joka mallissa sentään epäonnistu.

Ja tosiaan kun Asuksella ollut tapana lätkäistä Radeon-korteille surutta Nvidia-korttien jäähyjä sen kummemmin uudelleensuunnittelematta niitä.

Nämä on aivan karmeata AMD-kuluttajien silmiin roiskimista. Massiivinen yritys joka ei vaivaudu suunnittelemaan toisen firman korteille omaa jäähyä.. Myös emolevyissä välillä ihan luokattomia virransyötön jäähdytyksiä. Asuksesta haisee ylimielisyys ja kapitalismin huonot puolet kuuhun asti. Pidin nuorempana tätä Taiwanilaista firmaa alansa huippuna. Oh boy kun olin väärässä. Onhan niillä hyviäkin komponentteja, mutta luotto on mennyt ja pahasti.
 
Olen toki, mutta tässä ei olla tekemässä tilastotiedettä vaan puhutaan yhdestä yksittäisestä tutkimuksesta ajureiden vakaudesta, minkä vuoksi esittämäsi argumentit eivät toimi (lisäksi mainittakoon että tuo 4 tunnin segmentti on ihan käytetystä MS:n testirutiinista kiinni).
PS. NVIDIAlta on kysytty kommenttia tuosta tutkimuksesta eikä heillä ollut siihen mitään purnattavaa.

Tuo testi on tosiaan ainoa tiedossa oleva ajurivakaustesti. Muuten statistikkaa on tarjolla lähinnä microsoftilla telemetrian perusteella ja AMD/NVidia akselilla. Nvidialla nyt enemmän mitä AMD:lla, kun niiden gaming experience on louhinut dataa pidemmän aikaa, AMD ajureihin on tuo auta parantamaan ajureita datan lähetys optio ilmestynyt, mutta se on muistaakseni asennuksen oletuksena pois päältä.

Tuon parjatun testihän piiskaa WDDM:ää, josta tulee muuten 2.7 versio kevään windows 10 päivityksessä. Vaikka sen testin voi noin näppärästi automatisoida, niin eiköhän ajuribugeja ole taas keväällä tarjolla:

WDDM 2.7
Windows 10 20H1 (Version 2004) includes WDDM 2.7 and shader model 6.5

  • DirectX 12 Sampler Feedback
  • DirectX Raytracing (DXR) Tier 1.1
  • Direct3D 12 Mesh Shaders and Amplification Shaders
  • Direct3D 12 improved memory allocation control
  • Direct3D 12 and Direct3D 9 resource interop
  • Direct3D 12 Video Protected Resource support
 
Tarkoitatko siis että on tuurista kiinni saako Nvidian kortista parhaan yksilön ja välttää ajuriongelmat?

Eikös aiemmat argumentit olleet että Nvidialla ei ole ongelmia?

Pointtini tuossa oli, että jos AMD osti esim. 1000 yksilöä jokaisesta kortista, niin ei siitä liene kovin vaikea löytää muutama kortti joissa jäähy on huonosti kiinni tai piiri on niin huono ettei se toimi vakaasti vakiokelloilla tmv. Ei tuo mitenkään vaikuta aikaisempiin argumentteihin.
 
Kuka tahansa osaa järjellä päätellä että eri valmistajien ja eri SKUeiden välillä on laatueroja. Netti on pullollaan dataa joka osoittaa mm. tiettyjen mallien korkeammat RMA-prosentit.

Tarkoitatko siis että on tuurista kiinni saako Nvidian kortista parhaan yksilön ja välttää ajuriongelmat?

Eikös aiemmat argumentit olleet että Nvidialla ei ole ongelmia?
Hyvä esimerkki taas älyllisestä epärehellisyydestä.
 
Kuka tahansa osaa järjellä päätellä että eri valmistajien ja eri SKUeiden välillä on laatueroja. Netti on pullollaan dataa joka osoittaa mm. tiettyjen mallien korkeammat RMA-prosentit.

Eihän tässä mitään RMA prosentteja ole testattu vaan ajureita.


Pointtini tuossa oli, että jos AMD osti esim. 1000 yksilöä jokaisesta kortista, niin ei siitä liene kovin vaikea löytää muutama kortti joissa jäähy on huonosti kiinni tai piiri on niin huono ettei se toimi vakaasti vakiokelloilla tmv. Ei tuo mitenkään vaikuta aikaisempiin argumentteihin.

Eli yritys ostaa tuhansia kilpailijan tuotteita, käyttää tuhansia tunteja niiden testaamiseen, että löytää viallisia yksilöitä ja lähettää ne testattavaksi kolmannelle osapuolelle?

:facepalm:
 
Paitsi että nuo testit ovat kaikkea muuta kuin toistettavissa kuten tulosten epämääräisyys osoittaa, muuallakin tuota testiä on ihmetelty, toki jos näitä ei halua kuunnella niin sitten en voi auttaa.
Kukaan ei ole kuitenkaan nähnyt asiakseen osoittaa, etteikö ne ole toistettavissa eikä NVIDIAllakaan kysyttäessä ollut mitään purnattavaa.
Miten ne tuosta ikinä jäisivät kiinni? Eihän nuo testaajat nytkään ihmetelleet mitään vaikka ylivoimaisesti suurin osa kaatumisista kasautui muutamalle kortille. Jo se, että vain AMD toimitti kortteja tekee koko testistä ihan naurettavan. Luuletko että AMD toimitti parhaat yksilöt?
En usko että siellä olisi lähdetty erikseen valikoimaan erityisen huonoja yksilöitä, vaan kirjaimellisesti ostettu yksi kappale kutakin ja lähetetty testiin.

Mikä standardi tämä on?
Jos lähdet tuolta nyt katsomaan pisin nettiä erilaisia näytönohjain ja ajurirevikoita, mihin tämäkin lukeutuu, niin aika harvasta taidat löytää useamman kuin yhden yksilön kutakin mallia (poislukien tietenkin eri AIB-valmistajien saman mallin väliset vertailut, mutta niissäkin tyypillisesti vain yksi kortti per valmistaja per malli).
Kyllä tuossa "testin" lopussa vedetään mutkia vähän suoraksi: "based on our testing of the aforementioned 12GPUs, we believe that AMD has the most stable graphics driver in the industry. " Tuossa ei enää puhuta mistään tietystä versiosta tai tietyistä korteista.
Tuossa kohtaa tietenkin oletus on, että kummankin testihetkellä tuoreimmat valmistajan suosittelemat ajurit ovat vakaat ja testi sekä tuo lause itsessään kertovat mihin heidän olettamansa perustuu, huomaa myös sanan "believe" käyttö mikä alleviivaa tätä.

Kuka tahansa osaa järjellä päätellä että eri valmistajien ja eri SKUeiden välillä on laatueroja. Netti on pullollaan dataa joka osoittaa mm. tiettyjen mallien korkeammat RMA-prosentit.
Nyt kun vielä osoitat että käytetyt SKUt ovat oman sarjansa huonoimpia tai edes huonoimmasta päästä
 
Tää testihän muuttuu surkuhupaisemmaksi sitä enemmän tätä tutkii. Quadro-kortteja testattiin ajuriversiolla 391.58, eikä nimenomaan Windows 10 1803 varten julkaistuilla R396 ajureilla.

Täähän on vähän sitä että tankkaa Testarossaan E85:sta ja sitten ihmetellään miksi Corollat menee vasemmalta ohi.

Toiseksi kyseinen skenaario ei juuri toistu vahingossakaan kyseisen tuotesarjan korteilla, koska niitä pyöritetään firmojen omistamissa työjuhdissa, joissa ei keulita turhaan käyttis/ajuripäivitysten kanssa ennen kuin kellarikerroksen kaulaparrat näyttävät päivityksille vihreää valoa.

Eihän tässä mitään RMA prosentteja ole testattu vaan ajureita.
?

Satunnaisotannalla(kin) napattu korttiyksilö ei välttämättä ole edustuskelpoinen jotta siitä voisi vetää laajoja johtopäätöksiä. Hyvässä tutkimuksessa pyritään minimoimaan satunnaisvaihtelua ja eliminoimaan poikkeavia havaintoja, ja sitähän ei pystytä tekemään jos testataan yhtä korttia per malli.

Koko testin validisuus liikkuu hyvin lähelle nollaa kun sitä tutkii tarkemmin.

Nyt kun vielä osoitat että käytetyt SKUt ovat oman sarjansa huonoimpia tai edes huonoimmasta päästä
SKUitahan testissä ei koskaan saatu edes selville..
 
Viimeksi muokattu:
SKUitahan testissä ei koskaan saatu edes selville..
Johan ne oli linkattu tähän ketjuunkin?
Radeon Pro WX 9100102-D05101-00AMD
Radeon Pro WX 7100102-C95401-00AMD
Radeon Pro WX 3100102-D09101-00AMD
Radeon RX Vega 64102-D05014-00AMD
Radeon RX 560 – 2GBH6YVCM023385ASUS
Radeon RX 580 – 8GB602-V341-450B1708000580MSI
Quadro P5000PG413KG032527000LZPNY
Quadro P4000PG410GG03203800038PNY
Quadro P600PG212DK04208700138PNY
GeForce GTX 1080 Ti900-1G611-000-000NV
GeForce GTX 1050 – 2GBGV-N1050OC-2GDGIGABYTE
GeForce GTX 1060 – 6GBGV-N1060WF20C-6GDGIGABYTE

Ja varmuuden välttämiseksi PNY on virallinen Quadro-partneri (oliko tuohon aikaan jopa ainut joka myy virallisesti noita poislukien OEM-valmistajat omiin vehkeisiinsä?)
 
Eli yritys ostaa tuhansia kilpailijan tuotteita, käyttää tuhansia tunteja niiden testaamiseen, että löytää viallisia yksilöitä ja lähettää ne testattavaksi kolmannelle osapuolelle?
:facepalm:

Kyseessähän on voinut olla vaikka 10 kappaletta josta sitten on tuurilla löytynyt huono kappale, joka tapauksessa pikkurahaa verrattuna testin ostamiseen ja mainoshyötyyn mitä siitä on saatu.
 
Jos lähdet tuolta nyt katsomaan pisin nettiä erilaisia näytönohjain ja ajurirevikoita, mihin tämäkin lukeutuu, niin aika harvasta taidat löytää useamman kuin yhden yksilön kutakin mallia (poislukien tietenkin eri AIB-valmistajien saman mallin väliset vertailut, mutta niissäkin tyypillisesti vain yksi kortti per valmistaja per malli).

Niin, mutta normaalissa revikassa onkin tarkoitus testata vain yhtä tiettyä korttia ja sen ominaisuuksia ja silloinkin tuloksia voi yleensä verrata muiden saittien revikoihin samasta kortista. Ei kukaan lähde tekemään testiä ajureiden paremmuudesta käyttäen vain yhtä korttia, tästä syystä esim. GN teki sen kyselyn koska parin kortin perusteella(mitä niillä sattuu olemaan) ei pysty tekemään mitään johtopäätöksiä.
 
Niin, mutta normaalissa revikassa onkin tarkoitus testata vain yhtä tiettyä korttia ja sen ominaisuuksia ja silloinkin tuloksia voi yleensä verrata muiden saittien revikoihin samasta kortista. Ei kukaan lähde tekemään testiä ajureiden paremmuudesta käyttäen vain yhtä korttia, tästä syystä esim. GN teki sen kyselyn koska parin kortin perusteella(mitä niillä sattuu olemaan) ei pysty tekemään mitään johtopäätöksiä.
Heti ensimmäiset nimenomaan ajureihin keskittyvät revikat mitä google tarjoili
AMD vs Nvidia: Whose Driver Updates Improve Performance More? yksi kortti per valmistaja
Nvidia vs. AMD: Do GPUs Degrade in Performance Over Time? - ExtremeTech yksi kortti per malli
20-Way GPU Gaming Comparison With March 2020 Linux Drivers - Phoronix yksi kortti per malli

Miten nämä eroaa tuossa käytetystä yksi kortti per malli metodista?
 
Nämä on aivan karmeata AMD-kuluttajien silmiin roiskimista. Massiivinen yritys joka ei vaivaudu suunnittelemaan toisen firman korteille omaa jäähyä..

Miksi tarvisi suunnitella erikseen jäähy jos sen kortin suunnittelee samanlaiseksi?

Eli yritys ostaa tuhansia kilpailijan tuotteita, käyttää tuhansia tunteja niiden testaamiseen, että löytää viallisia yksilöitä ja lähettää ne testattavaksi kolmannelle osapuolelle?

Joo kyllä nyt on novideo leirissä vedetty foliopipot syvälle päähän ja kaivauduttu syviin poteroihin. :D
 
Heti ensimmäiset nimenomaan ajureihin keskittyvät revikat mitä google tarjoili
AMD vs Nvidia: Whose Driver Updates Improve Performance More? yksi kortti per valmistaja
Nvidia vs. AMD: Do GPUs Degrade in Performance Over Time? - ExtremeTech yksi kortti per malli
20-Way GPU Gaming Comparison With March 2020 Linux Drivers - Phoronix yksi kortti per malli

Miten nämä eroaa tuossa käytetystä yksi kortti per malli metodista?

Noissa testeissä testataan ihan eri asioita, noissa testattiin nopeutta ei ajureiden luotettavuutta.
 
Noissa testeissä testataan ihan eri asioita, noissa testattiin nopeutta ei ajureiden luotettavuutta.
Ne näyttäisivät olevan kutakuinkin ainoita minkään tason ajuritestejä missä olisi kummankin valmistajan kortteja tuon QA Consultantsin setin lisäksi. Sitten on toki päälle joitain jossa vertaillaan yhden valmistajan ajureiden kehitystä ihan samalla metodilla, yksi kortti per malli (ja usein 2-3 mallia yhteensä), mutta siinä se sitten onkin. Pointti oli, että ne testit mitä ylipäätään tuolla saralla on tehty on tehty ihan yhdellä kortilla per malli tai jopa per valmistaja.
Yrität vaatia jotain sellaista mitä ei ole ja sitten haukut ne mitä on ylipäätään olemassa.
Miksi tarvisi suunnitella erikseen jäähy jos sen kortin suunnittelee samanlaiseksi?
Koska ne GPU:t mihin sen jäähyn pitäisi olla yhteydessä on erilaisia? Esimerkiksi 280 ja 290 käytettiin viiden heatpipen "DirectCU"-jäähyjä, ainut vika että heatpipeistä vain kolme oli missään kontaktissa grafiikkapiiriin.
 
Viimeksi muokattu:
Koska ne GPU:t mihin sen jäähyn pitäisi olla yhteydessä on erilaisia? Esimerkiksi 280 ja 290 käytettiin viiden heatpipen "DirectCU"-jäähyjä, ainut vika että heatpipeistä vain kolme oli missään kontaktissa grafiikkapiiriin.

Eli oliko siinä käytetty jotain yhteensopimatonta jäähytintä? Vai oliko ydin niin pieni kooltaan että se ei vaan yksinkertaisesti osunut kahteen muuhun putkeen? Näytönohjaimet on kuitenkin piirilevytasollo varsin samanlaisia, ei pitäisi olla liian hankala homma suunnitella kortteja niin että coolerit käy ristiin.
 
Eli oliko siinä käytetty jotain yhteensopimatonta jäähytintä? Vai oliko ydin niin pieni kooltaan että se ei vaan yksinkertaisesti osunut kahteen muuhun putkeen? Näytönohjaimet on kuitenkin piirilevytasollo varsin samanlaisia, ei pitäisi olla liian hankala homma suunnitella kortteja niin että coolerit käy ristiin.
Cooleri oli mitä luultavimmin revitty suoraan GTX 780 / 780 Ti -kortista (561^2mm) ja isketty 290X:ään (438^2mm).

Asucksia kannattaa välttää AMD-puolella. Ei siinä että firman kortit olisivat Nvidia-puolellakaan mitenkään erityisen hyviä, mutta firman track record AMD-korttien kanssa kielii siitä, että firmassa suunnitellaan AMD-kortit juostenkusten.
 

Sieltä uuden xboxin speksit. 30% enemmän CU:ta kuin 5700X:ssä ja kellotkin ihan mukavan korkeat joten tää menee heittämällä RTX2080 ja 2080Ti:n väliin kun otetaan huomioon RDNA2 parannukset niin on varmaan lähempänä 2080Ti:tä kuin 2080:stä.
Eihän se ihme ole että Jenssen setä laittoi nahkatakin takas kaappiin ja perui kaikki esitykset. Onhan tää aika jytky että tulevaan konsoliin tulee top tier pelitehot! Voi pojat miettikääs mitä sieltä on desktopille tulossa. :)
 

Sieltä uuden xboxin speksit. 30% enemmän CU:ta kuin 5700X:ssä ja kellotkin ihan mukavan korkeat joten tää menee heittämällä RTX2080 ja 2080Ti:n väliin kun otetaan huomioon RDNA2 parannukset niin on varmaan lähempänä 2080Ti:tä kuin 2080:stä.
Eihän se ihme ole että Jenssen setä laittoi nahkatakin takas kaappiin ja perui kaikki esitykset. Onhan tää aika jytky että tulevaan konsoliin tulee top tier pelitehot! Voi pojat miettikääs mitä sieltä on desktopille tulossa. :)
Nyt sitten tietää, että Navi ei välttämättä ole kovin pitkäikäinen. Ominaisuuksia puuttuu, mitä Turingista ja RDNA2.0:sta löytyy. Tehoissa jäädään myös jälkeen eli ei päästä konsolitasolle samoilla resoluutioilla. Tässä vaiheessa en ostaisi kyllä mitään korttia vaan odottelisin molempien julkaisut.
 
Nyt sitten tietää, että Navi ei välttämättä ole kovin pitkäikäinen. Ominaisuuksia puuttuu, mitä Turingista ja RDNA2.0:sta löytyy. Tehoissa jäädään myös jälkeen eli ei päästä konsolitasolle samoilla resoluutioilla. Tässä vaiheessa en ostaisi kyllä mitään korttia vaan odottelisin molempien julkaisut.
Naveja ne RDNA2 (ja 3) sirutkin tulevat olemaan ;)
 
Nyt sitten tietää, että Navi ei välttämättä ole kovin pitkäikäinen. Ominaisuuksia puuttuu, mitä Turingista ja RDNA2.0:sta löytyy. Tehoissa jäädään myös jälkeen eli ei päästä konsolitasolle samoilla resoluutioilla. Tässä vaiheessa en ostaisi kyllä mitään korttia vaan odottelisin molempien julkaisut.

Samalla tavalla kaikki 2080 ti hitaammat Turingit jää tehoissa konsoleista, ei se sitä tarkoita että ne on käyttökelvottomia.
 
Nyt sitten tietää, että Navi ei välttämättä ole kovin pitkäikäinen. Ominaisuuksia puuttuu, mitä Turingista ja RDNA2.0:sta löytyy. Tehoissa jäädään myös jälkeen eli ei päästä konsolitasolle samoilla resoluutioilla. Tässä vaiheessa en ostaisi kyllä mitään korttia vaan odottelisin molempien julkaisut.

Ei tarvettakaan päästä koska:

a) 1080P on edelleen suosittu reso
b) 1440p on suosittu
c) Ihan jo TV:n tuumakoko on tätä nykyä sen verta massiivinen, että tarvitaan suurempaa resoa, jotta se ei näytä ihan ripulilta.
d) Tehot riittää nykysilläkin korteilla hyvin 1080p ja 1440p resoille.

Kyse on optimoinnista. Jos haluaa tasapainottaa kokemuksen ja rahanmenon niin max 27'' näyttö 1440p resolla.
 
Kehtaan väittää että 32" ei ole millään mittarilla liian iso koko 1440p:lle

Ero on ainakin omaan silmään aika selkeä jos vertaa tarkkuutta.
32'' 1440p vastaa 24'' 1080p

Jos käyttää 24'' näyttöä 1440p resolla niin ero on huomattava.

Hienoahan se olisi, jos 4K näyttöä iskisi pöydälle vaikka 27'' koossa - on terävä kuva. Kalustosta vaan loppuu mehut kesken.
Joten kompensoidakseen sitä voi hommata pienemmän näytön ja 1440P reson. Simppeliä.

Siitä voi jokainen oman maun mukaan päätellä, kumpi on tärkeämpi - näytön koko vai tarkkuus esim juuri peleissä.
 
Paljon riippuu myös katseluetäisyydestä...

Minun mielestä 32" on sopiva koko 1440p resolle. Pikselitiheys on samaa luokkaa kuin 24" 1080p näytöllä.

Siksipä onkin käytössä 3x32" 1440p näytöt...
 

Sieltä uuden xboxin speksit. 30% enemmän CU:ta kuin 5700X:ssä ja kellotkin ihan mukavan korkeat joten tää menee heittämällä RTX2080 ja 2080Ti:n väliin kun otetaan huomioon RDNA2 parannukset niin on varmaan lähempänä 2080Ti:tä kuin 2080:stä.
Eihän se ihme ole että Jenssen setä laittoi nahkatakin takas kaappiin ja perui kaikki esitykset. Onhan tää aika jytky että tulevaan konsoliin tulee top tier pelitehot! Voi pojat miettikääs mitä sieltä on desktopille tulossa. :)
Provo vaiko oikeasti pihalla?
Korona vaikuttaa tuohon julkaisuun kuten se vaikuttaa kaikkeen muuhunkin.
Jos et ole koronasta kuullut niin sitten välissä lukemaan vaikka uutisia.

Mahdollinen Ampere julkaisu vaatii asiallisen esityksen ja näkyvyyttä.
Tuollainen konsolin rauta ei vaikuta mitenkään tähän ja ei muutenkaan olisi tehokkainta rautaa kun Ampere julkaistaan.
Jos Amd.lla ei muuta ole niin pahasti tulee taas ottamaan turpaan, mutta siihenkin tottuneet kannattajat jaksaa odottaa taas parempia aikoja.

Nvidiaa käyttäneenä on saanut kyllä kunnon suorituskykyä nyt useamman vuoden, voin vaan kuvitella mitä paskaa se on kun joutuu jatkuvasti odottaan jotain"jeesus" korttia kun ei voi Nvidiaakaan ostaa.

Toivottavasti Amd käyttäjätkin joskus pääsee nauttimaan 2080Ti tehoista, jos ei muuten niin ostaa vaikka ton konsolin niin ehkä se on tarpeeksi lähellä.
 
Mahdollinen Ampere julkaisu vaatii asiallisen esityksen ja näkyvyyttä.
Ei mikäli esitellään aluksi vain HPC-puolen tuotteita, ne asiakkaat tietävät mitä ovat ostamassa riippumatta siitä miten se on julkaistu.
Tuollainen konsolin rauta ei vaikuta mitenkään tähän ja ei muutenkaan olisi tehokkainta rautaa kun Ampere julkaistaan.
Jos Amd.lla ei muuta ole niin pahasti tulee taas ottamaan turpaan, mutta siihenkin tottuneet kannattajat jaksaa odottaa taas parempia aikoja.
Kun muille huutelet provoilusta niin kannattaa myös sitä peiliä vilkaista, ei konsoleissa ole ikinä ollut top-of-the-line rautaa riippumatta siitä milloin ne on julkaistu.
 
Samalla tavalla kaikki 2080 ti hitaammat Turingit jää tehoissa konsoleista, ei se sitä tarkoita että ne on käyttökelvottomia.
Ei käyttökelvottomia, mutta tilanne on hieman eri. Nyt parhaatkin konsolit ovat jäljessä keskiverto PC:itä. Tämän jälkeen tilanne muuttuu ja pelit suunnitellaan noita tehoja varten. RDNA 2.0:n ominaisuudet otetaan käyttöön. Jos 1080p riittää konsoleita heikommilla asetuksilla, niin varmaan ne pelit toimii ihan hyvin vielä pitkään.

Muistan varsin hyvin mitä tapahtui kun Xbox tuli ja pelit alkoivat käyttämään DX8:n ominaisuuksia. GeForce 2:n päivät olivat silloin luetut. Nyt tietenkin sama jos RT päällä. Tosin on siellä muitakin parannuksia (puhtaan tehon lisäksi).
 
Viimeksi muokattu:
Tämä rt juttu on se mikä erottaa tai tulee erottamaan suurimmaksi osaksi amd n ja nvidian tehoerot.
Uskon nvidian rt parannukseen joka on huomattava ja en usko että nvidia jätetään ulos rt kuviosta sen takia että
konsolissa on amd rt. Uskon jopa siihen että rt pyörähtää paremmin nvidialla.
 
Sitähän ei kukaan tiedä millainen RT AMD:llä tulee olemaan.

Toivottavasti on molemmilla valmistajilla samaa tasoa niin on enemmän valinnan mahdollisuuksia kortin ostossa...
 
Tämä rt juttu on se mikä erottaa tai tulee erottamaan suurimmaksi osaksi amd n ja nvidian tehoerot.
Uskon nvidian rt parannukseen joka on huomattava ja en usko että nvidia jätetään ulos rt kuviosta sen takia että
konsolissa on amd rt. Uskon jopa siihen että rt pyörähtää paremmin nvidialla.
RT tulee pyörimään kyllä sitten AMD ja Intelinkin raudalla, eikä NVIDIAa jätetä pois. Luulen, että ensimmäisen sukupolven RT kortit ottavat hittiä aika samalla lailla valmistajasta riippumatta. NVIDIA:n seuraava sukupolvi ei ainakaan sen osalta ole hitaampi suhteessa Turingiin. Sen näkee sitten mikä on nopeampi. Ei tuo AMD:n rautakiihdytys ihan paskalta ainakaan vaikuta.
 
Ekassa Xboxissahan oli GeForce 3:aan pohjautuva joka sisälsi joitain GF4:n ominaisuuksia vaikka se julkaistiin vasta myöhemmin. Myös X360:n GPU oli kova verrattuna silloisiin PC-puolen kortteihin (GeForce 7800, Radeon X1800).
Ai niin, unohtui tuo että Xbox tuli ennen GF4:ää. No, poikkeus vahvistaa säännön. X360:n GPU oli "kova" siinä mielessä että se oli unified shadereilla, mutta tuohon aikaan suosituissa pikseli ja tekselinopeuksissa se ei pärjännyt X1800-sarjalle (unified shadereiden myötä jotkut asiat olivat toki nopeampia mutta ei se kokonaispaukkuna pärjännyt muistaakseni)
 
Korona vaikuttaa tuohon julkaisuun kuten se vaikuttaa kaikkeen muuhunkin.

Vai olisi niin että tuohon perumiseen on vaikuttanu roadmap jonka AMD iski pöytään. Ollaan nimittäin kovaa vauhtia potkimassa jensseniä pihalle datacenter puolelta elleivät pikaisesti keksi jotain vastausta. Siellä on nimittäin AMD:ltä tulossa datacenter puolelle kovaa settiä lähivuosina.
Tuolta kato dia 32 ja 33 niin saatat ehkä ymmärtää miksi nahkatakkimiehellä saattaa kiristää muukin kuin nahkatakki.

Tuollainen konsolin rauta ei vaikuta mitenkään tähän ja ei muutenkaan olisi tehokkainta rautaa kun Ampere julkaistaan.

Mutta kun mitään amppelia ei ole edes julkaistu vielä. Tuosta sentään on speksit ulkona. Mennään olemassa olevien tuotteiden pohjalta hei eikä sotketa mitään mielikuvitus himmeleitä sekaan.

Jos Amd.lla ei muuta ole niin pahasti tulee taas ottamaan turpaan, mutta siihenkin tottuneet kannattajat jaksaa odottaa taas parempia aikoja.

Kyllä tuntuu sinulle olevan tuo matikka vaikeaa. Tuollaista tehoa kun tarjotaan konsoliin niin se tarkoittaa että desktopille tulee kyllä huomattavasti kovempaa kamaa. Miten olisi vaikka 52CU:n kasvatus 80? Joka tarkoittaa pelkistettynä noin 54% tehohyppyä.
 
JiiPee sanoi:
Kyllä tuntuu sinulle olevan tuo matikka vaikeaa. Tuollaista tehoa kun tarjotaan konsoliin niin se tarkoittaa että desktopille tulee kyllä huomattavasti kovempaa kamaa. Miten olisi vaikka 52CU:n kasvatus 80? Joka tarkoittaa pelkistettynä noin 54% tehohyppyä.

Tai vaikka kuvitteelinen RX 6800XT 64 CU = 4096 x 2.3Ghz x 2 = 18.8 TFLOPS TBP 250W msrp 549$ :think:
 
En tiedä onko ihan oikea ketju, mutta linktaanpa tänne kun sekä AMD että NVIDIA paikalla esitelmöimässä. DirectX Developer Day livestriimi käynnistyi juuri:


"DirectX 12 Ultimate" -brändäystä ilmeisesti luvassa:

 
Viimeksi muokattu:
Toi on ihan juntturassa koko striimi ainakin täältä käsin kun koitti katsella, uutista tulee illalla tai viimeistään huomenna
 
Puoliso tosiaan hätähousuna osti uuden tietokoneen mutta prosessorin kanssa striimamisessa oli alussa ongelmia niin vaihdoin koneeni rtx 2060 superin(koska nvenc) siihen ja hänen rx 5700 xt omaan koneeseeni.

Pakko sanoa että todella tyytyväinen tähän näytönohjaimeen, mitään bugeja ei ole tullut vastaan, pelit toimii hienosti tosin eipä taida merkittävää eroa olla tehoissa verrattuna vanhaan.

Nvidian ohjaimissa on ollut taloudella gtx 1060 läppärissä ja rtx 2060 superin kanssa ongelmana ohjelmat joista ei saa laitteistokiihdytystä pois josta tulee välillä sellaista kuvaviirua.
 
Kerranki NVIDIA julkaisee jotain avointa, kun julkaisi laiteriippumattoman SDK:n pelien kehittäjille. Tuon avulla pelien Global Illuminationin laskentaan voidaan helposti käyttää raytracingiä DXR rajapinnan kautta kaikkilla DXR rajapintaa tukevilla näyttiksillä. Eli ei vaadi mitään erillistä RayTracing rautaa kortilta.


 
AMD:n grafiikka-IP:tä varastettu ja heitetty githubiin (josta sittemmin poistettu)


 
AMD:n grafiikka-IP:tä varastettu ja heitetty githubiin (josta sittemmin poistettu)


On jo uutisissa.
 

Statistiikka

Viestiketjuista
257 193
Viestejä
4 472 162
Jäsenet
73 896
Uusin jäsen
halfbrite

Hinta.fi

Back
Ylös Bottom