Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Aina on parempi odottaa, kun tuote on ulkona ja tehdä johtopäätökset sitten. Juttu on vaan että odottaminen ei ole mukavaa
Ei toimi käytännössä. Siellä voi olla esim joku hidastava tekijä, joka hidastaa sitä pahemmin, mitä enemmän piirissä on yksiköitä. Tai on mahdollista, että viivanleveyden pieneneminen ei pienennäkään esim vuotovirtoja, jolloin lisätrankut aiheuttavat sen, että jännitteitä ja kelloja joudutaan tiputtamaan, että piiri ei ylikuumene.En ole mikään asiantuntija tässä hommassa, joten voiko näin helposti oikeasti laskea todellinen suorituskyvyn kasvu?
"In short, according to their estimation, the performance improvement of 7nm Vega is about 65%.
The result is achieved by the core scale of 1.375x and the frequency of 1.2x, which is exactly 1.375x1.2=1.65, and the performance is improved by 65%. "
AMD:n mukaan 7nm (oletettavasti TSMC:n koska GloFolta ei silloin ollut vielä 7nm piirejä ulkona) mahdollistaa yli 1,35-kertaisen suorituskyvyn (kellotaajuuden) vrt 14nm. Jos piirin kokoa on lisäksi kasvatettu niin tuosta tietenkin siitä sulaa osa pois, mutta tuo 1,2x nousu ei kuulosta mitenkään korkealta tästä riippumatta. Paljon ennemmin epäilisin tuota että piiri olisi 1,375x isompi kuin Vega 10 (transistoreissa laskettuna)Ei toimi käytännössä. Siellä voi olla esim joku hidastava tekijä, joka hidastaa sitä pahemmin, mitä enemmän piirissä on yksiköitä. Tai on mahdollista, että viivanleveyden pieneneminen ei pienennäkään esim vuotovirtoja, jolloin lisätrankut aiheuttavat sen, että jännitteitä ja kelloja joudutaan tiputtamaan, että piiri ei ylikuumene.
Tässä kohtaa pitää muistaa, että tuossa on ajettu 24/7 testirutiinia jonka ainut tarkoitus on kaataa se näyttiksen ajuri.Hyvä että tämäkin myytti Nvidian ajurien ns. paremmuudesta on kiistatta murrettu. Nvidian Quadrot ovat tuon perusteella melkoista tuubaa ja ennemmin kannattaisi käyttää pelinäytönohjaimia.
Tässä kohtaa pitää muistaa, että tuossa on ajettu 24/7 testirutiinia jonka ainut tarkoitus on kaataa se näyttiksen ajuri.
Se ei kerro ajureiden paremmuudesta normaalikäytössä (oli se peli tai ammattilais) mitään
Toki. Tuo ainakin kattaa vakauden joka voidaan testata ainakin tuon perusteella melko luotettavasti. Paremmuus on monimutkaisempi juttu johon voi vaikuttaa yksikin tuettu ominaisuus.
Se etteivät ammattilaiskorttien ajurit ole tuon vakaampia kertoo myös karua kieltään siitä millaista laatua ammattilaispiireissä hyväksytään.
Tarkentaen edellistä: se ei kerro mitään myöskään vakaudesta normaalissa (oli se peli- tai ammatilaissoftat) käytössä ja ne ammattilaisajurit ovat taatusti vakaammat kuin peliajurit kun mennään niihin ammattilaissoftiin (Olettaen että ko. softat nyt ylipäätään suostuisi toimimaan peliajureilla)
Linkkiä klikkaamatta oletin, että "hirmuisesti osumaa" tarkoittaisi jotain välillä 25-40%. Käytännössä hidastus olikin sitten 10 prosentin luokkaa. Sinänsä huomioitava asia, jos HDR-pelaaminen on suunnitelmissa, mutta ei tuohon mielestäni maailma kaadu.Mielenkiintoista. GTX1080 ottaa hirmusesti osumaa HDR päällä kun taas Vega 64 ei kärsi juuri yhtään.
HDR-Benchmarks auf AMD- & Nvidia-Grafikkarten (Seite 2)
Toi testi näyttää parhaiten lähinnä sen että kumpikin parantaa ja kumpi parantaa enemmän riippuu yksinomaan valituista peleistä
Niin mitäs nyt. No nyt NVidia lypsää kansaa minkä kerkeää kun ei ole mitään oikeaa kilpailua. Huono tilanne. Vähintään vuosi näyttää menevän, että seuravaa mallia, eli 7nm AMD korttia olisi tulossa. Pari vuotta ja Inteliltä olisi ehkä tulossa jotain entryä GPU markkinoille, en kovin suuria odotuksia kyllä pistäisi siihenkään.
Onneksi ei ole juuri nyt suurta tarvetta päivittää näytönohjainta. Jospa vuoden päästä olisi vähän järkevämmät markkinat. Siihen asti kai se menee arpoen minkä NVidia 20X0 mallin hankkii jos päivittää. Ennen komponenttien hinnat laski, nykyään nousee. Ennen oli kaikki paremmin. Kaurapuurokin. Niih.
Empä tiedä onko Nvidia käynnyt maksamassa tom's hardware:lle
Empä tiedä onko Nvidia käynnyt maksamassa tom's hardware:lle
Nvidia ajurit käyttävät enemään prossua, ja ilmeisesti Ryzen on inteliä hitaampoi vaihtamaan joissain tilanteissa (joihin kone joutuu ko tyyppisen ajurin kanssa) sitä, mitä on tekemässä. Ne ajurit eivät aiheuta ryzenillä, jos sitä ei ole ylikellotettu epävahkaaksi mitään kaatumisia.En tiedä onko välttämättä aivan oikea ketju, mut pohditaan nyt tänne. Monessa paikassa on valitettu Nvidian ajureiden toimivuutta Ryzenin kanssa siitä, kuinka kyseiset kortit toimivat paremmin intelin raudalla. Jossakin muodossa tuli ilmeisesti tätä todistettua.
Mä vaihdoin AMD:n rx480:stä Nvidian gtx 1070ti:n minkä myötä sain pubgia pelatessa kolme peräkkäistä bsodia. Ennen vakaa muistien 320mhz cl14 xmp-profiili osoittautui nvidia kortin kanssa epävakaaksi. Ongelma korjautui sitten puottamalla muistit emolevyn omien sivujen mukaiseen 2933mhz nopeuksiin, jotka sitten toimivat täysin vakaasti.
Päätin nyt vain sitten pohtia tänne sitä, että jännä kuinka näytönohjaimen vaihto voi vaikuttaa ennen vakaiden asetusten pettämiseen.
Gamer Gets AMD FreeSync Working On A GeForce GPU, What Kind Of Sorcery Is This?
Joku on onnistunut saamaan Freesyncin toimimaan Geforcella mikä vahvistanee sen, että sen puuttuminen Geforcesta normaalitilanteessa on pelkkä ajuripohjainen keskisormen näyttö kuluttajalle.
Gamer Gets AMD FreeSync Working On A GeForce GPU, What Kind Of Sorcery Is This?
Joku on onnistunut saamaan Freesyncin toimimaan Geforcella mikä vahvistanee sen, että sen puuttuminen Geforcesta normaalitilanteessa on pelkkä ajuripohjainen keskisormen näyttö kuluttajalle.
Niin siis eikös tuossa ole se ideana että se nvidian kortti vain rendaa framet ja APU työntää ne näytölle. Eli nvidian kortin rendaukset siirretään apulle joka sitten työntää ne näytölle jolloin siis luonnollisesti freesync toimii.
Eli ei kysessä ole mikään oikea kikka jolla nvidian kortilla saisi freesyncin suoraan toimimaan.
Tähän voisi mainita sen, että läppäreissä G-Sync toimii ilman G-Sync moduulia, eli niissä se on toteutettu jossakin määrin Adaptive Synciä hyödyntäen.Niin siis eikös tuossa ole se ideana että se nvidian kortti vain rendaa framet ja APU työntää ne näytölle. Eli nvidian kortin rendaukset siirretään apulle joka sitten työntää ne näytölle jolloin siis luonnollisesti freesync toimii.
Eli ei kysessä ole mikään oikea kikka jolla nvidian kortilla saisi freesyncin suoraan toimimaan.
Menee hiukan ohi ketjun aiheesta (mutta puusilmäisyys iski enkä löydä Intel vs AMD ketjua)
Ultrabook Fortnite Battle: AMD Ryzen 5 2500U vs Intel Core i5-8250U
AMD Ryzen 5 2500U vs Intel Core i5-8250UKoska on suomenkielinen foorumi, niin pistäppä yhteenveto lopputuloksesta, kuin tuo koko video taitaa olla pelkkää jonninjoutavaa mässytystä..
AMD Ryzen 5 2500U vs Intel Core i5-8250U
1 : 0
Luulin että yhteenveto olisi jo lähtökohtaisesti kaikille selvä.
Laitoin täämän videon tänne vain siksi jos joku haluaa tarkemmin nähdä että mikä se ero käytännössä on.
Jotenkin vaikea uskoa että joku ostaisi ultrabookin pelaamiseen.
Jotenkin vaikea uskoa että joku ostaisi ultrabookin pelaamiseen.
Jätetääs tämä tänne:
Summa summarum; hyvin optimoitu peli AMD korteille, ei sen erikoisempaa.
Ja jos tähän topikkiin linkkaa esim ne kaikki pelit jotka hyvin optimoitu Nvidialla niin tulee muutama sivu OT tavaraa..
Yhden pelin takia ei muutenkaan voi alkaa näytönohjaimia suosittelemaan
Asettelet tilanteen hieman liian laajaksi. Niin ei niillä GTA5sta tai Crysis 3sta pelata. Se on vaan että aika moni pelaa DOTAa ja Fortniteä vaikka ei omista pelikonetta, he pelaavat sillä mitä nyt sattuu omistamaan; jolloin riittävän sulava riittää. Jos seuraava tietokone/ultrabook hankinta mahdollistaa myös pelaamisen pienessä muodossa niin miksi ei tuollainen perus moba-pelaaja ryzen APUlista valitse jos siihen on mahdollisuus? Siksi tässä ei testattukkaan sitä GTA5sta vaan monen satunnaisesti pelaavan tämän hetkistä suosikkia Fortniteä.Jotenkin vaikea uskoa että joku ostaisi ultrabookin pelaamiseen.
Minulla on nytkin käytössä Nvidia, mutta tästä(kin) videosta tulee sellainen kutina, että AMD:n kortit kestää aikaa paremmin. Eikä hidastu kuollessaan, ja uudet ominaisuudet tulee myös vanhoille korteille (kuten tässä tapauksessa tuorein Vulkan).
@Lepakomäyrä Noista kummastakin pelistä on olemassa erilaisiakin tuloksia netissä. HardwareUnboxed mittasi ainakin että AMD:n näyttis plus Ryzen kompinaatiolla mentiin selkeästi ohi Nvidiasta Civissä, ainakin DX12 kanssa. Fallout 4:ssä taas on se valonsädekikkailu ja myöhemmin tuli päivityksessä PhysX-efektejä, jotka vaikuttavat asiaan. Pienillä viilauksilla, jotka eivät vaikuta kuvanlaatuun nimeksikään, voi saada AMD:llä reilusti enempi ruudunpäivitystä myös Fallout 4:ssä, ellei nykyään toimi nopeammin jo ilmankin säätöä.
TPU ei aja testejä joka kerta uusiksi kaikilla näyttiksillä, tuossa on helmikuulle päivätyt ajurit AMD:llatoi Civ on melko tuore testi. elokuun 7/2018
toi Civ on melko tuore testi. elokuun 7/2018
Mutta tuolloin Fallout 4 ilmestyessä ei kauheesti lohduttanut ajatus että ohjaimen iänmyötä alkaisi paremmin toimimaan ja vaihtoonhan se meni ja vihreetä tilalle.
Tottakai voi valittaa AMD:lle, jos sen yhden threadin suorituskyky vain yksinkertaisesti on kehnompi. Ei se peli sitä prossua katso, mikä se on ja toimi sitten sen hitaammin. TAI näyttistä.Mitä voi odottaa peliltä joka käyttää 15 vuotta vanhan enginen viriteltyä versiota? Itsekin pelaan erästä toista peliä jonka engine on täysi romu. Pelaamalla peliä hyväksyn enginen olevan täysi romu. On ihan turha valittaa kuinka prosessori/näytönohjain/mikä_tahansa_koneen_osa on kuraa kun vika löytyy pelistä itsestään.
Pelaamalla Fallout 4:a kannattaa hyväksyä pelin teknisen puolen surkeus. Ihan turha valittaa AMD:lle kun vika löytyy muualta. Voi toki valittaa jos se helpottaa oloa, parannusta varsinaiseen ongelmaan se ei kuitenkaan tuo. Pikemminkin pahentaa sitä, koska ostamalla pelin joka on teknisesti roskaa, tekijällä on vähemmän syytä parantaa asiaa.