Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Fysiikat hajoavat 60 FPS:n jälkeen, eli ei voi toimia hyvin.
Koko pelin pelasin läpi lukitulla 100fps
Ei ongelmaa fysiikan kanssa.
se ns. "terminaalibugi" tuli yli 100fps kanssa, ukko ei myöskään juossut sen nopeampaa tms kummalisuuksia.

ei jaksa nyt enempää selventää kun sen verran jo vanha peli en edes muista kaikkia mitä pikku fixejä tms. tein kun on muutenkin jo vuosia aikaa, mutta toki jos et ole vielä kerennyt pelaamaan niin netti täynnä hyviä ohjeita vinkkejä sekä modeja millä saa kaiken irti pelistä.

Disable V-Sync for zero input lag and limit FPS for no physics issues. Makes the game much better. : fo4
 
Viimeksi muokattu:
Koko pelin pelasin läpi lukitulla 100fps
Ei ongelmaa fysiikan kanssa.
se ns. "terminaalibugi" tuli yli 100fps kanssa, ukko ei myöskään juossut sen nopeampaa tms kummalisuuksia.

ei jaksa nyt enempää selventää kun sen verran jo vanha peli en edes muista kaikkia mitä pikku fixejä tms. tein kun on muutenkin jo vuosia aikaa, mutta toki jos et ole vielä kerennyt pelaamaan niin netti täynnä hyviä ohjeita vinkkejä sekä modeja millä saa kaiken irti pelistä.

Disable V-Sync for zero input lag and limit FPS for no physics issues. Makes the game much better. : fo4

Tuolla vinkeissä sanotaan yli 60 FPS:n aiheuttavan kaikenlaisia ongelmia koska peliä ei ole tarkoitettu pelattavaksi sen yli :smoke:

60 FPS max vuoden 2015 AAA-pelille kertoo kaiken olennaisen pelin teknisestä tasosta. Se ettet huomaa ongelmia ei tarkoita ettei niitä ole.
 
Tuolla vinkeissä sanotaan yli 60 FPS:n aiheuttavan kaikenlaisia ongelmia koska peliä ei ole tarkoitettu pelattavaksi sen yli :smoke:

60 FPS max vuoden 2015 AAA-pelille kertoo kaiken olennaisen pelin teknisestä tasosta. Se ettet huomaa ongelmia ei tarkoita ettei niitä ole.

Monethan pelas tota 100fps
tuossa oli jotain säätöjä mitä tuli tehtyä mutta ei aiheuttanut ongelmia peliin vaikka oli yli 60fps ja alle 105fps
80fps ovat monet myös käyttäneet.
105fps aiheutti terminal bugin uusiutumisen.

Mutta loistava peli kuitenkin pienestä hienosäädöstä huolimatta, sen verran hyvä että laitoin myös Fallout76 preorderiin. :cigar:
 
Viimeksi muokattu:
@Lepakomäyrä On totta että Fallout 4:ssa AMD:n ajurit kärsi jostakin karttaan liittyvästä ongelmasta, minkä piti korjaantua jollakin ajuripäivityksellä, mutta taisikin silti jatkua vielä jonkin aikaa, kunnes lopulta korjattiin kokonaan. AMD petrasi ajureiden kanssa merkittävästi vasta noin 2017 vuoden alussa, mikä viitannee siihen että firman sisällä tapahtui silloin merkittäviä muutoksia. Nyt ei ole onneksi mitään hirveitä valitusvyöryjä tullut ajureiden puolesta vähään aikaan.

Se on selvää että pistää ketuttamaan huonot arjurit minkä tahansa tuotteen kohdalla. Fallout 4 silti on huono peli reiluun vertailuun eri grafiikkakorttien välillä. Se ei myöskään sovellu prosessoreiden vertaamiseen alkuunkaan. Se on GameWorksillä puukotettu peli, joka käyttää Nvidian PhysX-teknologiaa ja sen Bethesdan muokkaama moottori on suorastaan tunnettu teknisistä ongelmista pelien historiassa.

Varmaankin löytyy parempia esimerkkipelejä, missä AMD voisi jotenkin petrata, kun vihreällä leirillä hommat on jo kunnossa, mutta eipä noiden uusien pelien kohdalla tällaisia juuri taida olla. Esimerkiksi RX Vega 64 olisi tehokkaampi kuin GTX 1080, jos pelit vaan käyttäisivät asynkronista laskentaa useammin, mutta eivätpä vaan käytä. AMD pelasi tulevaisuutta ajatellen ja sillä tuli takkiin jälleen kerran. Sentään pelit toimivat nyt normaalisti hyvän ajurituen ansiosta.

Vilkaise mielenkiinnosta miten hyvin AMD:n kortit pyörittää tätä peliä: Strange Brigade: PC graphics performance benchmark review
 
@Lepakomäyrä On totta että Fallout 4:ssa AMD:n ajurit kärsi jostakin karttaan liittyvästä ongelmasta, minkä piti korjaantua jollakin ajuripäivityksellä, mutta taisikin silti jatkua vielä jonkin aikaa, kunnes lopulta korjattiin kokonaan. AMD petrasi ajureiden kanssa merkittävästi vasta noin 2017 vuoden alussa, mikä viitannee siihen että firman sisällä tapahtui silloin merkittäviä muutoksia. Nyt ei ole onneksi mitään hirveitä valitusvyöryjä tullut ajureiden puolesta vähään aikaan.

Se on selvää että pistää ketuttamaan huonot arjurit minkä tahansa tuotteen kohdalla. Fallout 4 silti on huono peli reiluun vertailuun eri grafiikkakorttien välillä. Se ei myöskään sovellu prosessoreiden vertaamiseen alkuunkaan. Se on GameWorksillä puukotettu peli, joka käyttää Nvidian PhysX-teknologiaa ja sen Bethesdan muokkaama moottori on suorastaan tunnettu teknisistä ongelmista pelien historiassa.

Varmaankin löytyy parempia esimerkkipelejä, missä AMD voisi jotenkin petrata, kun vihreällä leirillä hommat on jo kunnossa, mutta eipä noiden uusien pelien kohdalla tällaisia juuri taida olla. Esimerkiksi RX Vega 64 olisi tehokkaampi kuin GTX 1080, jos pelit vaan käyttäisivät asynkronista laskentaa useammin, mutta eivätpä vaan käytä. AMD pelasi tulevaisuutta ajatellen ja sillä tuli takkiin jälleen kerran. Sentään pelit toimivat nyt normaalisti hyvän ajurituen ansiosta.

Vilkaise mielenkiinnosta miten hyvin AMD:n kortit pyörittää tätä peliä: Strange Brigade: PC graphics performance benchmark review
Strange Brigade Benchmarked

Async ei vissiin tohon peliin kauheita lisiä tuonut, hyvin toki optimoitu nvidiallekkin vaikka on ns. amd sponsoroima.
Pyörii kevyemmälläkin raudalla ihan hyvin.
Löyty näitä async on off testejä.
mutta kellottamalla näyttistä saa sitten hieman vielä lisää sitä extraa jos tuntuu että tarvitsee.
Async.png
 
Viimeksi muokattu:
Toisesta ketjusta:
Myöskin surullista huomata kun esim naamakirjan pc rauta ryhmissä aina vaan GTX sitä ja tätä. Eikä selvästikkään tiedetä että AMD:lläkin on kelpoa rautaa tarjolla.

AMD:n kärkipään kortit kuluttaa paljon virtaa. Se tarkoittaa, että virtalähteen on oltava laadukas tai hattiwatteja paljon. Lisäksi niissä on tästä syystä yleensä järeä tuuletinratkaisu.

Eli melkein joutuu vaihtamaan virtalähteen, jos haluaa sitä kärkipäätä ostella. Lisäksi, jos joutuu tuulettimia vaihtelemaan, niin Nvidialla kulu on 20-35€ ja AMD:lla joutuu makselemaan sen 50-60€ (Twin Turbo / Accelero Extreme).

Lisäksi AMD:n kortit on parempia mainaukseen, joka on taas oma lukunsa. Ja ne mainaukset syö niitä kalliita tuulettimia.

Nvidia on turvallisempi ostos. Ainakin jos ostaa Kepleristä alkaen ja jättää Fermit kauppaan ;)
 
@Lepakomäyrä AMD petrasi ajureiden kanssa merkittävästi vasta noin 2017 vuoden alussa, mikä viitannee siihen että firman sisällä tapahtui silloin merkittäviä muutoksia.

... pikemminkin päin vastoin, että vihdoin saatiin työrauha kun niitä muutoksia EI tullut.

Kuulin tuossa joitain viikkoja sitten yhden oleellisen syyn sille, miksi AMDn ajurit sukkasivat pitkään:

Syy oli se, että AMD päätti jossain vaiheessa tehdä ajuritilanteelleen jotain, ja se jotain oli "tehdä uudet ajurit puhtaalta pöydältä". Ja sitten pari vuotta siellä pääasiassa koodattiin uusia ajureita sen sijaan, että olisi käytetty ne tuotekehitysresurssit siihen että olisi optimoitu olemassaolevia ajureita ja korjattu niistä bugeja. (ja koko tämä aika siis sellaista, että ne uudet ajurit ei ollut vielä julkaistu). Eli se yritys "tehdä asialle jotain" vaan pahensi tilannetta, kun oli vähemmän resursseja käytettävissä niiden käytössä olevien ajurien korjaamiseen ja optimoimiseen. Ja sitten uusiin ajureihin päädyttiin vielä koodaamaan samoja bugeja, mitä vanhoista oli jo korjattu.

Ja vasta monen vuoden jälkeen ne uudet ajurit alkoivat olla vanhojen kanssa yhtä toimivassa tilassa.
 
Toisesta ketjusta:


AMD:n kärkipään kortit kuluttaa paljon virtaa. Se tarkoittaa, että virtalähteen on oltava laadukas tai hattiwatteja paljon. Lisäksi niissä on tästä syystä yleensä järeä tuuletinratkaisu.

Eli melkein joutuu vaihtamaan virtalähteen, jos haluaa sitä kärkipäätä ostella. Lisäksi, jos joutuu tuulettimia vaihtelemaan, niin Nvidialla kulu on 20-35€ ja AMD:lla joutuu makselemaan sen 50-60€ (Twin Turbo / Accelero Extreme).

Lisäksi AMD:n kortit on parempia mainaukseen, joka on taas oma lukunsa. Ja ne mainaukset syö niitä kalliita tuulettimia.

Nvidia on turvallisempi ostos. Ainakin jos ostaa Kepleristä alkaen ja jättää Fermit kauppaan ;)

Sori vaan mutta Keplerit ovat aika surkeita tätä nykyä. Vulkan ja DX12 suorituskyky on todella paska Keplereillä verrattuna AMD:n vastaaviin verrattuna.
Tuossa just testailin kasan Kepler kortteja (GTX 660Ti, GTX 680, GTX 690 ja GTX 780) ja nyt AMD vastaavat alkamassa. Testi penkissä juuri R9 270 aka Radeon HD 7850.
Joka kilpaili aikoinaan GTX 650 Ti vastaan mutta nykyään tuo voittaa suurimassa osassa peleistä paljon kalliimman GTX 660 Ti:n.

Mitä ajureihin tulee niin Nvidian korteilla ollut minulla paljon enemmän ongelmia. Esim juuri noitten Keplereitten kanssa Doomissa Vulkanilla textuurit hävisi ja perheen kakkos koneessa olevassa GTX 780 SLI setupilla toiseks viimeisillä ajureilla Chromessa ja Edgessä vilkkuu yks sun toinen asia. Juuri latauksessa noi uusimmat jos vaikka korjaisivat tuon ongelman tai sitten pitää mennä takaisin vanhempiin ajureihin.

AMD puolella on taas ärsyttävää jos käytetään Vulkani, DX12 tai Mantlea niin klooni kuvaa ei saa toiseen näyttöön. Se kakkos näyttö pysyy vaan mustana. Mikä vaikeuttaa omia benchmark hommiani kun joutuu pelaamaan OBS ruudulta että saa kaapattua videota peleistä.
Myöskin tuo uusi AMD:n control paneeli on saanut kehuja, mutta minusta se on täys paska verrattuna siihen vanhaan.
 
Sori vaan mutta Keplerit ovat aika surkeita tätä nykyä. Vulkan ja DX12 suorituskyky on todella paska Keplereillä verrattuna AMD:n vastaaviin verrattuna.
Tuossa just testailin kasan Kepler kortteja (GTX 660Ti, GTX 680, GTX 690 ja GTX 780) ja nyt menossa AMD vastaavat alkamassa. Testi penkissä juuri R9 270 aka Radeon HD 7850.
Joka kilpaili aikoinaan GTX 650 Ti vastaan mutta nykyään tuo voittaa suurimassa osassa peleistä paljon kalliimman GTX 660 Ti:n.

Mitä ajureihin tulee niin Nvidian korteilla ollut minulla paljon enemmän ongelmia. Esim juuri noitten Keplereitten kanssa Doomissa Vulkanilla textuurit hävisi ja perheen kakkos koneessa olevassa GTX 780 SLI setupilla toiseks viimeisillä ajureilla Chromessa ja Edgessä vilkkuu yks sun toinen asia. Juuri latauksessa noi uusimmat jos vaikka korjaisivat tuon ongelman tai sitten pitää mennä takaisin vanhempiin ajureihin.

AMD puolella on taas ärsyttävää jos käytetään Vulkani, DX12 tai Mantlea niin klooni kuvaa ei saa toiseen näyttöön. Se kakkos näyttö pysyy vaan mustana. Mikä vaikeuttaa omia benchmark hommiani kun joutuu pelaamaan OBS ruudulta että saa kaapattua videota peleistä.
Myöskin tuo uusi AMD:n control paneeli on saanut kehuja, mutta minusta se on täys paska verrattuna siihen vanhaan.

Nvidian Vulkan-tuki on olllut alusta asti ns. paska ja vielä GTX 1060 6GB hävisi RX 480 4GB:lle, kun viimeeksi vertasin viime vuonna (Talos Principle). Muissa peleissä se on nopeampi, kuin tuo. DX11 on Nvidian suuri vahvuus ja Mantlea ei ikinä kunnolla tuettu.

Itse ottaisin Minecraftiin ja Fortniteen GTX 660 Ti:n vieläkin. Hyvin rajoitettu on tuo Vulkan-pelien lista:
List of games with Vulkan support - Wikipedia

Minulla kyllä on noista 7, jos Quake lasketaan, mutta minulla on vähintään 70 peliä, jossa ei ole Vulkan-tukea.

Ota Vulkan pois Nvidian korteilla - ne on nopeampia ilman.

edit: sen verran katsoin, että nyt 1.5 vuodessa tilanne on muuttunut, ja Nvidia ei enää ole pakan hitain - mutta edelleen DX11 on siellä se vahva puoli. Kaikki kannattaa ajaa sillä.
 
Viimeksi muokattu:
Sori vaan mutta Keplerit ovat aika surkeita tätä nykyä. Vulkan ja DX12 suorituskyky on todella paska Keplereillä verrattuna AMD:n vastaaviin verrattuna.
Tuossa just testailin kasan Kepler kortteja (GTX 660Ti, GTX 680, GTX 690 ja GTX 780) ja nyt AMD vastaavat alkamassa. Testi penkissä juuri R9 270 aka Radeon HD 7850.
Joka kilpaili aikoinaan GTX 650 Ti vastaan mutta nykyään tuo voittaa suurimassa osassa peleistä paljon kalliimman GTX 660 Ti:n.

Mitä ajureihin tulee niin Nvidian korteilla ollut minulla paljon enemmän ongelmia. Esim juuri noitten Keplereitten kanssa Doomissa Vulkanilla textuurit hävisi ja perheen kakkos koneessa olevassa GTX 780 SLI setupilla toiseks viimeisillä ajureilla Chromessa ja Edgessä vilkkuu yks sun toinen asia. Juuri latauksessa noi uusimmat jos vaikka korjaisivat tuon ongelman tai sitten pitää mennä takaisin vanhempiin ajureihin.

AMD puolella on taas ärsyttävää jos käytetään Vulkani, DX12 tai Mantlea niin klooni kuvaa ei saa toiseen näyttöön. Se kakkos näyttö pysyy vaan mustana. Mikä vaikeuttaa omia benchmark hommiani kun joutuu pelaamaan OBS ruudulta että saa kaapattua videota peleistä.
Myöskin tuo uusi AMD:n control paneeli on saanut kehuja, mutta minusta se on täys paska verrattuna siihen vanhaan.

Noi keplerit muutaman kaljan hintaisia niin onko sillä sitten merkitystä? pistää muutamat kalja eurot lisää ja ostaa vähän nopeampaa ettei ala kuva silmissä suotta hidastumaan.

Ja jos ostaa nvidiaa niin ei tarvi rukoilla onko vulkan tukea pelissä koska pelit toimii just niin hyvin kuin voi olettaa ilman isompia yllätyksiä.
 
Nvidian Vulkan-tuki on olllut alusta asti ns. paska ja vielä GTX 1060 6GB hävisi RX 480 4GB:lle, kun viimeeksi vertasin viime vuonna (Talos Principle). Muissa peleissä se on nopeampi, kuin tuo. DX11 on Nvidian suuri vahvuus ja Mantlea ei ikinä kunnolla tuettu.

Itse ottaisin Minecraftiin ja Fortniteen GTX 660 Ti:n vieläkin. Hyvin rajoitettu on tuo Vulkan-pelien lista:
List of games with Vulkan support - Wikipedia

Minulla kyllä on noista 7, jos Quake lasketaan, mutta minulla on vähintään 70 peliä, jossa ei ole Vulkan-tukea.

Ota Vulkan pois Nvidian korteilla - ne on nopeampia ilman.

edit: sen verran katsoin, että nyt 1.5 vuodessa tilanne on muuttunut, ja Nvidia ei enää ole pakan hitain - mutta edelleen DX11 on siellä se vahva puoli. Kaikki kannattaa ajaa sillä.

Niin no ei se Vulkan ole paska kuin Keplereillä. Maxwell korteilla kuten omalla GTX 980 Ti:lla kaikki rullaa helkutin hienosti. Eli viittaa että itse Kepler arkkitehtuurissa jotain miksi se ei sovellu Vulkanille (tai eritoden Doom:ssa ja Wofenstein 2:ssa käytettyyn graffa moottoriin). Tai sitten vaan Nvidia haluu myydä uusia ja paskoo tahallaan noi vanhat. Että mene ja tiedä.

Mutta totta tuo Fortnite juttu tai itse asiassa koskee "uutta" unreal moottori ja siihen pohjautuvat pelit tuntuvat olevan ainakin tuolle R9 270 iso ongelma. Tosin jostain syystä BF4:n Mantle oli myös ongelma tuolle R9 270:lle.
Mutta katsotaan kun saadaan tehokkaampi AMD:ta penkkiin kiinni (esim R9 290X, R9 Nano ja RX 480). Tosin mitä aikaisemmin R9 290 ja R9 290X olem testaillut niin niillä kyllä ei vaikuttanut olevan ongelmia Unreal moottorin kanssa.
Ja esim Doomissa R9 290 paukuttaa avg 116fps Ultra asetuksilla kun GTX 780 pääsee High asetuksilla säälittävään 84fps (ja ihan sama onko OpenGL vaiko Vulkan).

Laitetaan tähän jotain eroja GTX 660Ti:n ja R9 270 välillä:

Battlefield 4:
R9 270 83fps vs GTX 660Ti 87fps

GTA V:
R9 270 71fps vs GTX 660Ti 74fps

Fornite:
R9 270 52fps vs GTX 660Ti 68fps

Unreal Tournament (2018)
R9 270 55fps vs GTX 660Ti 64fps
 
Päivitin pitkästä aikaa näytönohjaimen ajurit, ja säädin asetuksiakin vähän.

Kohdassa Näyttö -> Tarkuuden vaihtaminen -> (3) Käytä seuraavia asetuksia -> Tulosteen dynaaminen alue on oletusasetus "Rajoitettu". Vaihdoin sen asetukseen "Täysi", ja musta näyttää nyt mustemmalta kuten kaiketi kuuluisikin. Tällä hetkellä käytössä oleva näyttö ei ole kuvanlaadultaan kovin hyvä, mutta ei näköjään niin huono kuin kuvittelin. Minkähän takia Nvidian koodarit ovat laittaneet tuollaisen oletusasetuksen?
 
Noi keplerit muutaman kaljan hintaisia niin onko sillä sitten merkitystä? pistää muutamat kalja eurot lisää ja ostaa vähän nopeampaa ettei ala kuva silmissä suotta hidastumaan.

Ja jos ostaa nvidiaa niin ei tarvi rukoilla onko vulkan tukea pelissä koska pelit toimii just niin hyvin kuin voi olettaa ilman isompia yllätyksiä.

Aika monta kaljaa saat ostaa esim. GTX 780:n hinnalla ;)
Ja vaikutat heti tosta viestistäsi Nvidia fanboylta. Kannattaa avata silmät ja katsoa mitä myös se AMD tarjoaa. Kummankin valmistajan korteissa on omat hyvät ja huonot puolensa.
Nvidia tekee hyviä kortteja mutta vihaan itse Nvidiaa firmana kaikkine likaisine temppuineen. Mutta se ei vaikuta mielipiteisiini sen korteista.
Mutta onkin kiva nähdä minkälainen Intelin näytönohjain tulee olemaan.
Ei ole vuosiin ollut kolmatta kilpailijaa mukana näissä taistoissa. Viimeisin tais olla PowerVR 2000-luvun alkupuolella (minkä nykyään VIA omistaa)
 
Viimeksi muokattu:
Aika monta kaljaa saat ostaa esim. GTX 780:n hinnalla ;)
Ja vaikutat heti tosta viestistäsi Nvidia fanboylta. Kannattaa avata silmät ja katsoa mitä myös se AMD tarjoaa. Kummankin valmistajan korteissa on omat hyvät ja nuonot puolensa.
Nvidia tekee hyviä kortteja mutta vihaan itse Nvidiaa firmana kaikkine likaisine temppuineen. Mutta se ei vaikuta mielipiteisiini sen korteista.
Mutta onkin kiva nähdä minkälainen Intelin näytönohjain tulee olemaan.
Ei ole vuosiin ollut kolmatta kilpailijaa mukana näissä taistoissa. Viimeisin tais olla PowerVR 2000-luvun alkupuolella (minkä nykyään VIA omistaa)

2080 tilaus vaihtui Ti malliin eikä Amdlla ollut mitään vastaavaa tarjontaa vaikka kuinka koitin silmiä avata.
En ole ainakaan huomannut mitään Nvidian likaista temppua minkä takia minä käyttäjänä olisin kärsinyt.
3.5gb sekoilu ehkä mutta hintakin luokkaa halpa ja palauttaakkin olisi saanut.

inteli hyvä jos pääsee kilpasille alkuun edes tonne lowend ohjainten kanssa joskus tyyliin vuonna 2022.
Koittasivat ensin saada prossunsa kuntoon ettei tuu niin kovasti ryzeniltä turpaan.
 
2080 tilaus vaihtui Ti malliin eikä Amdlla ollut mitään vastaavaa tarjontaa vaikka kuinka koitin silmiä avata.

En ole ainakaan huomannut mitään likaista temppua minkä takia minä käyttäjänä olisin kärsinyt.
3.5gb sekoilu ehkä mutta hintakin luokkaa halpa ja palauttaakkin olisi saanut.
NVIDIAn likaiset pelit esimerkiksi Batman AA:ssa (pakotetaan tekemään yksi MSAA:n raskaista osista riippumatta siitä onko AA käytössä ja AMD:lla vaikka NVIDIA oli estänyt AA:n toiminnan AMD:lla ko. pelissä täysin) ja Crysis 2:ssa (järjetön tesselaatio kuten kuuluisa betoniporsas) ovat heikentäneet suorituskykyä myös NVIDIAn näytönohjaimilla, AMD:n kohdalla ne heikensi sitä vaan enemmän. Vastaavia esimerkkejä löytyy myös muista peleistä.
 
NVIDIAn likaiset pelit esimerkiksi Batman AA:ssa (pakotetaan tekemään yksi MSAA:n raskaista osista riippumatta siitä onko AA käytössä ja AMD:lla vaikka NVIDIA oli estänyt AA:n toiminnan AMD:lla ko. pelissä täysin) ja Crysis 2:ssa (järjetön tesselaatio kuten kuuluisa betoniporsas) ovat heikentäneet suorituskykyä myös NVIDIAn näytönohjaimilla, AMD:n kohdalla ne heikensi sitä vaan enemmän. Vastaavia esimerkkejä löytyy myös muista peleistä.

Hyvinhän noi toimivat silloin kauan sitten.
Nvidian ohjaimilla ainakin.
En ymmärrä miksi sitten ostaa lisää AMDtä jos ne kerran hidastuu peleissä häiritsevän paljon.
Jos se on jotain merkkiuskollisuutta niin siinä ampuu vaan itseään jalkaan.
 
Hyvinhän noi toimivat silloin kauan sitten.
Nvidian ohjaimilla ainakin.
En ymmärrä miksi sitten ostaa lisää AMDtä jos ne kerran hidastuu peleissä häiritsevän paljon.
Jos se on jotain merkkiuskollisuutta niin siinä ampuu vaan itseään jalkaan.

Tuntuu että sinulta meni ohi mistä on kysymys joka on että nvidia käytti keinoja peleissä jotka heikentää erityisesti heidän kilpailijoiden (AMD) suorituskykyä antamatta mitään visuaalista hyötyä pelaajalle
 
Hyvinhän noi toimivat silloin kauan sitten.
Nvidian ohjaimilla ainakin.
En ymmärrä miksi sitten ostaa lisää AMDtä jos ne kerran hidastuu peleissä häiritsevän paljon.
Jos se on jotain merkkiuskollisuutta niin siinä ampuu vaan itseään jalkaan.
Ei ne mitään "hidastu peleissä häiritsevän paljon" eikä kukaan ole niin väittänyt.
Rupeaa tuo meno näyttämään siltä että ymmärrät joko tahallasi väärin tai sitten vain trollaat, joten koitapa ilmaista itsesi jatkossa paremmin.
 
Ei ne mitään "hidastu peleissä häiritsevän paljon" eikä kukaan ole niin väittänyt.
Rupeaa tuo meno näyttämään siltä että ymmärrät joko tahallasi väärin tai sitten vain trollaat, joten koitapa ilmaista itsesi jatkossa paremmin.

Itse luulen että Lepakomäyrä:llä on vihreää veressä ja yrittää tahallaan trollatta
 
Tuntuu että sinulta meni ohi mistä on kysymys joka on että nvidia käytti keinoja peleissä jotka heikentää erityisesti heidän kilpailijoiden (AMD) suorituskykyä antamatta mitään visuaalista hyötyä pelaajalle

Batman on nvidia peli jos siellä on jotain efektii joka ei sitten vaan toiminut Amd:lla.
Mikäli siihen tuli korjaus ajuri tai peliin update niin eihän se silloin iso ongelma ollut?
Ellei korjausta tullut niin ymmärrän miksi siitä vielä puhutaan mutta jos tuli niin sitten en ymmärrä.

Onhan näitä tälläsii ollut Nvidiallakin esim se Amd tressFx hius efekti Tombraiderissa joka ei toiminu alkuun ollenkaan Nvidialla.
Korjaantui ajureilla ja peli päivityksellä.
 
Crysis 2 tesselointi-gate nyt johtui vaan siitä, että Crytek halusi sen pelin kyykyttävän minkä tahansa PC:n koska Crysiksen 'kuuluu tehdä niin'. Ja se tesselointi kyykytti minkä tahansa PC:n, sattui vaan kyykyttämään AMD:n näyttiksiä vielä pahemmin.

Nvidia ei käsittääkseni tee pelejä, että vähän kuin syyttelisi juutalaisia finanssikriisistä "kun kuitenkin siellä taustalla aina hyörivät, kuulikko!"
 
Crysis 2 tesselointi-gate nyt johtui vaan siitä, että Crytek halusi sen pelin kyykyttävän minkä tahansa PC:n koska Crysiksen 'kuuluu tehdä niin'. Ja se tesselointi kyykytti minkä tahansa PC:n, sattui vaan kyykyttämään AMD:n näyttiksiä vielä pahemmin.

Nvidia ei käsittääkseni tee pelejä, että vähän kuin syyttelisi juutalaisia finanssikriisistä "kun kuitenkin siellä taustalla aina hyörivät, kuulikko!"
Tesselointi taisi sen hetken korteilla olla hiukan kovempaa Nvidialla.
Mutta toi väitös tuli ihan puskista ettäkö nvidia olisi ne tesseloinnit sinne pelii tehnyt.
Aina kuvittelin että kun peli on crysis niin täytyyhän sen nyt kone kyykyttää ja sen se kyllä teki :D
 
Crysis 2 tesselointi-gate nyt johtui vaan siitä, että Crytek halusi sen pelin kyykyttävän minkä tahansa PC:n koska Crysiksen 'kuuluu tehdä niin'. Ja se tesselointi kyykytti minkä tahansa PC:n, sattui vaan kyykyttämään AMD:n näyttiksiä vielä pahemmin.

Nvidia ei käsittääkseni tee pelejä, että vähän kuin syyttelisi juutalaisia finanssikriisistä "kun kuitenkin siellä taustalla aina hyörivät, kuulikko!"

Se vaan nyt ihmisluonne on ahne ja kun pelitaloon käärrätään riittävästi seteleitä ikkunoista ovista ja savupiipusta niin ne tekee juuri sitä mitä rahankärrääjä sanelee. Eli vaikka nvidia ei itse pelejä tekisikään niin rahan voimalla voivat paljonkin vaikuttaa siihen mitä peleissä on tai ei ole.

Hyvänä esimerkkinä ME:Andromeda joka käyttää frostbite moottoria muttei tue DX12 vaikka on myöhemmin julkaistu kuin BF1 jossa DX12 tuki löytyy. Tämä ihan vain koska ME:A on nvidian rahoittama peli.
 
Se vaan nyt ihmisluonne on ahne ja kun pelitaloon käärrätään riittävästi seteleitä ikkunoista ovista ja savupiipusta niin ne tekee juuri sitä mitä rahankärrääjä sanelee. Eli vaikka nvidia ei itse pelejä tekisikään niin rahan voimalla voivat paljonkin vaikuttaa siihen mitä peleissä on tai ei ole.

Hyvänä esimerkkinä ME:Andromeda joka käyttää frostbite moottoria muttei tue DX12 vaikka on myöhemmin julkaistu kuin BF1 jossa DX12 tuki löytyy. Tämä ihan vain koska ME:A on nvidian rahoittama peli.

Ja jotenkin silti saatu Gtx1070 rampautettua tuossa pelissä Vs 1080

Eikös toi Me:A valmistus/kehitys alkanut jo aikaisemmin kuin Bf1, saattaa olla syy tuohon tukeen.
 
Batman on nvidia peli jos siellä on jotain efektii joka ei sitten vaan toiminut Amd:lla.
Mikäli siihen tuli korjaus ajuri tai peliin update niin eihän se silloin iso ongelma ollut?
Ellei korjausta tullut niin ymmärrän miksi siitä vielä puhutaan mutta jos tuli niin sitten en ymmärrä.
Siinä oli "efekti" joka olisi toiminut AMD:lla ellei NVIDIA olisi pakottanut koodiin pätkää, joka tarkistaa näytönohjaimen valmistajan ja määrittää sen mukaan voidaanko AA:ta käyttää. Yksi raskas osuus AA:sta tehdään ko. pelissä riippumatta siitä voidaanko AA:ta käyttää.
Vendor checkin olemassa olo varmistettiin yksinkertaisesti valehtelemalla pelille AMD:n näytönohjaimen olevan NVIDIAn näytönohjain, jolloin AA toimi normaalisti.
Alkuperäisessä pelissä ongelma on edelleen olemassa, koska julkaisijan kädet on sidotut NVIDIAn koodin osalta. Joutuivat tämän vuoksi julkaisemaan erillisen "GOTY-version", jossa NVIDIAn koodi oli korvattu standardiratkaisulla (joka on muuten täysin sama kuin NVIDIAn paitsi ettei se kysy minkä valmistajan näytönohjain on kyseessä.)
Tällä hetkellä on siis olemassa samasta pelistä "normaaliversio" ja "GOTY-versio", jotka ovat muuten täysin identtiset, päivitetty samalle tasolle jne, mutta jälkimmäisestä on poistettu NVIDIAn pakottama vendor check.

Onhan näitä tälläsii ollut Nvidiallakin esim se Amd tressFx hius efekti Tombraiderissa joka ei toiminu alkuun ollenkaan Nvidialla.
Korjaantui ajureilla ja peli päivityksellä.
Korjaantui ainakin pääosin ajureissa, joissa se ongelma oli.
Itse TressFX toimi kyllä ihan ongelmitta NVIDIAn näytönohjaimilla ja on ihan avointa lähdekoodia eli ei edes piilotella miten hommat tehdään kuten NVIDIA tekee GameWorks-kikkareilla.
TressFX on edelleen käytössä alkuperäisen lisäksi myös Rise of the Tomb Raiderissa sekä tässä uudessa Shadow of the Tomb Raiderissa, joskin uudelleenbrändättynä.

Crysis 2 tesselointi-gate nyt johtui vaan siitä, että Crytek halusi sen pelin kyykyttävän minkä tahansa PC:n koska Crysiksen 'kuuluu tehdä niin'. Ja se tesselointi kyykytti minkä tahansa PC:n, sattui vaan kyykyttämään AMD:n näyttiksiä vielä pahemmin.

Nvidia ei käsittääkseni tee pelejä, että vähän kuin syyttelisi juutalaisia finanssikriisistä "kun kuitenkin siellä taustalla aina hyörivät, kuulikko!"

NVIDIAlla on pitkä liuta koodareita insinöörejä sun muita jotka kirjaimellisesti tekevät pelejä yhdessä niiden pelistudioiden kanssa. NVIDIA oli myös vahvasti mukana sen Crysiksen DX11-päivityksen teossa ja ilman käytännössä mitään epäilystä vastuussa siitä tesselointi-gatesta, koska sille ei ole mitään muuta selitystä. Crytek voi haluta pelin kyykyttävän rautaa, mutta se voidaan tehty (ja on tehty) ilman tällaisia järjettömiä ratkaisuja. Kyseessä ei ole ensimmäinen peli johon NVIDIA on tuputtanut aivan järjettömiä tesselaatioratkaisuja onnistuneesti, raha puhuu. Yksi ensimmäisistä tesselaatio-ongelmatapauksista taisi olla HAWX2 tjsp, johon AMD vielä tarjosi "avaimet käteen" tesselaatioratkaisua joka olisi selvästi kevyempi ja näyttäisi identtiseltä (ei, sitä vuoren selkäpuolta ei ole pakko tesseloida täysillä kun se on siellä vuoren takana näkymättömissä)

Jestas, tääl on varsin kytevä ilmapiiri mitä tulee itse Amd kannattajiin.
Automaattisesti täytyy olla trolli jos ei jotain muista,ymmärrä,tiedä.
Ei, vaan jossain kohtaa menee raja missä hommat vaikuttavat joko trollaamiselta tai tahalliselta väärinymmärtämiseltä, mikä on loppuviimein sama asia - ilman mitään tekemistä sen kanssa onko joku jonkun firman kannattaja vai ei.
edit: lisätään nyt se, että jos ongelma onkin ihan täydessä tietämättömyydestä asioista, ei ole itselle edullista luoda kuvaa kuin tietäisi mistä puhuu.
 
Muistakaa myös mitä Nvidia on tehnyt vanhoille yhteistyö kumppaneilleen.
Esim nykyään XFX tunnetaan AMD korttien valmistajana, mutta aina se ei ollut niin.
XFX eka valmisti vain Nvidian kortteja, mutta teki AMD:n (kortit olivat vielä ATI brändin alla) kanssa diilin että valmistavat myös niitä. Tämän jälkeen Nvidia melkein heti dumppasi XFX:n.

Ja tuo ei ole ainoa tapaus vaan niitä on todella monta. XFX on sentään selvinnyt, mutta moni muu on sen takia mennyt konkurssiin.

Nämä kannattaa muistaa kun Nvidian korttia meinaa ostaa. Haluaako tuota paska firmaa kannattaa vai eikö.
 
Nvidia tarjoaa kovaa suorituskykyä ja hyviä näytönohjaimia ja ilman niitä joutuisi esimerkiksi 4k pelit pelailemaan melko karsittuina.

Jos joku haluaa olla ostamatta Nvidian kortteja jonku batman efektin takia niin se on ihan oma valinta se.
 
Huomautus - asiaton käytös
Muistakaa myös mitä Nvidia on tehnyt vanhoille yhteistyö kumppaneilleen.
Esim nykyään XFX tunnetaan AMD korttien valmistajana, mutta aina se ei ollut niin.
XFX eka valmisti vain Nvidian kortteja, mutta teki AMD:n (kortit olivat vielä ATI brändin alla) kanssa diilin että valmistavat myös niitä. Tämän jälkeen Nvidia melkein heti dumppasi XFX:n.

Ja tuo ei ole ainoa tapaus vaan niitä on todella monta. XFX on sentään selvinnyt, mutta moni muu on sen takia mennyt konkurssiin.

Nämä kannattaa muistaa kun Nvidian korttia meinaa ostaa. Haluaako tuota paska firmaa kannattaa vai eikö.
Tämä on nyt jotain merkkisukollisuusfanaatikko touhua.

Tottakai ostan paremman ohjaimen kuin huonomman, en lähde kenellekkään lahjoittamaan rahaa vain hyvästä tahdostani.
Pitäisi ostaa joku ylihintainen Vega64 ja karsia asetukset vain koska Nvidia on iso paha.
Aivan älytöntä! moro :facepalm::D

Huomautus mistä?siittä kun kommentoi Nvidia viha postaukseen järjellisellä selityksellä miksi en ole ostamassa Amd ohjainta,no selvä se.
 
Viimeksi muokattu:
  • Tykkää
Reactions: ie1
Nvidia tarjoaa kovaa suorituskykyä ja hyviä näytönohjaimia ja ilman niitä joutuisi esimerkiksi 4k pelit pelailemaan melko karsittuina.

Jos joku haluaa olla ostamatta Nvidian kortteja jonku batman efektin takia niin se on ihan oma valinta se.

Ja varmaan olet huomannut että joka sukupolvi Nvidia hilaa hintoja ylöspäin?
Ei tarvi mennä kuin vaikka GTX 980ti aikaan kun se huippu kortti oli 650€ ja nyt tuleva RTX 2080ti on jo yli 1300€.
Ei mene kauvaa kun saat siitä "huippusuorituskyvystä" maksaa sen 2000€.

Että vaikka olet Nvidia fanboy niin kannattaisi toivoa että AMD ja kohta Intel saavat kiinni.
Jo nyt näytönohjaimet ovat älyttömissä hinnoissa, niin mitä ne sitten ovat hetken päästä jos ei ole kilpailua ?

Mietippä sitä.
 
Huomautus mistä?siittä kun kommentoi Nvidia viha postaukseen järjellisellä selityksellä miksi en ole ostamassa Amd ohjainta,no selvä se.
Ei, vaan sinua huomautettiin jo tuosta trollaamiselta vaikuttavasta käytöksestä.
Jos kyse ei ole trollailusta etkä vain ihan oikeasti tiedä mistä puhut, älä esitä tietäväsi kuten nyt teet.
edit: Huomautus on toki merkitty yhteen viestiin, mutta tulee kokonaisuudesta eikä yksittäisestä viestistä.
 
Ja varmaan olet huomannut että joka sukupolvi Nvidia hilaa hintoja ylöspäin?
Ei tarvi mennä kuin vaikka GTX 980ti aikaan kun se huippu kortti oli 650€ ja nyt tuleva RTX 2080ti on jo yli 1300€.
Ei mene kauvaa kun saat siitä "huippusuorituskyvystä" maksaa sen 2000€.

Että vaikka olet Nvidia fanboy niin kannattaisi toivoa että AMD ja kohta Intel saavat kiinni.
Jo nyt näytönohjaimet ovat älyttömissä hinnoissa, niin mitä ne sitten ovat hetken päästä jos ei ole kilpailua ?

Mietippä sitä.

Ostan ohjaimen jonka nopeus riittää omiin tarpeisiini, täytyykö olla fanboy jos ostaa tarpeeseensa nopeimman näytönohjaimen?
pitäisikö siis ostaa Vega64 vaikka sen suorituskyky ei riitä?
vai pitääkö käyttää tota vanhaa vara ohjainta (Gtx780) ja unohta pelaaminen?

Vai mitä nyt yrität ehdottaa?
Niin ja Gtx980Ti maksoi aluksi muistaakseni sen 800e kieppeillä.
 
Viimeksi muokattu:
Ei, vaan sinua huomautettiin jo tuosta trollaamiselta vaikuttavasta käytöksestä.
Jos kyse ei ole trollailusta etkä vain ihan oikeasti tiedä mistä puhut, älä esitä tietäväsi kuten nyt teet.
edit: Huomautus on toki merkitty yhteen viestiin, mutta tulee kokonaisuudesta eikä yksittäisestä viestistä.
Missä kohtaa esitin tietäväni asiasta josta en tiedä?
Batman efektit? TressFx?
 
Missä kohtaa esitin tietäväni asiasta josta en tiedä?
Batman efektit? TressFx?
Esimerkiks niiden kohdalla sen sijasta että tutkisit asiaa kun sinulle esitetään kattava selostus ainakin yhdestä näkökulmasta dokumentoiduista tapahtumista päätti vain sivuuttaa asiat merkityksettöminä.
Väität myös puhtaasti valheellisia asioita kuin ne olisivat totta esimerkiksi liittyen pelien toimivuuteen eri valmistajilla
 
Ostan ohjaimen jonka nopeus riittää omiin tarpeisiini, täytyykö olla fanboy jos ostaa tarpeeseensa nopeimman näytönohjaimen?
pitäisikö siis ostaa Vega64 vaikka sen suorituskyky ei riitä?
vai pitääkö käyttää tota vanhaa vara ohjainta (Gtx780) ja unohta pelaaminen?

Vai mitä nyt yrität ehdottaa?

Ai että GTX 780:lla joutuu unohtaa pelaamisen? Mitä paskaa sä nyt väität ?

GTX 780 on vieläkin enemmän kuin riittävä kortti pelaamiseen vielä high/Ultra asetuksilla riippuen pelistä.
Mistä tiedän ?
No just eilen benchmarkkasin yhden 24 pelillä.

Ei toki 4k kortti, mutta ei se 1080ti myöskään riitä vielä 4k 60fps ultriin.

Ja Vega 64 on huono verrattuna paljon halvempaan Vega 56:n joka kyllä tarjoaa mukavasti potkua.

Tullut tuossa paljon testailtua Nvidian ja AMD:n kortteja ja jos pelkästään 1920x1080 resolla pelaa. Niin saa mennä niinkin vanhoihin kuin GTX 480. Ja vielä voi laittaa detailit peleissä Highlle ilman ongelmia.

Ja semmoisen saa jo muutaman oluen hinnalla. Kun ei pc pelaamisen tarvi maksaa niin älyttömästi ja vanhallakin pärjää oikein hienosti.

Niin omissa koneissa hyrrää tällä hetkellä GTX 980ti ja pojan pelikoneeseen laitoin GTX 780 SLI setin.
Tulevaan olohuoneen Console killeriin olisi menossa Radeon R9 Nano.

Eli kannatan molempia mutta edelleen senttiäkään en Nvidialle anna uuden kortin merkeissä.
Tässä ootankin AMD:ltä jotain uutta minkä vois tohon testipenkkiin hommata.
Kun ois toinenkin GTX 980ti mutta sillä ei meinaa prossujen välisiä eroja saada määrätyissä peleissä.
Idea olisi ens vuonna päivittää se ja aloittaa prossu testaus alusta, tehokkaammalla näytönohjaimella ja uusilla peleillä.
 
Ai että GTX 780:lla joutuu unohtaa pelaamisen? Mitä paskaa sä nyt väität ?

GTX 780 on vieläkin enemmän kuin riittävä kortti pelaamiseen vielä high/Ultra asetuksilla riippuen pelistä.
Mistä tiedän ?
No just eilen benchmarkkasin yhden 24 pelillä.

Ei toki 4k kortti, mutta ei se 1080ti myöskään riitä vielä 4k 60fps ultriin.

Ja Vega 64 on huono verrattuna paljon halvempaan Vega 56:n joka kyllä tarjoaa mukavasti potkua.

Tullut tuossa paljon testailtua Nvidian ja AMD:n kortteja ja jos pelkästään 1920x1080 resolla pelaa. Niin saa mennä niinkin vanhoihin kuin GTX 480. Ja vielä voi laittaa detailit peleissä Highlle ilman ongelmia.

Ja semmoisen saa jo muutaman oluen hinnalla. Kun ei pc pelaamisen tarvi maksaa niin älyttömästi ja vanhallakin pärjää oikein hienosti.

Niin omissa koneissa hyrrää tällä hetkellä GTX 980ti ja pojan pelikoneesen laitoin GTX 780 SLI setin.
Tulevaan olohuoneen Console killeriin olisi menossa Radeon R9 Nano.

Eli kannatan molempia mutta edelleen senttiäkään en Nvidialle anna uuden kortin merkeissä.
Tässä ootankin AMD:ltä jotain uutta minkä vois tohon testipenkkiin hommata.
Kun ois toinenkin GTX 980ti mutta sillä ei meinaa prossujen välisiä eroja saada määrätyissä peleissä.
Idea olisi ens vuonna päivittää se ja aloittaa prossu testaus alusta, tehokkaammalla näytönohjaimella ja uusilla peleillä.

4K näytöllä ei tee mieli pelata 1080p resoluutiolla kun silmä tottunut tuohon korkeampaan resoluutioon.
Joten Gtx780 on liian hidas tuohon ja on vain
pelkkä varakortti siksi aikaa että uuden Nvidian lapun saa tilalle.
Gtx1070Ti oli Vr huoneessa mutta yhdistän sen myös tuohon 2080Ti niin saa ehkä pixeldensityä nostettua reippaammin.

i7 lähtee tässä pian pois kunhan jaksais purkaa nestejäähyt ja jos sais jonku kovan Ryzenin tilalle ja vielä järkevästi laitettua vesille.
 
4K näytöllä ei tee mieli pelata 1080p resoluutiolla kun silmä tottunut tuohon korkeampaan resoluutioon.
Joten Gtx780 on liian hidas tuohon ja on vain
pelkkä varakortti siksi aikaa että uuden Nvidian lapun saa tilalle.
Gtx1070Ti oli Vr huoneessa mutta yhdistän sen myös tuohon 2080Ti niin saa ehkä pixeldensityä nostettua reippaammin.

i7 lähtee tässä pian pois kunhan jaksais purkaa nestejäähyt ja jos sais jonku kovan Ryzenin tilalle ja vielä järkevästi laitettua vesille.

Jotenkin nyt huvittavaa kun haukuit AMD:t ja kerroit että sulla on GTX 1070ti. Mikä vastaa Vega 56:stä eikä edes tarjoa paljoa kovempaa potkua kuin vanhempi GTX 980ti.

Älä pety Ryzeniin sitten. Mitä noitakin tullut testattua niin ekan sukupolven Core i (LGA 1366) pääsevät ryzenin kanssa tasoihin ja ivy bridget (kolmas sukupolvi) hakkaavat ryzenit pelisuorituskyvyssä helposti.
 
Tullut tuossa paljon testailtua Nvidian ja AMD:n kortteja ja jos pelkästään 1920x1080 resolla pelaa. Niin saa mennä niinkin vanhoihin kuin GTX 480. Ja vielä voi laittaa detailit peleissä Highlle ilman ongelmia.

Mutta kun täältäkin löytyy niitä superhessuja joille jo 90fps on diakuvaa niin pakkohan se on laittaa monta donaa näytönohjaimeen.
 
Jotenkin nyt huvittavaa kun haukuit AMD:t ja kerroit että sulla on GTX 1070ti. Mikä vastaa Vega 56:stä eikä edes tarjoa paljoa kovempaa potkua kuin vanhempi GTX 980ti.

Älä pety Ryzeniin sitten. Mitä noitakin tullut testattua niin ekan sukupolven Core i (LGA 1366) pääsevät ryzenin kanssa tasoihin ja ivy bridget (kolmas sukupolvi) hakkaavat ryzenit pelisuorituskyvyssä helposti.
Oli ja tasan 3 päivää, eikä riittänyt.
Vega56 dirt rallyVR takia ei voi edes harkita, kaverin koneessa pääsi sillä n. 60fps pintaan kun tuolla 1070Ti pääsi sinne 90fps.
RoboRecall toimi molemmilla ok mutta pixeldensityä kun nostaa niin kyykkäävät.

Ryzen riittää kyllä hyvin, kun en pelaa 720p:llä niin tulee Gpu pullonkaulaksi ennen prosessoria.
Ja sitten tulee muutakin tehtyä niin ryzen näissä selvästi nopeampi ja huomattavasti halvempi.
 
Oli ja tasan 3 päivää, eikä riittänyt.
Vega56 dirt rallyVR takia ei voi edes harkita, kaverin koneessa pääsi sillä n. 60fps pintaan kun tuolla 1070Ti pääsi sinne 90fps.
RoboRecall toimi molemmilla ok mutta pixeldensityä kun nostaa niin kyykkäävät.

Ryzen riittää kyllä hyvin, kun en pelaa 720p:llä niin tulee Gpu pullonkaulaksi ennen prosessoria.
Ja sitten tulee muutakin tehtyä niin ryzen näissä selvästi nopeampi ja huomattavasti halvempi.

VR jutuista en tiedä taikka 4k:sta kun en semmoisia omista. Eivätkä ole ostos listallakaan.
Mutta jo 1920x1080:lla monessa pelissä Ryzen on pullonkaulana jo GTX 980 ti:lla.

Esim. mainitsemassasi Dirt Rallyssä Ryzen 5 2600@4.07GHz saa avg fps 143, kun taas Ivy Bridge i5-3570K@4.75GHz paukuttaa 156fps.
Omassa testi peli setistä Ryzen voitti tuon Core i5-3570K:n vain Asseto Corsa, BF4 ja Crysis 3:ssa.
Joista BF4:ssa jopa vanhus core i7-920 pieksee ryzenin ja taas Crysis 3:ssa LGA1366 6-ydin Xeonit ovat suht tasoissa.

Ja Ryzen 7:t eivät tilannetta pahemmin paranna kun pelit eivät vaan hyödy niistä extra threadseistä. Kun tyypillisesti käyttävät sen 3-8.
 
VR jutuista en tiedä taikka 4k:sta kun en semmoisia omista. Eivätkä ole ostos listallakaan.
Mutta jo 1920x1080:lla monessa pelissä Ryzen on pullonkaulana jo GTX 980 ti:lla.

Esim. mainitsemassasi Dirt Rallyssä Ryzen 5 2600@4.07GHz saa avg fps 143, kun taas Ivy Bridge i5-3570K@4.75GHz paukuttaa 156fps.
Omassa testi peli setistä Ryzen voitti tuon Core i5-3570K:n vain Asseto Corsa, BF4 ja Crysis 3:ssa.
Joista BF4:ssa jopa vanhus core i7-920 pieksee ryzenin ja taas Crysis 3:ssa LGA1366 6-ydin Xeonit ovat suht tasoissa.

Ja Ryzen 7:t eivät tilannetta pahemmin paranna kun pelit eivät vaan hyödy niistä extra threadseistä. Kun tyypillisesti käyttävät sen 3-8.

4K:lla erot on vain fps pari kun näytönohjain on pullonkaulana. 1080p näitä eroja varmasti tuleekin intelin hyväksi.
 

Tuossa näkyy hyvin se mindshare syöpä jonka nvidia on saanut istutettua ihmisten mieliin. X800 jälkeenkin on punaiselta tullut tuotteita jotka on ollut parempia kuin kilpailijan, mutta siitä huolimatta on menty loivassa alamäessä.

Mutta itse oletin tilanteen olevan pahempi. Oma olettamus oli joku 90/10 jako. Viimeisin täppi näyttää siltä että kova lasku on taas alkamassa joka voi johtaa uuteen pohjanoteeraukseen.
 
Tuossa näkyy hyvin se mindshare syöpä jonka nvidia on saanut istutettua ihmisten mieliin. X800 jälkeenkin on punaiselta tullut tuotteita jotka on ollut parempia kuin kilpailijan, mutta siitä huolimatta on menty loivassa alamäessä.

Mutta itse oletin tilanteen olevan pahempi. Oma olettamus oli joku 90/10 jako. Viimeisin täppi näyttää siltä että kova lasku on taas alkamassa joka voi johtaa uuteen pohjanoteeraukseen.

Itsekkin olin samassa uskossa. Näkyy muuten tuo jako myös käytettyjen markkinoilla hyvin. Kun niitä olen haalinut testattavaksi niin Ratukoita saa ihan etsimällä etsiä kun Geforceja löytyy helposti.
Tai no määrättyjä malleja ei kyllä meinaa löytää joista GTX 590 ja GTX 690 olivat onnekkaita löytöjä.
 
Mikäs ominaisuus vegasta jäi käyttämättä. Amd piti saada se toimimaan mutta toisin kävi.
Jos saavat sen toimimaan navissa niin se on nopeampi entä vega vaikkeivat parantaisikaan mitään muita juttuja siinä.
Ei sieltä muuta ole tiettävästi "jäänyt käyttämättä" kuin automaagiset primitive shaderit. Linux-puolella jotain ominaisuutta ei tulla tukemaan ennen GFX10:iä eli Navia, mutta muistaakseni se oli kuitenkin Windowsissa käytössä
 
Mikäs ominaisuus vegasta jäi käyttämättä. Amd piti saada se toimimaan mutta toisin kävi.
Jos saavat sen toimimaan navissa niin se on nopeampi entä vega vaikkeivat parantaisikaan mitään muita juttuja siinä.

En nyt oo varma jäikö mitään, joku feature ilmeisesti oli tarkoitus tulla ajureiden kanssa automaattisesti toimivaksi, mutta niin sitä ei saatu toimimaan joten se on nyt pelin kehittäjästä kiinni tukeeko ominaisuutta vaiko ei.
 
Tuossa näkyy hyvin se mindshare syöpä jonka nvidia on saanut istutettua ihmisten mieliin. X800 jälkeenkin on punaiselta tullut tuotteita jotka on ollut parempia kuin kilpailijan, mutta siitä huolimatta on menty loivassa alamäessä.

Mutta itse oletin tilanteen olevan pahempi. Oma olettamus oli joku 90/10 jako. Viimeisin täppi näyttää siltä että kova lasku on taas alkamassa joka voi johtaa uuteen pohjanoteeraukseen.

Tuossa käppyrässä oli myyntiluvut eikä tulot.

nVidialla on paremmat keskimääräiset myyntihinnat joten tulojen mukaan ero olisi suurempi.
 
Tuossa käppyrässä oli myyntiluvut eikä tulot.

nVidialla on paremmat keskimääräiset myyntihinnat joten tulojen mukaan ero olisi suurempi.

Niin siis laitekantaa minä itse ajattelin että olisi lähempänä 90/10 suhdetta nykyisin.
 
En oikein tiennyt mihinkä ketjuun iskeä, mutta tuommoinen osui silmään. Eli uudessa Forza demossa AMD näyttiksillä ilmeisen hyvä suorituskyky. Kenties joku haluaisi testailla väittämiä? (oma rauta ei ihan ajantasalla). Laitan vielä lisäksi tuon Kylen oman ensinmäisen ajon 1080Ti:llä.
156345_upload_2018-9-13_14-31-58.png


Itse uutinen...
[H]ardOCP: Forza Horizon 4 DX12 Free Benchmark

Edit. Lisäyksenä itselle, redditistä löytyi ketju jossa jaettiin tuoloksia.
Forza Horizon 4 Demo is now available. • r/pcgaming
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
258 724
Viestejä
4 494 103
Jäsenet
74 285
Uusin jäsen
ImPetriiZ

Hinta.fi

Back
Ylös Bottom