Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ei tässä mitään hypetetty ole missään, vaan kerrottu mihin 50% paremmalla energiatehokkuudella voitaisiin päästä.
Ja mitä teoriaan tulee niin eihän ennen julkaisuja ole muuta kuin teoriaa, mutta tähän liittyen on jo valmistajan lupaus energiatehokkuuden parantumisesta 50%:llä ainakin jonkin mallin kohdalla sekä tieto että piirit tulevat olemaan isompia kuin nykyiset, eikä pelkkiä huhuja. (Ja ko. luku suunnattu sijoittajille eli AMD ei siitä valehdellakaan voi)

Käyttäen TPUn lukuja 4K-resolla jäisi tosiaan ihan tipan (prosenttiyksikön) vajaaksi 2080 Ti:stä, mutta matalammilla riittäisi sen ohittamiseen 5700 XT:n kulutuksella 50% energiatehokkaampi piiri.

Tuota oli väännetty tässä ketjussa aikaisemmin. Nvidian on vain tehtävä isompi parannus uudella sukupolvella, kuin AMD:n, koska firman nimi ja uusi prosessi. Siinä ei vaikuta sekään, että toinen hyppää keskikokoisesta piiristä isoon, Nvidian on silti tarjottava isompi teholoikka.
 
Xbox käyttää dx12:sta, kuten pc puolella Nvidian RTX näyttikset käyttää.

DXR on microsoftin rajapinta, osa DX12aa. DXR-koodi toimi kaikkien valmistajien näytönohjaimilla.

Ei pelikoodarien tarvi koodata erikseen nVidialle tai erikseen AMDlle.

Se, että seuraavalle Xboxille tulee säteenseurantaa käyttäviä pelejä, tarkoittaa sitä, että ne on helppo portata PClle jossa ne tämän jälkeen toimivat melko heittämällä nVidian näyttiksillä.

Kiitos korjauksista ja täsmennyksistä :thumbsup: Luottavaisin mielin voi siis olla PC-pelaajana.

Miten nuo pelintekijöiden väitökset konsolien suosimisesta, onko se niin räikeää kuin joidenkin firmojen kohdalla väitetään? Siis että grafiikat tehdään pitkälti konsolipelaaminen edellä, ja PC-käyttäjät joutuvat kärsimään. Myytti? Ehkä väärä ketju tälle keskustelulle.

Pilvipelaaminen taas kaatuu viiveettömyyttä ja kuvanlaatua vaativissa tapauksissa netin kaistan puutteeseen (kuten ennenkin) (paska kuvanlaatu) tai / ja viiveeseen, jos vain osittainen laskenta.

Tämä se isoin haaste on joo. Kaikilla ei ole vakaata ~20 megaista nettiä käytössä, ja vaikka olisikin, viiveiden kanssa ilmeisesti edelleen tekemistä. Silti jos tuo saadaan optimoitua paremmalle tolalle, niin kyllä tuossa on potentiaali kirkkaalle tulevaisuudelle. Ei tämä tule varmasti suoraan kilpailemaan ''hardcore PC-pelaajien'' kanssa, vaan enemmänkin niiden, joilla ei ole varaa kunnon rautaan, ja ostetaan esim. karvalakki-konsoleita.

Tulevaisuutta on, että voi pelata sekä paikallisesti konsolilla, että pilvipalvelun kautta samalla laitteella. Sitä sekä Microsoft että Sony hakee, ilmeisesti jonkinlaisessa yhteistyössä. Sonylla kun ei syvä osaamista pilvipuolelta hirveästi ole. E: Ja siis Microsoft tuo pilvipelaamisensa myös tietenkin PC:lle.

Lisäksi se rauta on JOKATAPAUKSESSA oltava olemassa, joten kuluja tulee rauta+ käytetty kaista.

Pilvipelaaminen ei vaadi tehokasta rautaa. Riittää ihan perus prossut, 4 gigaa muistia ja vaikka integroidut näytönohjaimet, kunhan tukee DX11. Tässä mielessä varmasti houkutteleva vaihtoehto monille budjettipelaajille, jos tuo saadaan toimimaan kunnolla netin yli.

Vähän epäilen, että xb / ps näyttikset ei kummoiseen RT suorituskykyyn kykene, koska piirin koko ja tdp rajoittaa..

Jossain oli huhu, että tämä RT tulisi olemaan nimenomaan ''pilvipalvelu'' -ominaisuus. Eli voisi olla teoriassa ''pelaa meidän konsolilla meidän pilvipalvelun kautta, ja saat mullistavan RT:n käyttöösi''. Ei olisi kovin hyvä niille paikallisille offline-pelaajille, joita varmasti edelleen on paljon. Edit: Korjattu lainauksia.
 
Viimeksi muokattu:
on sieltä amd tulossa kuitenkin iso piiri 250w+ ja jopa 80cu ja oli testattu jossain vr benchissä mitä ei ainakaan ole vääräksi todistettu, oli 30% nopeampi kuin tappiin kellotettu 2080ti

tähän perustuen nvidialla on kyllä saatava enemmän kuin 40% perf uplift 3080ti tai ovat tasoissa, mikä olisi kyllä amd lle aika saavutus..
Juu ehkä uusin Xboxi jolla ajeltu..tms.
Huhuja jos lukee kuin raamattua niin tulee villejä spekulointeja jotka voi olla hyvin kaukana kaikesta todellisuudesta.

5700XT kulutuksen kun huomioi ja Amd mainitseman per/w 50% parannuksen niin ei toi 250w tule vielä riittämään 2080Ti suorituskykyyn.
Ehkä sieltä tulee sellainen +300w malli nestejäähdytettynä ja tappiin kellotettuna jolla saadaan se +10% yli 2080Ti suorituskyvyn.

saisihan uusienkin korttien hintoihin tulla vähän järkeä jos konsoli tulee maksamaan 600e, joka kilpailee peleissä huippu tietokoneen 1700+ euroa kanssa.
Mistä tiedät että kilpailee? voihan olla ettei 4K edes pyörähdä natiivina ja peleissä 30fps lukitukset kun tehot ei piisaa.
Ja vuoden parin päästä konsolin tehot suhteessa PC rautaan alkaa näyttään ikääntymisen merkkejä. (Koska PC rauta kehittyy konsoli ei, ellei sitten tule jotain"pro" malleja)

Muutenkin konsoli/PC vääntö turhaa koska se options yksinkertaisesti mahdollistaa paremman pelikokemuksen luomisen PC.llä
Nauttikaamme konsolien motionBlur, TAA FXAA tms.paskoista asetuksista joita ei voi vaihtaa.

Konsolit on konsoli pelaajille ja PC on Pc pelaajille, ja sitten joku voi vähän mixata molempia.
Mutta vaikka siellä olisi millaista jumal rautaa konsolissa niin en PC pelaamista sellaiseen kokonaan vaihtaisi, pelkästään jo hiiri+näppis tekeePC ylivoimaisen moneen peliin.
Mutta tää on ny kyllä OT joten Anteeksi.
 
Viimeksi muokattu:
5700XT kulutuksen kun huomioi ja Amd mainitseman per/w 50% parannuksen niin ei toi 250w tule vielä riittämään 2080Ti suorituskykyyn.
Jos vaikka tästä lähdetään laskemaan niin mihin se sun laskuissasi yltäisi?

relative-performance_2560-1440.png


Minä laskisin tästä 100x1,5x(250W/225W) = ~167
167/146 = ~1,14
Eli 250W RDNA2 näyttis olisi n. 14% suorituskykyisempi kuin 2080Ti. Missä meni pieleen?
 
5700XT kulutuksen kun huomioi ja Amd mainitseman per/w 50% parannuksen niin ei toi 250w tule vielä riittämään 2080Ti suorituskykyyn.
Ehkä sieltä tulee sellainen +300w malli nestejäähdytettynä ja tappiin kellotettuna jolla saadaan se +10% yli 2080Ti suorituskyvyn.

Sulla on nyt tuossa kaikki luvut mutuiltu, ei tuossa ole päätä eikä häntää.


Otetaan oikeita lukuja mukaan, niin ei mene arvailuksi:

Tehonkulutus ja -suorituskykylukemat otan Techpowerupin RX 5700XT -arvostelusta:
Sapphire Radeon RX 5700 XT Pulse Review

Otetaan nyt vaikka esimerkiksi toisessa ketjussa antamasi AMD:n dia, jossa +50% perf/watt toteutui niin, että suorituskyky kasvoi 14% ja tehonkulutus laski 23%.
Mikäli RDNA2:lle luvattu 50% parannus toteutuisi samassa suhteessa:

Tällöin hypotettinen 40CU RDNA2 näyttis vastaavilla spekseillä ja kellotaajuuksilla olisi 1.14x suorituskyky (vs RX 5700XT) ja 219W*0,77 = 169W tehonkulutus.

Skaalamalla CU-määrä 40 -> 60 ja muisti 256-bit 8GB -> 384-bit 12GB, saadaan suorituskyvyksi 5% pienemmällä kellotaajuudella 1,14*1,5*0,95=1,6245.
Tehonkulutus olisi tällöin 169W*1,5=253,5W. En ottanut tehonkulutuksessa huomioon kellotaajuuden laskua, suorituskyky voisi hyvin siis olla ~5% parempi kuin tässä esimerkissä.

Techpowerupin arvostelun mukaan 1440p resoluutiolla 2080 Ti on 1,45x tehokkaampi kuin RX5700XT
1,624x > 1,45x, joten esimerkin hypoteettinen 60CU näyttis olisi ~12% tehokkaampi kuin 2080 Ti, 250W tehonkulutuksella.
 
5700XT kulutuksen kun huomioi ja Amd mainitseman per/w 50% parannuksen niin ei toi 250w tule vielä riittämään 2080Ti suorituskykyyn.
Ehkä sieltä tulee sellainen +300w malli nestejäähdytettynä ja tappiin kellotettuna jolla saadaan se +10% yli 2080Ti suorituskyvyn.
Nyt rupeaa olemaan se hetki että rupeapa tarkistelemaan niitä lukujasi ihan niistä saatavilla olevista lähteistä sen sijasta, että trollailet heittämällä pisin sitä itseään olevia lukuja ja muut joutuvat korjaamaan huuhaaväitteitäsi joka viestistä.
 
Olet sitä mieltä että AMD ei kaksinkertaistamalla Navi10 piirin koon ja samalla uusitulla arkkitehtuurilla pääse kuin max 40% suorituskykyparannukseen?

AMD:n pitää saada laskettua arkkitehtuurinsa tehonkulutusta / suoritettu työ, muutoin kilpailusta ei tule mitään. Sen, onnistuuko, näkee sitten joskus.

Jonkun konsolin GPU:n teoreettista TF lukemaa ei kannata tuijotella totuutena. Sen pitää myös realisoitua FPS:ksi. Jos siellä on joku kohta joka ahdistaa (esim muistikaista /pakkaus), niin se on hidas, vaikka TF lukema antaisi ymmärtää olevan nopeampi.


Pilvipelaaminen ei vaadi tehokasta rautaa. Riittää ihan perus prossut, 4 gigaa muistia ja vaikka integroidut näytönohjaimet, kunhan tukee DX11. Tässä mielessä varmasti houkutteleva vaihtoehto monille budjettipelaajille, jos tuo saadaan toimimaan kunnolla netin yli.

Jossain oli huhu, että tämä RT tulisi olemaan nimenomaan ''pilvipalvelu'' -ominaisuus. Eli voisi olla teoriassa ''pelaa meidän konsolilla meidän pilvipalvelun kautta, ja saat mullistavan RT:n käyttöösi''. Ei olisi kovin hyvä niille paikallisille offline-pelaajille, joita varmasti edelleen on paljon. Edit: Korjattu lainauksia.

Se rauta, joka sitä peliä pyörittää on oltava tehokasta siellä KONESALISSA. Se pilvessä ohjelman pyörittäminen ei poista rautainvestointeja. Silloin mennään tn kuukausi tai pelikerta tms laskutukseen, jos käydään pyörittämään pelejä konesalien raudalla ja konsoli on vain pääte.

RT:n teko pilvessä vaatisi paljon datan siirtoa edestakaisin. En usko, että ainakaan nykyinternetissä tapahtuu mitenkään toimivasti. Ja jos AMD:n RT olisi suhku, niin sitten konesaleissa olisi PALJON Nvidioita laskemassa sitä RT:tä... Tai jos tehtäisiin prossuilla, niin ihan mielettömän raskasta ja virtaa syövää rautaa..
 
Nyt rupeaa olemaan se hetki että rupeapa tarkistelemaan niitä lukujasi ihan niistä saatavilla olevista lähteistä sen sijasta, että trollailet heittämällä pisin sitä itseään olevia lukuja ja muut joutuvat korjaamaan huuhaaväitteitäsi joka viestistä.
Laskelmat niin mustavalkoisia ja karkeita että ei tule pitämään paikkaa ja tästä vänkääminen on sama kuin hakkaisi päätään seinään joten palataan asiaan kun Amd julkaisee uudet ja vertaillaan sitten lisää.

Ehkä ne oikeat luvut Amd ohjaimista ilmestyessään saa tajuamaan mikä teidän päätelmissä ja laskuissa on mennyt vikaan, tai voitte vaikka yhdessä sitä sitten miettiä.
 
Laskelmat niin mustavalkoisia ja karkeita että ei tule pitämään paikkaa ja tästä vänkääminen on sama kuin hakkaisi päätään seinään joten palataan asiaan kun Amd julkaisee uudet ja vertaillaan sitten lisää.

Ehkä ne oikeat luvut Amd ohjaimista ilmestyessään saa tajuamaan mikä teidän päätelmissä ja laskuissa on mennyt vikaan, tai voitte vaikka yhdessä sitä sitten miettiä.
Tarkkoja ne eivät toki ole, mutta ne sentään perustuvat todellisiin ilmoitettuihin lukuihin toisin kuin sinun trollailusi noilla luvuilla.
PS. "400W ehkä 2080 Ti:tä vähän nopeampi" tarkoittaisi että suorituskyky wattia kohti olisi selvästi huonompi kuin 5700 XT:llä.
 
Se rauta, joka sitä peliä pyörittää on oltava tehokasta siellä KONESALISSA. Se pilvessä ohjelman pyörittäminen ei poista rautainvestointeja. Silloin mennään tn kuukausi tai pelikerta tms laskutukseen, jos käydään pyörittämään pelejä konesalien raudalla ja konsoli on vain pääte.

Tämä on selvää. Kuukausilaskutus tai pelitunti/kertalaskutus varmaan noissa tulee jatkossakin olemaan, ja hinnat varmasti tulevaisuudessa jotain muuta kuin esim. Nvidian 5,5€ / kk. Jos kuukausihinnat pysyy kohtuullisena, niin varmaan yksi vaihtoehto tulevaisuudessa budjettipelaajille joilla netti riittää, mutta kaikki riippuu täysin siitä, miten luotettavaksi tuo pelikokemus saadaan.

Ja kaikilla ei sitä ~20 megaa ole pienillä latensseilla, joten varmasti netin vaatimukset jo karsii aika paljon käyttäjiä pois. Jäädään seuraamaan mihin tämä kehittyy. Varmasti ei tule korvaamaan mitään, vaan tuo konsolien ja PC:n rinnalle vaihtoehdon.

onhan se naurettavaa jos konsolin tehot tulevat olemaan lähes isommat pienellä kulutuksella ja pelkän näytönohjaimen hinnalla?

Riippuu vähän minkä näytönohjaimen. Ei sieltä minkään RTX 2060:en tai RX 5600 XT:n hinnalla ole tulossa yhtään mitään tehokasta. Varmaan noiden pro mallit tulee olemaan alkuun ihan hyviä tehoiltaan, mutta hintakin varmaan alussa jossain 500 eurossa, kuten esim. one X:n julkaisussa oli. Niillä perusmalleilla ei varmaan jatkossakaan juhlita 60 fps:än kanssa raskaissa peleissä, siis paikallisella raudalla.
 
Toivottavasti iso-navi haastaa 3080Ti:tä sen verran lähelle ettei nahkarotsi kehtaa hinnoitella sitä 1500€ vaan joutuu taipumaan 1000€ hujakoille.

Muistan kun ekaa laillista pelikonetta kasasi niin 580 maksoi noin 500e ja sen ajan parhaimmisto pelinäyttö tais olla jotain samaa luokkaa, tai noin 600e 1080p 120Hz.

Alkaa tääkin harrastus nykyään maksaa jos tykkää keikkua tuolla kärjessä.
Enemmänki palataan siihen että koneet oli kalliita.

1584039461992.png


Vuoden 2000 rahamäärää 17 000,00 markkaa vastaava rahamäärä vuonna 2019 oli 3 749,66 euroa.

Toki koneessa on mukana näyttö ja kajarit.
 
Enemmänki palataan siihen että koneet oli kalliita.

1584039461992.png


Vuoden 2000 rahamäärää 17 000,00 markkaa vastaava rahamäärä vuonna 2019 oli 3 749,66 euroa.

Toki koneessa on mukana näyttö ja kajarit.

Jep, mutta näyttöjen (nuo telkkuja kalliimmat fald 144hz 4k) ja ohjainten hintojen nousu on pikkasen pompsahtanut tässä hiljattain.
 
AMD:hän juuri kertoi että RDNA -> RDNA 2 suorituskyky / watti paranee 50%
Niin, AMD siis väitti niin. Todennäköisesti kyse on hyvin kapeasta erikoistilanteesta ja kun katsotaan keskimäärin, niin luku onkin paljon pienempi. Ko ilmiö on varsinkin AMD:n omille hehkutuksille ollut hyvinkin tyypillinen..
 
Toivottavasti iso-navi haastaa 3080Ti:tä sen verran lähelle ettei nahkarotsi kehtaa hinnoitella sitä 1500€ vaan joutuu taipumaan 1000€ hujakoille.

Muistan kun ekaa laillista pelikonetta kasasi niin 580 maksoi noin 500e ja sen ajan parhaimmisto pelinäyttö tais olla jotain samaa luokkaa, tai noin 600e 1080p 120Hz.

Alkaa tääkin harrastus nykyään maksaa jos tykkää keikkua tuolla kärjessä.
?

Kyllähän silloinkin laitettiin nelinumeroisia summia kortteihin. Niitä ostettiin useampia, ja 2560x1600 / 2560x1440 olivat sen ajan 4K-resot johon sitä suorituskykyä tarvittiin. SLI on kuollut, ja sen tilalle on tullut enthuasiast level xx80 Ti - kortit koska tämä asiakassegmentti on edelleen voimassa. Miksi Nvidia rajoittaisi asiakkaidensa maksimin johonkin piskuiseen tonniin kun tarpeeksi suuri osa heistä on selvästi valmiita iskemään enemmän rahaa pöytään?
 
on sieltä amd tulossa kuitenkin iso piiri 250w+ ja jopa 80cu ja oli testattu jossain vr benchissä mitä ei ainakaan ole vääräksi todistettu, oli 30% nopeampi kuin tappiin kellotettu 2080ti

tähän perustuen nvidialla on kyllä saatava enemmän kuin 40% perf uplift 3080ti tai ovat tasoissa, mikä olisi kyllä amd lle aika saavutus..

Tuosta VR ajosta kannattaa myös muistaa että se on ollut joku varsin aikasen vaiheen dev kortti melko varmasti ja suurella todennäköisyydellä lopputuote tarjoa tehoa enemmän.
 
Multi-GPU oli vielä marginaalisempaa kuin vaikkapa juuri 2080 Ti, niin tuo ei kyllä oikein päde. Ja eihän se toki ole tyhmä kuka pyytää, nahkatakkimies voi hieroa käsiään jatkossakin; kyllä ne kaupaksi menee vaikka maksaisivat 1.5keur..
?

Se segmentin koko silloin vs nykyään ei ollut se argumentti vaan just se että high-end GPUiden hinnanrajoitus tuhanteen ei ole mitään järkevä bisnestä.

Pelibisneksessä hiffattiin vuosia sitten että 50€ uudesta pelistä on hölmö spending cappi bisneksen kannalta, koska on olemassa ihmisiä jotka syystä tai toisesta ovat valmiita iskemään satoja ellei tuhansia euroja yhteen peliin.
 
?

Kyllähän silloinkin laitettiin nelinumeroisia summia kortteihin. Niitä ostettiin useampia, ja 2560x1600 / 2560x1440 olivat sen ajan 4K-resot johon sitä suorituskykyä tarvittiin. SLI on kuollut, ja sen tilalle on tullut enthuasiast level xx80 Ti - kortit koska tämä asiakassegmentti on edelleen voimassa. Miksi Nvidia rajoittaisi asiakkaidensa maksimin johonkin piskuiseen tonniin kun tarpeeksi suuri osa heistä on selvästi valmiita iskemään enemmän rahaa pöytään?

Ollut viimeisessä kolmessa Nvdian sukupolvessa SLI kun tehot ei yhdellä kortilla riitä, eikä riitä vieläkään likimainka 2080ti ilman SLI:tä kun 4k näytöjä on 120/144Hz. Ennen SLI oli yleensä (jos tuki oli hyvä) "overkill" mutta nykyään yksi hyvä kortti maksaa melkein saman muttei riitä vastaavaan tehoon.

Karkeasti tuo mennyt kutakuinkin niin että uusin Ti malli on noin 90% edellisen SLI:stä. Paitsi 2080Ti kanssa kun RTX sotkee joukossa. Toivottavasti tulevissa olisi taas sen verran lisää paukkuja ettei SLI tarvis miettiä, hinta kuitenkin "melkein" entisajan SLI.
 
Niin, AMD siis väitti niin. Todennäköisesti kyse on hyvin kapeasta erikoistilanteesta ja kun katsotaan keskimäärin, niin luku onkin paljon pienempi. Ko ilmiö on varsinkin AMD:n omille hehkutuksille ollut hyvinkin tyypillinen..
Luku on toki tässä kohtaa vielä vain arvio, mutta ei mistään "hyvin kapeasta erikoistilanteesta" vaan Division 2:sta @ 1440p kuten jo aiemminkin todettu. Ja oleellista on että se +50% on sijoittajille suunnatussa esityksessä, niissä ei sovi valehdella ja arvioidenkin pitää olla perusteltuja.
Ja kuten niin ikään aiemminkin jo todettu täällä, AMD on ollut päin vastoin konservatiivinen noissa, Vega 64 vs 5700 XT +50%perf/watt lukema on samasta pelistä mitattu ja todellinen ero on isompi (TPU:n laajalla pelikirjolla noin +60%)
 
Ehkä sitä vaan budjettipelaajana ei tajua tuota kun joillekin vaan mikään ei riitä. Tuntuu vaan absurdilta maksaa pelkästä näytönohjaimesta sama summa kuin peruspelikoneesta.
Jep. Itse maksoin Vega 64:sta aikoinaan 530€, ja vaihdoin kortin kryptobuumin aikana tähän 1080 Ti:hin. Yleensä olen ostanut näitä 300-400 euron kortteja koska niillä on perinteisesti saanut tarpeeksi silmäkarkkia keskitasoa paremmalla resoluutiolla, Vega oli poikkeus koska niiden hinnat oli ostohetkellä jossain 700-800€ välillä ja sain omani MSRP hintaan
 
Kyllähän se taitaa tilanne olla , että se 500+ euroo vähintään on tiskiin lyötävä näyttiksestä, jos meinaa WQHD näytöllä pelata +100FPS (..144-165FPS) jollain High asetuksilla.
Jotain RTX3070 tässä odotellaan.. vastaisko nykyistä 2080s nykyiseen 2070s hintaan?. Amd vastaava sitten 50e halvempi...ja kylkiäisinä ajuriongelmat :whistling:
 
Kyllähän se taitaa tilanne olla , että se 500+ euroo vähintään on tiskiin lyötävä näyttiksestä, jos meinaa WQHD näytöllä pelata +100FPS (..144-165FPS) jollain High asetuksilla.
Jotain RTX3070 tässä odotellaan.. vastaisko nykyistä 2080s nykyiseen 2070s hintaan?.
Korkeilla asetuksilla ei riitä edes touhutonni siihen että keskimääräinen FPS olisi isommalla pelivalikoimalla 1440p-resoluutiolla 144-165, itseasasiassa mikään näyttis ei yllä siihen TPU:n valikoimalla.
Amd vastaava sitten 50e halvempi...ja kylkiäisinä ajuriongelmat :whistling:
Aivan kuin NVIDIAlla ei olisi ajuriongelmia vain koska AMD:lla sattuu olemaan tuoreimman sukupolven kanssa normaalia isompia ongelmia, joista toki suuri osa on jo korjattu :asif:
 
Korkeilla asetuksilla ei riitä edes touhutonni siihen että keskimääräinen FPS olisi isommalla pelivalikoimalla 1440p-resoluutiolla 144-165, itseasasiassa mikään näyttis ei yllä siihen TPU:n valikoimalla.

Aivan kuin NVIDIAlla ei olisi ajuriongelmia vain koska AMD:lla sattuu olemaan tuoreimman sukupolven kanssa normaalia isompia ongelmia, joista toki suuri osa on jo korjattu :asif:

Ei kyllä ihan vaan pelkästään uusimman sukupolven kanssa ole nuo amd:n ajurit olleet ongelmana, helpompi laskea sukupolvet joiden kanssa ei ole ollut ajurihäikkää :rofl2:
En tiedä että missä maailmassa elät mutta olihan ne ajurit paskaa ainakin RX 4xx ja RX 5xx aikanakin :confused:
 
Ei kyllä ihan vaan pelkästään uusimman sukupolven kanssa ole nuo amd:n ajurit olleet ongelmana, helpompi laskea sukupolvet joiden kanssa ei ole ollut ajurihäikkää :rofl2:
En tiedä että missä maailmassa elät mutta olihan ne ajurit paskaa ainakin RX 4xx ja RX 5xx aikanakin :confused:
Kyllähän siihen pettuleipään tottuu kun sitä tarpeeksi kauan syö :hmm:
 
Ei kyllä ihan vaan pelkästään uusimman sukupolven kanssa ole nuo amd:n ajurit olleet ongelmana, helpompi laskea sukupolvet joiden kanssa ei ole ollut ajurihäikkää :rofl2:
En tiedä että missä maailmassa elät mutta olihan ne ajurit paskaa ainakin RX 4xx ja RX 5xx aikanakin :confused:
Samaan aikaan juuri noiden sukupolvien kortteja vertaillessa kolmannen osapuolen testirutiineilla (testaaja QA Consultants, testirutiini Microsoftin Hardware Labs Kit) AMD:n ajurit olivat vakaammat läpäisten 93% testeistä kun NVIDIAn kortit läpäisivät 82% testeistä. Testikortteina AMD:lta RX 560, RX 580, Vega 64, Pro WX3100, WX7100 ja WX9100, NVIDIAlta GTX 1050, GTX 1060, GTX 1080 Ti, Quadro P600, P4000 ja P5000. AMD:n ajureina Radeon Software 18.5.1 ja Pro Software 18.Q2, NVIDIAn GeForce 397.64 ja Quadro Desktop 391.58.
Tutkimus oli mahdollisesti AMD:n tilaama, mutta se on irrelevanttia koska testimetodit ovat läpinäkyviä ja kenen tahansa toistettavissa https://www.amd.com/system/files/documents/graphics-driver-quality.pdf

(ps. itsellä oli tuohon aikaan NVIDIAn näytönohjaimet käytössä (980, 1060) eikä nekään millään mittapuulla ongelmattomia olleet. Oma henkilökohtainen suosikki oli väriavaruuden pissiminen miten sattuu HDR:n kanssa 1060:lla ilman mitään selkeää yhtenäistä syytä, joskus tapahtui kun lopetti HDR-pelin pelaamisen, joskus kun SDR-pelin)
 
Samaan aikaan juuri noiden sukupolvien kortteja vertaillessa kolmannen osapuolen testirutiineilla (testaaja QA Consultants, testirutiini Microsoftin Hardware Labs Kit) AMD:n ajurit olivat vakaammat läpäisten 93% testeistä kun NVIDIAn kortit läpäisivät 82% testeistä. Testikortteina AMD:lta RX 560, RX 580, Vega 64, Pro WX3100, WX7100 ja WX9100, NVIDIAlta GTX 1050, GTX 1060, GTX 1080 Ti, Quadro P600, P4000 ja P5000. AMD:n ajureina Radeon Software 18.5.1 ja Pro Software 18.Q2, NVIDIAn GeForce 397.64 ja Quadro Desktop 391.58.
Tutkimus oli mahdollisesti AMD:n tilaama, mutta se on irrelevanttia koska testimetodit ovat läpinäkyviä ja kenen tahansa toistettavissa https://www.amd.com/system/files/documents/graphics-driver-quality.pdf

(ps. itsellä oli tuohon aikaan NVIDIAn näytönohjaimet käytössä (980, 1060) eikä nekään millään mittapuulla ongelmattomia olleet. Oma henkilökohtainen suosikki oli väriavaruuden pissiminen miten sattuu HDR:n kanssa 1060:lla ilman mitään selkeää yhtenäistä syytä, joskus tapahtui kun lopetti HDR-pelin pelaamisen, joskus kun SDR-pelin)

Ei vittu nyt oikeesti :beye:
 
Kieltämättä mielenkiintoiset tulokset kun noinkin suuret erot ja vielä AMD:n hyväksi.
 

1.0 Overview and Test Selection

We define graphics driver stability as a resistance to Blue Screens (BSODs), application crashes, hangs, and otherwise unexpected behavior in the presence of stressful test vectors over a period of time. We used Microsoft’s Windows HLK as a source of graphics test vectors. Windows HLK is a test framework designed to help hardware manufacturers deliver a quality product to users running Windows operating systems. Within Windows HLK, we used the 64-bit variant of CRASH to stress the Graphics Processing Unit (GPU). CRASH is a GPU stress test tool that spans 4 hours in length and captures test cases covering S3, display resolution changes, display orientation changes, content protection, and rendering. While 4 hours of stress testing is a good indicator of prominent quality issues, it does not suffice in capturing intermittent stability failures or glitches. Therefore, we ran this test back-to-back around the clock for 12 days for each GPU. This accounts for 288 hours of non-stop stress in a test designed to make the GPU driver fail.

Onneksi nyt on saatu selville minkä firman kortti on aktiivisille resoluutionvaihtajille ja pivottausharrastajille se ehdoton valinta. :tup:
 
Kieltämättä mielenkiintoiset tulokset kun noinkin suuret erot ja vielä AMD:n hyväksi.

Tämä kuvaa tuota testiä paremmin: AMD touts driver stability on the back of new test report - The Tech Report

"How did QA Consultants come to that conclusion? The firm ran a single test, called CRASH, that's part of Microsoft's Hardware Lab Kit (or HLK), a suite of tools designed to help companies ascertain whether their products qualify for the Windows Hardware Compatibility Program. CRASH is just one of a dizzying array of graphics-related tests available from that toolkit."

"While Microsoft doesn't document exactly what tests CRASH performs on a system, AMD says it “contains a variety of graphical functions across DirectX 9, 10 and 11 including changes in resolution, color settings, screen rotations, color overlays, sleeping and waking up.” The test runs for four hours, and Microsoft says “if the system does not stop responding or encounter a bug check during this specified time, the test is considered a pass.”

QA Consultants went one better, perhaps, by running looped instances of CRASH 24 hours a day for 12 days straight on six graphics cards from each vendor: three consumer-grade cards with consumer drivers, and three pro cards with pro drivers."

Pelejähän tuossa siis ei testattu, joista valtaosa kitinöistä on tullut. Vaan jatkuvalla loopilla muita ajureiden toimintoja.
 
Ei vittu nyt oikeesti :beye:
AMD sponssaamat ajuritestit osoittaa että AMD:n ajurit on vakaat, oho yllättävää :srofl:
Nämä ei ole argumetteja ja oma mutu ei kelpaa lähteeksi. @Kaotik linkkasi lähteen väitteelle. Jos olette erimieltä väitteestä, niin lähdettä kehiin tai perusteluja miksi tämä lähde on väärässä tai miten tämä lähde ei ole relevantti. Sillä kuka tutkimuksen tilaa ei pitäisi olla merkitystä, ainoastaan miten tutkimus on tehty.
Ulkopuolisen silmin joka ei asioista juurikaan tiedä tämä teidän käyttäytymisenne näyttäytyy fanipojan käyttäytymiseltä.
 
Tottakai tilaajalla on merkitystä, jos tulos olisi ollut päinvastainen se ei koskaan olisi julkaistu koska AMD tilasi ja maksoi tuon. Mehän ei edes tiedetä montako testiä tilattiin ennen tuota joissa tulos ei ollut haluttu. Ei liene kovin vaikeaa Nvidian tilata testiä samalta firmalta jossa muokataan testirutiinia piirun verran jotta Nvidia voittaa.
 
Tottakai tilaajalla on merkitystä, jos tulos olisi ollut päinvastainen se ei koskaan olisi julkaistu koska AMD tilasi ja maksoi tuon. Mehän ei edes tiedetä montako testiä tilattiin ennen tuota joissa tulos ei ollut haluttu. Ei liene kovin vaikeaa Nvidian tilata testiä samalta firmalta jossa muokataan testirutiinia piirun verran jotta Nvidia voittaa.
On ja ei ole merkitystä - niin kauan kuin testimetodit ovat läpinäkyviä ja toistettavissa sillä ei ole merkitystä, vaan tulokset ovat mitä ne ovat sillä nimenomaisella metodilla.
Faktaa on kuitenkin se, että tuossa testissä joka on toistettavissa AMD:n ajurit olivat vakaampia. Faktaa on myös se, että kummallakin on ongelmia niin peleissä kuin työpöydällä, AMD:lla oli erityisesti 5700-sarjan kanssa normaalia enemmän, mutta suurin osa niistä on myös saatu jo korjattua. Uusia bugeja tulee joka ajureissa samalla kuin vanhoja korjataan ja valtaosa ongelmista ei kosketa kuin osaa käyttäjistä ihan näytönohjaimen merkistä riippumatta.
 
Nämä ei ole argumetteja ja oma mutu ei kelpaa lähteeksi. @Kaotik linkkasi lähteen väitteelle. Jos olette erimieltä väitteestä, niin lähdettä kehiin tai perusteluja miksi tämä lähde on väärässä tai miten tämä lähde ei ole relevantti. Sillä kuka tutkimuksen tilaa ei pitäisi olla merkitystä, ainoastaan miten tutkimus on tehty.
Ulkopuolisen silmin joka ei asioista juurikaan tiedä tämä teidän käyttäytymisenne näyttäytyy fanipojan käyttäytymiseltä.

Et tainnut ollenkaan lukea että mitä tuossa jutussa oli testattu :think:
Amd:n itse maksamassa testissä sen omat ajurit vakaampia jossain pivot-, resoluutiojumpassa, ihan ihmeellistä lähinnä toimistokäyttöä vastaavaa testattu että saatu edes jotain mitattua missä olisi vakaammat ajurit kuin kilpailijalla :rofl2:
Pelikäyttöön noita kortteja kuitenkin markkinoidaan ja siihen niitä käytetään :beye:
 
0-postaus
Nämä ei ole argumetteja ja oma mutu ei kelpaa lähteeksi. @Kaotik linkkasi lähteen väitteelle. Jos olette erimieltä väitteestä, niin lähdettä kehiin tai perusteluja miksi tämä lähde on väärässä tai miten tämä lähde ei ole relevantti. Sillä kuka tutkimuksen tilaa ei pitäisi olla merkitystä, ainoastaan miten tutkimus on tehty.
Ulkopuolisen silmin joka ei asioista juurikaan tiedä tämä teidän käyttäytymisenne näyttäytyy fanipojan käyttäytymiseltä.
juuh ocay
häjytt.gif
 
On ja ei ole merkitystä - niin kauan kuin testimetodit ovat läpinäkyviä ja toistettavissa sillä ei ole merkitystä, vaan tulokset ovat mitä ne ovat sillä nimenomaisella metodilla.
Faktaa on kuitenkin se, että tuossa testissä joka on toistettavissa AMD:n ajurit olivat vakaampia. Faktaa on myös se, että kummallakin on ongelmia niin peleissä kuin työpöydällä, AMD:lla oli erityisesti 5700-sarjan kanssa normaalia enemmän, mutta suurin osa niistä on myös saatu jo korjattua. Uusia bugeja tulee joka ajureissa samalla kuin vanhoja korjataan ja valtaosa ongelmista ei kosketa kuin osaa käyttäjistä ihan näytönohjaimen merkistä riippumatta.

Niin, tuon testin tulokset olivat tuollaisia joo, mutta sieltä on voinut tulla 10 tulosta ennen tuota jotka eivät olleet tilaajan mieleen. Tuo testi itsessään on kyllä hyvin mielenkiintoinen koska siellä on ihan päiväkohtaisia tuloksia näkyvillä, esim. yhtenä päivänä gtx 1060 feilasi kaikki testit(tai niitä ei edes yritetty ajaa, not attempted?) ja seuraavana päivänä samat testit rullasi ongelmitta, ööö, sama homma esim. WX 3100:n kanssa, kahtena päivänä se feilasi melkein kaikki testit mutta muina päivinä toimi, jotenkin ei oikein vakuuta nuo testimetodit. Väittäisin jopa, että noita tuloksia on ihan mahdoton kenenkään toistaa. Lisäksi yksi ainoa p600 quadro oli vastuussa jostain 40% Nvidian kaatumisista, miksi, rikkinäinen kortti esim? Oikeasti luotettava testaaja vaihtaisi kyllä korttia tuossa vaiheessa varmistaakseen ettei kortissa ole jotain fyysistä vikaa tmv.
 
Pitääkö tämä tulkita että sun oma mutu on kaikkein luotettavin lähde ja muut ei tiedä mitään. Ja muuten tuokaan ei ollut argumentti että kaotik olisi väärässä. Eli lähdettä kehiin ja osoita mikä meni pieleen ja millä perusteella joko minun tai kaotikin viestissä. Lisäksi teidän mutuun perustuvat nollapostaukset voisi alkaa riittää.

Ps en ottanut kantaa ajuriongelmiin, vaan vain siihet että toisen lähteen kanssa esittämät väitteet yritetään kumota pelkillä mutuun perustuvilla nollapostauksilla.
 
On ja ei ole merkitystä - niin kauan kuin testimetodit ovat läpinäkyviä ja toistettavissa sillä ei ole merkitystä, vaan tulokset ovat mitä ne ovat sillä nimenomaisella metodilla.
Faktaa on kuitenkin se, että tuossa testissä joka on toistettavissa AMD:n ajurit olivat vakaampia. Faktaa on myös se, että kummallakin on ongelmia niin peleissä kuin työpöydällä, AMD:lla oli erityisesti 5700-sarjan kanssa normaalia enemmän, mutta suurin osa niistä on myös saatu jo korjattua. Uusia bugeja tulee joka ajureissa samalla kuin vanhoja korjataan ja valtaosa ongelmista ei kosketa kuin osaa käyttäjistä ihan näytönohjaimen merkistä riippumatta.
Tottakai tilaajalla on merkitystä. Täähän on sama kuin arpoja vetäisi arpavoitot omaan fikkaan. :confused:
 
Et tainnut ollenkaan lukea että mitä tuossa jutussa oli testattu :think:
Amd:n itse maksamassa testissä sen omat ajurit vakaampia jossain pivot-, resoluutiojumpassa, ihan ihmeellistä lähinnä toimistokäyttöä vastaavaa testattu että saatu edes jotain mitattua missä olisi vakaammat ajurit kuin kilpailijalla :rofl2:
Pelikäyttöön noita kortteja kuitenkin markkinoidaan ja siihen niitä käytetään :beye:
Ei mulla ole aikaa kaikkia linkkejä ja lähteitä tarkastaa. Se on niiden tehtävä jotka ovat erimieltä väitteestä ja kokevat tarpeelliseksi oikaista virheellisiä väitteitä. Seuraan tätä ketjua lähinnä mielenkiintoista tekniikkaan. Nollapostaukset ei hyödytä mitään.
Tottakai tilaajalla on merkitystä. Täähän on sama kuin arpoja vetäisi arpavoitot omaan fikkaan. :confused:

Teoriassa on mahdollista että arvonta on suoritettu oikein ja silti arvonnan järjestäjä voittaa aina. Tämä ihan varmasti herättää epäluuloja, ja aiheesta. Tällöin pitää tarkistaa arvonta metodit ja sen jälkeen vetää johtopäätökset. Muista aina syyttömyysolettama, ennenkuin vedät hätiköityjä johtopäätöksiä. Ja edelleenkin puhun yleisellä tasolla.
 
AMD sponssaamat ajuritestit osoittaa että AMD:n ajurit on vakaat, oho yllättävää :srofl:
eikös se ole hyvä että joku tilaa testejä, välttämättä eivät hirveästi rahoittaneet?
omassa r290 on ollut 3 ajuria joilla ongelma tuuletin huutanut 100% idlessä ja 3 ajurilla 3d kellot jäi päälle.
Yhden kerran on tullut black screen.
Ehkä jotain unohtunut mutta aika vähän ollut ongelmia.
 
Okei, eli nyt kun ollaan saatu hieman faktaa pöytään, niin tehdään pieni yhteenveto.
AMD ajurit ovat siis vakaampia (93% vs 82%) testissä

- jonka AMD tilasi
- jossa AMD toimitti kortit testifirmalle
- jossa "vakautta" mitattiin vaihtamalla resoluutiota/värejä/pivottia ja testaamalla wake/sleepia intensiivisesti 12 päivän ajan, 6x4h sessioissa per päivä ja mittaamalla ne kerrat kun kone ei totellut tai kaatui
- jossa testattiin yhtä ajuriversiota per kortti
- jossa testattiin kuutta eri korttia per firma
- jossa valta-osa ongelmista esiintyi muutamalla kortilla, jotka sattumoisin olivat kaikki workstationkortteja (AMD WX 3100, WX9100 // Nvidia Quadro P600, P4000, P5000) ja ainoa pelikorteista jonka kanssa esiintyi poikkeuksellisen paljon ongelmia oli GTX 1060
- jossa ei testattu kuin yhtä korttiyksilöä per SKU
- ja jossa ei testattu yhtäkään applikaatiota kuten pelejä tai hyötysoftia

unnamed.jpg


No nyt :lol: :lol: :lol: :lol: Jokainen voi toki itsekseen miettiä onko testimetologia millään mittapuulla järkeenkäypä, ja miten relevantti se on peruskäyttäjille, jotka tuskin ovat aktiivisia resoluution/pivotinjumppaajia.

Vaikka pitäisikin metologiaa järkeenkäypänä ja asiakassegmentille relevanttina, herää mielestäni kysymys miksi testi tulokset on lokeroitu 4 tunnin viipaileisiin. Jos vakautta mitataan tällä tavalla, miksei annettu suoraan niitä tuloksia esim. miten monta kertaa näyttis X kaatui CRASH loopissa ja miten miten looppia suoritettiin?

Toivottavasti AMD ei maksanut tästä "testistä" liikaa, vaikka se tuottikin pienen PR-voiton niiden asiakkaiden silmissä jotka 1) eivät lukeneet otsikkoa pidemmälle 2) eivät ymmärrä testin metologiaa ja mitä testissä varsinaisesti mitataan
 
Viimeksi muokattu:
Okei, eli nyt kun ollaan saatu hieman faktaa pöytään, niin tehdään pieni yhteenveto.
AMD ajurit ovat siis vakaampia (93% vs 82%) testissä

- jonka AMD tilasi
- jossa AMD toimitti kortit testifirmalle
- jossa "vakautta" mitattiin vaihtamalla resoluutiota/värejä/pivottia ja testaamalla wake/sleepia intensiivisesti 12 päivän ajan, 6x4h sessioissa per päivä ja mitattiin ne kerrat kun kone ei totellut tai aiheutti kaatumisen
- jossa testattiin yhtä ajuriversiota per kortti
- jossa testattiin kuutta eri korttia per firma
- jossa ei testattu kuin yhtä korttiyksilöä per SKU
- ja jossa ei testattu yhtäkään applikaatiota kuten pelejä tai hyötysoftia



No nyt :lol: :lol: :lol: :lol:
Yrittäisit edes :asif:

- Tilaajalla ei ole merkitystä mikäli testit ovat läpinäkyviä ja toistettavissa, kuten ne tässä tapauksessa ovat, jos haluaa haastaa tuloksen paikkansapitävyyden se on mahdollista toistamalla testi ja osoittamalla mahdolliset virheet.
- Yritätkö vihjata että toimittivat viallisia kortteja? Tuosta jäisi kiinni nopeammin kuin ehdit kissaa sanoa, järki käteen.
- Vakautta ei testattu vain vaihtamalla resoluutiota/värejä/pivotia ja testaamalla wake/sleepiä intensiivisesti, vaan ne olivat osa testirutiinia.
- Käytetyt ajurit olivat kummankin valmistajan testin aikaan suosittelemat tuoreimmat viralliset ajurit eikä testi väitä yhtään mitään muista ajureista.
- Kummaltakin firmalta testatiin kolme ammattilais- ja pelikorttia eri suorituskykykategorioista, eikä testi yritä väittää yhtään mitään muista korteista.
- Ihan standardikäytäntö että yksi kortti per korttimalli, ellei testattu kortti osoita tavalla tai toisella olevansa rikki.
- Testissä kerrotaan ihan suoraan mitä testimetodia käytettiin eikä se väitä kuvaavansa mitään muuta kuin sen tuloksia.


Kuten odottaa saattaa tietyltä porukalta, pelkkää tyhjän huutelua ilman mitään dataa joka osoittaisi testin olevan virheellinen.
 
Yrittäisit edes :asif:

- Tilaajalla ei ole merkitystä mikäli testit ovat läpinäkyviä ja toistettavissa, kuten ne tässä tapauksessa ovat, jos haluaa haastaa tuloksen paikkansapitävyyden se on mahdollista toistamalla testi ja osoittamalla mahdolliset virheet.
- Yritätkö vihjata että toimittivat viallisia kortteja? Tuosta jäisi kiinni nopeammin kuin ehdit kissaa sanoa, järki käteen.
- Vakautta ei testattu vain vaihtamalla resoluutiota/värejä/pivotia ja testaamalla wake/sleepiä intensiivisesti, vaan ne olivat osa testirutiinia.
- Käytetyt ajurit olivat kummankin valmistajan testin aikaan suosittelemat tuoreimmat viralliset ajurit eikä testi väitä yhtään mitään muista ajureista.
- Kummaltakin firmalta testatiin kolme ammattilais- ja pelikorttia eri suorituskykykategorioista, eikä testi yritä väittää yhtään mitään muista korteista.
- Ihan standardikäytäntö että yksi kortti per korttimalli, ellei testattu kortti osoita tavalla tai toisella olevansa rikki.
- Testissä kerrotaan ihan suoraan mitä testimetodia käytettiin eikä se väitä kuvaavansa mitään muuta kuin sen tuloksia.


Kuten odottaa saattaa tietyltä porukalta, pelkkää tyhjän huutelua ilman mitään dataa joka osoittaisi testin olevan virheellinen.

Mitkä kohdat tuossa huikean massiivisessa, luotettavassa ja tarkassa testissä liittyivät edes etäisesti pelikäyttöön :confused:
 
Noihin AMD ajuriongelmiin liittyen. Edellisessä koneessa ei ollut oikeastaan mitään ongelmia, näyttis Radeon VII (Ylikellotus oli rikki, mutta muuten ei mitään). Nyt sama näytönohjain on uudessa kokoonpanossa niin ajureiden asennuksen aikaan meni näytöt pinkiksi ja uudelleenkäynnistyksen jälkeen uudestaan sama homma. Hetken kun odotteli niin kuva muuttui takaisin normaaliksi ja sen jälkeen ei ole tapahtunut.

Vanha kone oli Z270 emo ja 6600k, uusi kone z390 emo ja 9900k.

Eihän tuo nyt mikään suuri ongelma ollut, mutta vanhemmalla koneella ei sitäkään ollut.
 
Mitkä kohdat tuossa huikean massiivisessa, luotettavassa ja tarkassa testissä liittyivät edes etäisesti pelikäyttöön :confused:
Todennäköisesti ainakin osa mainitusta "directx 9/10/11 graphical functions" paketista sisältää muutakin kuin ne mainitut resoluutiovaihdot sun muut. Lisäksi esimerkiksi näytön mode change, mikä tapahtuu tuossakin, liittyy hyvin vahvasti pelaamiseen koska se tapahtuu aina kun hypätään fullscreeniin tai pois siitä (eli pelin käynnistyessä ja sulkeutuessa). Itse olen päässyt nauttimaan kun tuo pissii NVIDIAlla ja hajottaa värit, vaatii rebootin korjautuakseen. AMD:lla oli vähän vastaavaa 5700-sarjalla tiettyjen HDR-pelien kanssa, mutta se rajoittui niihin eikä sitä tapahtunut SDR-pelien kanssa toisin kuin NVIDIAlla minun kohdallani.
Kukaan ei ole kuitenkaan ehtinyt vielä esittää sitäkään dataa, että AMD:lla olisi peleissä enemmän ongelmia keskimäärin (pl. mainitut RDNA:n ja erityisesti 5700-sarjan ongelmat, joista valtaosa on jo korjattu). Kumpikin firma paikkaa joka ajureissa vanhojen bugeja ja tilalle tulee myös jatkuvasti uusia, lisäksi suurin osa ongelmista ei kosketa kuin osaa käyttäjistä mikä tekee hommasta vielä astetta hankalampaa.
 
Todennäköisesti ainakin osa mainitusta "directx 9/10/11 graphical functions" paketista sisältää muutakin kuin ne mainitut resoluutiovaihdot sun muut. Lisäksi esimerkiksi näytön mode change, mikä tapahtuu tuossakin, liittyy hyvin vahvasti pelaamiseen koska se tapahtuu aina kun hypätään fullscreeniin tai pois siitä (eli pelin käynnistyessä ja sulkeutuessa). Itse olen päässyt nauttimaan kun tuo pissii NVIDIAlla ja hajottaa värit, vaatii rebootin korjautuakseen. AMD:lla oli vähän vastaavaa 5700-sarjalla tiettyjen HDR-pelien kanssa, mutta se rajoittui niihin eikä sitä tapahtunut SDR-pelien kanssa toisin kuin NVIDIAlla minun kohdallani.
Kukaan ei ole kuitenkaan ehtinyt vielä esittää sitäkään dataa, että AMD:lla olisi peleissä enemmän ongelmia keskimäärin (pl. mainitut RDNA:n ja erityisesti 5700-sarjan ongelmat, joista valtaosa on jo korjattu). Kumpikin firma paikkaa joka ajureissa vanhojen bugeja ja tilalle tulee myös jatkuvasti uusia, lisäksi suurin osa ongelmista ei kosketa kuin osaa käyttäjistä mikä tekee hommasta vielä astetta hankalampaa.
Sulle on sattunut harmittavan huonoja yksilöitä noista vihreän leirin korteista. Eikä ollut edes ajuri-illallisia pehmittämässä iskua. :tdown:
 

Uusimmat viestit

Statistiikka

Viestiketjuista
296 483
Viestejä
5 060 627
Jäsenet
81 141
Uusin jäsen
Jere Lindroos

Hinta.fi

Back
Ylös Bottom