Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ah, my bäd. En ole seurannut kauppojen tilannetta, muistelisin vaan että jossain oli maininta että R7 lopetetaan ja tästä on jo aikaa niin arvelin että ei niitä enää uutena juurikaan saa.

Eipä sitä ole mitään järkeä enää ostaakkaan, kun hinta on vieläkin 699€...
 
Vaan R7 aika vaikea enää ostaa vaikka jostain syystä haluaisi kun ei kait enää valmisteta. 5700XT korvasi sen.
Tuosta että on saatavilla edelleen tulikin jo, minkä lisäksi 5700 XT ei missään nimessä korvannut sitä vaan sijoittui sen alapuolelle markkinoilla.

edit: tän siitä saa kun ei tarkista quotea välilehdestä mikä on ollut auki ikuisuuden, olitkin yliviivannut jo
 
Ja 2080S/Ti eivät ole ainoita kortteja joita myydään. Oletko tätä ymmärtänyt? Se että AMD ei nyt halunnut tuossa sarjassa kilpailla on täysin tietoinen valinta.
Itse olenkin kommentoinut siihen kun täällä puhutan että TI hinnalla saa 5700xt:ä. Eli onko sille TI:lle vaihtoehtoa.
Tuosta 4K pelaamisesta, mistä tulee tämä oletus että sillä resoluutiolla pelataan pelkästään uusimpia AAA-autistipelejä?
Ei taida olla Space Engineers AAA luokan autimispeli, eli on niitä vaativia muissakin. JA tuohan on aina kiinni mitä pelaa. Joku CSGO meni aikanaan ihan GTX 970:lläkin 4K:na. Itse pelailin paljon R9 390 ja GTX 1070:lla vanhempia pelejä 4K.

Sitten on taas ne hienot pelit joissa on omat bugins joissa ei saa ikinä kunnon FrameRatea tietämättä mitä tekee
ACOdyssey aina raskas
Rainbox Six osa uusista vaatii enemmän CPU:lta
Far Cry 4 pelastuu äänikortilla, ilman sitä yksi säie on täpöillä ja tankkaa FPS:ssää
Forzissa dynaaminen skaalaus pois niin jo huonommilakin korteilla menee 4K. Törkeintä tässä pelissä että Dynaaminen vaihtoehto on FPS killeri.
Saints Row 2 taitaa olla menetetty tapaus jos haluaa silkin Smoothin eli ei eroa R9 390 ja RTX 2080 Superilla. Kun taas Saints Row 3/4 meni ihan R9 390 Crossfiressa täysin 4K.

ELi se 4K on niin peli kohtaista.
 
Eipä sitä ole mitään järkeä enää ostaakkaan, kun hinta on vieläkin 699€...

Niin tai kait sille jotain niche markkinaa edelleen on ison muistinsa takia ja olikos siihä DP laskenta myös hiukan parempi kuin Vegassa, rampautettu toki verrattuna niihin oikeisiin laskentakortteihin.

Itse olenkin kommentoinut siihen kun täällä puhutan että TI hinnalla saa 5700xt:ä. Eli onko sille TI:lle vaihtoehtoa.

Kaitpa se riippuu siitä mitä tekee. Jos jotain leikkirahaa mainaa niin vermaan se 3x5700XT tuottaa paremman tuloksen kuin 1x2080Ti.
 
SR2 nyt on niin päin helvettiä käännetty että samanlaisia fps droppeja tulee 1080p:lläkin kuin Xbox 360:lla aikanaan.
Juu itse huomasin R9 290:llä että Resoa voi nostaa, koska dropit tuli oli sitten FullHD/1440/4K, aina varmasti. Sii miksei kokeile MAKS, kun ei eroa Min ole ollenkaan dropeissa :)
 
Niin tai kait sille jotain niche markkinaa edelleen on ison muistinsa takia ja olikos siihä DP laskenta myös hiukan parempi kuin Vegassa, rampautettu toki verrattuna niihin oikeisiin laskentakortteihin.

Nehän on hylättyjä Instinct MI50 piirejä. Pienillä muutoksillahan tuosta olisi saanut todella tehokkaan pelipiirin, mutta AMD:llä ei ollut mielenkiintoa tehdä kokonaan uutta piiriä vaan käytettiin vain valmiita laskentapiirejä niin saatiin nopeasti ja halvalla jotain ulos.
 
Kaitpa se riippuu siitä mitä tekee. Jos jotain leikkirahaa mainaa niin vermaan se 3x5700XT tuottaa paremman tuloksen kuin 1x2080Ti.
Sepä se

Tarkistelin just noista artikkeleista tuota RadeonVII. Kun olin ostamassa korttia, tuo oli harkintalistalla. Jos pelaisi vain AC Odyssey, Stange Brigadea, Battlefield 5:ta, Far Cry 5:tä, Deus Ex Mankind Divined pelejä, olisi tuo aika kova kortti (Pääsee Stange Brigadessa tosi lähelle joissain artikkeleissa RTX 2080 ti eli 86 va 91 FPS)
 
Ei vaan koko peli on niin päin helvettiä käännetty ettei edes 2080 Ti SLI tuota pyöritä sulavasti. Yhtä paska käännös kuin GTA IV aikanaan (ja sitäkin on sentään korjailtu).
Veikkaan että Open World Streamaus levyltä on kakkendaalia. Tuo Saints Row 3 dropit katosi kokonaan kun asensi SDD:lle. Saints Row 2:ssa tuo ei auttanut, mutta dropit oli samanlaisia ajaessa.
 
Nehän on hylättyjä Instinct MI50 piirejä. Pienillä muutoksillahan tuosta olisi saanut todella tehokkaan pelipiirin, mutta AMD:llä ei ollut mielenkiintoa tehdä kokonaan uutta piiriä vaan käytettiin vain valmiita laskentapiirejä niin saatiin nopeasti ja halvalla jotain ulos.

Niin tai rampautettuja. DP laskentaa rampautettu aika rankasti ja PCIE4.0 tuki puuttuu jos en väärin muista. Muuten kait identtinen. Mutta sitä on hiukan vaikea uskoa että pienillä muutoksilla olisi saatu suuresti tehoa lisää. Ellei nyt puhuta sitten muutoksista joita nähdään tulevaisuudessa RDNA vs CDNA?
 
Ei tuossa auta vaikka olisi NVMe levyllä, paska portti ei muutu paremmaksi vaikka olisi RAMdiskillä. :D
m.2 NVME levyltä testasinkin (Samsung 9 jotakin). Sen takia veikkaan että se maailmanlataus on buginen alusta alkaen. Voisi testata tuota RAM levyä (Pistää GoG verio sinne) :)
 
Jees, jotenkin tuntuu ihan oletuksena siltä että jos puhutaan 4K pelailusta niin kyseessä on jonku uusimman Battlefieldin tai CoD:n pelailu 4K:lla nupit kaakossa. Ehei, itellänikin on aivan helvetisti pelejä eri digialustoilla jotka pyörisi varmaan 780 Ti:llä moitteetta 4K:lla, mutta jotenkin porukka vaan luulee että tarkoitus on vetää Doom Eternalia nupit kaakossa 4K/144Hz.

Joo, yli 5v on tullut pelattua 4k resolla ja raudalla joka on ketjun "vain parasta rautaa" - miesten kannalta on välttävää 1440p pelaamiseen. Ynnä ne parjatut pienemmät indiepelit, jotka pyörii alle odotusten jos korttina ei ole nvidia. Paskat, vasta nehän pyöriikin fps capissa 4k/60hz, kun grafiikat on spartalaisempia. Varmaan 80% omasta pelikirjastosta pyörii 4K ja asetukset tapissa ja loput rullaa jos tiputtaa pykälällä ultra alaspäin ja tarkistaa sitten onko aihetta ottaa resolutiion scale käyttöön, vai ei.

Osa kavereista himoitsee Cyberpunkkia ja ajoittaa näyttisostokset sen ilmestymisen nurkille. Itse mietin onko se oikeasti reilun tonnin arvoinen peli (kun se uusi kortti maksaa kuitenkin sen verran, jos haluaa silmäkarkit sopivaan asentoon), kun pelijonossa on muutama sata peliä. Sen pelaamisen jälkeen tulisi kuitenkin palattua pelien pariin, jotka ei vaadi ihan viimeisintä rautaa.
 
Raportoimpa jotain positiivistakin vaihteeksi RVII:stä. Viimeisimmät 20.4.2 ajurit näyttäisi vihdoin korjanneen (taas) nuo black screen ongelmat. Johan siinä puolisen vuotta vierähtikin.

En tiedä miten navissa on nuo eri "pstate" jännitteet järjestetty, mutta mikäli samalla tavalla kuin tässä RVII:ssä ja kärsit mustista ruuduista, niin suosittelen kokeilemaan niiden kahden alemman "low load" jännitteen nostamista maltillisesti.

E: Löytyy MPT:sta nuo jännitteet ja uusimmalla versiolla saa näkymään myös hallintapaneelin "curve-editorin" alapuolelle.
 
2080Ti on 4K pelailuun soveltuva näytönohjain.

Jos tykkää esim. Red Dead Redemptionin tai Kingdom Come Deliverancen ~30-40fps pelailusta niin mikäs siinä. Eli ei, tietyissä raskaissa peleissä edes 2080ti:n puhti ei riitä 4k:lla, ellei sitten karsi asetuksia, joka on naurettavaa kun on maksanut GPU:staan yli tonnin. Juu monissa peleissä 2080ti:llä saa 4k hyvät FPS:t, mutta ei 2080ti :kään ole täydellisen riittävä 4k-kortti, jollainen sen pitäisi tuohon hintaan nähden olla. IMO.

Paremmista nyt vain joutuu maksamaan enemmän, kun kilpailua ei ole, se nyt vain on niin..

Niin joutuu, jos haluaa maksaa jostain GPU:sta yli tonnin niin sitten maksaa, mutta turha kuvitella että sillä saisi kovin hyvää vastinetta rahalleen 1440p-pelaamisessa. RX5700xt riittää 1440p -pelaamiseen mainiosti, joten tämä kitinä AMD:n puuttuvasta high-end -kortista on naurettavaa. AMD tarjoaa tehoissa erittäin kilpailukykyiset kortit aina 1440p -resoluutioon asti, piste. Ajureissa on parannettavaa se on tosi.
 
Viimeksi muokattu:
Joissakin peleissä AMD on hyvinkin kilpailukykyinen 4k resolla. (Radeon VII). Toisissa ei sitten niin hyvin...

Esim:

battlefield-5-3840-2160.png


far-cry-5-3840-2160.png



strange-brigade-3840-2160.png
Kyllähän noissa on jokaisessa melko iso askelma VS 2080Ti
Näkee hyvin, että AMD:llä ei ole keskiluokan korttien yläpäätä parempia kortteja markkinoilla.
Paska homma, että AMD ei kyennyt (rdna 1 ei vielä kilpailukykyiseen tuotteeseen kyennyt). Siksi Nvidia voi nyt huoletta pitää 2080Ti:n hintoja ylhällä..

Radeon Vii vei tehoa 2080:aa selkeästi enemmän peleissä, joten siitä ei olisi oikein ollut 2080Ti:n lyöjäksi, ilman vesijäähyä
ja RX5700XT jää todella rajusti 2080Ti:stä ja ilmoitetut tehonkulutukset ovat
RX5700XT 225W
2080Ti 250W
Joten taas olisi saatu aikaan tajuton kiuas, jos olisivat lähteneet 2080Ti:n kanssa kisomaan... On siis melkoselvää, että AMD tuon tajusi ja päätti jattää highendin kortit rauhaan ihan ed syistä..

Tietysi 20X0 korteissa on myös RTX ja muita hyviä ominaisuuksia, joihin AMD:llä ei myöskään ole vielä mitään vastinetta markkinoilla..
 
Viimeksi muokattu:
Kyllähän noissa on jokaisessa melko iso askelma VS 2080Ti
Näkee hyvin, että AMD:llä ei ole keskiluokan korttien yläpäätä parempia kortteja markkinoilla.
Paska homma, että AMD ei kyennyt (rdna 1 ei vielä kilpailukykyiseen tuotteeseen kyennyt). Siksi Nvidia voi nyt huoletta pitää 2080Ti:n hintoja ylhällä..

Radeon Vii vei tehoa 2080:aa selkeästi enemmän peleissä, joten siitä ei olisi oikein ollut 2080Ti:n lyöjäksi, ilman vesijäähyä
ja RX5700XT jää todella rajusti 2080Ti:stä ja ilmoitetut tehonkulutukset ovat
RX5700XT 225W
2080Ti 250W
Joten taas olisi saatu aikaan tajuton kiuas, jos olisivat lähteneet 2080Ti:n kanssa kisomaan... On siis melkoselvää, että AMD tuon tajusi ja päätti jattää highendin kortit rauhaan ihan ed syistä..

Tietysi 20X0 korteissa on myös RTX ja muita hyviä ominaisuuksia, joikin AMD:llä ei myöskään ole vielä mitään vastinetta markkinoilla..


Radeon VII piirit on tosiaankin niitä Instinct kortteihin kelpaamattomia jotka vielä varmuuden vuoksi on asetettu toimimaan järjettömän korkeilla jännitteillä. Alivoltittamalla saan oman kortin toimimaan vakiokelloilla 180W tehonkulutuksella, kun vakiovolteilla menee lähemmäs 280W...
Parempilaatuiset piirit pienemmällä jännitteellä ja lisää ROP niin keskimäärin hyvinkin olisi voinut olla 2080 Super ja 2080 ti välissä järkevällä tehonkulutuksella...

Mutta se olisi nostanut huomattavasti korttien valmistuskustannuksia, kun olisikin suunniteltu uudet piirit sen sijaan että olisi käytetty muuten hylkyyn menneet laskentapiirit...
 
Radeon VII piirit on tosiaankin niitä Instinct kortteihin kelpaamattomia jotka vielä varmuuden vuoksi on asetettu toimimaan järjettömän korkeilla jännitteillä. Alivoltittamalla saan oman kortin toimimaan vakiokelloilla 180W tehonkulutuksella, kun vakiovolteilla menee lähemmäs 280W...
Parempilaatuiset piirit pienemmällä jännitteellä ja lisää ROP niin keskimäärin hyvinkin olisi voinut olla 2080 Super ja 2080 ti välissä järkevällä tehonkulutuksella...

Mutta se olisi nostanut huomattavasti korttien valmistuskustannuksia, kun olisikin suunniteltu uudet piirit sen sijaan että olisi käytetty muuten hylkyyn menneet laskentapiirit...
Joo, näissä Vegoissa on aivan liian korkeat jännitteet vakiona käytössä. Vega56/64 korteillakin saa sen 100w kulutuksesta pois alivoltittamalla.
 
Kyllähän noissa on jokaisessa melko iso askelma VS 2080Ti
Näkee hyvin, että AMD:llä ei ole keskiluokan korttien yläpäätä parempia kortteja markkinoilla.
Paska homma, että AMD ei kyennyt (rdna 1 ei vielä kilpailukykyiseen tuotteeseen kyennyt). Siksi Nvidia voi nyt huoletta pitää 2080Ti:n hintoja ylhällä..

Radeon Vii vei tehoa 2080:aa selkeästi enemmän peleissä, joten siitä ei olisi oikein ollut 2080Ti:n lyöjäksi, ilman vesijäähyä
ja RX5700XT jää todella rajusti 2080Ti:stä ja ilmoitetut tehonkulutukset ovat
RX5700XT 225W
2080Ti 250W
Joten taas olisi saatu aikaan tajuton kiuas, jos olisivat lähteneet 2080Ti:n kanssa kisomaan... On siis melkoselvää, että AMD tuon tajusi ja päätti jattää highendin kortit rauhaan ihan ed syistä..

Tietysi 20X0 korteissa on myös RTX ja muita hyviä ominaisuuksia, joihin AMD:llä ei myöskään ole vielä mitään vastinetta markkinoilla..
Ilmoitetut voi olla vaikka ja mitä mutta todelliset kulutukset näyttää vähän muuta EVGA GeForce RTX 2070 Super KO Review
5700 XT Gaming average 219W Gaming peak 227W
2080 Ti Gaming average 273W Gaming peak 289W
 
Joten taas olisi saatu aikaan tajuton kiuas, jos olisivat lähteneet 2080Ti:n kanssa kisomaan... On siis melkoselvää, että AMD tuon tajusi ja päätti jattää highendin kortit rauhaan ihan ed syistä..

Lopeta nyt jo toi paskan jauhaminen kiukaasta. AMD olisi hyvin voinut tuplata 5700XT:n CU:t ja saanut näin markkinoille 2080Ti:n tehoisen kortin eikä tehon kulutus olisi ollut sen enempää kuin sillä 2080Ti:llä.
Esimerkin voit katsoa vaikka siitä mitä tapahtuu kun 64-core threadripper pistetään 32-core threadripperiä vastaan. Toisessa huomattavasti matalemmat kellot mutta coret kun on töissä niin 64-core threadripper antaa noin lähes 50% lisää suorituskykyä SAMALLA tehonkulutuksella. Ja tuossa pitää vielä huomioida se että 64-core threadripperissä palaa x määrä tehoa niihin IF linkkeihin joilla ne 4 ylimääräistä chiplettiä keskustelee IO-die:n kanssa verrattuna 32-core threadripperiin. Eli monoliittisessa GPU:ssa olisi vielä toi etuna. Toki muistikaistaa jouduttaisiin kasvattamaan, joten sinne vastaavasti palaisi osa budjetista.

Mutta toi on jokatapauksessa ihan täyttä paskaa että olisi kiuas.
 
Ilmoitetut voi olla vaikka ja mitä mutta todelliset kulutukset näyttää vähän muuta EVGA GeForce RTX 2070 Super KO Review
5700 XT Gaming average 219W Gaming peak 227W
2080 Ti Gaming average 273W Gaming peak 289W
No, katsotaan sitten gaming average % VS suorituskyky %
Tehonkulutus:
80,2%
Suorituskyky:
78%, 71,1% 71,9%

Eli jos suorituskyky olisi nostettu 100%:iin, niin tehonkulutus olisi noussut auttamatta yli sen 100%:iin.. Eli hyvin kuumia laitteita olisi saatu aikaan..
--------------------
Threadripper ei ole EDES gpu, joten sitä ei voi toimivasti verrata..
Kyllä noissa olisi ollut pahasti kiuas aihiota, jos olisivat noilla yrittäneet kisoa 2080Ti:n kanssa. AMD sen tajusi, eikä lähtenyt mukaan leikkiin..
 
Viimeksi muokattu:
Mun 980 Ti:n boksissa lukee että 4K soveltuva kortti, onneksi pelimakuun kuuluu muutakin kuin tän päivän tuoreimmat AAA-autismihitit. :smoke:

No joo soveltuuhan siihen moni muukin kortti, riippuu tosiaan paljolti mitä pelaa ;) Ja 2080ti:n puolustukseksi RDR2 ja KCD ovat molemmat aika heikosti optimoituja pelejä, kun grafiikkaa miettii.

Tietysi 20X0 korteissa on myös RTX ja muita hyviä ominaisuuksia, joihin AMD:llä ei myöskään ole vielä mitään vastinetta markkinoilla..

RTX on toistaiseksi ollut aika tuhnu. 2018 alkoi Nvidian RTX ON hehkutus, ja tuki ollut pitkään kourallisessa pelejä, ja FPS hitit aivan jäätäviä. Katsotaan minkälainen RT toteutus sieltä AMD:lta aikanaan tulee.

Edit:
Kyllä noissa olisi ollut pahasti kiuas aihiota, jos olisivat noilla yrittäneet kisoa 2080Ti:n kanssa. AMD sen tajusi, eikä lähtenyt mukaan leikkiin..

Tai sitten AMD totesi että ''5900xt'' ei vaan yksinkertaisesti myisi niin paljoa että sillä saisi edes omat takaisin. Suunnittelusta julkaisuun kuluu aivan jäätävästi rahaa per/korttimalli, ja keskiverto kuluttajien korttivalinnat on edelleen lähempänä jotain 1050ti :tä kuin 2080:tä. Hienoa että Nvidialla on tehokas 2080ti kortti, mutta samalla ne jäätävät kustannukset siinäkin on laitettu kortin hintaan, joka on aivan helvetin suolainen. Ja päällä on toki vielä ''ei kilpailijoita'' -ekstraa.
 
Viimeksi muokattu:
No, katsotaan sitten gaming average % VS suorituskyky %
Tehonkulutus:
80,2%
Suorituskyky:
78%, 71,1% 71,9%

Eli jos suorituskyky olisi nostettu 100%:iin, niin tehonkulutus olisi noussut auttamatta yli sen 100%:iin.. Eli hyvin kuumia laitteita olisi saatu aikaan..

Eikä olisi, jos olisi tehty (kuten JiiPee tuossa mainitsi) reilusti 5700XT:tä isompi piiri, jolloin kellotaajuutta ja sen myötä käyttöjännitettä olisi voinut jonkin verran laskea.

--------------------
Threadripper ei ole EDES gpu, joten sitä ei voi toimivasti verrata..
Kyllä noissa olisi ollut pahasti kiuas aihiota, jos olisivat noilla yrittäneet kisoa 2080Ti:n kanssa. AMD sen tajusi, eikä lähtenyt mukaan leikkiin..

Ihan oikeastiko meinaat, että GPU:n energiatehokkuutta ei voi CPU:n tavoin parantaa vähentämällä kellotaajuutta? GPU-puoleltakin löytyy moiselle kuvitelmalle kyllä helposti vastaesimerkkejä: esimerkiksi AMD:n Radeon RX 5700 XT, 5700 ja 5600 XT perustuvat samaan piiriin (Navi 10), mutta niiden energiatehokkuudessa on selviä eroja. Viimeksi mainittua on TechPowerUp vieläpä testannut kahdella eri BIOSilla, ja "yllättäen" selvästi parempi energiatehokkuus saatiin vanhalla versiolla, jolla kellotaajuus oli alempi. NVIDIAn 2080 Ti ei tuossa TPU:n vertailussa edes näytä mitenkään erikoiselta energiatehokkuutensa puolesta.
 
Eikä olisi, jos olisi tehty (kuten JiiPee tuossa mainitsi) reilusti 5700XT:tä isompi piiri, jolloin kellotaajuutta ja sen myötä käyttöjännitettä olisi voinut jonkin verran laskea.



Ihan oikeastiko meinaat, että GPU:n energiatehokkuutta ei voi CPU:n tavoin parantaa vähentämällä kellotaajuutta? GPU-puoleltakin löytyy moiselle kuvitelmalle kyllä helposti vastaesimerkkejä: esimerkiksi AMD:n Radeon RX 5700 XT, 5700 ja 5600 XT perustuvat samaan piiriin (Navi 10), mutta niiden energiatehokkuudessa on selviä eroja. Viimeksi mainittua on TechPowerUp vieläpä testannut kahdella eri BIOSilla, ja "yllättäen" selvästi parempi energiatehokkuus saatiin vanhalla versiolla, jolla kellotaajuus oli alempi. NVIDIAn 2080 Ti ei tuossa TPU:n vertailussa edes näytä mitenkään erikoiselta energiatehokkuutensa puolesta.
Kun käyttöjännitettä lasketaan, niin kellojakin joudutaan laskemaan tai piirejä valkkaamaan paljon nykyistä tarkemmin (joka alkaa isoilla piireillä maksaa), Ero olisi venynyt yksinketaisesti niin valtavaksi, että piiri olisi ollut sitten totaalinen hirviö. eikä sellaisestakaan olisi ollut AMD:lle iloa. ELI KUTEN OLEN TODENNUT:amd ei siis kyennyt tekimään kilpailukykyistä highend piiriä. Toivottavasti tilanne nyt muuttuu RDNA2 sukupolvessa.

On päivänselvä, että AMD olisi kilpaillut myös highendissä, jos sillä olisi ollut siihen pystyvä tuote. Nyt homma jätettiin tekemättä, kun tajuttiin, että selkeästi ei ole.

Mitä hintaan taas tulee, niin saman arkkitehtuurin erikokoinen (enemmän yksiköitä, muistiväylää ym) piiri on halpa VS uusi arkkitehtuuri.

Jos AMD olisi tikistänyt kuuman monsteripiirin, joka olisi päässyt tasoihin Ti2080:n kanssa, niin 2080Ti:ssä olisi ollut hyvin vara käyttäen samankaltaisia ja erilaisia tikistyksiä nostaa sitä suorituskykyä vastaavasti, jolloin AMD:llä olisi ollut kallis ja kuuma kortti, joka ei olisi taaskaan pärjännyt ja myynti olisi sakannut. AMD:llä oli siis käsissään vain selkeä FAIL / FAIL tilanne (Jonka selvästi tajusivat). Ja tuon siis näkee helposti, kun vertailee noita julkaistuja kortteja keskenään.

Nythän 2080Ti jäi Nvidian suhteen ilman päivitysversiota, kun ei kertakaikkiaan ollut mitään kilpailullista syytä.

Sitä olen miettinyt, että minkäköhän verran AMD:llä tiedettiin sisäisesti, että ajurit aiheuttavat suuren määrän blackscreeniä? Onko siellä ajuritiimi kertakaikkisen riittämättömän pieni vai onneton testaus vai eikö siellä vain osata?
 
Täällä selvästi näkyy että porukka jolla ei ole kovaa korttia niin yrittää puolustella sitä itselleen ja muille miten se on riittävää ja plaa plaa.
Hyvä että riittää mutta ei välttämättä riitä muille.

Raskaampia pelejä kun pelaa 1440p/4K niin on se komiaa kun on koneessa vääntöä ja saa keskittyä pelaamiseen eikä järjettömään asetusten karsimiseen.
 
Täällä selvästi näkyy että porukka jolla ei ole kovaa korttia niin yrittää puolustella sitä itselleen ja muille miten se on riittävää ja plaa plaa.
Hyvä että riittää mutta ei välttämättä riitä muille.

Raskaampia pelejä kun pelaa 1440p/4K niin on se komiaa kun on koneessa vääntöä ja saa keskittyä pelaamiseen eikä järjettömään asetusten karsimiseen.

Kaikkia ei ehkä kiinnosta pelit, jossa ruudulla näkyy käsi ja ase. Steamin top 100 pelatuinta sisältää ihan kiitettävästi pelejä, jotka ei tarvitse sitä 2080TI korttia isollakaan resoluutiolla. Ei se sinulta pois ole.
 
Täällä selvästi näkyy että porukka jolla ei ole kovaa korttia niin yrittää puolustella sitä itselleen ja muille miten se on riittävää ja plaa plaa.
Hyvä että riittää mutta ei välttämättä riitä muille.

Täällä selvästi näkyy että porukka jolla on rahaa enemmän kuin keskivertokansalaisella yrittää kovasti kertoa siitä joka tilanteessa ja tehdä selväksi että muut on köyhiä ja ainut tapa pelata on omistaa kallein rauta mitä kaupasta saa...
Ei toki siinä ole mitään väärää jos haluaa ostaa nopeinta rautaa, mutta kyllä sitä 1080p ja 1440p resolla pärjää hitaammallakin.


Raskaampia pelejä kun pelaa 1440p/4K niin on se komiaa kun on koneessa vääntöä ja saa keskittyä pelaamiseen eikä järjettömään asetusten karsimiseen.

1440p resolle riittää vallan mainiosti muutkin kuin 2080 ti. Enpä itsekkään ole yhtään asetuksia karsinut ja täysin olen voinut vaan keskittyä pelaamiseen, vaikka onkin vain köyhän työväenluokan AMD näytönohjain.
 
Nythän 2080Ti jäi Nvidian suhteen ilman päivitysversiota, kun ei kertakaikkiaan ollut mitään kilpailullista syytä.

Ja mikä tämä päivitys sitten olisi ollut? Julkaista Ti Super täydellä piirillä? Mitäs Titanille sitten olis tehty?
 
Ja mikä tämä päivitys sitten olisi ollut? Julkaista Ti Super täydellä piirillä? Mitäs Titanille sitten olis tehty?

Titanissa on 384bit muistiväylä ja 24GB muistia. 2080 ti super olisi voinut olla täydellä piirillä 384bit muistiväylällä ja 12GB muistilla. Eroa Titaniin olisi kuitenkin ollut tuo kaksinkertainen muistin määrä.
 
1440p resolle riittää vallan mainiosti muutkin kuin 2080 ti. Enpä itsekkään ole yhtään asetuksia karsinut ja täysin olen voinut vaan keskittyä pelaamiseen, vaikka onkin vain köyhän työväenluokan AMD näytönohjain.

Sitten sulle kelpaa alle 60fps minimit, tai et pelaa järin raskaita pelejä. Eikä siinä mitään vikaa, mutta 2080:kin saa 2560x1440 resolla dippaamaan joissain peleissä.

Monesti sanotaan, että näytönohjain X on riittävä 2560x1440-resolle, mutta mun kokemuksen mukaan sinne tarvitaan niin paljon paukkuja kun on ikinä varaa näytönohjaimeen laittaa, ihan 2080ti asti. Puhumattakaan 4K:sta. Saahan sitä 5700XT:llä yleensä pelattua 2560x1440, mutta kompromisseja joutuu jo tekemään. Joskus ei vaan paukut riitä siihenkään. Ainahan joku Bäfä pyörii, mutta paljon raskaampiakin pelejä on roppakaupalla.

Jos on G-Sync/Freesync niin mun osalta vaatimukset loivenee huomattavasti, kun se harvinainen pieni pudotus alle virkistystaajuuden ei heti kuohi silmiä päästä, kuten V-Syncillä.
 
Sitten sulle kelpaa alle 60fps minimit, tai et pelaa järin raskaita pelejä. Eikä siinä mitään vikaa, mutta 2080:kin saa 2560x1440 resolla dippaamaan joissain peleissä.

Monesti sanotaan, että näytönohjain X on riittävä 2560x1440-resolle, mutta mun kokemuksen mukaan sinne tarvitaan niin paljon paukkuja kun on ikinä varaa näytönohjaimeen laittaa, ihan 2080ti asti. Puhumattakaan 4K:sta. Saahan sitä 5700XT:llä yleensä pelattua 2560x1440, mutta kompromisseja joutuu jo tekemään. Joskus ei vaan paukut riitä siihenkään. Ainahan joku Bäfä pyörii, mutta paljon raskaampiakin pelejä on roppakaupalla.

Jos on G-Sync/Freesync niin mun osalta vaatimukset loivenee huomattavasti, kun se harvinainen pieni pudotus alle virkistystaajuuden ei heti kuohi silmiä päästä, kuten V-Syncillä.

48hz - 75hz Freesync näytöt itsellä ja kunhan pysyy yli 50FPS:t niin se riittää suurimmassa osassa pelejä.
 
Titanissa on 384bit muistiväylä ja 24GB muistia. 2080 ti super olisi voinut olla täydellä piirillä 384bit muistiväylällä ja 12GB muistilla. Eroa Titaniin olisi kuitenkin ollut tuo kaksinkertainen muistin määrä.

On tossa titanissa vielä ne ajurierot tiettyjen ammattisoftien optimoinneissa vs geforce. Toisekseen Titanissa on täydet tensorilaskentakyvyt käytössä, geforceissa noitakin on hieman kuristettu fp16:sta osalta.
 
Titanissa on 384bit muistiväylä ja 24GB muistia. 2080 ti super olisi voinut olla täydellä piirillä 384bit muistiväylällä ja 12GB muistilla. Eroa Titaniin olisi kuitenkin ollut tuo kaksinkertainen muistin määrä.
Lisäksi muistien kanssa olisi voitu tehdä sama, kuin nyt tehtiin jonkun valmistajan toimesta: Nopeammat muistipiirit. Eikös kyseinen kortti ole ilmeisesti Titania nopeampi?
 
Toisekseen Titanissa on täydet tensorilaskentakyvyt käytössä, geforceissa noitakin on hieman kuristettu fp16:sta osalta.
Höpsönlöpsön, tensorit ovat täysin identtisiä kaikissa malleissa GeForceista Tesloihin, ainut mikä erottaa Titan RTX:n ja 2080 Ti:n millään tasolla on yksiköiden määrä (sidottu SM-yksiköihin) ja kellotaajudet. Turingeissa ei ole yhtään mitään FP16-suorituskykyä karsittu millään tapaa, Pascaleissa oli kuluttajapuolella kuristettu mutta silläkään ei ollut mitään tekemistä minkään tensoreiden kanssa.
 
Titanissa on 384bit muistiväylä ja 24GB muistia. 2080 ti super olisi voinut olla täydellä piirillä 384bit muistiväylällä ja 12GB muistilla. Eroa Titaniin olisi kuitenkin ollut tuo kaksinkertainen muistin määrä.

Eipä tuolla juurikaan mitään eroa olisi saatu. Ti ja Titan on hyvin lähellä toisiaan suorituskyvyssä.
 
Eipä tuolla juurikaan mitään eroa olisi saatu. Ti ja Titan on hyvin lähellä toisiaan suorituskyvyssä.
Laskennassa on enemmän merkitystä muistimäärällä ja jos en ihan väärin muista, niin tuota Titania on markkinoitu entry-level laskentakorttina.
 
Sitten sulle kelpaa alle 60fps minimit, tai et pelaa järin raskaita pelejä. Eikä siinä mitään vikaa, mutta 2080:kin saa 2560x1440 resolla dippaamaan joissain peleissä.

Monesti sanotaan, että näytönohjain X on riittävä 2560x1440-resolle, mutta mun kokemuksen mukaan sinne tarvitaan niin paljon paukkuja kun on ikinä varaa näytönohjaimeen laittaa, ihan 2080ti asti. Puhumattakaan 4K:sta. Saahan sitä 5700XT:llä yleensä pelattua 2560x1440, mutta kompromisseja joutuu jo tekemään. Joskus ei vaan paukut riitä siihenkään. Ainahan joku Bäfä pyörii, mutta paljon raskaampiakin pelejä on roppakaupalla.

Jos on G-Sync/Freesync niin mun osalta vaatimukset loivenee huomattavasti, kun se harvinainen pieni pudotus alle virkistystaajuuden ei heti kuohi silmiä päästä, kuten V-Syncillä.
No eihän edes 2080Ti riitä siihen jos on 240hz monitori ja haluaisi pelata parhaita pelejä 1080p resoluutiolla ja päästä sinne näytön hertseihin. Katsellaan sitten noita 4K juttuja kun maailmassa on edes yksi kortti millä pystyy pyörittään pelejä edes 1080p kunnollisesti.
 
No eihän edes 2080Ti riitä siihen jos on 240hz monitori ja haluaisi pelata parhaita pelejä 1080p resoluutiolla ja päästä sinne näytön hertseihin. Katsellaan sitten noita 4K juttuja kun maailmassa on edes yksi kortti millä pystyy pyörittään pelejä edes 1080p kunnollisesti.

Juu mutta tyypillisesti noissa 240hz vehkeissä on adaptive sync niin ei pääse ruudunpiirtoaika kauheasti heittelemään.
 
Juu mutta tyypillisesti noissa 240hz vehkeissä on adaptive sync niin ei pääse ruudunpiirtoaika kauheasti heittelemään.
Se on totta, mutta usein nämä pelit on juuri niitä pelejä joissa niillä hertseillä ja FPS:illä on merkitystä myös pärjäämiselle. Eihän nyt joku Assassins Creed tms. ole oikeastaan mitään suurta merkitystä pelaatko 200FPS vai 100 FPS.
 
Sitten sulle kelpaa alle 60fps minimit, tai et pelaa järin raskaita pelejä. Eikä siinä mitään vikaa, mutta 2080:kin saa 2560x1440 resolla dippaamaan joissain peleissä.

Nimenomaan 1440p:llä raskaammissa peleissä 2080 voi saada paremman kokemuksen kuin jollain RX5700xt. Kun ne otetaan pois niin 2080 ei hirveästi tuo lisäarvoa johonkin 2070 / 5700 nähden. Ymmärrän 2080 ostamisen syyt, mutta tuollainen lepakomäyrän kaltainen leijuminen on lähinnä surkeaa provoilua. Joo AMD olisi voinut sen 5900 tehdä niin olisi saatu kilpailua ylimpään luokkaan, mutta ei tämä nyt maailman surkein muuvi ollut AMD:lta. Toivottavasti ne paukut on laitettu RDNA2, ja sieltä tulisi ajuriongelmattomia tehokkaita kortteja. Se että AMD pystyy edes jotenkin kilpailemaan Nvidian kanssa on lopulta kaikkien etu, vaikka osa sitä vihreät lasit silmillä ei tajuakkaan.

Toivotaan myös että uudet tehokkaammat konsolit kannustaisi pelintekijöitä tekemään vaativampia ja grafiikaltaan vielä parempia pelejä. Monet isot pelintekijät pystyy jo nyt tekemään paljon parempaa grafiikkaa kuin julkaistaan, mutta varmaan konsolit ainakin osittain tuota ollut jarruttamassa. Ja toki PC-puolellakin on tietty raja joka nähdään järkevänä, koska keskiverto kuluttajien GPU:t on aika luumuja.

Jos on G-Sync/Freesync niin mun osalta vaatimukset loivenee huomattavasti, kun se harvinainen pieni pudotus alle virkistystaajuuden ei heti kuohi silmiä päästä, kuten V-Syncillä.

Joo sama täällä. Stutterointi katosi käytännössä kokonaan Freesyncin myötä. Joistain peleistä löytyy siedettäviäkin V-syncejä, mutta taas toisissa peleissä se kuvan puuroutuminen ja jökkiminen on jossain 40-50 fps:llä aivan jäätävää. Toimintapeleissä pidän 60fps vähimmäisvaatimuksena, ja taas seikkailu yms. hidastempoisemmassa valitsen paremmat grafiikat ja niissä pienet dropit alle 60 ei haittaa.
 
No eihän edes 2080Ti riitä siihen jos on 240hz monitori ja haluaisi pelata parhaita pelejä 1080p resoluutiolla ja päästä sinne näytön hertseihin. Katsellaan sitten noita 4K juttuja kun maailmassa on edes yksi kortti millä pystyy pyörittään pelejä edes 1080p kunnollisesti.

Jos haluaa typeriä asioita niin sitten vika on oman oman pään sisällä.

Mutta aina voi tuhlata loputtomasti rahaa tavoitellessaan täysin turhia asioita; Aina voi joku tarjota suuremman numeron johonkin suuruusluokassa jossa sillä ei ole mitään väliä, ja aina voi tuhlata omaisuuden sen suuremman numeron tavoitteluun.

Se, että peli pyörii kunnollisesti tarkoittaa nopeatempoisille peleille sitä että se pyörii 60 FPS, strategiapeleille tms. sitä että se pyörii 30 FPS.
 
Jos haluaa typeriä asioita niin sitten vika on oman oman pään sisällä.

Mutta aina voi tuhlata loputtomasti rahaa tavoitellessaan täysin turhia asioita.

Se, että peli pyörii kunnollisesti tarkoittaa nopeatempoisille peleille sitä että se pyörii 60 FPS, strategiapeleille tms. sitä että se pyörii 30 FPS.
Tämä asia on käsitelty jo niin monessa ketjussa, että saat itse etsiä sen Linusin videon missä on selvästi merkitystä FPS:illä ja hertseillä osumiseen. Kilpaurheilu on tietokonepuolella myös välineurheilua. Ja se pätee ihan tavan sunnuntaipelaajiinkin. Pah olin muutenkin sivustolla niin samako se nyt jälleen on tuo linkki laittaa.
 
Jos haluaa typeriä asioita niin sitten vika on oman oman pään sisällä.

Mutta aina voi tuhlata loputtomasti rahaa tavoitellessaan täysin turhia asioita; Aina voi joku tarjota suuremman numeron johonkin suuruusluokassa jossa sillä ei ole mitään väliä, ja aina voi tuhlata omaisuuden sen suuremman numeron tavoitteluun.

Se, että peli pyörii kunnollisesti tarkoittaa nopeatempoisille peleille sitä että se pyörii 60 FPS, strategiapeleille tms. sitä että se pyörii 30 FPS.
Nyt täytyy kyllä sanoa, että 60 fps ei pitkälle riitä esim kilpailullisissa fps peleissä.
 
Jos haluaa typeriä asioita niin sitten vika on oman oman pään sisällä.

Mutta aina voi tuhlata loputtomasti rahaa tavoitellessaan täysin turhia asioita; Aina voi joku tarjota suuremman numeron johonkin suuruusluokassa jossa sillä ei ole mitään väliä, ja aina voi tuhlata omaisuuden sen suuremman numeron tavoitteluun.

Se, että peli pyörii kunnollisesti tarkoittaa nopeatempoisille peleille sitä että se pyörii 60 FPS, strategiapeleille tms. sitä että se pyörii 30 FPS.


Sopii koittaa mikäli ei ole ennestään tuttu miten paljon eroa on esim. 60hz paneelilla ja 144hz paneelilla, kun siihen 144Hz näyttöön saadaan näytönohjaimella työnnettyä se 144fps vähintään kokoajan. Samoin iso harppaus tulee, kun mennään 144Hz vaikka sinne 240Hz paneeliin. Toi 60fps on aika kivikautinen ja jotenkin jäänne, että sen yli ei muka tarvitse. Mikäli 60fps on tyytyväinen niin se on ihan oma valinta sitten.

Edit. Mikäli pelaa vain yksinpelejä niin silloin voi olla monelle se 60Hz paneeli ihan ok millä pelata. FPS moninpeleissä tuolla perunalla ei pitkälle pötki.
 
Se on totta, mutta usein nämä pelit on juuri niitä pelejä joissa niillä hertseillä ja FPS:illä on merkitystä myös pärjäämiselle. Eihän nyt joku Assassins Creed tms. ole oikeastaan mitään suurta merkitystä pelaatko 200FPS vai 100 FPS.

Noilla asioilla on ihan esteettinenkin vaikutus, eikä vain paranna "pärjäämistä". Assassin's Creedissäkin 100fps näyttää pahalta 144hz ruudulla ilman adaptive synciä, kun ruutujen piirtoaika sahaa jatkuvasti 144fps ja 72fps väliä. Täytyy joko olla tehoja pyörittää 144fps jatkuvasti, tai lukita FPS 72:een, jotta frametime pysyy tasaisena. Tai sitten adaptive sync.

@hkultala peilaat omaa puusilmäisyyttä muihin. En lähtisi alle 120hz/fps setillä pelaamaan mitään kilpailullisia nettiräiskintöjä. 30fps en pelaa yhtään mitään. Mun kohdalla voit tuplata nuo sun lukemat.
 
Noilla asioilla on ihan esteettinenkin vaikutus, eikä vain paranna "pärjäämistä". Assassin's Creedissäkin 100fps näyttää pahalta 144hz ruudulla ilman adaptive synciä, kun ruutujen piirtoaika sahaa jatkuvasti 144fps ja 72fps väliä. Täytyy joko olla tehoja pyörittää 144fps jatkuvasti, tai lukita FPS 72:een, jotta frametime pysyy tasaisena. Tai sitten adaptive sync.

@hkultala peilaat omaa puusilmäisyyttä muihin. En lähtisi alle 120hz/fps setillä pelaamaan mitään kilpailullisia nettiräiskintöjä. 30fps en pelaa yhtään mitään. Mun kohdalla voit tuplata nuo sun lukemat.
Toki siis onhan nyt smooth kuva kun kääntelee päätään tai liikkuu erittäin paljon miellyttävämpää katseltavaa. Tässä itse meinasin lähinnä sitä, että jos allekirjoittaneen pitäisi palata johonkin 60 hz ruutuun 4K versiona, niin en usko, että montaakaan peliä olisi sellaisia mistä nauttisin enemmän kuin voin nauttia pienemmällä resoluutiolla ja suuremmalla virkistystaajuudella ja FPS:llä. Valitettavasti ei olla vielä lähelläkään sellaista aikaa, että suurimmat pelit toimisi jatkuvasti 240FPS tasolla edes parhaimmalla näytönohjaimella ja 1080p monitorilla, niin minusta on lähinnä naurettavaa tuo 2080Ti on pakko olla 4K juttuihin touhu. Kun se 2080Ti ei riitä edes 1080p vaikka maksaakin aivan perhanasti. Se on sitten jokaisen omassa valinnassa, että pelaako PUBG:ia tms. 200 FPS vai 130FPS ja maksaa noista lisä hertseistä (ja FPS:istä) sen 3x hinnan vai ei. Ongelma vain pahenee kun siirytään 1440p näyttöihin jotka nekin alkaa kohta olemaan järkevissä hinnoissa ja hertsimäärät on kasvussa jatkuvasti, saati sitten utrawide näytöt. 4K on niin kaukana jossain tulevaisuudessa ihan vain raudan takia, että ei kannata edes vielä miettiä.

Tai tokihan jokainen saa ihan vapaasti pelata 4K töllöltänsä 60hz ja toista tonnia maksavalla näyttiksellä ja ottaa pataan niiltä jonneilta joilla mummon vanha kone ja 3x halvempi näyttis mutta isompi virkistystaajuus ja FPS:t. Pidän muutenkin tätä koko 2080Ti vääntöä todella outona ja ymmärtäisin sen jos oikeasti olisi kyseessä harrastepelaajat tai ammattilaisiksi pyrkivät, tai striimaajat. Mutta, että 4K ja 60 FPS takia, niin vähän pistää ihmetyttämään.
 
Viimeksi muokattu:
Noilla asioilla on ihan esteettinenkin vaikutus, eikä vain paranna "pärjäämistä". Assassin's Creedissäkin 100fps näyttää pahalta 144hz ruudulla ilman adaptive synciä, kun ruutujen piirtoaika sahaa jatkuvasti 144fps ja 72fps väliä. Täytyy joko olla tehoja pyörittää 144fps jatkuvasti, tai lukita FPS 72:een, jotta frametime pysyy tasaisena. Tai sitten adaptive sync.

Eipä ole tätä ongelmaa kun ei hanki ziljoonan hertsin ruutua ;)

@hkultala peilaat omaa puusilmäisyyttä muihin. En lähtisi alle 120hz/fps setillä pelaamaan mitään kilpailullisia nettiräiskintöjä. 30fps en pelaa yhtään mitään. Mun kohdalla voit tuplata nuo sun lukemat.

Koko lapsuus pelattiin Amigalla telkkarilla, jossa 50 hertsin välein päivittyi puoli ruutua, koko ruutu päivittyi 25 hertsin välein.

Eikä valitettu siitä, että ruutu päivittyy liian harvoin.

(sen jälkeen kun 60 FPS on saavutettu) sitä ruudunpäivitysnopeutta paljon oleellisempaa on viive käsi -> peliengine -> ruutu.

Sillä on oikeasti paljon väliä, että tämä viive on pieni. Jos peliengine, näyttö ja näyttisajurit on kuraa niin tämä viive voi olla liian pitkä, ja FPSn ja virkistystaajuuden kasvaessa (yhteen ruutuun käytetyn piirrosajan ja näytöllelähetysajan lyhentyessä) myös tämä viive pienenee sen mukana.

Kun ollaan tuolla 60 Hz lukemissa, niin "vika" on siis todellisuudessa yleensä viiveissä, mutta ihmiset syyttää "liian matalaa" FPSää, koska viive tyypillisesti pienenee FPSn kasvaessa.

Viivettä voisi kuitenkin yleensä parantaa selvästi vaikka FPS ei kasvaisi, toki jossain vaiheessa esim. yhden framen lähetysaika näyttöliitännän yli laittaa jonkinlaisen minimin viiveelle mikä tietyllä virkistystaajuudella voidaan saavuttaa.

Valitettavasti vaan kun tuijotetaan pelkkiä FPSiä niin välillä tehdään myös pessimointeja, jotka lisäävät FPSää mutta lisäävät myös viivettä, mikä on askel huonompaan suuntaan.
 
Viimeksi muokattu:
Eipä ole tätä ongelmaa kun ei hanki ziljoonan hertsin ruutua ;)



Koko lapsuus pelattiin Amigalla telkkarilla, jossa 50 hertsin välein päivittyi puoli ruutua, koko ruutu päivittyi 25 hertsin välein.

Eikä valitettu siitä, että ruutu päivittyy liian harvoin.

(sen jälkeen kun 60 FPS on saavutettu) sitä ruudunpäivitysnopeutta paljon oleellisempaa on viive käsi -> peliengine -> ruutu.

Sillä on oikeasti paljon väliä, että tämä viive on pieni. Jos peliengine, näyttö ja näyttisajurit on kuraa niin tämä viive voi olla liian pitkä, ja FPSn ja virkistystaajuden kasvaessa (yhteen ruutuun käytetyn piirrosajan ja näytöllelähetysajan lyhentyessä) myös tämä viive pienenee sen mukana.

Kun ollaan tuolla 60 Hz lukemissa, niin "vika" on siis todellisuudessa yleensä viiveissä, mutta ihmiset syyttää "liian matalaa" FPSää, koska viive tyypillisesti pienenee FPSn kasvaessa.

Viivettä voisi kuitenkin parantaa selvästi vaikka FPS ei kasvaisi, toki jossain vaiheessa esim. yhden framen lähetysaika näyttöliitännän yli laittaa jonkinlaisen minimin viiveelle mikä tietyllä virkistystaajuudella voidaan saavuttaa.

Valitettavasti vaan kun tuijotetaan pelkkiä FPSiä niin tehdään myös pessimointeja, jotka lisäävät FPSää mutta lisäävät myös viivettä, mikä on askel huonompaan suuntaan.
Viive on yksi osa (peleissä oikeastaan se tärkeämpi), mutta kyllä se 60 Hz vaan on nykivää verrattuna vaikka 165Hz - varsinkin työpöytäkäytössä. Omasta mielestä ero jopa 60 Hz ja 75 Hz välillä on varsin suuri.
 
Tulipahan kokeiltua pitkästä aikaa 60Hz:ä 120Hz:n sijaan, ja niinkin pieni asia kuin kursorin liike työpöydällä aiheuttaa jo hämmästystä ja inhoa. Miten ikinä joku on tullut tulokseen, että 60Hz on tarpeeksi tietotekniikassa? Putoaa samaan kategoriaan kuin 512MB RAM is enough tjsp. aikoinaan.
 
Ja harva peli engine skaalautuu sinne yli 144 fps lukemiin vaikka olis millaista rautaa alla. Jotkin tökkää jo siihen 100 fps tienoille.
 
Täällä selvästi näkyy että porukka jolla on rahaa enemmän kuin keskivertokansalaisella yrittää kovasti kertoa siitä joka tilanteessa ja tehdä selväksi että muut on köyhiä ja ainut tapa pelata on omistaa kallein rauta mitä kaupasta saa...
Ei toki siinä ole mitään väärää jos haluaa ostaa nopeinta rautaa, mutta kyllä sitä 1080p ja 1440p resolla pärjää hitaammallakin.




1440p resolle riittää vallan mainiosti muutkin kuin 2080 ti. Enpä itsekkään ole yhtään asetuksia karsinut ja täysin olen voinut vaan keskittyä pelaamiseen, vaikka onkin vain köyhän työväenluokan AMD näytönohjain.
Ehkä sitä ei halua tehdä komptomisseja asioissa jotka on itselle tärkeitä kuten esim elektroniikka/pelaaminen joten miksi yrittää sitten suotta säästellä.

Varmasti pärjää vähemmälläkin mutta miksi täytyisi pärjätä kun on kuitenkin nopeampaakin tarjolla eikä se KK kohden paljoa maksa jos vaikka huomioi 2080Ti hinnan ja kauanko se on ollut jo käytössä mikäli julkaisussa meni ostamaan.

Mutta toiset pärjää tyyliin Gtx660 ja toisille tekee tiukkaa pärjätä jopa 2080Ti.llä, näin ne tarpeet vain eroavat toisistaa ja sen takia on niitä vaihtoehtoja.

Ja harva peli engine skaalautuu sinne yli 144 fps lukemiin vaikka olis millaista rautaa alla. Jotkin tökkää jo siihen 100 fps tienoille.
Kaikki yli 60fps on plussaa, 100fps riittää vallan mainiosti.
Ja Gsync/Freesync hoitaa loput.
 

Statistiikka

Viestiketjuista
257 244
Viestejä
4 470 143
Jäsenet
73 909
Uusin jäsen
yus

Hinta.fi

Back
Ylös Bottom