Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Tääkin on vähän näitä. Kultasilmät tarvitsee 9000000000000000000 fps koska on 666666666666666666 hz näyttö, tai peli täysin pelikelvotonta paskaa. Itse taas pelailen ihan tyytyväisenä jollain 30 fps:llä jos se vaan suunnilleen pysyy vakaana. Aina jos pitää valita, niin otan mieluummin lisää karkkia kuin freimejä (MP:t sit asia erikseen). Vanhalla GTX970:llä pystyi pelaamaan ihan uusimpiakin pelejä pääosin high-very high asetuksilla kun heitti varjoja pienemmälle, ja vsyncin ja AA:t vittuun. Esim. RDR2 sai tuollaisilla asetuksilla juurikin tuommoiset noin 30 FPS, mikä oli itselle täysin pelattava ja näytti upealta.

Mitä taas tulee 6800/6900XT vs. RTX3080/3090 keskusteluun, niin omat syyt vihreään leiriin päätymisessä olivat: RT, DLSS, 4K suorituskyky ja Broadcast.
 
Viimeksi muokattu:
Tääkin on vähän näitä. Kultasilmät tarvitsee 9000000000000000000 fps koska on 666666666666666666 hz näyttö, tai peli täysin pelikelvotonta paskaa. Itse taas pelailen ihan tyytyväisenä jollain 30 fps:llä jos se vaan suunnilleen pysyy vakaana.
Toisaalta ei tuossa FPS luvussa ole pelkästään silmäkarkit vaan myös kontrollit, niiden nopeus jne... Itse pidän tietyissä peleissä 30 FPS liian hitaana kontrollien takia...
 
Toisaalta ei tuossa FPS luvussa ole pelkästään silmäkarkit vaan myös kontrollit, niiden nopeus jne... Itse pidän tietyissä peleissä 30 FPS liian hitaana kontrollien takia...

Enpä ole itse kokenut ongelmana, varsinkaan jossain yksinpeleissä. Mut tääkin on taas näitä, nykyään ei kuulemma pysty pelaamaan 30 FPS, mutta voi silloin kun minä olin nuori niin pelattiin hypernopeita moninpeliräiskintöjä kuten vaikka QuakeWorldia jollain 640x480 resolla, 20 FPS ja +100 ms pingillä ja _silti_ pwnattiin. :p
 
Enpä ole itse kokenut ongelmana, varsinkaan jossain yksinpeleissä. Mut tääkin on taas näitä, nykyään ei kuulemma pysty pelaamaan 30 FPS, mutta voi silloin kun minä olin nuori niin pelattiin hypernopeita moninpeliräiskintöjä kuten vaikka QuakeWorldia jollain 640x480 resolla, 20 FPS ja +100 ms pingillä ja _silti_ pwnattiin. :p
Miksi kärsiä kun voi pelata kunnolla (Puhuin itsestäni eli kun on varaa uusia näyttis ja CPU niin miksi tyytyä 30 FPS).

Toisaalta olen myös itse kokenut tuon, et ole ainoa TekniikkaVaari täällä. Voi sitä kun eka 3DFX 3D kortti julkaistiin ja sen Monster1 sai 4 MB 2D kortin rinnalle julkkarissa....
 
Ei se keskimääräinen FPS niinkään ole kaikki kaikessa vaan se missä se matalimmillaan dippailee. Ja tuleeko ruutuja tasaisesti.

Esim joku 25-30fps on ihan ok lentosimussa jos se ei hikkaile vaan ruudut tulee tasaisin välein
 
Täysin ok jos itse tykkää pelata 30 fps ja onhan se monessa modernissa konsolipelissäkin se standardi. Onhan se fiksua kun säästää rahaa varsinkin jos haluaa vähän optimoida asetuksia peleissä vielä.

Tosin yleisesti ottaen pc pelaajat vaativat sitä vähintään 60 fps 1080p/1440p että olisi "pelattava".

Dying light 2 myös peli jossa alemman tason näytönohjaimilla loppuu puhti kesken jos ei optimoi asetuksia ja varmaan raskaampia pelejä tulee lisää.

Seuraavassa näytönohjainsukupolvessa varmaan jo aika hyvin tuo säteenseurannan suorityskyky noussut 1080p/1440p resoluutioilla myös hieman alemmissa luokissa.

Itse tosin pelaan 4k niin taidan siirtyä vasta 2024 näytönohjainsukupolvessa enintään että ns pakko olla säteenseuranta peleissä päällä.
 
33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky? Eiköhän ne pelit vaan raskaammiksi tule tuosta joten jos tuo on kelvollinen niin voi terve.
Ja käytän RT lyhennettä jatkossakin joka on ihan yleisesti käyttöön tullut lyhenne. en ole kirjoittamassa mitään artikkeleita joissa toki suotavaa käyttää niitä virallisempia termejä.
Jos on hankaluuksia ymmärtää niin, RT = RayTracing = säteenjäljitys.
Kuka yrittää pelata halppis näyttiksellä Noin isolla resolla? Eihän tuossa ole mitään järkeä. Halppisnayttiksellä pelataan FHD tai 720P resolla...

Niin ja monille tosiaankin kelpaa 30 fps ok.
 
Kuka yrittää pelata halppis näyttiksellä Noin isolla resolla? Eihän tuossa ole mitään järkeä. Halppisnayttiksellä pelataan FHD tai 720P resolla...

Niin ja monille tosiaankin kelpaa 30 fps ok.
Näköjään verkkokauppa.com myy kahden tuulettimen rtx 3060 400 eurolla.

En nyt sanoisi sitä nyt ihan halppis näyttikseksi kuitenkaan. Itse koen halppis näyttiksiksi alle 200 euron mallit.

Itse pelaan ennen päivitystä(joko rtx 3080, 4060 ti tai 4070) rtx 3060 kanssa 4k resolla joka tosin vaatii kompromisseja joidenkin pelien kanssa(asetusten tiputtamista, agressiivisempaa DLSS(balanced tai jopa performance(dying light 2 kanssa) sekä mahdollisesti NIS peleissä jotka eivät tue parempaa yliskaalausta sekä voi unohtaa säteenseurannan).

Kun pelasin 1440p resolla niin melkeinpä kaikki pelit toimivat 60+ fps ilman säteenseurantaa ainakin jos laittoi DLSS quality asetukselle.
 
33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky? Eiköhän ne pelit vaan raskaammiksi tule tuosta joten jos tuo on kelvollinen niin voi terve.
Ja käytän RT lyhennettä jatkossakin joka on ihan yleisesti käyttöön tullut lyhenne. en ole kirjoittamassa mitään artikkeleita joissa toki suotavaa käyttää niitä virallisempia termejä.
Jos on hankaluuksia ymmärtää niin, RT = RayTracing = säteenjäljitys.

16FPS 1440p resoluutiolla näkyy siinä linkin testissä olevan. (4K/DLSS quality = 1440p)
Aika kaukana minun mielestä kelvollisesta tuossa pelissä...


Ennen tuota viestiäsi täällä ei kukaan muu kuin jobbus ollut siirrellyt mitään maalitolppia moneen päivään.

Integroidussa näyttiksessä täytyy fyysistä pci express-PHYtä ja omaa DRAM-muistiohjainta lukuunottamatta kaikki sama logiikka kuin erillisessäkin.

Intelin on täytynyt jo aiemmin integroituja näyttiksiään varten kehittää kaikki se logiikka mikä millään tavalla liittyy sen kuvan generoimiseen sinne muistiin.

Integroiduissa näyttiksissä on ainoastaan tarvinnut olla pienempi määrä ytimiä suorituskyvyn ollessa pienempi.

Ihan vain ilman herneitä kysymys miten RT lyhenteen käyttäminen eroaa RAM lyhenteen käyttämisestä? Onhan RAM lyhenteellekin olemassa suomenkielinen termi (hajasaantimuisti)
 
Juuri sanoin missä on edellä ja ohitit kokonaan. Ei hänni kuten DLSS. Eli täysin typerää väittää ettei olisi missään parempi. Lisäksi FSR2.0 on vasta julkaistu kun taas DLSS on hinkattu jo monta vuotta joten on täysin perusteltua olettaa että FSR2.0 pystyy vielä parantamaan. Identtisiä niistä tuskin koskaan tulee ja loppupelissä se on katsojasta kiinni kumpi tuntuu "paremmalta"

Ilmeisesti viittaat HWU:n videoon? Missään muualla en ole tuosta häntimis hommasta ei nähnyt mitään mainintaa, vaikka aika monta arviota näiden tekniikoiden vertailusta on tullut katsottua. Googlettelun tuloksena katsoin sen HWU:n videon.

Juu todettiinhan siinä, että 20% hidastusta katsomalla saatiin esiin DLSS:n kuvasta minimaalinen häntiminen, jota ei itse pelatessa huomaa. Kaiken lisäksi se FSR 2.0 näytti minusta siinä vertailukohdassa aika samalle. Oli siinäkin pieni häntä, mutta ehkä pikku riikkisen pienempi.

Tuo on aika minimaalinen voitto, mutta annetaan se nyt sitten FSR:lle, että voidaan sanoa sen olevan edes jossain edellä.

HWU ei myöskään ilmeisesti osannut mitata sitä, että FSR 2.0 toimii huonommin AMD:n raudalla.
 
Miksi kärsiä kun voi pelata kunnolla (Puhuin itsestäni eli kun on varaa uusia näyttis ja CPU niin miksi tyytyä 30 FPS).

Toisaalta olen myös itse kokenut tuon, et ole ainoa TekniikkaVaari täällä. Voi sitä kun eka 3DFX 3D kortti julkaistiin ja sen Monster1 sai 4 MB 2D kortin rinnalle julkkarissa....

Niin ja sillä Voodoo kortillakin se FPS pyöri monissa peleissä reilusti alle 60:n eikä haitannut. :D

Toki CRT näytöllä pienempi FPS ei näyttänyt läheskään niin pahalle, kun näillä nykyisillä paneeleilla. Nykyään todennut sen, että Freesyngin kanssa joku 50-55 FPS vielä jotenkin menettelee hidastempoisemmassa pelissä, mutta sen alle ei kyllä saa yhtään mennä. Selkeä ero sulavuusessa tulee mielestäni kun mennään sinne 75 ja yli FPS lukemiin. Selvästi huomaan itse, kun FPS putoaa 75-80:stä johonkin 60-65 tasolle. Mutta 100:sta kun putoaa 85n tienoille, niin en itse juuri huomaa. Sanoisin, että jostain 90:stä eteenpäin en itse hirveästi enää huomaa eroa. Nää on hyvin subjektiivisia juttuja kyllä.
 
Kyllä itsekin aikoinaan pelasin ihan tyytyväisesti hl2 640x480 resoluutiolla huonoimmilla grafiikka-asetuksilla eikä häirinnyt yhtään. Kuitenkin nykyään haluaa, että se fps olisi ainakin 80, ja isoin syy on se kuinka kankeaksi tähtääminen muuttuu huonolla ruudunpäivityksellä. Ei sillä, että eikö voisi pelata matalammalla ruudunpäivityksellä, tulihan sitä cp2077 pelattua noin 50-70 fps:llä läpi. Kuitenkin, jos koneet ja pelaaminen on harrastus niin mielellään siihen panostaa. Uusi näytönohjain on nykyään niitä harvoja asioita mistä on yhtä täpinöissään, kuin lapsena jouluaattona. Jos siis puhutaan materiasta.
 
Viimeksi muokattu:
Aika lailla tapissa taitaa olla AMD:n refreshitkin eikä niillä tosiaan herunut sitä kärkipaikkaa edes isoimmalla mallilla. Watteja valuu piuhaa pitkin käytännössä saman verran kuin NVIDIAn kortilla. Suurilla resoluutioilla pudotaan kelkasta kun pelkät muistikakut ei enää kanna eikä säteenseurannan kiihdytys ollut onnistunut toteutus. Eli on RDNA3:lla aika paljon parannettavaa jos meinaa edukseen erottua. Todennäköisemmin tilanne jatkuu suurinpiirtein samoilla urilla seuraavassa sukupolvessakin.

power-gaming.png


Yli 30% enemmän hörppii hattiwatteja toi 3090Ti

relative-performance_3840-2160.png


Tarjoten 10% enemmän suorituskykyä. 1440p suorituskyky käytännössä tasoissa ja 1080p radeon edellä. Tämä siis refulla. 5% olivat OC:llä saaneet tuohon vielä tehoja lissää. Kuvassahan näkyy myös pari board partner korttia ja esim tuohon Sapphireen olivat saanu OC:llä noin 10% vielä tehoja lisää. Vakiona toi sapphire nosti kulutiksen johonkin 380W. Että ei ne radeonit tuon perusteella kyllä ole ihan tappiin vedettyjä. Toki 3090Ti:stä on myös partner kortteja, MSI suprim X kaiketi yksi parhaimpia(?) hörsii jo 470W ja OC:lla siitä oli saatu vajaa 5% lisää pihalle tehoja.

Että en nyt mitenkään näe että nvidialla olisi jokin merkittävä etumatka olemassa. Sellainen oli joskus, ei enää. Mitä tulee RT tehoihin, siinä toki nvidia on edellä, varsinkin niissä tapauksissa jotka on toteutettu aikana enne rdna2:sta. Myöhemmin tulleissa peleissä joissa radeonin toteutustakin on päästy jo kehitysvaiheessa testaamaan ero ei ole niin suuri.
Ja loppupelissä sillä ei niin hirveästi ole edes väliä kun molempien RT suorituskyky on vielä tuhnu. Toisen vaan on tuhnumpi.

Täysin en myöskaan allekirjoita tuota väitettä että AMD:n muistikaista/cache ratkaisu jarruttaisi 4K resolla kun sapphiresta oli saatu 10% tehoja lisää. Eiköhän se ole ihan teknisistä toteutuksista johtuvaa kun nvidia tavallaan tuplasi cuda määrän per SM niin eivät vaan saa niitä ruokittua tarpeeksi tehokkaasti alemmilla resoilla ja 4K:lla sitten alkaa vasta toimia kortti ns. optimaalisesti.

Tuossa kun noita kulutus kuvia kattelin pitkästä aikaa niin ittellä pisti silmiin tämä testi joka ittelle ainakin tuli uutena tuttavuutena. Voi olla että on ollut jo pidempään, mutta on mielenkiintoinen.

power-vsync.png


Mielenkiintoista miten hurja ero tehonkulutuksessa on 3090Ti:n hyväksi. Joko AMD:llä on työmaata kulutuksen optimoinnin kanssa ajuripuolella, niillähän on yhtenään ollu ongelmana esim. tupla monitorin kanssa kova kulutus, joka taitaa taas olla ongelmana. En ymmärrä mit' ne oikein touhuaa kun aina välillä se korjataan ja sitten se palaa takas.
Ihan kuin siellä olisi pari eri porukkaa koodaamassa ajureita ja vuoron perään kumoavat toistensa muutoksia.
Tai sitten tässä näkyy se cuda määrän ylivoima, voidaan louskuttaa menemään todella alhaisilla kelloilla ja jännitteellä.

RX6950XT refu
power-consumption.png


RTX3090Ti Founders
power-consumption.png


On aika helvetin ruma toi radeonin V-Sync (60 FPS) logitus.
 
Täysin en myöskaan allekirjoita tuota väitettä että AMD:n muistikaista/cache ratkaisu jarruttaisi 4K resolla kun sapphiresta oli saatu 10% tehoja lisää.

Nämä tulokset nimenomaan tukee sitä.

6950XT vs 6900XT ytimessä hyvin pienet (3-4%) kellotaajuuslisät, mutta muistilla 12.5 % kellotaajuuslisä.

Mikäli muisti EI olisi pullonkaula, 6900XT pärjäisi selvästi paremmin ja 6950XTn antama nopeuslisä olisi paljon lähempänä sitä ytimien kellotaajuuksien eroa.
 
Nämä tulokset nimenomaan tukee sitä.

6950XT vs 6900XT ytimessä hyvin pienet (3-4%) kellotaajuuslisät, mutta muistilla 12.5 % kellotaajuuslisä.

Mikäli muisti EI olisi pullonkaula, 6900XT pärjäisi selvästi paremmin ja 6950XTn antama nopeuslisä olisi paljon lähempänä sitä ytimien kellotaajuuksien eroa.

Tarkoitin kylläkin että refulla ainoastaan 5% saatiin OC:lla eroa vakioon kun nitrolla sitä eroa saatiin 10%. Eli saman nopeutiset muistit on refussa ja nitrossa kun molemmat on 6950.
 
Tarkoitin kylläkin että refulla ainoastaan 5% saatiin OC:lla eroa vakioon kun nitrolla sitä eroa saatiin 10%. Eli saman nopeutiset muistit on refussa ja nitrossa kun molemmat on 6950.
Refu 6950XT kulkee Techpowerupin mukaan vakiona GPU avg. 2405 MHz ja Mem 2250 MHz (25 games avg. sis. Cyberpunk ja tod. näk. aidat vs. aidanseipäät -virheen).

Ylikellotettuna GPU avg. 2521 MHz ja Mem 2325 MHz. Kasvua 4,8 %@GPU ja 3,3 %@Mem. Heavenin suorituskyky parani hieman yllättäen peräti 5,2 % (253,0 fps vs. 240,4 fps).


Nitro 6950XT vakiona GPU avg. 2570 MHz ja Mem 2250 MHz. Kasvua (vs. refu OC) 1,9 %@GPU ja -3,2 %@Mem. Heavenin suorituskyky (vs. refu OC) heikkeni 0,2 % (252,5 fps. vs. 253,0 fps). Ytimessä on 1,9 % enemmän kelloja, mutta silti tulos oli inasen heikompi. Muistikaista näyttäisi ahdistavan.

Ylikellotettu Nitro GPU avg. 2807 MHz ja Mem 2350 MHz. Kasvua (vs. vakio Nitro) 9,2 %@GPU ja 4,4 %@Mem. Heaven +10,6 % (279,2 fps vs. 252,5 fps). Yllättävän paljon piristyi. Nitro OC vs. refu OC +11,3 %@GPU ja +1,1 %@Mem. Heaven +10,4 %. Näiden perusteella muistikaista taas vaikuttaisi riittävältä, jolloin ytimen kellotus ns. menee perille asti.


Heaven on vain Heaven ja lisäksi virhettä tulee siitä, että kellotaajuudet olivat peräisin peleistä eikä Heavenista. Katsotaanpa seuraavaksi oleellisempaa, eli 25 pelin keskiarvoa@UHD (Techpowerup) ja otetaan mukaan vanha 6900XT.

Ensin speksit GPU avg./Mem@1080p/1440p 25 games:
Vakio refu 6900XT 2233 MHz/2000 MHz
Vakio refu 6950XT 2405 MHz/2250 MHz
Vakio Nitro 6950XT 2570 MHz/2250 MHz

Suorituskyky:
6900XT 94 %
6950XT 100 %
Nitro 6950XT 104,4 % (94 * 100 / 90)

6950 vs. 6900: +6,4 % (+7,7 %@GPU ja +12,5 %@Mem)

Nitro 6950 vs. 6950: +4,4 % (+6,9 %@GPU ja +0 %@Mem)

Viimeisessä suorituskykyä tuli lisää, vaikka kaista ei kasvanut. Sitä edellinenkin näyttäisi olevan GPU-rajoitteinen. Olen yllättynyt - etenkin tuosta 6950 vs. 6900:sta, minkä perusteella 6900 ei olisikaan niin kaistapulainen kuin kuvittelin. Mitä tähän sanoo @hkultala ? Käytin todellisia kaikkien pelien (1080p/1440p) keskimääräisiä kellotaajuuksia.



 
Viimeksi muokattu:
Yli 30% enemmän hörppii hattiwatteja toi 3090Ti

Jänniä lukuja kun näissä tilanne on aika eri:



Että en nyt mitenkään näe että nvidialla olisi jokin merkittävä etumatka olemassa. Sellainen oli joskus, ei enää.

Minä toki viestissäni väitin nimenomaan toisinpäin, että aika lailla samoissa luvuissa pyöritään.

Täysin en myöskaan allekirjoita tuota väitettä että AMD:n muistikaista/cache ratkaisu jarruttaisi 4K resolla kun sapphiresta oli saatu 10% tehoja lisää

Sama tässä; en väittänyt että se mitään jarruttaisi, kakku ei vaan tarjoa samoja hyötyjä kuin alemmilla resoilla.
 


Tosiaan iso osa ylihintaisista näytönohjaimista 2021 jälkeen mennyt mainaajille ja kun katsoo Steamin tilastoja mitä näytönohjaimia pelaajilla on niin taitaa olla oikea oletus että peruspelaajat(jotka eivät ole tällä foorumilla) ovat jättäneet päivittämättä näytönohjaimiaan uusimpiin malleihin johtuen super korkeista hinnoista ja Nvidian sekä Amd oletus että massoilta voitaisiin nyhtää paljon ylimääräistä voi olla väärä.

Voi olla että syksyllä tulevan sukupolven hinnat ei ole ihan poskettomat siinä rx 7800 xt ja alle tai rtx 4080 ja alle ainakaan pidemmän päälle vaikka on totta että kustannukset ovat nousseet mutta toisaalta alentunut kysyntä voi pakottaa Nvidian ja Amd vielä tiputtelemaan hintojaan(katteensa kustannuksella) jotta saavat kohtuullisesti näytönohjaimia myytyä.
 
Voi olla että syksyllä tulevan sukupolven hinnat ei ole ihan poskettomat siinä rx 7800 xt ja alle tai rtx 4080 ja alle ainakaan pidemmän päälle vaikka on totta että kustannukset ovat nousseet mutta toisaalta alentunut kysyntä voi pakottaa Nvidian ja Amd vielä tiputtelemaan hintojaan(katteensa kustannuksella) jotta saavat kohtuullisesti näytönohjaimia myytyä.

Tosin nykytilanteessa on tainnut pääasiassa olla muut tahot kuin AMD / Nvidia jotka on kuorineet kermat kakun päältä. Kortinvalmistajat / tukkurit varmaankin eniten vaikuttaneet hintojen nousuun.
 
Enpä ole itse kokenut ongelmana, varsinkaan jossain yksinpeleissä. Mut tääkin on taas näitä, nykyään ei kuulemma pysty pelaamaan 30 FPS, mutta voi silloin kun minä olin nuori niin pelattiin hypernopeita moninpeliräiskintöjä kuten vaikka QuakeWorldia jollain 640x480 resolla, 20 FPS ja +100 ms pingillä ja _silti_ pwnattiin. :p
Koetappas nykyisin jotain CSGO:ta jollain roskaresolla ja paskalla fps:llä, ei siitä tule mitään. Melkeen tuntuu, että 50+ pingikin antaa selkeän altavastaaja aseman. Huvittaa kun joskus aikanaan foorumeilla kiisteltiin tekikö yli 30 fps mitään, kun silmä ei muka huomannut eroa. Itse vanhana puusilmänäkin huomaan 60hz ja 144Hz näytön eron helposti. Samoiten jos fps putoaa jostain 120+ -> 80 sen huomaa pykimisenä. Yksinpelit sitten asia erikseen, niissä vastustajat eivät ammut suoraan silmään 0,1 sekunnissa.

Edelliseen liittyen tuntuu, että 1660TI ei riitä millään nykykynärin pelaamiseen 1440p resolla. Detailit minimissäänkin dps on jotain 120 paikkeilla ja droppailee siitä alas. Resoa laskiessa taas vihuja ei erota niin selkeästi. Pakko varmaankin kääntyä taas Nvidian puoleen kun tuo DLSS vaikuttaisi niin houkuttelevalta ominaisuudelta. Kun uusi kortti alkaa joskus tulevaisuudessa nykyimään, niin sillä saisi vähän lisäaikaa detailien kustannuksella. Kunhan tuo 3060ti:n hinta putoaa vielä jonkun 50e niin aika painaa tilausnappia.
 
Koetappas nykyisin jotain CSGO:ta jollain roskaresolla ja paskalla fps:llä, ei siitä tule mitään. Melkeen tuntuu, että 50+ pingikin antaa selkeän altavastaaja aseman. Huvittaa kun joskus aikanaan foorumeilla kiisteltiin tekikö yli 30 fps mitään, kun silmä ei muka huomannut eroa. Itse vanhana puusilmänäkin huomaan 60hz ja 144Hz näytön eron helposti. Samoiten jos fps putoaa jostain 120+ -> 80 sen huomaa pykimisenä. Yksinpelit sitten asia erikseen, niissä vastustajat eivät ammut suoraan silmään 0,1 sekunnissa.

Edelliseen liittyen tuntuu, että 1660TI ei riitä millään nykykynärin pelaamiseen 1440p resolla. Detailit minimissäänkin dps on jotain 120 paikkeilla ja droppailee siitä alas. Resoa laskiessa taas vihuja ei erota niin selkeästi. Pakko varmaankin kääntyä taas Nvidian puoleen kun tuo DLSS vaikuttaisi niin houkuttelevalta ominaisuudelta. Kun uusi kortti alkaa joskus tulevaisuudessa nykyimään, niin sillä saisi vähän lisäaikaa detailien kustannuksella. Kunhan tuo 3060ti:n hinta putoaa vielä jonkun 50e niin aika painaa tilausnappia.
Cs on huono esimerkki, koska pelimoottorin toiminta on sidottu siihen fps:ään. Tällä en kuitenkaan tarkoita että 30 ja 60 hertsin välillä ei ole eroa.
 
Enpä ole itse kokenut ongelmana, varsinkaan jossain yksinpeleissä. Mut tääkin on taas näitä, nykyään ei kuulemma pysty pelaamaan 30 FPS, mutta voi silloin kun minä olin nuori niin pelattiin hypernopeita moninpeliräiskintöjä kuten vaikka QuakeWorldia jollain 640x480 resolla, 20 FPS ja +100 ms pingillä ja _silti_ pwnattiin. :p
Quakeworld todistaa mun muistoissani nimenomaan siitä, että korkean ruudunpäivityksen tavoittelu ei ole mikään nykyajan hullutus.

Quakeworldia Suomen kilpailullisessa scenessä huipputasolla pelaava kaveri pelasi postimerkkiresolla, vaikka koneesta löytyi 3DFX Voodoo. Tekstuurit blurrattiin jollain mipmap settarilla ja vihuille laitettiin neonväriset skinit, jotta erottuivat mahdollisimman hyvin.

Lisäksi oli Qizmo -niminen harrastajien tekemä ohjelma, jolla mm. vähennettiin nailgunin ampumien naulojen renderöityä määrää, jotta saataisiin parempi fps ja vähennettiin verkkolagia.

Eli ehkä jopa rankempaa hikoilua hyvän ruudunpäivityksen/sulavan pelattavuuden eteen on harrastettu noihin aikoihin kuin nykyään. Toki moni tyytyi alhaisiin ruudunpäivitysnopeuksiin, kuten nykyäänkin.
 
Quakeworldia Suomen kilpailullisessa scenessä huipputasolla pelaava kaveri pelasi postimerkkiresolla, vaikka koneesta löytyi 3DFX Voodoo. Tekstuurit blurrattiin jollain mipmap settarilla ja vihuille laitettiin neonväriset skinit, jotta erottuivat mahdollisimman hyvin.
Kyllähän noita bright skin cheattereita on CS aikanakin ollut vaikka kuinka paljon :rofl:


Koetappas nykyisin jotain CSGO:ta jollain roskaresolla ja paskalla fps:llä, ei siitä tule mitään. Melkeen tuntuu, että 50+ pingikin antaa selkeän altavastaaja aseman. Huvittaa kun joskus aikanaan foorumeilla kiisteltiin tekikö yli 30 fps mitään, kun silmä ei muka huomannut eroa. Itse vanhana puusilmänäkin huomaan 60hz ja 144Hz näytön eron helposti. Samoiten jos fps putoaa jostain 120+ -> 80 sen huomaa pykimisenä. Yksinpelit sitten asia erikseen, niissä vastustajat eivät ammut suoraan silmään 0,1 sekunnissa.

Edelliseen liittyen tuntuu, että 1660TI ei riitä millään nykykynärin pelaamiseen 1440p resolla. Detailit minimissäänkin dps on jotain 120 paikkeilla ja droppailee siitä alas. Resoa laskiessa taas vihuja ei erota niin selkeästi. Pakko varmaankin kääntyä taas Nvidian puoleen kun tuo DLSS vaikuttaisi niin houkuttelevalta ominaisuudelta. Kun uusi kortti alkaa joskus tulevaisuudessa nykyimään, niin sillä saisi vähän lisäaikaa detailien kustannuksella. Kunhan tuo 3060ti:n hinta putoaa vielä jonkun 50e niin aika painaa tilausnappia.

Ei se varmaankaan näyttiksestä ole CS fps kiinni vaan prossusta... Eihän tuo 1660ti nyt ihan täysin mopo kuitenkaan ole...
 
Ei se varmaankaan näyttiksestä ole CS fps kiinni vaan prossusta... Eihän tuo 1660ti nyt ihan täysin mopo kuitenkaan ole...
Testailin huvikseen täällä aiemmin mainittua bottleneck testiä. Core i5-9600K:lla 1660Ti näyttäisi olevan juuri passeli näyttis sen suhteen, ettei kumpikaan jää keskimäärin pullonkaulaksi. Jos päivittää 3060Ti:hin niin sitten jää prossu pullonkaulaksi. Toki CS on prossuintensiivinen peli ja siihen homma päde. Nvidian köyhän miehen DLSS:llä eli Sharpeningillä sai kyllä fps:t aika hyväksi laskemalla pikkasen resoa 1440p:stä ja muutenkin vielä duunaamaalla detailit minimiin. Mutta ehkä tämä alkaa olla pahasti offtopikkia, pahoittelut siitä :)
 
Testailin huvikseen täällä aiemmin mainittua bottleneck testiä. Core i5-9600K:lla 1660Ti näyttäisi olevan juuri passeli näyttis sen suhteen, ettei kumpikaan jää keskimäärin pullonkaulaksi. Jos päivittää 3060Ti:hin niin sitten jää prossu pullonkaulaksi. Toki CS on prossuintensiivinen peli ja siihen homma päde. Nvidian köyhän miehen DLSS:llä eli Sharpeningillä sai kyllä fps:t aika hyväksi laskemalla pikkasen resoa 1440p:stä ja muutenkin vielä duunaamaalla detailit minimiin. Mutta ehkä tämä alkaa olla pahasti offtopikkia, pahoittelut siitä :)

Offtopiccia, poistakaa jos häiritsee:
Jossain on vikaa jos on 120fps paikkeilla. Pitäisi olla hyvinkin 200-300 asetuksista riippuen...
 
Offtopiccia, poistakaa jos häiritsee:
Jossain on vikaa jos on 120fps paikkeilla. Pitäisi olla hyvinkin 200-300 asetuksista riippuen...
Tuo 9600k on cs:ssä yllättävän tuhnu. Fps seilaa 100-300 väliä ja enemmän tuolla 100:n puolella, kuin 300:n
 
Nyt on kyllä oikein kunnon sillyseason menossa näissä seuraavan genin näyttiksissä.

AMD on nyt jo RDNA3 refreshiä tekemässä vaikka RDNA3 ei ole edes vielä ulkona. Ja tais nvidiankin puolella olla jotain muutoksia taas. Tällä kertaa tuntuu että molempien kohdalla on kyllä niin lennokkaita huhuja liikenteessä ja paljon että oikein mitään ei nyt enää uskalla ottaa yhtään vakavasti. Ei edes noita virrankulutuksia.

Sitten sellainen mielenkiintoinen detaili että nvidian käyttämä 4N vai mikä se nyt onkaan nimeltään on mitä ilmeisimmin N5P, eli performance optimoiduilla kirjastoilla, kun taas AMD ilmeisesti RDNA3:ssa käyttää N5:sta eli enempi tiheys/kulutus optimoituja kirjastoja.
Saas nähä kumpi noista sitten paremmin soveltuu näyttiksille. Toki arkkitehtuuri ratkaisutkin siihen vaikuttaa.

Niin ja hurjia kelloja tosiaan viserrelty. nvidialle lähelle 3GHz ja RDNA3:lle lähelle 4GHz. Uskoo ken tahtoo.

Toisaalta koska lennokkaita huhuja edelleen niin paljon liikkeellä, niin en usko että ihan kuukauden parin päästä oltaisiin mitään julkaisemassa.
 
Nyt on kyllä oikein kunnon sillyseason menossa näissä seuraavan genin näyttiksissä.

Sitä se on aina. Huhut lentää ja luotettavampaa tietoa tulee sitten, kun AIB partnerit pääsee dataan ja piireihin käsiksi. Sitäkin voi hillitä sillä, että julkaisussa on vain refukortit ja aibit tulee perässä. Nyt on liikkeellä todella vähän oikeasti vuotanutta tai vuodettua tietoa valmistajilta, mutta se hukkuu siihen massaan, jossa "tietäjät" spekuloi omiaan ja esittää ne huhuina/tietoina.

Q3 julkaisu/esittely on nyt silti melko odotettavaa molemmilta.
 
Nyt on kyllä oikein kunnon sillyseason menossa näissä seuraavan genin näyttiksissä.

AMD on nyt jo RDNA3 refreshiä tekemässä vaikka RDNA3 ei ole edes vielä ulkona. Ja tais nvidiankin puolella olla jotain muutoksia taas. Tällä kertaa tuntuu että molempien kohdalla on kyllä niin lennokkaita huhuja liikenteessä ja paljon että oikein mitään ei nyt enää uskalla ottaa yhtään vakavasti. Ei edes noita virrankulutuksia.

Sitten sellainen mielenkiintoinen detaili että nvidian käyttämä 4N vai mikä se nyt onkaan nimeltään on mitä ilmeisimmin N5P, eli performance optimoiduilla kirjastoilla, kun taas AMD ilmeisesti RDNA3:ssa käyttää N5:sta eli enempi tiheys/kulutus optimoituja kirjastoja.
Saas nähä kumpi noista sitten paremmin soveltuu näyttiksille. Toki arkkitehtuuri ratkaisutkin siihen vaikuttaa.

N5P ja N4 ovat eri asioita.

N5P on N5sta versio josta jotain parametria on viilattu suuntaan että siitä on saatu hiukan nopeampi (mutta vuotovirrat on saattaneet kasvaa tai valmistuskustannukset nousta tjsp).

N4 on sitten lähinnä N5 uusilla tiheysoptimoiduilla standardikirjastoilla. Mutta on myös N4P jossa on samansuuntaiset suorituskykyviilaukset kuin N5P:ssä sekä uudet tiheysoptimoidut standardikirjastot.
 
Voisikohan ne NVIDIA:n puolelta huhutut kulutuslukenat (900W) tosiaan olla transient piikkeihin pohjautuvia lukemia...

Jos NVIDIA alkaakin ottamaan nekin huomioon 4000 sarjan virallisissa speksesiisä, kun ko. ilmiö on kuitenkin ollut jo aiemminkin ns. pinnan alla olemassa.

Alla Gamers Nexuksen video aiheesta.
 
AMD on vahvistanut, että Radeon 7000 (RDNA3) tulee suuremmalla tehonkulutuksella:

 
Täysin ok jos itse tykkää pelata 30 fps ja onhan se monessa modernissa konsolipelissäkin se standardi. Onhan se fiksua kun säästää rahaa varsinkin jos haluaa vähän optimoida asetuksia peleissä vielä.

Tosin yleisesti ottaen pc pelaajat vaativat sitä vähintään 60 fps 1080p/1440p että olisi "pelattava".

Sanoisin kanssa että 30fps on pelattava, ja 60fps jo pyörii oikein sujuvasti...
 
N5P ja N4 ovat eri asioita.

N5P on N5sta versio josta jotain parametria on viilattu suuntaan että siitä on saatu hiukan nopeampi (mutta vuotovirrat on saattaneet kasvaa tai valmistuskustannukset nousta tjsp).

N4 on sitten lähinnä N5 uusilla tiheysoptimoiduilla standardikirjastoilla. Mutta on myös N4P jossa on samansuuntaiset suorituskykyviilaukset kuin N5P:ssä sekä uudet tiheysoptimoidut standardikirjastot.

Niin ehkä huonosti tuossa asian ilmaisin, eli siis tämä nvidian käyttämä prosessi 4N taikka mikä nyt onkaan ei siis ole tsmc:n virallinen N4 vaan nvidialle kustomoitu N5P jolle nvidia halunnut oman nimen. Ilmeisesti massia latomalla saa kaikkea. Jopa valmistusprosessille oman nimen.
Näin siis ainakin joidenkin lähteiden mukaan. Ei siis mitään varmaa tietoa.
 
Se on taas se aika näyttisten kanssa kun kilpaillaan että kuka onnistuu julkaisemaan kaikista tuhnuimman kortin.

Nvidia menee nyt kirkkaasti kärkeen
 
Se on taas se aika näyttisten kanssa kun kilpaillaan että kuka onnistuu julkaisemaan kaikista tuhnuimman kortin.

Nvidia menee nyt kirkkaasti kärkeen

Niinpä. Ja tuossa puolet laskentayksiköistä ja muistiväylästä disabloituna, eli ei ole edes kovin halpa valmistaa, pinta-alaa piirillä kuitenkin n. 200mm^2.

(AMDllähän hitain navi2-piiri on pinta-alaltaan vain n. 107mm^2, tosin uudemmalla kalliimmalla valmistustekniikalla)
 
Eipä missään noissa halvoissa uusissa korteissa ole mitään järkeä tällä hetkellä. Käytetty gtx1060 on yli tuplasti nopeampi ja maksaa puolet tuosta.
 
Niinpä. Ja tuossa puolet laskentayksiköistä ja muistiväylästä disabloituna, eli ei ole edes kovin halpa valmistaa, pinta-alaa piirillä kuitenkin n. 200mm^2.
Mitä ihmettä. Puolet piiristä tuhottu. Risoja piirejäkään tuskin on kovin paljoa tuohon laittaa. Se on vissiin halvempaa tehdä tuplasti isompi piiri, kuin suunnitella pienempi piiri. Toisaalta onkohan noissa pienten piirien suunnittelussa ja toteuttamisessa paljonkin työtä?

Mistään mitään tietämättä voisin kuvitella että kun arkkitehtuuri on jo valmis ja iso piiri on jo tuotannossa, niin pienemmän piirin suunnittelu ei ole mitenkään erityisen työlästä.
 
Isommassa piirissä on suurempi todennäköisyys valmistusvirheille, varsinkin prosessin elinkaaren alkupäässä. Sen takia niistä disabloidaan osia, että saadaan puolitoimivat piirit markkinoille täysin toimivina.

Ei ne kuitenkaan yleensä ole noin pahasti rikki, että disabloitaisiin puolet piiristä.
 
Eipä missään noissa halvoissa uusissa korteissa ole mitään järkeä tällä hetkellä. Käytetty gtx1060 on yli tuplasti nopeampi ja maksaa puolet tuosta.

Melko typerä kommentti joka perustuu todella rajoittuneeseen näkökulmaan.

Kun joku firma alkaa valmistamaan kymmeniätuhansia markettikoneita tai palvelimia, ei se todellakaan ala metsästämään mitään käytettyjä kortteja ebaystä, ja toivomaan, että ne toimii, ja kärsimään painajaista takuun suhteen kun koko koneelle pitäisi antaa takuu mutta sitten siellä on ilman takuuta olevia komponentteja.

Ja joo, monissa prossuissa on integroitu näyttis mutta kaikissa ei; Jos halutaan esim. >8 ydintä zen3sta tai >8 cove-sarjan ydintä, ei samalla saa integroitua näyttistä. Jos GPU-tehoa ei kuitenkaan tarvita mihinkään, silloin halutaan käytännössä halvin ja vähävirtaisin mahdollinen erillisnäyttis.

Mutta tosiaan tällaiseksi halpispiiriksi käyttöön jossa suorituskykyä ei tarvita pitäisi riittää paljon pienempi piiri kuin 200mm^2 piilastu ja paljon halvempi hinta kuin $150. Tämän kyseisen tuotteen ongelma on se, että se on suorituskyvyn suhteen ei-pelikelpoinen piiri mutta hinta (ja piilastun koko) on silti pelikortin hinta ja pelipiilastun koko.

Geforce 1030n GP108-piiri on tosiaan 74mm^2 (järkevä koko ei-pelikelpoiselle halpispiirille) eikä tämä 1630 pienellä suorituskykylisällään tuo käytännössä tuo mitään lisäarvoa siihen verrattuna. Se, että haluttaisiin päästä vanhasta piiristä eroon koska tuotantolinja menee kiinni ei myöskään selitä tätä piiriä, koska molemmat piirit valmistetaan samalla tuotantolinjalla, TSMCn "16nm/12nm" tulee ihan samalta linjastolta ulos, "12nm" on vaan "16nm" uusilla kirjastoilla.

Mutta ehkä haluavat pascal-arkkitehtuurista eroon jotta ajurikehittäjien homma helpottuu. Ja kun ei ollut mitään uudempia pikkupiirejä, piti sitten vaan käyttää rampautettua GT117aa.
 
Viimeksi muokattu:
Isommassa piirissä on suurempi todennäköisyys valmistusvirheille, varsinkin prosessin elinkaaren alkupäässä. Sen takia niistä disabloidaan osia, että saadaan puolitoimivat piirit markkinoille täysin toimivina.

Ei ne kuitenkaan yleensä ole noin pahasti rikki, että disabloitaisiin puolet piiristä.
Noita on valmistettu aika pitkään, joten voi hyvinkin olla, että siellä on paljon piireja, joista voidaan käytännössä käyttää tuonverran, mitä noissa on. Tietyt lohkot voivat olla sidottu toisiinsa...

Jos piiri menisi muutoin roskiin, niin se on sitten oikeastaan ilmainen..
 
Se on taas se aika näyttisten kanssa kun kilpaillaan että kuka onnistuu julkaisemaan kaikista tuhnuimman kortin.

Nvidia menee nyt kirkkaasti kärkeen
Tässä kun niin moni on toivonut low-end näyttiksiä, niin toiveet toteutuivat. BL3 ultra 4k jopa 4,4 fps suorituskyvyllä!
 
Melko typerä kommentti joka perustuu todella rajoittuneeseen näkökulmaan.

Niin, kyseessä olikin lähinnä yksittäisen kuluttajan näkökulmasta eikä yritysten. Käsittääkseni noitakin tullaan myymään ihan normaalisti kuluttajille jolloin tietysti on ihan järkevää katsoa muutakin tarjontaa jos on vaikka yhden kortin hankkimassa. Tuo ongelma ei edes koske pelkästään 1630:ä vaan kaikkia noita "halpoja" kortteja joissa on ihan liikaa ilmaa hinnassa tällä hetkellä.
edit: ilmeisesti tuolla kortilla ei edes ole virallista msrp:tä vaan se voi olla mitä vaan
 
Viimeksi muokattu:
Tässä kun niin moni on toivonut low-end näyttiksiä, niin toiveet toteutuivat. BL3 ultra 4k jopa 4,4 fps suorituskyvyllä!
Moni on toivonut low-end näyttiksiä 4k ultra pelaamiseen?
Eiköhän näiden suunniteltu käyttötarkoitus ole ihan jotain muuta...

Joihinkin muihin kuin pelikoneisiin nuo low-end näyttikset voi olla ihan toimivia. Kaikissa prossuissa ei tosiaan ole integroitua ja monesti integroidun kanssa on aika rajallinen määrä näyttöliitäntöjä.
 

Statistiikka

Viestiketjuista
259 243
Viestejä
4 501 620
Jäsenet
74 373
Uusin jäsen
elspa

Hinta.fi

Back
Ylös Bottom