Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Niin että Intel ei aio edes valmistaa noita? Aika hurja väite.

Ei kun meinasin että Intel on uusi tekijä GPU-markkinoilla. Jos ensijulkkari on totaalifloppi, sen imagotappiota saa parannella vuosia ja varmaan juuri sen takia kunnon julkkari venyy ja venyy. Mutta loputtomiin ei voi siirtää julkkariajankohtaakaan, sekin kostautuu kun asiakkaat kuitenkin haluaisivat edes jotain konkreettista. Intel on nyt vähän puun ja kuoren välissä koska kilpailijat eivät odota. Joten jos sieltä ei syksyllä pukata ulos kunnon jeesusnäytönohjainta, niin milläs kosiskelet asiakkaita jos arviot näyttää välttävää, ajurit bugittaa ja kortit jää hyllyyn? Sakkaavaa myyntiä voi korjata lähinnä hinnanalennuksilla.

Se paras sauma, milloin ok-tasonkin näyttis vaikka sitten vähän bugisilla ajureilla olisi kelvannut, on nyt mennyt. Nvidialla ja AMD:llä on ajurit kunnossa, tehtaat puskee koko ajan lisää näyttiksiä ja Intelillä on.. niin, eipä juuri mitään. Vieläkään. Mikä on harmi, koska jos kaikki tähdet olisivat olleet oikeissa asennoissa, niin olisin mieluusti itsekin laittanut sen halvimmaksi arvioidun (~200€) Alchemistin testiin.
 
Ei se pitäisi olla kellekään yllätys, että kilpailulle markkinalle, jolla on 2 toimijaa, jotka ovat kehitelleet tuotteita yli 20 vuotta pystyy tulemaan kilpailija, joka on harrastanut aisaa lähinnä hyvin sivutoimisesti ja pienellä osalla markkinaan (perus integroituja).

Saattaa vielä käydä niinkin, että intel toteaa tälläkin kertaa, jotta eipä kannata ja homma hyytyy pariin sukupolveen..
Ainut mikä on nyt on se, että valmistustekniikka asettaa rajat GPU:den kehitykselle.
 
Se paras sauma, milloin ok-tasonkin näyttis vaikka sitten vähän bugisilla ajureilla olisi kelvannut, on nyt mennyt. Nvidialla ja AMD:llä on ajurit kunnossa, tehtaat puskee koko ajan lisää näyttiksiä ja Intelillä on.. niin, eipä juuri mitään. Vieläkään. Mikä on harmi, koska jos kaikki tähdet olisivat olleet oikeissa asennoissa, niin olisin mieluusti itsekin laittanut sen halvimmaksi arvioidun (~200€) Alchemistin testiin.

Joo juna on jo mennyt. Vieläkin ehtisi jälkibileisiin mukaan mutta jos syksyyn menee niin auttamatta liian myöhässä. Joten kannattaakohan näitä kyseisiä malleja alkaa sen suuremmin sitten edes julkaisemaan? Julkaistaan hiukan johonkin kiinan markkinoille jotta katteettomat lupaukset jotenkin täyttyy ja keskitytään seuraavaan geniin?

Tuossa kun on tosiaan se vaaraa että AMD ja nvidia voisivat halutessaan kampittaa syksyllä tuon intelin julkkarin aika pahasti julkaisemalla omat lowend kortit ennen highend kortteja. Kun nyt on huhuiltu että intel pääsisi johonkin 3070 vastaaviin nopeuksiin maksimissaan, niin next gen korteissahan tuo nopeus alkaa olla jo aika tuhnua.
 
Intelin nämä ekat GPU:t ovat sinänsä harjoittelua. Omia tehtaita kuitenkin on ja kapasiteettia sen osalta todella paljon, joten jahka muutaman sukupolven jälkeen saadaan tuotteet ulos omista tehtaista niin tilanne muuttuu kustannuksien (ja tietty saatavuuden) osalta merkittävästi. Tällä hetkellä ovat kuitenkin samassa veneessä muiden TSMC:ltä piirejä saavien kanssa, joten kustannusetua on vaikea kaivaa.
 
Harmillisen vähän tuolla AMD 6800/6900 ketjussa on keskustelua. Luulis, että porukka noita AMD kortteja myös haluaisi, kun kuitenkin 6900 XT on huomattavasti tehokkaampi, kuin vaikka normi RTX 3080. Itsellä kaksi 3080 korttia ollut ja nyt 6900 XT, niin kyllä ero on todella suuri 6900 XT:n eduksi 3440x1440 resoluutiolla. Varmaan paras esimerkki on halo, missä voi nyt huoletta laittaa asetukset täysille, kun taas 3080:n kanssa piti mennä med-high asetuksilla, että fps pysyi sulavana. Tietty silloin kun RT:n laittaa päälle, niin tulee Nvidiaa ikävä.

Edittiä vielä sen verran, että kyllä 6900 XT pätkii mennen tullen 3080 rasteroidussa grafiikassa, ja sitä varmaan ei kukaan edes epäile
 
Viimeksi muokattu:
Harmillisen vähän tuolla AMD 6800/6900 ketjussa on keskustelua. Luulis, että porukka noita AMD kortteja myös haluaisi, kun kuitenkin 6900 XT on huomattavasti tehokkaampi, kuin vaikka normi RTX 3080. Itsellä kaksi 3080 korttia ollut ja nyt 6900 XT, niin kyllä ero on todella suuri 6900 XT:n eduksi 3440x1440 resoluutiolla. Varmaan paras esimerkki on halo, missä voi nyt huoletta laittaa asetukset täysille, kun taas 3080:n kanssa piti mennä med-high asetuksilla, että fps pysyi sulavana. Tietty silloin kun RT:n laittaa päälle, niin tulee Nvidiaa ikävä.

Mitä tarkalleen tarkoitat tuolla FPS -sulavana kommentilla. Oma 3090 pitää kyllä FPS:n tuolla resolla "sulavana" ilman ongelmia. Toki tuo on vähän 3080:aa tehokkaampi, mutta en usko, että silläkään olisi ongelmia.

Enemmän tuossa pelissä pisti hanttiin vanha 3700x. Kun vaihtui prossu 5800x3d malliin, niin FPS nousi selkeästi tuolla open world osuuksista.

Ja mitä noita virallisia infiniten benchmarkkeja katellu, niin 3080 on vähän 6900xt:n edellä.

Tuo RT:n se on, minkä takia moni varmasti mieluummin ottaa NVIDIA:n kortin. Ja aiemmin oli DLSS siihen lisäksi. Nyt FSR 2.0 tasoittaa tuota etua aika paljon, vaikka ihan DLSS:n tasolle ei vielä yllääkkään.
 
Mitä tarkalleen tarkoitat tuolla FPS -sulavana kommentilla. Oma 3090 pitää kyllä FPS:n tuolla resolla "sulavana" ilman ongelmia. Toki tuo on vähän 3080:aa tehokkaampi, mutta en usko, että silläkään olisi ongelmia.

Enemmän tuossa pelissä pisti hanttiin vanha 3700x. Kun vaihtui prossu 5800x3d malliin, niin FPS nousi selkeästi tuolla open world osuuksista.

Ja mitä noita virallisia infiniten benchmarkkeja katellu, niin 3080 on vähän 6900xt:n edellä.

Tuo RT:n se on, minkä takia moni varmasti mieluummin ottaa NVIDIA:n kortin. Ja aiemmin oli DLSS siihen lisäksi. Nyt FSR 2.0 tasoittaa tuota etua aika paljon, vaikka ihan DLSS:n tasolle ei vielä yllääkkään.
Ainakin tämän testin mukaan 6900 XT pätkii jopa 3090 halossa. Halo Infinite Benchmarked: Master Chief Eats Tons of VRAM | Tom's Hardware (tomshardware.com)
3080:lla fps tippui sinne 60-70 maastoon, kun taas 6900 XT:llä minimi siellä 80-90 maastossa. Pitää myös ottaa huomioon, että molemmat oli tappiin kellotettuja, esim. io-techin testissä 6900 XT boostasi noin tuonne 2200MHz, kun taas omalla kellotetulla boostit ovat 2700MHz ja tuo 500MHz tuo aika ison eron jo, jos vertaa että yleensä nuo testit ajetaan vakiolla. Myös tuo kellotettavuus on AMD:llä ihan eri tasolla, koska 3080 korttien maksimi on siellä noin 2000MHz ja ehkä vähän yli, kun taas AMD:n kortit kellottuvat aika paljonkin vakiosta. Prossuna molemmilla näyttiksillä on ollu 12700K 5GHz.
 
Ainakin tämän testin mukaan 6900 XT pätkii jopa 3090 halossa. Halo Infinite Benchmarked: Master Chief Eats Tons of VRAM | Tom's Hardware (tomshardware.com)
3080:lla fps tippui sinne 60-70 maastoon, kun taas 6900 XT:llä minimi siellä 80-90 maastossa. Pitää myös ottaa huomioon, että molemmat oli tappiin kellotettuja, esim. io-techin testissä 6900 XT boostasi noin tuonne 2200MHz, kun taas omalla kellotetulla boostit ovat 2700MHz ja tuo 500MHz tuo aika ison eron jo, jos vertaa että yleensä nuo testit ajetaan vakiolla. Myös tuo kellotettavuus on AMD:llä ihan eri tasolla, koska 3080 korttien maksimi on siellä noin 2000MHz ja ehkä vähän yli, kun taas AMD:n kortit kellottuvat aika paljonkin vakiosta. Prossuna molemmilla näyttiksillä on ollu 12700K 5GHz.

Ja tämä testi taas näyttää toista.


Toki jos noin hyvin saa ylikelloja, niin voi olla jo vaikutusta.
 
Ja tämä testi taas näyttää toista.


Toki jos noin hyvin saa ylikelloja, niin voi olla jo vaikutusta.
Paha sanoo noista testeistä, kun löytyy sekä että missä on AMD edellä ja missä Nvidia edellä. Tiedä sitten mikä vaikuttanut, mutta omalla kokoonpanolla selvästi on etua AMD:n hyväksi. Ihan tasan tarkkaan muistan kuinka jouduin Nvidialla laskemaan asetuksia ja ihmettelin miten AMD:llä pyörii niin hyvin. 3080 kellot olivat 1970MHz, muistit +600MHz ja powerlimit 450W.
 
Enemmän tuossa pelissä pisti hanttiin vanha 3700x. Kun vaihtui prossu 5800x3d malliin, niin FPS nousi selkeästi tuolla open world osuuksista.

Se on se nvidiaa vaivaava ongelma. Ajurit lykkää prossulle huomattavasti enemmän kuormaa verrattuna amd jonka takia hiukan tuhnummalla prossulla näkyy selviä eroja amd:n hyväksi kun laitetaan vastakkain suht samantehoiset kortit tehokkaalla prossulla.

Tuo RT:n se on, minkä takia moni varmasti mieluummin ottaa NVIDIA:n kortin. Ja aiemmin oli DLSS siihen lisäksi. Nyt FSR 2.0 tasoittaa tuota etua aika paljon, vaikka ihan DLSS:n tasolle ei vielä yllääkkään.

RT on edelleen ihan alkuvaiheessa kehitystä ja pari geniä vaaditaan eteenpäin jotta se alkaa olla sellaisissa tehoissa että massatkin siitä pääsee jossain määrin nauttimaan. Joku RTX3080/90 tason RT alkaa olla sellainen joka vaaditaan niihin budjetti kortteihin, jotta voidaan alkaa puhua RT:n murroksesta. Siihen menee se pari geniä.

Ja FSR2.0 on aika paha vielä sen suurempia jontopäätöksiä mennä tekemään kun on vasta yhdessä pelissä päästy testaamaan. Mutta kyllähän ne aika tasoissa on. DLSS onnistuu jossain paremmin ja FSR2.0 toisaalla. Suurin ero oli varmaankin se että FSR2.0 ei aiheuta häntimistä kuten DLSS tuossa kyseisessä pelissä.
Odotellaan lisää pelejä ennen voittajan julistuksia ja veikkaampa että voittajaa on aika vaikea julistaa koska noi erot on monesti sitten makuasioita. FSR2.0 taisi saada aikaiseksi myös hiukan terävämmän kuvan, jonka joku voi laske plussaksi ja toinen miinukseksi.

Ja tämä testi taas näyttää toista.


Toki jos noin hyvin saa ylikelloja, niin voi olla jo vaikutusta.


Siinä suht tuore 50 pelin vertailu jossa 3080 ja 6800XT varsin tasoissa. Kun 6900XT on aina hiukan nopeampi kuin 6800XT, niin kyllähän se 6900XT hiukan vie 3080:stä. Tuo on jo jonkin ikäinen testi ja:

21.12.1 release notes

  • Halo Infinite™
    • Up to 17% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6900 XT graphics card, versus the previous software driver version 21.11.3.RS-434
    • Up to 19% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6800 XT graphics card, versus the previous software driver version 21.11.3.RS-435
    • Up to 16% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 12 GB Radeon™ RX 6700 XT graphics card, versus the previous software driver version 21.11.3.RS-436

Eli eiköhän se RTX3080 nykyään saa pannuun.

EDIT: niin ja vastahan AMD julkaisi previkka "jumal" ajurit jotka tuo joihinkin DX11 peleihin lisää jerkkua, myös DX12 peleissä joissain tuli lisää suorituskykyä. Siitä ei ole käsitystä mikä on vaikutus kyseiseen peliin.
 
Viimeksi muokattu:
Se on se nvidiaa vaivaava ongelma. Ajurit lykkää prossulle huomattavasti enemmän kuormaa verrattuna amd jonka takia hiukan tuhnummalla prossulla näkyy selviä eroja amd:n hyväksi kun laitetaan vastakkain suht samantehoiset kortit tehokkaalla prossulla.



RT on edelleen ihan alkuvaiheessa kehitystä ja pari geniä vaaditaan eteenpäin jotta se alkaa olla sellaisissa tehoissa että massatkin siitä pääsee jossain määrin nauttimaan. Joku RTX3080/90 tason RT alkaa olla sellainen joka vaaditaan niihin budjetti kortteihin, jotta voidaan alkaa puhua RT:n murroksesta. Siihen menee se pari geniä.

Ja FSR2.0 on aika paha vielä sen suurempia jontopäätöksiä mennä tekemään kun on vasta yhdessä pelissä päästy testaamaan. Mutta kyllähän ne aika tasoissa on. DLSS onnistuu jossain paremmin ja FSR2.0 toisaalla. Suurin ero oli varmaankin se että FSR2.0 ei aiheuta häntimistä kuten DLSS tuossa kyseisessä pelissä.
Odotellaan lisää pelejä ennen voittajan julistuksia ja veikkaampa että voittajaa on aika vaikea julistaa koska noi erot on monesti sitten makuasioita. FSR2.0 taisi saada aikaiseksi myös hiukan terävämmän kuvan, jonka joku voi laske plussaksi ja toinen miinukseksi.




Siinä suht tuore 50 pelin vertailu jossa 3080 ja 6800XT varsin tasoissa. Kun 6900XT on aina hiukan nopeampi kuin 6800XT, niin kyllähän se 6900XT hiukan vie 3080:stä. Tuo on jo jonkin ikäinen testi ja:

21.12.1 release notes

  • Halo Infinite™
    • Up to 17% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6900 XT graphics card, versus the previous software driver version 21.11.3.RS-434
    • Up to 19% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6800 XT graphics card, versus the previous software driver version 21.11.3.RS-435
    • Up to 16% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 12 GB Radeon™ RX 6700 XT graphics card, versus the previous software driver version 21.11.3.RS-436

Eli eiköhän se RTX3080 nykyään saa pannuun.

En kai mitään puhunut siitä, että milloin "massat" pääsee nauttimaan RT:n mahdollistamista grafiikkaherkuista. Sanoin vaan, että se RT teho on todennäköisesti yksi iso syy, miksi ostetaan 3080, eikä 6900xt:tä. Kuitenkin aika iso nippu on jo pelejä, missä RT tuo huomattavia parannuksia grafiikkaa ja lisää tulee koko ajan. 6000 sarjalaisilla noista ei vaan oikein pääse nauttimaan, kun FPS konttaa RT:n kanssa niin hemmetin pahasti.

Juu toki yleisesti 6900xt on nopeampi rasteroinnissa, mutta nyt oli kyse vain Halo infinitestä, jonka kohdalla on myös toisenlaisia tuloksia.

FSR 2.0 ei ole millään mittarilla edellä DLSS:ä. Lähelle/tasoihin pääsee kuvanlaadussa, kun kuva on paikallaan, eikä ole alpha textureita tai partikkeleita kuvassa. Toki tilanne voi olla muissa peleissä hieman erilainen, mutta nuo perusongelmat eivät häviä, vain peliä vaihtamalla. Varmasti FSR kehittyy ja niihinkin tulee parannusta.
 
FSR 2.0 ei ole millään mittarilla edellä DLSS:ä. Lähelle/tasoihin pääsee kuvanlaadussa, kun kuva on paikallaan, eikä ole alpha textureita tai partikkeleita kuvassa. Toki tilanne voi olla muissa peleissä hieman erilainen, mutta nuo perusongelmat eivät häviä, vain peliä vaihtamalla. Varmasti FSR kehittyy ja niihinkin tulee parannusta.

Juuri sanoin missä on edellä ja ohitit kokonaan. Ei hänni kuten DLSS. Eli täysin typerää väittää ettei olisi missään parempi. Lisäksi FSR2.0 on vasta julkaistu kun taas DLSS on hinkattu jo monta vuotta joten on täysin perusteltua olettaa että FSR2.0 pystyy vielä parantamaan. Identtisiä niistä tuskin koskaan tulee ja loppupelissä se on katsojasta kiinni kumpi tuntuu "paremmalta"
 
Ei se pitäisi olla kellekään yllätys, että kilpailulle markkinalle, jolla on 2 toimijaa, jotka ovat kehitelleet tuotteita yli 20 vuotta pystyy tulemaan kilpailija, joka on harrastanut aisaa lähinnä hyvin sivutoimisesti ja pienellä osalla markkinaan (perus integroituja).

Saattaa vielä käydä niinkin, että intel toteaa tälläkin kertaa, jotta eipä kannata ja homma hyytyy pariin sukupolveen..
Ainut mikä on nyt on se, että valmistustekniikka asettaa rajat GPU:den kehitykselle.

Intelin markkinaosuus kaikista PC-näyttiksistä on viimeisen n 10 vuoden ajan tyypillisesti ollut suurempi kuin AMDn tai nVidian. Ja Intel on jatkuvasti kehittänyt arkkitehtuurejaan. Ja on tehnyt sitä myös parinkymmenen vuoden ajan.
 
Se on se nvidiaa vaivaava ongelma. Ajurit lykkää prossulle huomattavasti enemmän kuormaa verrattuna amd jonka takia hiukan tuhnummalla prossulla näkyy selviä eroja amd:n hyväksi kun laitetaan vastakkain suht samantehoiset kortit tehokkaalla prossulla.

RT on edelleen ihan alkuvaiheessa kehitystä ja pari geniä vaaditaan eteenpäin jotta se alkaa olla sellaisissa tehoissa että massatkin siitä pääsee jossain määrin nauttimaan. Joku RTX3080/90 tason RT alkaa olla sellainen joka vaaditaan niihin budjetti kortteihin, jotta voidaan alkaa puhua RT:n murroksesta. Siihen menee se pari geniä.

Se on "säteenjäljitys" suomeksi. Ja se toimii nVidian nykypiireillä ihan pelattavasti jos tarkoitus on pelata pelejä eikä ihastella FPS-laskureita suurilla resoluutoilla.


Siinä suht tuore 50 pelin vertailu jossa 3080 ja 6800XT varsin tasoissa. Kun 6900XT on aina hiukan nopeampi kuin 6800XT, niin kyllähän se 6900XT hiukan vie 3080:stä. Tuo on jo jonkin ikäinen testi ja:

21.12.1 release notes

  • Halo Infinite™
    • Up to 17% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6900 XT graphics card, versus the previous software driver version 21.11.3.RS-434
    • Up to 19% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6800 XT graphics card, versus the previous software driver version 21.11.3.RS-435
    • Up to 16% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 12 GB Radeon™ RX 6700 XT graphics card, versus the previous software driver version 21.11.3.RS-436

Eli eiköhän se RTX3080 nykyään saa pannuun.

Rasteroinnin nopeus on aika lailla EVVK, kun kaikki huippukortit on rasteroinnissa tarpeeksi nopeita kaikissa järkevissä skenaariossa.

Sillä säteenjäljityksen nopeudella (jossa parannettavaa olisi) on ziljoona kertaa enemän väliä kuin sillä, saako jossain muinaisessa pelissä rasteroinnilla 400 fps vai 420 fps. Kun säteenjäljityksen osalta tilanne usein on, että pelikelponen nVidian piirillä, liian hidas AMDn piirillä.
 
Viimeksi muokattu:
Se on "säteenjäljitys" suomeksi. Ja se toimii nVidian nykypiireillä ihan pelattavasti jos tarkoitus on pelata pelejä eikä ihastella FPS-laskureita suurilla resoluutoilla.

Taas täysin turhaa kielipoliisina riehumista sinulta. Lopeta jo toi. Todella väsyttävää.

Väität siis että 3060 kykenee ok RT suorituskykyyn?

Rasteroinnin nopeus on aika lailla EVVK, kun kaikki huippukortit on rasteroinnissa tarpeeksi nopeita kaikissa järkevissä skenaariossa.

Kun ollaan virtuaalipippeli flex ketjussa, niin jokainen milli... eikun siis fps merkitsee.
 
Intelin markkinaosuus kaikista PC-näyttiksistä on viimeisen n 10 vuoden ajan tyypillisesti ollut suurempi kuin AMDn tai nVidian. Ja Intel on jatkuvasti kehittänyt arkkitehtuurejaan. Ja on tehnyt sitä myös parinkymmenen vuoden ajan.
Intel ei koskaan ole kilpaillut laadussa AMD:n ja Nvidian irtonäyttisten kanssa. Se ei paljon auta, vaikka niitä nuhapumppu integroituja olisi toimitettu 1000000000000000000000000000000000000000000000000000000 kertainen tai isompi määrä VS AMD:n ja Nvidian yhteenlasketut näyttikset. Sillä ei ole mitään takeita, etä Intelistä tulee varteenotettava kilpailija irtonäyttksissä. Tällähetkellä vaikuttaa ainankin vahvasti, että ensimmäisen sukupolven kanssa ryssittiin. Intelin tulossa olevat näyttikset olisivat pitäneet olla markkinoilla suurissa määrissä vuosi sitten tai aiemmin..

Tuolta voi katsoa, miten esim 3060 pärjää RT:ssä:
EVGA GeForce RTX 3060 XC Gaming review - DX12: Cyberpunk 2077 (guru3d.com)

Joillekuille täysin välttävä FHD resolla.
 
Viimeksi muokattu:
Intel ei koskaan ole kilpaillut laadussa AMD:n ja Nvidian irtonäyttisten kanssa. Se ei paljon auta, vaikka niitä nuhapumppu integroituja olisi toimitettu 1000000000000000000000000000000000000000000000000000000 kertainen tai isompi määrä VS AMD:n ja Nvidian yhteenlasketut näyttikset. Sillä ei ole mitään takeita, etä Intelistä tulee varteenotettava kilpailija irtonäyttksissä. Tällähetkellä vaikuttaa ainankin vahvasti, että ensimmäisen sukupolven kanssa ryssittiin. Intelin tulossa olevat näyttikset olisivat pitäneet olla markkinoilla suurissa määrissä vuosi sitten tai aiemmin..

Tuolta voi katsoa, miten esim 3060 pärjää RT:ssä:
EVGA GeForce RTX 3060 XC Gaming review - DX12: Cyberpunk 2077 (guru3d.com)

Joillekuille täysin välttävä FHD resolla.

Tuo juuri alleviivaa sitä että RT suorituskyky ei vaan yksinkertaisesti vielä riitä näissä edes jotenkin järkevänhintaisissa näytönohjaimissa. Omalla kohdalla 1440p resolla 3060 RTX On DLSS On ja FPS huimat 33. Joo ei kiitos.

hkultala vetelee aina välillä näitä hyviä olkikukkoja kehiin kuten nyt tuo että intel on ylivoimaisesti suurin näytönohjain valmista. Voi hyvänen aika.
 
intel on ylivoimaisesti suurin näytönohjain valmista. Voi hyvänen aika.
Se pitää täysin kutinsa. Vaikka Intel ei ole tehnyt ns pelinäytönohjaimia se on ihan yhtä aktiivisesti kehittänyt näyttisarkkitehtuureitaan kuin AMD ja NVIDIAkin. Intel on myös ihan tasaväkisesti siellä kärjessä tuomassa vuorollaan uusia ominaisuuksia ensimmäisenä.
 
Intel on myös ihan tasaväkisesti siellä kärjessä tuomassa vuorollaan uusia ominaisuuksia ensimmäisenä.
Mitä uusia ominaisuuksia? Onko kyse heidän omasta XeSS skaalauksesta vai jostain uudesta DisplayPort versiosta vai mistä ominaisuuksista on nyt kyse mitä intel on nyt tuomassa ensimmäisenä markkinoille?
 
Viimeksi muokattu:
Mitä uusia ominaisuuksia? Onko kyse heidän omasta XeSS skaalauksesta vai jostain uudesta DisplayPort versiosta vai mistä ominaisuuksista on nyt kyse mitä intel on tuomassa ensimmäisenä markkinoille?
Esimerkiksi Direct3D FL12_1 tuki täydellä conservative rasterization tasolla oli Intelillä pari vuotta ennen AMDta tai NVIDIAa
 
Esimerkiksi Direct3D FL12_1 tuki täydellä conservative rasterization tasolla oli Intelillä pari vuotta ennen AMDta tai NVIDIAa
Ja siitä on ollut hyötyä missä? Mikä etu intelillä oli että sai tuon feat levelin ominaisuuden integroituihin GPU piireihin ennen kun AMD ja Nvidia sai sen omiin dGPU piireihin/ajureihin leivottua?

Luulin siis aluksi että intel on tuomassa jotain uusia ominaisuuksia ensimmäisenä nyt tämän tulevan arc näyttis sukupolven myötä.

Edit. viestistä poistettu turhia kysymyksiä.
 
Viimeksi muokattu:
Se pitää täysin kutinsa. Vaikka Intel ei ole tehnyt ns pelinäytönohjaimia se on ihan yhtä aktiivisesti kehittänyt näyttisarkkitehtuureitaan kuin AMD ja NVIDIAkin. Intel on myös ihan tasaväkisesti siellä kärjessä tuomassa vuorollaan uusia ominaisuuksia ensimmäisenä.

Mikäli nyt siirretään maalitolppia niin että tässä ketjussa kun puhutaan näytönohjaimesta niin se on mikä tahansa ohjain joka kykenee kuvaa tuottamaan näytölle. Silloin pitää keskusteluun ottaa myös mobiilipuolen valmistajat. Taitaa siltä löytyä aika isoja markkinaosuuksia kun niitä löytyy varsin laajasta kirjosta laitteita.

Koko inteliä ei tämän ketjun aiheessa ole ollut kuin vasta jonkin aikaa. Siintä lähtien kun varmistui että Intel on tulossa mukaan bileisiin erillisnäytönohjaimiin. Ja ne erillisnäytönohjaimet on se juttu mistä täällä on aina väännetty, ei mistään geneerisistä näytönohjaimista joilla saadaan kuva ruudulle.

Käytännössä tässä on siis kyse lillukanvarvuista taas jälleen kerran koska kultalan pojalla on niin mieletön tarve päästä pätemään, niin heti tartuttiin tilaisuuteen kun joku unohti sanan "erillis" joista täällä on pääasiassa aina jauhettu.
 
Huomautus: Saivartelua
Taas täysin turhaa kielipoliisina riehumista sinulta. Lopeta jo toi. Todella väsyttävää.

Väsyttävämpää on valitus siitä, että kerrotaan mitä termit on suomeksi, ja virheellisen termin käytön jatkaminen senkin jälkeen, kun korrekti termi on selvästi edellisessä viestissä esitetty. Mikä ihme 1) siinä oikeiden termien käytössä 2) palautteen vastanottamisessa on niin vaikeaa?

Kannattaa katsoa peiliin ja lopettaa virheellisten termien käyttö, jos ei kestä niistä asiallistakaan palautetta. Niin kauan kun käyttää virheellisiä termejä, niistä voi saada palautetta.

Väität siis että 3060 kykenee ok RT suorituskykyyn?

En väitä.

Vaan väitän, että 3060 kykenee kelvolliseen säteenjäljityssuorituskykyyn.
 
Viimeksi muokattu:
Mikäli nyt siirretään maalitolppia

Ennen tuota viestiäsi täällä ei kukaan muu kuin jobbus ollut siirrellyt mitään maalitolppia moneen päivään.

Integroidussa näyttiksessä täytyy fyysistä pci express-PHYtä ja omaa DRAM-muistiohjainta lukuunottamatta kaikki sama logiikka kuin erillisessäkin.

Intelin on täytynyt jo aiemmin integroituja näyttiksiään varten kehittää kaikki se logiikka mikä millään tavalla liittyy sen kuvan generoimiseen sinne muistiin.

Integroiduissa näyttiksissä on ainoastaan tarvinnut olla pienempi määrä ytimiä suorituskyvyn ollessa pienempi.

niin että tässä ketjussa kun puhutaan näytönohjaimesta niin se on mikä tahansa ohjain joka kykenee kuvaa tuottamaan näytölle. Silloin pitää keskusteluun ottaa myös mobiilipuolen valmistajat. Taitaa siltä löytyä aika isoja markkinaosuuksia kun niitä löytyy varsin laajasta kirjosta laitteita.

Ei, koska arkkitehtuurillisesti kännykkäpiirien mobiilinäyttikset ovat voineet olla erilaisia, selvästi yksinkertaisempia. Niiltä ei ole vaadittu VGA-yhteensopivuutta. Niiltä ei ole vaadittu DX-tukea. Niiltä ei ole vaadittu kaikkia samoja liitäntätyyppejä. Niiltä ei ole vaadittu yhtä monen yhtäaikaisen näytön tukea. Kaikki nämä on vaadittu Intelin integroiduilta näyttiksiltä.

Koko inteliä ei tämän ketjun aiheessa ole ollut kuin vasta jonkin aikaa. Siintä lähtien kun varmistui että Intel on tulossa mukaan bileisiin erillisnäytönohjaimiin. Ja ne erillisnäytönohjaimet on se juttu mistä täällä on aina väännetty, ei mistään geneerisistä näytönohjaimista joilla saadaan kuva ruudulle.

Kun mietitään sen perusteella, että mitä tuotekehitystä ja paljonko tarvii tehdä, niin sillä, onko näyttis erillisnäyttis vai integroitu näyttis ei ole juuri mitään väliä.

Ja tässä oli kyse nimenomaan siitä, että paljonko intelillä on "tuotekehityskokemusta".

Käytännössä tässä on siis kyse lillukanvarvuista taas jälleen kerran koska kultalan pojalla on niin mieletön tarve päästä pätemään, niin heti tartuttiin tilaisuuteen kun joku unohti sanan "erillis" joista täällä on pääasiassa aina jauhettu.

Toin esille keskustelun kannalta todella oleellisia pointteja, en tullut "pätemään".

Päin vastoin; Se, että ei kestetä sitä asiallista palautetta omien kirjoitusten virheistä ja mennään henkilökohtaisuuksiin kun niitä tuodaan esille, nimenomaan kertoo siitä "pätemisen tarpeesta".
 
Viimeksi muokattu:
Vaan väitän, että 3060 kykenee kelvolliseen säteenjäljityssuorituskykyyn.

33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky? Eiköhän ne pelit vaan raskaammiksi tule tuosta joten jos tuo on kelvollinen niin voi terve.
Ja käytän RT lyhennettä jatkossakin joka on ihan yleisesti käyttöön tullut lyhenne. en ole kirjoittamassa mitään artikkeleita joissa toki suotavaa käyttää niitä virallisempia termejä.
Jos on hankaluuksia ymmärtää niin, RT = RayTracing = säteenjäljitys.
 
33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky?
En itse vetäisi mitään johtopäätöksiä RT suorituskyvystä yhden pelin perusteella. Varsinkin kun tämä yksi peli on täysi floppi ihan teknisesti vaikka RT jätetään pois (konsoli ongelmat) ja CD Project Red on epäsuorasti jo sanonut että engine on tiensä päässä (täysi romu paska) eikä sillä enää pelejä tehdä.
 
Tääkin on vähän näitä. Kultasilmät tarvitsee 9000000000000000000 fps koska on 666666666666666666 hz näyttö, tai peli täysin pelikelvotonta paskaa. Itse taas pelailen ihan tyytyväisenä jollain 30 fps:llä jos se vaan suunnilleen pysyy vakaana. Aina jos pitää valita, niin otan mieluummin lisää karkkia kuin freimejä (MP:t sit asia erikseen). Vanhalla GTX970:llä pystyi pelaamaan ihan uusimpiakin pelejä pääosin high-very high asetuksilla kun heitti varjoja pienemmälle, ja vsyncin ja AA:t vittuun. Esim. RDR2 sai tuollaisilla asetuksilla juurikin tuommoiset noin 30 FPS, mikä oli itselle täysin pelattava ja näytti upealta.

Mitä taas tulee 6800/6900XT vs. RTX3080/3090 keskusteluun, niin omat syyt vihreään leiriin päätymisessä olivat: RT, DLSS, 4K suorituskyky ja Broadcast.
 
Viimeksi muokattu:
Tääkin on vähän näitä. Kultasilmät tarvitsee 9000000000000000000 fps koska on 666666666666666666 hz näyttö, tai peli täysin pelikelvotonta paskaa. Itse taas pelailen ihan tyytyväisenä jollain 30 fps:llä jos se vaan suunnilleen pysyy vakaana.
Toisaalta ei tuossa FPS luvussa ole pelkästään silmäkarkit vaan myös kontrollit, niiden nopeus jne... Itse pidän tietyissä peleissä 30 FPS liian hitaana kontrollien takia...
 
Toisaalta ei tuossa FPS luvussa ole pelkästään silmäkarkit vaan myös kontrollit, niiden nopeus jne... Itse pidän tietyissä peleissä 30 FPS liian hitaana kontrollien takia...

Enpä ole itse kokenut ongelmana, varsinkaan jossain yksinpeleissä. Mut tääkin on taas näitä, nykyään ei kuulemma pysty pelaamaan 30 FPS, mutta voi silloin kun minä olin nuori niin pelattiin hypernopeita moninpeliräiskintöjä kuten vaikka QuakeWorldia jollain 640x480 resolla, 20 FPS ja +100 ms pingillä ja _silti_ pwnattiin. :p
 
Enpä ole itse kokenut ongelmana, varsinkaan jossain yksinpeleissä. Mut tääkin on taas näitä, nykyään ei kuulemma pysty pelaamaan 30 FPS, mutta voi silloin kun minä olin nuori niin pelattiin hypernopeita moninpeliräiskintöjä kuten vaikka QuakeWorldia jollain 640x480 resolla, 20 FPS ja +100 ms pingillä ja _silti_ pwnattiin. :p
Miksi kärsiä kun voi pelata kunnolla (Puhuin itsestäni eli kun on varaa uusia näyttis ja CPU niin miksi tyytyä 30 FPS).

Toisaalta olen myös itse kokenut tuon, et ole ainoa TekniikkaVaari täällä. Voi sitä kun eka 3DFX 3D kortti julkaistiin ja sen Monster1 sai 4 MB 2D kortin rinnalle julkkarissa....
 
Ei se keskimääräinen FPS niinkään ole kaikki kaikessa vaan se missä se matalimmillaan dippailee. Ja tuleeko ruutuja tasaisesti.

Esim joku 25-30fps on ihan ok lentosimussa jos se ei hikkaile vaan ruudut tulee tasaisin välein
 
Täysin ok jos itse tykkää pelata 30 fps ja onhan se monessa modernissa konsolipelissäkin se standardi. Onhan se fiksua kun säästää rahaa varsinkin jos haluaa vähän optimoida asetuksia peleissä vielä.

Tosin yleisesti ottaen pc pelaajat vaativat sitä vähintään 60 fps 1080p/1440p että olisi "pelattava".

Dying light 2 myös peli jossa alemman tason näytönohjaimilla loppuu puhti kesken jos ei optimoi asetuksia ja varmaan raskaampia pelejä tulee lisää.

Seuraavassa näytönohjainsukupolvessa varmaan jo aika hyvin tuo säteenseurannan suorityskyky noussut 1080p/1440p resoluutioilla myös hieman alemmissa luokissa.

Itse tosin pelaan 4k niin taidan siirtyä vasta 2024 näytönohjainsukupolvessa enintään että ns pakko olla säteenseuranta peleissä päällä.
 
33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky? Eiköhän ne pelit vaan raskaammiksi tule tuosta joten jos tuo on kelvollinen niin voi terve.
Ja käytän RT lyhennettä jatkossakin joka on ihan yleisesti käyttöön tullut lyhenne. en ole kirjoittamassa mitään artikkeleita joissa toki suotavaa käyttää niitä virallisempia termejä.
Jos on hankaluuksia ymmärtää niin, RT = RayTracing = säteenjäljitys.
Kuka yrittää pelata halppis näyttiksellä Noin isolla resolla? Eihän tuossa ole mitään järkeä. Halppisnayttiksellä pelataan FHD tai 720P resolla...

Niin ja monille tosiaankin kelpaa 30 fps ok.
 
Kuka yrittää pelata halppis näyttiksellä Noin isolla resolla? Eihän tuossa ole mitään järkeä. Halppisnayttiksellä pelataan FHD tai 720P resolla...

Niin ja monille tosiaankin kelpaa 30 fps ok.
Näköjään verkkokauppa.com myy kahden tuulettimen rtx 3060 400 eurolla.

En nyt sanoisi sitä nyt ihan halppis näyttikseksi kuitenkaan. Itse koen halppis näyttiksiksi alle 200 euron mallit.

Itse pelaan ennen päivitystä(joko rtx 3080, 4060 ti tai 4070) rtx 3060 kanssa 4k resolla joka tosin vaatii kompromisseja joidenkin pelien kanssa(asetusten tiputtamista, agressiivisempaa DLSS(balanced tai jopa performance(dying light 2 kanssa) sekä mahdollisesti NIS peleissä jotka eivät tue parempaa yliskaalausta sekä voi unohtaa säteenseurannan).

Kun pelasin 1440p resolla niin melkeinpä kaikki pelit toimivat 60+ fps ilman säteenseurantaa ainakin jos laittoi DLSS quality asetukselle.
 
33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky? Eiköhän ne pelit vaan raskaammiksi tule tuosta joten jos tuo on kelvollinen niin voi terve.
Ja käytän RT lyhennettä jatkossakin joka on ihan yleisesti käyttöön tullut lyhenne. en ole kirjoittamassa mitään artikkeleita joissa toki suotavaa käyttää niitä virallisempia termejä.
Jos on hankaluuksia ymmärtää niin, RT = RayTracing = säteenjäljitys.

16FPS 1440p resoluutiolla näkyy siinä linkin testissä olevan. (4K/DLSS quality = 1440p)
Aika kaukana minun mielestä kelvollisesta tuossa pelissä...


Ennen tuota viestiäsi täällä ei kukaan muu kuin jobbus ollut siirrellyt mitään maalitolppia moneen päivään.

Integroidussa näyttiksessä täytyy fyysistä pci express-PHYtä ja omaa DRAM-muistiohjainta lukuunottamatta kaikki sama logiikka kuin erillisessäkin.

Intelin on täytynyt jo aiemmin integroituja näyttiksiään varten kehittää kaikki se logiikka mikä millään tavalla liittyy sen kuvan generoimiseen sinne muistiin.

Integroiduissa näyttiksissä on ainoastaan tarvinnut olla pienempi määrä ytimiä suorituskyvyn ollessa pienempi.

Ihan vain ilman herneitä kysymys miten RT lyhenteen käyttäminen eroaa RAM lyhenteen käyttämisestä? Onhan RAM lyhenteellekin olemassa suomenkielinen termi (hajasaantimuisti)
 
Juuri sanoin missä on edellä ja ohitit kokonaan. Ei hänni kuten DLSS. Eli täysin typerää väittää ettei olisi missään parempi. Lisäksi FSR2.0 on vasta julkaistu kun taas DLSS on hinkattu jo monta vuotta joten on täysin perusteltua olettaa että FSR2.0 pystyy vielä parantamaan. Identtisiä niistä tuskin koskaan tulee ja loppupelissä se on katsojasta kiinni kumpi tuntuu "paremmalta"

Ilmeisesti viittaat HWU:n videoon? Missään muualla en ole tuosta häntimis hommasta ei nähnyt mitään mainintaa, vaikka aika monta arviota näiden tekniikoiden vertailusta on tullut katsottua. Googlettelun tuloksena katsoin sen HWU:n videon.

Juu todettiinhan siinä, että 20% hidastusta katsomalla saatiin esiin DLSS:n kuvasta minimaalinen häntiminen, jota ei itse pelatessa huomaa. Kaiken lisäksi se FSR 2.0 näytti minusta siinä vertailukohdassa aika samalle. Oli siinäkin pieni häntä, mutta ehkä pikku riikkisen pienempi.

Tuo on aika minimaalinen voitto, mutta annetaan se nyt sitten FSR:lle, että voidaan sanoa sen olevan edes jossain edellä.

HWU ei myöskään ilmeisesti osannut mitata sitä, että FSR 2.0 toimii huonommin AMD:n raudalla.
 
Miksi kärsiä kun voi pelata kunnolla (Puhuin itsestäni eli kun on varaa uusia näyttis ja CPU niin miksi tyytyä 30 FPS).

Toisaalta olen myös itse kokenut tuon, et ole ainoa TekniikkaVaari täällä. Voi sitä kun eka 3DFX 3D kortti julkaistiin ja sen Monster1 sai 4 MB 2D kortin rinnalle julkkarissa....

Niin ja sillä Voodoo kortillakin se FPS pyöri monissa peleissä reilusti alle 60:n eikä haitannut. :D

Toki CRT näytöllä pienempi FPS ei näyttänyt läheskään niin pahalle, kun näillä nykyisillä paneeleilla. Nykyään todennut sen, että Freesyngin kanssa joku 50-55 FPS vielä jotenkin menettelee hidastempoisemmassa pelissä, mutta sen alle ei kyllä saa yhtään mennä. Selkeä ero sulavuusessa tulee mielestäni kun mennään sinne 75 ja yli FPS lukemiin. Selvästi huomaan itse, kun FPS putoaa 75-80:stä johonkin 60-65 tasolle. Mutta 100:sta kun putoaa 85n tienoille, niin en itse juuri huomaa. Sanoisin, että jostain 90:stä eteenpäin en itse hirveästi enää huomaa eroa. Nää on hyvin subjektiivisia juttuja kyllä.
 
Kyllä itsekin aikoinaan pelasin ihan tyytyväisesti hl2 640x480 resoluutiolla huonoimmilla grafiikka-asetuksilla eikä häirinnyt yhtään. Kuitenkin nykyään haluaa, että se fps olisi ainakin 80, ja isoin syy on se kuinka kankeaksi tähtääminen muuttuu huonolla ruudunpäivityksellä. Ei sillä, että eikö voisi pelata matalammalla ruudunpäivityksellä, tulihan sitä cp2077 pelattua noin 50-70 fps:llä läpi. Kuitenkin, jos koneet ja pelaaminen on harrastus niin mielellään siihen panostaa. Uusi näytönohjain on nykyään niitä harvoja asioita mistä on yhtä täpinöissään, kuin lapsena jouluaattona. Jos siis puhutaan materiasta.
 
Viimeksi muokattu:
Aika lailla tapissa taitaa olla AMD:n refreshitkin eikä niillä tosiaan herunut sitä kärkipaikkaa edes isoimmalla mallilla. Watteja valuu piuhaa pitkin käytännössä saman verran kuin NVIDIAn kortilla. Suurilla resoluutioilla pudotaan kelkasta kun pelkät muistikakut ei enää kanna eikä säteenseurannan kiihdytys ollut onnistunut toteutus. Eli on RDNA3:lla aika paljon parannettavaa jos meinaa edukseen erottua. Todennäköisemmin tilanne jatkuu suurinpiirtein samoilla urilla seuraavassa sukupolvessakin.

power-gaming.png


Yli 30% enemmän hörppii hattiwatteja toi 3090Ti

relative-performance_3840-2160.png


Tarjoten 10% enemmän suorituskykyä. 1440p suorituskyky käytännössä tasoissa ja 1080p radeon edellä. Tämä siis refulla. 5% olivat OC:llä saaneet tuohon vielä tehoja lissää. Kuvassahan näkyy myös pari board partner korttia ja esim tuohon Sapphireen olivat saanu OC:llä noin 10% vielä tehoja lisää. Vakiona toi sapphire nosti kulutiksen johonkin 380W. Että ei ne radeonit tuon perusteella kyllä ole ihan tappiin vedettyjä. Toki 3090Ti:stä on myös partner kortteja, MSI suprim X kaiketi yksi parhaimpia(?) hörsii jo 470W ja OC:lla siitä oli saatu vajaa 5% lisää pihalle tehoja.

Että en nyt mitenkään näe että nvidialla olisi jokin merkittävä etumatka olemassa. Sellainen oli joskus, ei enää. Mitä tulee RT tehoihin, siinä toki nvidia on edellä, varsinkin niissä tapauksissa jotka on toteutettu aikana enne rdna2:sta. Myöhemmin tulleissa peleissä joissa radeonin toteutustakin on päästy jo kehitysvaiheessa testaamaan ero ei ole niin suuri.
Ja loppupelissä sillä ei niin hirveästi ole edes väliä kun molempien RT suorituskyky on vielä tuhnu. Toisen vaan on tuhnumpi.

Täysin en myöskaan allekirjoita tuota väitettä että AMD:n muistikaista/cache ratkaisu jarruttaisi 4K resolla kun sapphiresta oli saatu 10% tehoja lisää. Eiköhän se ole ihan teknisistä toteutuksista johtuvaa kun nvidia tavallaan tuplasi cuda määrän per SM niin eivät vaan saa niitä ruokittua tarpeeksi tehokkaasti alemmilla resoilla ja 4K:lla sitten alkaa vasta toimia kortti ns. optimaalisesti.

Tuossa kun noita kulutus kuvia kattelin pitkästä aikaa niin ittellä pisti silmiin tämä testi joka ittelle ainakin tuli uutena tuttavuutena. Voi olla että on ollut jo pidempään, mutta on mielenkiintoinen.

power-vsync.png


Mielenkiintoista miten hurja ero tehonkulutuksessa on 3090Ti:n hyväksi. Joko AMD:llä on työmaata kulutuksen optimoinnin kanssa ajuripuolella, niillähän on yhtenään ollu ongelmana esim. tupla monitorin kanssa kova kulutus, joka taitaa taas olla ongelmana. En ymmärrä mit' ne oikein touhuaa kun aina välillä se korjataan ja sitten se palaa takas.
Ihan kuin siellä olisi pari eri porukkaa koodaamassa ajureita ja vuoron perään kumoavat toistensa muutoksia.
Tai sitten tässä näkyy se cuda määrän ylivoima, voidaan louskuttaa menemään todella alhaisilla kelloilla ja jännitteellä.

RX6950XT refu
power-consumption.png


RTX3090Ti Founders
power-consumption.png


On aika helvetin ruma toi radeonin V-Sync (60 FPS) logitus.
 
Täysin en myöskaan allekirjoita tuota väitettä että AMD:n muistikaista/cache ratkaisu jarruttaisi 4K resolla kun sapphiresta oli saatu 10% tehoja lisää.

Nämä tulokset nimenomaan tukee sitä.

6950XT vs 6900XT ytimessä hyvin pienet (3-4%) kellotaajuuslisät, mutta muistilla 12.5 % kellotaajuuslisä.

Mikäli muisti EI olisi pullonkaula, 6900XT pärjäisi selvästi paremmin ja 6950XTn antama nopeuslisä olisi paljon lähempänä sitä ytimien kellotaajuuksien eroa.
 
Nämä tulokset nimenomaan tukee sitä.

6950XT vs 6900XT ytimessä hyvin pienet (3-4%) kellotaajuuslisät, mutta muistilla 12.5 % kellotaajuuslisä.

Mikäli muisti EI olisi pullonkaula, 6900XT pärjäisi selvästi paremmin ja 6950XTn antama nopeuslisä olisi paljon lähempänä sitä ytimien kellotaajuuksien eroa.

Tarkoitin kylläkin että refulla ainoastaan 5% saatiin OC:lla eroa vakioon kun nitrolla sitä eroa saatiin 10%. Eli saman nopeutiset muistit on refussa ja nitrossa kun molemmat on 6950.
 
Tarkoitin kylläkin että refulla ainoastaan 5% saatiin OC:lla eroa vakioon kun nitrolla sitä eroa saatiin 10%. Eli saman nopeutiset muistit on refussa ja nitrossa kun molemmat on 6950.
Refu 6950XT kulkee Techpowerupin mukaan vakiona GPU avg. 2405 MHz ja Mem 2250 MHz (25 games avg. sis. Cyberpunk ja tod. näk. aidat vs. aidanseipäät -virheen).

Ylikellotettuna GPU avg. 2521 MHz ja Mem 2325 MHz. Kasvua 4,8 %@GPU ja 3,3 %@Mem. Heavenin suorituskyky parani hieman yllättäen peräti 5,2 % (253,0 fps vs. 240,4 fps).


Nitro 6950XT vakiona GPU avg. 2570 MHz ja Mem 2250 MHz. Kasvua (vs. refu OC) 1,9 %@GPU ja -3,2 %@Mem. Heavenin suorituskyky (vs. refu OC) heikkeni 0,2 % (252,5 fps. vs. 253,0 fps). Ytimessä on 1,9 % enemmän kelloja, mutta silti tulos oli inasen heikompi. Muistikaista näyttäisi ahdistavan.

Ylikellotettu Nitro GPU avg. 2807 MHz ja Mem 2350 MHz. Kasvua (vs. vakio Nitro) 9,2 %@GPU ja 4,4 %@Mem. Heaven +10,6 % (279,2 fps vs. 252,5 fps). Yllättävän paljon piristyi. Nitro OC vs. refu OC +11,3 %@GPU ja +1,1 %@Mem. Heaven +10,4 %. Näiden perusteella muistikaista taas vaikuttaisi riittävältä, jolloin ytimen kellotus ns. menee perille asti.


Heaven on vain Heaven ja lisäksi virhettä tulee siitä, että kellotaajuudet olivat peräisin peleistä eikä Heavenista. Katsotaanpa seuraavaksi oleellisempaa, eli 25 pelin keskiarvoa@UHD (Techpowerup) ja otetaan mukaan vanha 6900XT.

Ensin speksit GPU avg./Mem@1080p/1440p 25 games:
Vakio refu 6900XT 2233 MHz/2000 MHz
Vakio refu 6950XT 2405 MHz/2250 MHz
Vakio Nitro 6950XT 2570 MHz/2250 MHz

Suorituskyky:
6900XT 94 %
6950XT 100 %
Nitro 6950XT 104,4 % (94 * 100 / 90)

6950 vs. 6900: +6,4 % (+7,7 %@GPU ja +12,5 %@Mem)

Nitro 6950 vs. 6950: +4,4 % (+6,9 %@GPU ja +0 %@Mem)

Viimeisessä suorituskykyä tuli lisää, vaikka kaista ei kasvanut. Sitä edellinenkin näyttäisi olevan GPU-rajoitteinen. Olen yllättynyt - etenkin tuosta 6950 vs. 6900:sta, minkä perusteella 6900 ei olisikaan niin kaistapulainen kuin kuvittelin. Mitä tähän sanoo @hkultala ? Käytin todellisia kaikkien pelien (1080p/1440p) keskimääräisiä kellotaajuuksia.



 
Viimeksi muokattu:
Yli 30% enemmän hörppii hattiwatteja toi 3090Ti

Jänniä lukuja kun näissä tilanne on aika eri:



Että en nyt mitenkään näe että nvidialla olisi jokin merkittävä etumatka olemassa. Sellainen oli joskus, ei enää.

Minä toki viestissäni väitin nimenomaan toisinpäin, että aika lailla samoissa luvuissa pyöritään.

Täysin en myöskaan allekirjoita tuota väitettä että AMD:n muistikaista/cache ratkaisu jarruttaisi 4K resolla kun sapphiresta oli saatu 10% tehoja lisää

Sama tässä; en väittänyt että se mitään jarruttaisi, kakku ei vaan tarjoa samoja hyötyjä kuin alemmilla resoilla.
 


Tosiaan iso osa ylihintaisista näytönohjaimista 2021 jälkeen mennyt mainaajille ja kun katsoo Steamin tilastoja mitä näytönohjaimia pelaajilla on niin taitaa olla oikea oletus että peruspelaajat(jotka eivät ole tällä foorumilla) ovat jättäneet päivittämättä näytönohjaimiaan uusimpiin malleihin johtuen super korkeista hinnoista ja Nvidian sekä Amd oletus että massoilta voitaisiin nyhtää paljon ylimääräistä voi olla väärä.

Voi olla että syksyllä tulevan sukupolven hinnat ei ole ihan poskettomat siinä rx 7800 xt ja alle tai rtx 4080 ja alle ainakaan pidemmän päälle vaikka on totta että kustannukset ovat nousseet mutta toisaalta alentunut kysyntä voi pakottaa Nvidian ja Amd vielä tiputtelemaan hintojaan(katteensa kustannuksella) jotta saavat kohtuullisesti näytönohjaimia myytyä.
 
Voi olla että syksyllä tulevan sukupolven hinnat ei ole ihan poskettomat siinä rx 7800 xt ja alle tai rtx 4080 ja alle ainakaan pidemmän päälle vaikka on totta että kustannukset ovat nousseet mutta toisaalta alentunut kysyntä voi pakottaa Nvidian ja Amd vielä tiputtelemaan hintojaan(katteensa kustannuksella) jotta saavat kohtuullisesti näytönohjaimia myytyä.

Tosin nykytilanteessa on tainnut pääasiassa olla muut tahot kuin AMD / Nvidia jotka on kuorineet kermat kakun päältä. Kortinvalmistajat / tukkurit varmaankin eniten vaikuttaneet hintojen nousuun.
 

Statistiikka

Viestiketjuista
297 788
Viestejä
5 077 687
Jäsenet
81 373
Uusin jäsen
saneski

Hinta.fi

Back
Ylös Bottom