Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Ei taida kaikki ylimääräinen kate näytönohjaimista mennä piirivalmistajalle tai nVidia/AMD:lle.
ASUS on tehnyt erityisesti korkeilla näytönohjainten hinnoilla sellaiset riemuvoitot, että työntekijöille jaetaan huippubonuksia:

ASUS’s performance has risen sharply. In 2021 , it will mainly benefit from two factors. One is the PC business. The demand for notebooks and desktops has soared due to games and telecommuting. Another important reason is the mining card. The graphics card mining fever runs throughout the year. The price of RTX 30 and RX 6000 series graphics cards has doubled, and ASUS is the only manufacturer that spans AMD/NVIDIA among the major manufacturers, and the profit of the graphics card (GPU) business has increased several times.
...
The bonuses include up to NT$ 1.5 billion which is roughly 344 Million Yuan or around $55,000 US. The news outlet reports that this bonus is equivalent to 2-3 months of salary. There were also on-site rewards that included cars and cash prizes exceeding NT$ 10 million.

 
  • Tykkää
Reactions: aop
Ei taida kaikki ylimääräinen kate näytönohjaimista mennä piirivalmistajalle tai nVidia/AMD:lle.
ASUS on tehnyt erityisesti korkeilla näytönohjainten hinnoilla sellaiset riemuvoitot, että työntekijöille jaetaan huippubonuksia:

ASUS’s performance has risen sharply. In 2021 , it will mainly benefit from two factors. One is the PC business. The demand for notebooks and desktops has soared due to games and telecommuting. Another important reason is the mining card. The graphics card mining fever runs throughout the year. The price of RTX 30 and RX 6000 series graphics cards has doubled, and ASUS is the only manufacturer that spans AMD/NVIDIA among the major manufacturers, and the profit of the graphics card (GPU) business has increased several times.
...
The bonuses include up to NT$ 1.5 billion which is roughly 344 Million Yuan or around $55,000 US. The news outlet reports that this bonus is equivalent to 2-3 months of salary. There were also on-site rewards that included cars and cash prizes exceeding NT$ 10 million.

Jep, NVIDIA:n ja AMD:n interesseissä on, että kortit päätyisivät pelaajille (markkinaosuus, ekosysteemi jne), mutta AIB partnereille tuolla ei ole niin väliä, kunhan vaan myydään mahdollisimman kalliilla. NVIDIA ja AMD investoivat kuitenkin kumpikin pelien kehitystyöhön ja puhtaasti pelaamiseen liittyvään teknologiaan ja nuo investoinnit menevät hukkaan, jos tuotteet eivät päädy pelaajille ja kaupanpäälisiksi päälle sataa syyttelyt tuotteiden myymisestä suoraan mainereille. Ahneitahan NVIDIA ja AMD ovat, se on niiden lakisääteinen tehtävä (tuottaa voittoa omistajilleen), mutta tuskin kumpikaan tietoisesti sabotoisi PC-pelaamista, koska siinä valuisivat pitkän ajan investoinnit hukkaan.
 
Ei mennyt ennen, mutta esim tuosta 3080 12 Gt: stä NVIDIAkin taitaa saada jo leveämpää leipää, sama muissa tulevissa uusissa ja AMDllä varmastikin on huolehdittu RX6500:ne omat osuudet kuntoon
 
Onks tää nyt sit vuosi kun valmistajat kisaa siitä että kuka onnistuu paskomaan jossain asiassa kaikkein parhaiten?

Nvidia onnistui jo yhden varsin mitäänsanomattoman huonon markkinointi slaidin julkaisemaan ja sama meno senkuin jatkuu.

 
Ei tuo Intelin GPU ihan huono voi olla.


Saman benchmarkin top listaa kun katsoo, niin esim Vega VII voittaa voittaa 3080TI ja 3090 kortit. Eli ei se nyt vielä kauheasti kerro pelinopeudesta.
 
RTX 3050 oli nolo lipan alitus. Huonompaa hintaperffiä kuin last-genissä? Toi kortti on hyvä julistus konsolipelaamisen ihanuudesta.

Ei tää nykytilanne palvele ketään. Konsolipelejä pitää pian nerffata, että pyörivät pc:llä. *huutonauru*
 
RTX 3050 oli nolo lipan alitus

Ekan Google-osuman mukaan läppäreiden markkinat dollareissa on noin kolminkertaiset pöytäkoneisiin verrattuina vuonna 2025.

3050 voi tulla läppäreiden kautta markkinoille melko hyvällä hinta-laatusuhteella, kun läppäreitä ei pahemmin osteta louhintaan.
 
Ekan Google-osuman mukaan läppäreiden markkinat dollareissa on noin kolminkertaiset pöytäkoneisiin verrattuina vuonna 2025.

En ihmettelisi yhtään tässä markkinatilanteessa. Läppäreiden hinta ei ole noussut yhtä aggressiivisesti kuin irtokomponenttien ja varsinkin GPU:iden. RTX 3060 -kannettavan voi saada halvimmillaan tonnilla, kun pelkkänä irtokorttina se maksaa n. 600€. Siitä ei montaa satkua jäisi keskusyksikkömallille jaettavaksi monitorille, muistille, emolle, SSD-levylle, virtalähteelle ja näppikselle. Peliläppäri on kokonaisuutena kustannustehokkaampi ja virtapihimpikin vielä. Ainoat isot miinukset on mahdollisesti lämpö ja melu.
 

Intel aikoo myydä yli neljä miljoonaa näytönohjainta tänä vuonna tosin luku sisältää myös läppärit ja työkäyttöön tarkoitetut.

Toivonmukaan ovat vähän alakanttiin laskeneet.
 
DLSS on nyt "Open source", halusi papa J sitä taikka ei. :P

 
DLSS on nyt "Open source", halusi papa J sitä taikka ei. :p


Foliohattuni sanoo, että vuoto oli tahallinen. Mutta oli miten oli, tämä tietää vain hyvää open sourcelle ja pitkällä tähtäimellä myös Nvidialle. Esim. Linux-puolella harrastelijakoodarit saavat nyt varmasti ripeämmin DLSS-tuen toimimaan eri distroilla kuin Nvidia. Tosin Nvidiaa nyt ei Linux muutenkaan kiinnosta.
 
Foliohattuni sanoo, että vuoto oli tahallinen. Mutta oli miten oli, tämä tietää vain hyvää open sourcelle ja pitkällä tähtäimellä myös Nvidialle. Esim. Linux-puolella harrastelijakoodarit saavat nyt varmasti ripeämmin DLSS-tuen toimimaan eri distroilla kuin Nvidia. Tosin Nvidiaa nyt ei Linux muutenkaan kiinnosta.

Mun fiilis on, että hakkerit yrittävät kiristää nvidialta rahaa. Vuotavat pikkuhiljaa tavaraa, jos nvidia ei maksa lunnaita. Voivat kyllä vuotaa sen 1TB varastettua dataa vaikka lunnaat maksaisikin.

Huhun mukaan tuolla 1TB joukossa olis täydet gpu-ajurit, piirien suunnitelmat jne jne.

Samasta vuodosta jaettu ulos myös tietoja nvidian tulevista piireistä. Linkin päässä mitä ADA versiota on tulossa ja koodinimi piirille mikä lienee tulossa ADA:n ja Hopperin jälkeen

 
Viimeksi muokattu:
Tää topikki on vähän painunu näemmä unholaan joten koitetaampas herätellä.

Intel se tuntuu jatkavan konttaamista noiden GPU julkaisujen kanssa. Jotain läppäri sirua on saatu markkinoille ja ilmeisesti OEM käyttöön jotain korttia. Mutta DYI markkinoille niitä taidetaan "joutua" odottelemaan vielä tovi. Ilmeisesti heilahtaa loppu kesään taikka syksyyn. Voi olla että alkaa olla vähän myöhästä jo siinä vaiheessa julkaista kun AMD ja nvidia on tuomassa jo uutta geniä. Ei tietenkään sinne halvimpaan päähän, elleivät sitten halua sotkea intelin suunnitelmia entisestään.
 
Joo, Intel taisi kompuroida ARCin julkaisun oikein kunnolla. Ajurien koodausko se nyt sitten oli se Akilleen kantapää, mene ja tiedä. Sweet spotti Intelille hyökätä GPU-markkinoille olisi ollut viimeistään tämän vuoden alussa kun pula oli vielä akuuttia. Nyt kun AMD:tä ja Nvidiaa alkaa saada hyllystä kohtuullisesti, niin ainoa keino Intelille saada näkyvyyttä ja markkinarakoa olisi polkea kunnolla hintoja. Eivät taida lähteä siihen.
 
Nyt kun AMD:tä ja Nvidiaa alkaa saada hyllystä kohtuullisesti, niin ainoa keino Intelille saada näkyvyyttä ja markkinarakoa olisi polkea kunnolla hintoja. Eivät taida lähteä siihen.

Niin että Intel ei aio edes valmistaa noita? Aika hurja väite.
 
Nvidia kuitenkin valmisti ainakin viime vuoden puolella n. 13 miljoonaa piiriä/korttia kvartaalissa ja näitä ARC piirejä tehdään vuodessa neljä miljoonaa (tai aikomus siis tänä vuonna tehdä) joten eihän näitä nyt muutenkaan ihan joka oksalla kasva.

Mutta onhan tämä lanseeraus ollut totuuden venyttämistä parhaimmillaan kun julkaisu tapahtuu vain tehottomammilla piireillä, vain OEM kanavaan ja vain Kiinassa (oliko peräti alkuun vain yksi malli vieläpä). Aikataulukin osuu mahdollisesti vain juuri ja juuri ilmoitettuun noillakin rajoitteilla.
 
Nvidia kuitenkin valmisti ainakin viime vuoden puolella n. 13 miljoonaa piiriä/korttia kvartaalissa ja näitä ARC piirejä tehdään vuodessa neljä miljoonaa (tai aikomus siis tänä vuonna tehdä) joten eihän näitä nyt muutenkaan ihan joka oksalla kasva.

Mutta onhan tämä lanseeraus ollut totuuden venyttämistä parhaimmillaan kun julkaisu tapahtuu vain tehottomammilla piireillä, vain OEM kanavaan ja vain Kiinassa (oliko peräti alkuun vain yksi malli vieläpä). Aikataulukin osuu mahdollisesti vain juuri ja juuri ilmoitettuun noillakin rajoitteilla.
No siis Intel nyt on kommunikoinnin suhteen sellainen koijarifirma. Viimeiset viis tai kuus osavuosirapsaakin ollut sellaista seliselipaskaa missä datacenterpuolen huonoa menoa on selitetty ties millä, markkinoiden saturaatiolla tai termillä "cloud digestion". Oikeasti siellähän menetetään markkinaa AMD:lle mutta sitä ei kehdata sanoa.

Q2:ssa piti tulla ulos 3060-3070 tason kortteja, nyt sieltä tulee pelkästään pikkutuhnuja Kiinan markkinoille. Jos syytä pitäisi veikata, niin veikkaisin ajureiden laadun olevan sillä tasolla että ne piirit oli pakko laittaa jonnekin synkkään kolkkaan myyntiin ettei englanninkielisen techmedian Linukset ja tukkajeesukset tyrmää noita täysin. Intelit graffa-ajurit ovat peruskäytössä täysin toimivia, mutta auta armias jos yrität pelata jotain vähän uudempaa.

Alkaa Rajan CV näyttää aika floppivoittoselle... :smoke:
En laittais tätä Rajan piikkiin. Eikä Rajan stintti AMD:llä ollut pelkkä floppi. Kommunikoinnin suhteen joo, sieltähän tuli niitä legendaarisia RX 480 Crossfire vs GTX 1080 markkinointislaideja ja ties mitä muuta, mutta RDNA:n kehitystyö aloitettiin kuitenkin hänen alaisuudessaan, ja se on tuottanut AMD:lle hedelmää. Pitää muistaa että firma oli silloin aikapitkälti hätätilassa ja rahat on erittäin tiukassa.
 
Niin että Intel ei aio edes valmistaa noita? Aika hurja väite.

Ei kun meinasin että Intel on uusi tekijä GPU-markkinoilla. Jos ensijulkkari on totaalifloppi, sen imagotappiota saa parannella vuosia ja varmaan juuri sen takia kunnon julkkari venyy ja venyy. Mutta loputtomiin ei voi siirtää julkkariajankohtaakaan, sekin kostautuu kun asiakkaat kuitenkin haluaisivat edes jotain konkreettista. Intel on nyt vähän puun ja kuoren välissä koska kilpailijat eivät odota. Joten jos sieltä ei syksyllä pukata ulos kunnon jeesusnäytönohjainta, niin milläs kosiskelet asiakkaita jos arviot näyttää välttävää, ajurit bugittaa ja kortit jää hyllyyn? Sakkaavaa myyntiä voi korjata lähinnä hinnanalennuksilla.

Se paras sauma, milloin ok-tasonkin näyttis vaikka sitten vähän bugisilla ajureilla olisi kelvannut, on nyt mennyt. Nvidialla ja AMD:llä on ajurit kunnossa, tehtaat puskee koko ajan lisää näyttiksiä ja Intelillä on.. niin, eipä juuri mitään. Vieläkään. Mikä on harmi, koska jos kaikki tähdet olisivat olleet oikeissa asennoissa, niin olisin mieluusti itsekin laittanut sen halvimmaksi arvioidun (~200€) Alchemistin testiin.
 
Ei se pitäisi olla kellekään yllätys, että kilpailulle markkinalle, jolla on 2 toimijaa, jotka ovat kehitelleet tuotteita yli 20 vuotta pystyy tulemaan kilpailija, joka on harrastanut aisaa lähinnä hyvin sivutoimisesti ja pienellä osalla markkinaan (perus integroituja).

Saattaa vielä käydä niinkin, että intel toteaa tälläkin kertaa, jotta eipä kannata ja homma hyytyy pariin sukupolveen..
Ainut mikä on nyt on se, että valmistustekniikka asettaa rajat GPU:den kehitykselle.
 
Se paras sauma, milloin ok-tasonkin näyttis vaikka sitten vähän bugisilla ajureilla olisi kelvannut, on nyt mennyt. Nvidialla ja AMD:llä on ajurit kunnossa, tehtaat puskee koko ajan lisää näyttiksiä ja Intelillä on.. niin, eipä juuri mitään. Vieläkään. Mikä on harmi, koska jos kaikki tähdet olisivat olleet oikeissa asennoissa, niin olisin mieluusti itsekin laittanut sen halvimmaksi arvioidun (~200€) Alchemistin testiin.

Joo juna on jo mennyt. Vieläkin ehtisi jälkibileisiin mukaan mutta jos syksyyn menee niin auttamatta liian myöhässä. Joten kannattaakohan näitä kyseisiä malleja alkaa sen suuremmin sitten edes julkaisemaan? Julkaistaan hiukan johonkin kiinan markkinoille jotta katteettomat lupaukset jotenkin täyttyy ja keskitytään seuraavaan geniin?

Tuossa kun on tosiaan se vaaraa että AMD ja nvidia voisivat halutessaan kampittaa syksyllä tuon intelin julkkarin aika pahasti julkaisemalla omat lowend kortit ennen highend kortteja. Kun nyt on huhuiltu että intel pääsisi johonkin 3070 vastaaviin nopeuksiin maksimissaan, niin next gen korteissahan tuo nopeus alkaa olla jo aika tuhnua.
 
Intelin nämä ekat GPU:t ovat sinänsä harjoittelua. Omia tehtaita kuitenkin on ja kapasiteettia sen osalta todella paljon, joten jahka muutaman sukupolven jälkeen saadaan tuotteet ulos omista tehtaista niin tilanne muuttuu kustannuksien (ja tietty saatavuuden) osalta merkittävästi. Tällä hetkellä ovat kuitenkin samassa veneessä muiden TSMC:ltä piirejä saavien kanssa, joten kustannusetua on vaikea kaivaa.
 
Harmillisen vähän tuolla AMD 6800/6900 ketjussa on keskustelua. Luulis, että porukka noita AMD kortteja myös haluaisi, kun kuitenkin 6900 XT on huomattavasti tehokkaampi, kuin vaikka normi RTX 3080. Itsellä kaksi 3080 korttia ollut ja nyt 6900 XT, niin kyllä ero on todella suuri 6900 XT:n eduksi 3440x1440 resoluutiolla. Varmaan paras esimerkki on halo, missä voi nyt huoletta laittaa asetukset täysille, kun taas 3080:n kanssa piti mennä med-high asetuksilla, että fps pysyi sulavana. Tietty silloin kun RT:n laittaa päälle, niin tulee Nvidiaa ikävä.

Edittiä vielä sen verran, että kyllä 6900 XT pätkii mennen tullen 3080 rasteroidussa grafiikassa, ja sitä varmaan ei kukaan edes epäile
 
Viimeksi muokattu:
Harmillisen vähän tuolla AMD 6800/6900 ketjussa on keskustelua. Luulis, että porukka noita AMD kortteja myös haluaisi, kun kuitenkin 6900 XT on huomattavasti tehokkaampi, kuin vaikka normi RTX 3080. Itsellä kaksi 3080 korttia ollut ja nyt 6900 XT, niin kyllä ero on todella suuri 6900 XT:n eduksi 3440x1440 resoluutiolla. Varmaan paras esimerkki on halo, missä voi nyt huoletta laittaa asetukset täysille, kun taas 3080:n kanssa piti mennä med-high asetuksilla, että fps pysyi sulavana. Tietty silloin kun RT:n laittaa päälle, niin tulee Nvidiaa ikävä.

Mitä tarkalleen tarkoitat tuolla FPS -sulavana kommentilla. Oma 3090 pitää kyllä FPS:n tuolla resolla "sulavana" ilman ongelmia. Toki tuo on vähän 3080:aa tehokkaampi, mutta en usko, että silläkään olisi ongelmia.

Enemmän tuossa pelissä pisti hanttiin vanha 3700x. Kun vaihtui prossu 5800x3d malliin, niin FPS nousi selkeästi tuolla open world osuuksista.

Ja mitä noita virallisia infiniten benchmarkkeja katellu, niin 3080 on vähän 6900xt:n edellä.

Tuo RT:n se on, minkä takia moni varmasti mieluummin ottaa NVIDIA:n kortin. Ja aiemmin oli DLSS siihen lisäksi. Nyt FSR 2.0 tasoittaa tuota etua aika paljon, vaikka ihan DLSS:n tasolle ei vielä yllääkkään.
 
Mitä tarkalleen tarkoitat tuolla FPS -sulavana kommentilla. Oma 3090 pitää kyllä FPS:n tuolla resolla "sulavana" ilman ongelmia. Toki tuo on vähän 3080:aa tehokkaampi, mutta en usko, että silläkään olisi ongelmia.

Enemmän tuossa pelissä pisti hanttiin vanha 3700x. Kun vaihtui prossu 5800x3d malliin, niin FPS nousi selkeästi tuolla open world osuuksista.

Ja mitä noita virallisia infiniten benchmarkkeja katellu, niin 3080 on vähän 6900xt:n edellä.

Tuo RT:n se on, minkä takia moni varmasti mieluummin ottaa NVIDIA:n kortin. Ja aiemmin oli DLSS siihen lisäksi. Nyt FSR 2.0 tasoittaa tuota etua aika paljon, vaikka ihan DLSS:n tasolle ei vielä yllääkkään.
Ainakin tämän testin mukaan 6900 XT pätkii jopa 3090 halossa. Halo Infinite Benchmarked: Master Chief Eats Tons of VRAM | Tom's Hardware (tomshardware.com)
3080:lla fps tippui sinne 60-70 maastoon, kun taas 6900 XT:llä minimi siellä 80-90 maastossa. Pitää myös ottaa huomioon, että molemmat oli tappiin kellotettuja, esim. io-techin testissä 6900 XT boostasi noin tuonne 2200MHz, kun taas omalla kellotetulla boostit ovat 2700MHz ja tuo 500MHz tuo aika ison eron jo, jos vertaa että yleensä nuo testit ajetaan vakiolla. Myös tuo kellotettavuus on AMD:llä ihan eri tasolla, koska 3080 korttien maksimi on siellä noin 2000MHz ja ehkä vähän yli, kun taas AMD:n kortit kellottuvat aika paljonkin vakiosta. Prossuna molemmilla näyttiksillä on ollu 12700K 5GHz.
 
Ainakin tämän testin mukaan 6900 XT pätkii jopa 3090 halossa. Halo Infinite Benchmarked: Master Chief Eats Tons of VRAM | Tom's Hardware (tomshardware.com)
3080:lla fps tippui sinne 60-70 maastoon, kun taas 6900 XT:llä minimi siellä 80-90 maastossa. Pitää myös ottaa huomioon, että molemmat oli tappiin kellotettuja, esim. io-techin testissä 6900 XT boostasi noin tuonne 2200MHz, kun taas omalla kellotetulla boostit ovat 2700MHz ja tuo 500MHz tuo aika ison eron jo, jos vertaa että yleensä nuo testit ajetaan vakiolla. Myös tuo kellotettavuus on AMD:llä ihan eri tasolla, koska 3080 korttien maksimi on siellä noin 2000MHz ja ehkä vähän yli, kun taas AMD:n kortit kellottuvat aika paljonkin vakiosta. Prossuna molemmilla näyttiksillä on ollu 12700K 5GHz.

Ja tämä testi taas näyttää toista.


Toki jos noin hyvin saa ylikelloja, niin voi olla jo vaikutusta.
 
Ja tämä testi taas näyttää toista.


Toki jos noin hyvin saa ylikelloja, niin voi olla jo vaikutusta.
Paha sanoo noista testeistä, kun löytyy sekä että missä on AMD edellä ja missä Nvidia edellä. Tiedä sitten mikä vaikuttanut, mutta omalla kokoonpanolla selvästi on etua AMD:n hyväksi. Ihan tasan tarkkaan muistan kuinka jouduin Nvidialla laskemaan asetuksia ja ihmettelin miten AMD:llä pyörii niin hyvin. 3080 kellot olivat 1970MHz, muistit +600MHz ja powerlimit 450W.
 
Enemmän tuossa pelissä pisti hanttiin vanha 3700x. Kun vaihtui prossu 5800x3d malliin, niin FPS nousi selkeästi tuolla open world osuuksista.

Se on se nvidiaa vaivaava ongelma. Ajurit lykkää prossulle huomattavasti enemmän kuormaa verrattuna amd jonka takia hiukan tuhnummalla prossulla näkyy selviä eroja amd:n hyväksi kun laitetaan vastakkain suht samantehoiset kortit tehokkaalla prossulla.

Tuo RT:n se on, minkä takia moni varmasti mieluummin ottaa NVIDIA:n kortin. Ja aiemmin oli DLSS siihen lisäksi. Nyt FSR 2.0 tasoittaa tuota etua aika paljon, vaikka ihan DLSS:n tasolle ei vielä yllääkkään.

RT on edelleen ihan alkuvaiheessa kehitystä ja pari geniä vaaditaan eteenpäin jotta se alkaa olla sellaisissa tehoissa että massatkin siitä pääsee jossain määrin nauttimaan. Joku RTX3080/90 tason RT alkaa olla sellainen joka vaaditaan niihin budjetti kortteihin, jotta voidaan alkaa puhua RT:n murroksesta. Siihen menee se pari geniä.

Ja FSR2.0 on aika paha vielä sen suurempia jontopäätöksiä mennä tekemään kun on vasta yhdessä pelissä päästy testaamaan. Mutta kyllähän ne aika tasoissa on. DLSS onnistuu jossain paremmin ja FSR2.0 toisaalla. Suurin ero oli varmaankin se että FSR2.0 ei aiheuta häntimistä kuten DLSS tuossa kyseisessä pelissä.
Odotellaan lisää pelejä ennen voittajan julistuksia ja veikkaampa että voittajaa on aika vaikea julistaa koska noi erot on monesti sitten makuasioita. FSR2.0 taisi saada aikaiseksi myös hiukan terävämmän kuvan, jonka joku voi laske plussaksi ja toinen miinukseksi.

Ja tämä testi taas näyttää toista.


Toki jos noin hyvin saa ylikelloja, niin voi olla jo vaikutusta.


Siinä suht tuore 50 pelin vertailu jossa 3080 ja 6800XT varsin tasoissa. Kun 6900XT on aina hiukan nopeampi kuin 6800XT, niin kyllähän se 6900XT hiukan vie 3080:stä. Tuo on jo jonkin ikäinen testi ja:

21.12.1 release notes

  • Halo Infinite™
    • Up to 17% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6900 XT graphics card, versus the previous software driver version 21.11.3.RS-434
    • Up to 19% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6800 XT graphics card, versus the previous software driver version 21.11.3.RS-435
    • Up to 16% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 12 GB Radeon™ RX 6700 XT graphics card, versus the previous software driver version 21.11.3.RS-436

Eli eiköhän se RTX3080 nykyään saa pannuun.

EDIT: niin ja vastahan AMD julkaisi previkka "jumal" ajurit jotka tuo joihinkin DX11 peleihin lisää jerkkua, myös DX12 peleissä joissain tuli lisää suorituskykyä. Siitä ei ole käsitystä mikä on vaikutus kyseiseen peliin.
 
Viimeksi muokattu:
Se on se nvidiaa vaivaava ongelma. Ajurit lykkää prossulle huomattavasti enemmän kuormaa verrattuna amd jonka takia hiukan tuhnummalla prossulla näkyy selviä eroja amd:n hyväksi kun laitetaan vastakkain suht samantehoiset kortit tehokkaalla prossulla.



RT on edelleen ihan alkuvaiheessa kehitystä ja pari geniä vaaditaan eteenpäin jotta se alkaa olla sellaisissa tehoissa että massatkin siitä pääsee jossain määrin nauttimaan. Joku RTX3080/90 tason RT alkaa olla sellainen joka vaaditaan niihin budjetti kortteihin, jotta voidaan alkaa puhua RT:n murroksesta. Siihen menee se pari geniä.

Ja FSR2.0 on aika paha vielä sen suurempia jontopäätöksiä mennä tekemään kun on vasta yhdessä pelissä päästy testaamaan. Mutta kyllähän ne aika tasoissa on. DLSS onnistuu jossain paremmin ja FSR2.0 toisaalla. Suurin ero oli varmaankin se että FSR2.0 ei aiheuta häntimistä kuten DLSS tuossa kyseisessä pelissä.
Odotellaan lisää pelejä ennen voittajan julistuksia ja veikkaampa että voittajaa on aika vaikea julistaa koska noi erot on monesti sitten makuasioita. FSR2.0 taisi saada aikaiseksi myös hiukan terävämmän kuvan, jonka joku voi laske plussaksi ja toinen miinukseksi.




Siinä suht tuore 50 pelin vertailu jossa 3080 ja 6800XT varsin tasoissa. Kun 6900XT on aina hiukan nopeampi kuin 6800XT, niin kyllähän se 6900XT hiukan vie 3080:stä. Tuo on jo jonkin ikäinen testi ja:

21.12.1 release notes

  • Halo Infinite™
    • Up to 17% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6900 XT graphics card, versus the previous software driver version 21.11.3.RS-434
    • Up to 19% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6800 XT graphics card, versus the previous software driver version 21.11.3.RS-435
    • Up to 16% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 12 GB Radeon™ RX 6700 XT graphics card, versus the previous software driver version 21.11.3.RS-436

Eli eiköhän se RTX3080 nykyään saa pannuun.

En kai mitään puhunut siitä, että milloin "massat" pääsee nauttimaan RT:n mahdollistamista grafiikkaherkuista. Sanoin vaan, että se RT teho on todennäköisesti yksi iso syy, miksi ostetaan 3080, eikä 6900xt:tä. Kuitenkin aika iso nippu on jo pelejä, missä RT tuo huomattavia parannuksia grafiikkaa ja lisää tulee koko ajan. 6000 sarjalaisilla noista ei vaan oikein pääse nauttimaan, kun FPS konttaa RT:n kanssa niin hemmetin pahasti.

Juu toki yleisesti 6900xt on nopeampi rasteroinnissa, mutta nyt oli kyse vain Halo infinitestä, jonka kohdalla on myös toisenlaisia tuloksia.

FSR 2.0 ei ole millään mittarilla edellä DLSS:ä. Lähelle/tasoihin pääsee kuvanlaadussa, kun kuva on paikallaan, eikä ole alpha textureita tai partikkeleita kuvassa. Toki tilanne voi olla muissa peleissä hieman erilainen, mutta nuo perusongelmat eivät häviä, vain peliä vaihtamalla. Varmasti FSR kehittyy ja niihinkin tulee parannusta.
 
FSR 2.0 ei ole millään mittarilla edellä DLSS:ä. Lähelle/tasoihin pääsee kuvanlaadussa, kun kuva on paikallaan, eikä ole alpha textureita tai partikkeleita kuvassa. Toki tilanne voi olla muissa peleissä hieman erilainen, mutta nuo perusongelmat eivät häviä, vain peliä vaihtamalla. Varmasti FSR kehittyy ja niihinkin tulee parannusta.

Juuri sanoin missä on edellä ja ohitit kokonaan. Ei hänni kuten DLSS. Eli täysin typerää väittää ettei olisi missään parempi. Lisäksi FSR2.0 on vasta julkaistu kun taas DLSS on hinkattu jo monta vuotta joten on täysin perusteltua olettaa että FSR2.0 pystyy vielä parantamaan. Identtisiä niistä tuskin koskaan tulee ja loppupelissä se on katsojasta kiinni kumpi tuntuu "paremmalta"
 
Ei se pitäisi olla kellekään yllätys, että kilpailulle markkinalle, jolla on 2 toimijaa, jotka ovat kehitelleet tuotteita yli 20 vuotta pystyy tulemaan kilpailija, joka on harrastanut aisaa lähinnä hyvin sivutoimisesti ja pienellä osalla markkinaan (perus integroituja).

Saattaa vielä käydä niinkin, että intel toteaa tälläkin kertaa, jotta eipä kannata ja homma hyytyy pariin sukupolveen..
Ainut mikä on nyt on se, että valmistustekniikka asettaa rajat GPU:den kehitykselle.

Intelin markkinaosuus kaikista PC-näyttiksistä on viimeisen n 10 vuoden ajan tyypillisesti ollut suurempi kuin AMDn tai nVidian. Ja Intel on jatkuvasti kehittänyt arkkitehtuurejaan. Ja on tehnyt sitä myös parinkymmenen vuoden ajan.
 
Se on se nvidiaa vaivaava ongelma. Ajurit lykkää prossulle huomattavasti enemmän kuormaa verrattuna amd jonka takia hiukan tuhnummalla prossulla näkyy selviä eroja amd:n hyväksi kun laitetaan vastakkain suht samantehoiset kortit tehokkaalla prossulla.

RT on edelleen ihan alkuvaiheessa kehitystä ja pari geniä vaaditaan eteenpäin jotta se alkaa olla sellaisissa tehoissa että massatkin siitä pääsee jossain määrin nauttimaan. Joku RTX3080/90 tason RT alkaa olla sellainen joka vaaditaan niihin budjetti kortteihin, jotta voidaan alkaa puhua RT:n murroksesta. Siihen menee se pari geniä.

Se on "säteenjäljitys" suomeksi. Ja se toimii nVidian nykypiireillä ihan pelattavasti jos tarkoitus on pelata pelejä eikä ihastella FPS-laskureita suurilla resoluutoilla.


Siinä suht tuore 50 pelin vertailu jossa 3080 ja 6800XT varsin tasoissa. Kun 6900XT on aina hiukan nopeampi kuin 6800XT, niin kyllähän se 6900XT hiukan vie 3080:stä. Tuo on jo jonkin ikäinen testi ja:

21.12.1 release notes

  • Halo Infinite™
    • Up to 17% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6900 XT graphics card, versus the previous software driver version 21.11.3.RS-434
    • Up to 19% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 16 GB Radeon™ RX 6800 XT graphics card, versus the previous software driver version 21.11.3.RS-435
    • Up to 16% increase in performance in Halo Infinite @ 4K Ultra Settings, using Radeon™ Software Adrenalin 21.12.1 on the 12 GB Radeon™ RX 6700 XT graphics card, versus the previous software driver version 21.11.3.RS-436

Eli eiköhän se RTX3080 nykyään saa pannuun.

Rasteroinnin nopeus on aika lailla EVVK, kun kaikki huippukortit on rasteroinnissa tarpeeksi nopeita kaikissa järkevissä skenaariossa.

Sillä säteenjäljityksen nopeudella (jossa parannettavaa olisi) on ziljoona kertaa enemän väliä kuin sillä, saako jossain muinaisessa pelissä rasteroinnilla 400 fps vai 420 fps. Kun säteenjäljityksen osalta tilanne usein on, että pelikelponen nVidian piirillä, liian hidas AMDn piirillä.
 
Viimeksi muokattu:
Se on "säteenjäljitys" suomeksi. Ja se toimii nVidian nykypiireillä ihan pelattavasti jos tarkoitus on pelata pelejä eikä ihastella FPS-laskureita suurilla resoluutoilla.

Taas täysin turhaa kielipoliisina riehumista sinulta. Lopeta jo toi. Todella väsyttävää.

Väität siis että 3060 kykenee ok RT suorituskykyyn?

Rasteroinnin nopeus on aika lailla EVVK, kun kaikki huippukortit on rasteroinnissa tarpeeksi nopeita kaikissa järkevissä skenaariossa.

Kun ollaan virtuaalipippeli flex ketjussa, niin jokainen milli... eikun siis fps merkitsee.
 
Intelin markkinaosuus kaikista PC-näyttiksistä on viimeisen n 10 vuoden ajan tyypillisesti ollut suurempi kuin AMDn tai nVidian. Ja Intel on jatkuvasti kehittänyt arkkitehtuurejaan. Ja on tehnyt sitä myös parinkymmenen vuoden ajan.
Intel ei koskaan ole kilpaillut laadussa AMD:n ja Nvidian irtonäyttisten kanssa. Se ei paljon auta, vaikka niitä nuhapumppu integroituja olisi toimitettu 1000000000000000000000000000000000000000000000000000000 kertainen tai isompi määrä VS AMD:n ja Nvidian yhteenlasketut näyttikset. Sillä ei ole mitään takeita, etä Intelistä tulee varteenotettava kilpailija irtonäyttksissä. Tällähetkellä vaikuttaa ainankin vahvasti, että ensimmäisen sukupolven kanssa ryssittiin. Intelin tulossa olevat näyttikset olisivat pitäneet olla markkinoilla suurissa määrissä vuosi sitten tai aiemmin..

Tuolta voi katsoa, miten esim 3060 pärjää RT:ssä:
EVGA GeForce RTX 3060 XC Gaming review - DX12: Cyberpunk 2077 (guru3d.com)

Joillekuille täysin välttävä FHD resolla.
 
Viimeksi muokattu:
Intel ei koskaan ole kilpaillut laadussa AMD:n ja Nvidian irtonäyttisten kanssa. Se ei paljon auta, vaikka niitä nuhapumppu integroituja olisi toimitettu 1000000000000000000000000000000000000000000000000000000 kertainen tai isompi määrä VS AMD:n ja Nvidian yhteenlasketut näyttikset. Sillä ei ole mitään takeita, etä Intelistä tulee varteenotettava kilpailija irtonäyttksissä. Tällähetkellä vaikuttaa ainankin vahvasti, että ensimmäisen sukupolven kanssa ryssittiin. Intelin tulossa olevat näyttikset olisivat pitäneet olla markkinoilla suurissa määrissä vuosi sitten tai aiemmin..

Tuolta voi katsoa, miten esim 3060 pärjää RT:ssä:
EVGA GeForce RTX 3060 XC Gaming review - DX12: Cyberpunk 2077 (guru3d.com)

Joillekuille täysin välttävä FHD resolla.

Tuo juuri alleviivaa sitä että RT suorituskyky ei vaan yksinkertaisesti vielä riitä näissä edes jotenkin järkevänhintaisissa näytönohjaimissa. Omalla kohdalla 1440p resolla 3060 RTX On DLSS On ja FPS huimat 33. Joo ei kiitos.

hkultala vetelee aina välillä näitä hyviä olkikukkoja kehiin kuten nyt tuo että intel on ylivoimaisesti suurin näytönohjain valmista. Voi hyvänen aika.
 
intel on ylivoimaisesti suurin näytönohjain valmista. Voi hyvänen aika.
Se pitää täysin kutinsa. Vaikka Intel ei ole tehnyt ns pelinäytönohjaimia se on ihan yhtä aktiivisesti kehittänyt näyttisarkkitehtuureitaan kuin AMD ja NVIDIAkin. Intel on myös ihan tasaväkisesti siellä kärjessä tuomassa vuorollaan uusia ominaisuuksia ensimmäisenä.
 
Intel on myös ihan tasaväkisesti siellä kärjessä tuomassa vuorollaan uusia ominaisuuksia ensimmäisenä.
Mitä uusia ominaisuuksia? Onko kyse heidän omasta XeSS skaalauksesta vai jostain uudesta DisplayPort versiosta vai mistä ominaisuuksista on nyt kyse mitä intel on nyt tuomassa ensimmäisenä markkinoille?
 
Viimeksi muokattu:
Mitä uusia ominaisuuksia? Onko kyse heidän omasta XeSS skaalauksesta vai jostain uudesta DisplayPort versiosta vai mistä ominaisuuksista on nyt kyse mitä intel on tuomassa ensimmäisenä markkinoille?
Esimerkiksi Direct3D FL12_1 tuki täydellä conservative rasterization tasolla oli Intelillä pari vuotta ennen AMDta tai NVIDIAa
 
Esimerkiksi Direct3D FL12_1 tuki täydellä conservative rasterization tasolla oli Intelillä pari vuotta ennen AMDta tai NVIDIAa
Ja siitä on ollut hyötyä missä? Mikä etu intelillä oli että sai tuon feat levelin ominaisuuden integroituihin GPU piireihin ennen kun AMD ja Nvidia sai sen omiin dGPU piireihin/ajureihin leivottua?

Luulin siis aluksi että intel on tuomassa jotain uusia ominaisuuksia ensimmäisenä nyt tämän tulevan arc näyttis sukupolven myötä.

Edit. viestistä poistettu turhia kysymyksiä.
 
Viimeksi muokattu:
Se pitää täysin kutinsa. Vaikka Intel ei ole tehnyt ns pelinäytönohjaimia se on ihan yhtä aktiivisesti kehittänyt näyttisarkkitehtuureitaan kuin AMD ja NVIDIAkin. Intel on myös ihan tasaväkisesti siellä kärjessä tuomassa vuorollaan uusia ominaisuuksia ensimmäisenä.

Mikäli nyt siirretään maalitolppia niin että tässä ketjussa kun puhutaan näytönohjaimesta niin se on mikä tahansa ohjain joka kykenee kuvaa tuottamaan näytölle. Silloin pitää keskusteluun ottaa myös mobiilipuolen valmistajat. Taitaa siltä löytyä aika isoja markkinaosuuksia kun niitä löytyy varsin laajasta kirjosta laitteita.

Koko inteliä ei tämän ketjun aiheessa ole ollut kuin vasta jonkin aikaa. Siintä lähtien kun varmistui että Intel on tulossa mukaan bileisiin erillisnäytönohjaimiin. Ja ne erillisnäytönohjaimet on se juttu mistä täällä on aina väännetty, ei mistään geneerisistä näytönohjaimista joilla saadaan kuva ruudulle.

Käytännössä tässä on siis kyse lillukanvarvuista taas jälleen kerran koska kultalan pojalla on niin mieletön tarve päästä pätemään, niin heti tartuttiin tilaisuuteen kun joku unohti sanan "erillis" joista täällä on pääasiassa aina jauhettu.
 
Huomautus: Saivartelua
Taas täysin turhaa kielipoliisina riehumista sinulta. Lopeta jo toi. Todella väsyttävää.

Väsyttävämpää on valitus siitä, että kerrotaan mitä termit on suomeksi, ja virheellisen termin käytön jatkaminen senkin jälkeen, kun korrekti termi on selvästi edellisessä viestissä esitetty. Mikä ihme 1) siinä oikeiden termien käytössä 2) palautteen vastanottamisessa on niin vaikeaa?

Kannattaa katsoa peiliin ja lopettaa virheellisten termien käyttö, jos ei kestä niistä asiallistakaan palautetta. Niin kauan kun käyttää virheellisiä termejä, niistä voi saada palautetta.

Väität siis että 3060 kykenee ok RT suorituskykyyn?

En väitä.

Vaan väitän, että 3060 kykenee kelvolliseen säteenjäljityssuorituskykyyn.
 
Viimeksi muokattu:
Mikäli nyt siirretään maalitolppia

Ennen tuota viestiäsi täällä ei kukaan muu kuin jobbus ollut siirrellyt mitään maalitolppia moneen päivään.

Integroidussa näyttiksessä täytyy fyysistä pci express-PHYtä ja omaa DRAM-muistiohjainta lukuunottamatta kaikki sama logiikka kuin erillisessäkin.

Intelin on täytynyt jo aiemmin integroituja näyttiksiään varten kehittää kaikki se logiikka mikä millään tavalla liittyy sen kuvan generoimiseen sinne muistiin.

Integroiduissa näyttiksissä on ainoastaan tarvinnut olla pienempi määrä ytimiä suorituskyvyn ollessa pienempi.

niin että tässä ketjussa kun puhutaan näytönohjaimesta niin se on mikä tahansa ohjain joka kykenee kuvaa tuottamaan näytölle. Silloin pitää keskusteluun ottaa myös mobiilipuolen valmistajat. Taitaa siltä löytyä aika isoja markkinaosuuksia kun niitä löytyy varsin laajasta kirjosta laitteita.

Ei, koska arkkitehtuurillisesti kännykkäpiirien mobiilinäyttikset ovat voineet olla erilaisia, selvästi yksinkertaisempia. Niiltä ei ole vaadittu VGA-yhteensopivuutta. Niiltä ei ole vaadittu DX-tukea. Niiltä ei ole vaadittu kaikkia samoja liitäntätyyppejä. Niiltä ei ole vaadittu yhtä monen yhtäaikaisen näytön tukea. Kaikki nämä on vaadittu Intelin integroiduilta näyttiksiltä.

Koko inteliä ei tämän ketjun aiheessa ole ollut kuin vasta jonkin aikaa. Siintä lähtien kun varmistui että Intel on tulossa mukaan bileisiin erillisnäytönohjaimiin. Ja ne erillisnäytönohjaimet on se juttu mistä täällä on aina väännetty, ei mistään geneerisistä näytönohjaimista joilla saadaan kuva ruudulle.

Kun mietitään sen perusteella, että mitä tuotekehitystä ja paljonko tarvii tehdä, niin sillä, onko näyttis erillisnäyttis vai integroitu näyttis ei ole juuri mitään väliä.

Ja tässä oli kyse nimenomaan siitä, että paljonko intelillä on "tuotekehityskokemusta".

Käytännössä tässä on siis kyse lillukanvarvuista taas jälleen kerran koska kultalan pojalla on niin mieletön tarve päästä pätemään, niin heti tartuttiin tilaisuuteen kun joku unohti sanan "erillis" joista täällä on pääasiassa aina jauhettu.

Toin esille keskustelun kannalta todella oleellisia pointteja, en tullut "pätemään".

Päin vastoin; Se, että ei kestetä sitä asiallista palautetta omien kirjoitusten virheistä ja mennään henkilökohtaisuuksiin kun niitä tuodaan esille, nimenomaan kertoo siitä "pätemisen tarpeesta".
 
Viimeksi muokattu:
Vaan väitän, että 3060 kykenee kelvolliseen säteenjäljityssuorituskykyyn.

33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky? Eiköhän ne pelit vaan raskaammiksi tule tuosta joten jos tuo on kelvollinen niin voi terve.
Ja käytän RT lyhennettä jatkossakin joka on ihan yleisesti käyttöön tullut lyhenne. en ole kirjoittamassa mitään artikkeleita joissa toki suotavaa käyttää niitä virallisempia termejä.
Jos on hankaluuksia ymmärtää niin, RT = RayTracing = säteenjäljitys.
 
33FPS RT ON ja DLSS ON 1440p resolla cyberpunkissa on sinun mielestäsi kelvollinen RT suorituskyky?
En itse vetäisi mitään johtopäätöksiä RT suorituskyvystä yhden pelin perusteella. Varsinkin kun tämä yksi peli on täysi floppi ihan teknisesti vaikka RT jätetään pois (konsoli ongelmat) ja CD Project Red on epäsuorasti jo sanonut että engine on tiensä päässä (täysi romu paska) eikä sillä enää pelejä tehdä.
 

Statistiikka

Viestiketjuista
259 266
Viestejä
4 502 157
Jäsenet
74 375
Uusin jäsen
wookie

Hinta.fi

Back
Ylös Bottom