Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Entäs kun minä totean saman, mutta AMD puolelta? Olen vuosia ihmetellyt, että missä ne ongelma-ajurit ovat kun ei omalle kohdalle tunnu osuvan millään. Toisaalta en ole koskaan ostanut noita hinnat alkaen kortteja enkä kellotellut konettani joten se vakaus voi tulla osin jo siitäkin. Ja jotenkin on fiilis, että kun se kone kellotetaan tappiin ja tulee se bluescreen tms. niin homma on jostain syystä sitten pakko olla sen rautavalmistajan vika.
Hei lueppas tämän jälkeen laittamani kommentit. Niistä käy aika selkeästi esille, että en ollut tässä mitenkään AMD:tä vastaan ja totesinkin että sama juttu myös niiden kanssa? Eikä se vika ole missään "hinnat alkaen" korteissa. Samaa tavaraa ne on, niissä on vain pihistelty jäähyissä ja valoissa. Kellottaminenkaan ei ole ongelma, kunhan vain tietää mitä tekee.
 
Tänään näkyi tulevan Nvidialta uudet ajurit joiden pitäisi korjata ne ongelmat mitä edellisiin oli tullut.
Huomaa Nvidian softatiimin koon, kun pystytään näin nopeasti reagoimaan... Hieno homma.
 
Tänään näkyi tulevan Nvidialta uudet ajurit joiden pitäisi korjata ne ongelmat mitä edellisiin oli tullut.
Huomaa Nvidian softatiimin koon, kun pystytään näin nopeasti reagoimaan... Hieno homma.
Näyttäisi siltä että korjatuissa ongelmissa on pyöreät nolla edellisten ajureiden tiedossa olleista ongelmista (ellei lasketa DX11 pelien toimimattomuutta Sharpeningin kanssa, mikä ei ollut ajureiden tiedossa olleissa ongelmissa viimeksi mutta kävi nopeasti selväksi kun ajurit julkaistiin)

Mutta tämä on kyllä hyvä esimerkki siitä, miten "kattavia" noi listat oikeasti ovat: Tiedossa olevien ongelmien listalta on kadonnut joukko edellisten ajureiden ongelmista ilman mitään ilmoitusta että ne olisi korjattu. Korjatuissa bugeissa taas on sellaisia jotka eivät olleet tiedossa olleissa ongelmissa aiemmissa julkaisuissa.
 
Hei lueppas tämän jälkeen laittamani kommentit. Niistä käy aika selkeästi esille, että en ollut tässä mitenkään AMD:tä vastaan ja totesinkin että sama juttu myös niiden kanssa? Eikä se vika ole missään "hinnat alkaen" korteissa. Samaa tavaraa ne on, niissä on vain pihistelty jäähyissä ja valoissa. Kellottaminenkaan ei ole ongelma, kunhan vain tietää mitä tekee.
Eivät ne välttämättä ole samaa tavaraa siinäpä se onkin. Esim. muistit saattavat olla siinä rajoilla, kun taas kalliimmissa saattaa olla enemmän marginaalia. Ja eri valmistajatkaan eivät kasaa noita kortteja samoista komponenteista. Virransyötöissä on eroja jne. Olisikin kiva tietää miten nuo ongelmat jakautuvat eri valmistajien ja mallien kesken.

Ja mitä kellottamiseen tulee, niin se olennainen osuus on nimenomaan "kunhan tietää mitä tekee". Väittäisin tosissani, että täälläkin suurin osa ei osaisi kellottaa konettaan jos se pitäisi oikeasti tehdä manuaalisesti oikeat arvot etsimällä nykyisten lähes automaattisten kellotussysteemien sijaan. Se, että joku softa etsii sinulle suunnilleen oikeat arvot ja hetki jotain testisoftaa ei takaa, että kone on oikeasti vakaa miltään osin. Jopa Intel on kompastunut tähän vakauteen kun se aikoinaan toi myyntiin P3 mallin joka sai pian mainetta prosessorina jolla ei voinut kääntää linuxin silloista kerneliä. Kelloja oli liikaa eikä tuo enää toiminut.
 
Eivät ne välttämättä ole samaa tavaraa siinäpä se onkin. Esim. muistit saattavat olla siinä rajoilla, kun taas kalliimmissa saattaa olla enemmän marginaalia. Ja eri valmistajatkaan eivät kasaa noita kortteja samoista komponenteista. Virransyötöissä on eroja jne. Olisikin kiva tietää miten nuo ongelmat jakautuvat eri valmistajien ja mallien kesken.

Ja mitä kellottamiseen tulee, niin se olennainen osuus on nimenomaan "kunhan tietää mitä tekee". Väittäisin tosissani, että täälläkin suurin osa ei osaisi kellottaa konettaan jos se pitäisi oikeasti tehdä manuaalisesti oikeat arvot etsimällä nykyisten lähes automaattisten kellotussysteemien sijaan. Se, että joku softa etsii sinulle suunnilleen oikeat arvot ja hetki jotain testisoftaa ei takaa, että kone on oikeasti vakaa miltään osin. Jopa Intel on kompastunut tähän vakauteen kun se aikoinaan toi myyntiin P3 mallin joka sai pian mainetta prosessorina jolla ei voinut kääntää linuxin silloista kerneliä. Kelloja oli liikaa eikä tuo enää toiminut.
Yyyyäääällööööhh... Siis se hinta ei vaikuta siihen onko vakaa vai ei. Jos kortti ei ole vakaa, niin RMA...

Suurin osa täällä kyllä kellottaa aivan oikea oppisesti, niin en tiedä mihin tällä viittaat.
 
Viimeksi muokattu:
Mitkäs ne nyt ovat viimeiset oikeasti toimivat Nvidian ajurit?
Mulla ei ole ollut mitään ongelmia minkään käytössä olleen ajuriversion kanssa, ja tämä on fakta ;)

Harvakseltaan tulee päivitettyä. Mm. viime vuoden mallia olevassa työasemassa on 431.40, työläppärissä 411.81, vm 2017 etätyökannettavassa 389.08, pelikoneessa rtx 2080:n kaverina joku q1/2020 43x.xx versio, pelikannettavassa gtx 1080 korttia ohjaa 436.48 jnejne.
 
Mulla ei ole ollut mitään ongelmia minkään käytössä olleen ajuriversion kanssa, ja tämä on fakta ;)

Harvakseltaan tulee päivitettyä. Mm. viime vuoden mallia olevassa työasemassa on 431.40, työläppärissä 411.81, vm 2017 etätyökannettavassa 389.08, pelikoneessa rtx 2080:n kaverina joku q1/2020 43x.xx versio, pelikannettavassa gtx 1080 korttia ohjaa 436.48 jnejne.
Koita nyt päättää, onko oma subjektiivinen kokemus ajureista, se joka määrittää onko ajurit toimivat vai ei?
Entäs kun minä totean saman, mutta AMD puolelta? Olen vuosia ihmetellyt, että missä ne ongelma-ajurit ovat kun ei omalle kohdalle tunnu osuvan millään. Toisaalta en ole koskaan ostanut noita hinnat alkaen kortteja enkä kellotellut konettani joten se vakaus voi tulla osin jo siitäkin. Ja jotenkin on fiilis, että kun se kone kellotetaan tappiin ja tulee se bluescreen tms. niin homma on jostain syystä sitten pakko olla sen rautavalmistajan vika.

@smaragdi
Eli jos käyttäjän subjektiivinen kokemus määrittää onko ajurit toimivat vai ei, niin sillon AMD:n ajurit on ollut toimivia, jos subjektiivinen kokemus ajureista ei ole mikä määrittää ajurien toimivuuden, niin et vastannut kysymykseen ja viestisi on turha.
 
ATIn ajureilla on huono maine, mutta ne olivat yllättäen vakaampia kuin nvidian tässä testissä.
"In the stringent tests, where 12 gaming and workstation GPUs, six from AMD and six from Nvidia, were each put through 288 hours of non-stop stress testing, the Radeon cards achieved a pass rate of 93% while the GeForce GPUs only managed to garner a score of 82%"
 
ATIn ajureilla on huono maine, mutta ne olivat yllättäen vakaampia kuin nvidian tässä testissä.
"In the stringent tests, where 12 gaming and workstation GPUs, six from AMD and six from Nvidia, were each put through 288 hours of non-stop stress testing, the Radeon cards achieved a pass rate of 93% while the GeForce GPUs only managed to garner a score of 82%"
Tuo on täällä tapeltu jo moneen kertaan läpi, pelitestejä tms tuossa ei ole, vain MS:n Hardware Lab Kitin CRASH-rutiiniin kuuluvia testejä. Kuvaa toki oikein vakauden noissa toimenpiteissä mitä CRASHiin kuuluu.
 
Tuo on täällä tapeltu jo moneen kertaan läpi, pelitestejä tms tuossa ei ole, vain MS:n Hardware Lab Kitin CRASH-rutiiniin kuuluvia testejä. Kuvaa toki oikein vakauden noissa toimenpiteissä mitä CRASHiin kuuluu.
Omat kokemukseni ovat että nvidia on luotettavampi, mutta ATI:n kortti oli viimeksi Radeon RX 480 joka oli lopulta kyllä vakaa sekin. Kaatuilut meni lienee uutuuden piikkiin. Nyt on alla 1080Ti, ATI ei kyennyt tarjoamaan riittävää (OpenGL) tehoa kun päivitin koneen.
 
Jaa-a, onko sulla omakohtaista kokemusta? Itellä ollu nvidia alla viimeiset 7 vuotta.

Itselläni on nVidiaa alla (2060 super) kun AMD on kahden kuukauden takuurundilla (5700XT) ja tässä vihreässä kortissa yksilössä olla molemmissa porteissa vikaa, kun se ei suostu ajamaan 144hz näyttöä kuin 120hz tilassa. Jos koettaa tehdä 144hz customreson, niin kaataa mustalla ruudulla koko koneen.

Toista näyttöä ajaa kiltisti 144hz.

AMD antoi nostaa 144hz samalla piuhalla (toki kahta piuhaa, ja myös molempia portteja, sekä vain yhtä näyttöä kiinni kokeiltu). Että tämmöisiä nämä ovat.
 
Joko AMD API HDR toimii? Lueskelin, että on ollut Navilla rikki julkaisusta lähtien. Syöttää kuulemma REC709:ää HDR:llä SMTPE:n sijasta...?
 
Voihan paska. Nvidia on tehny laajasti yhteistyötä softapuolen kanssa monella taholla, mm. OBS tuolla striimipuolella, ja nyt ne on tehneet taikatemput adoben kanssa. Premiereen on lisätty nvenc ja AMF tuki. Se on sit taas premiere-editoijilla/käyttäjillä about nolla syytä ostaa AMD:n näytönohjainta mikäli kokevat nopeamman work-flown tärkeäksi, koska toi AMF on ihan saatanan rikki. Uutena featurena on tuotu nVidia RTX Voice, jolla RTX korttien omistajat voi käyttää kortin tensor-huuhaa-ytimiä äänen reaaliaikaiseen käsittelyyn ja poistaa mikin syötteestä mm. taustaääniä, kohinaa ja särinää. Nvenc "sessioiden" (en keksi nyt hyvää suomennosta) määrä nostettiin ajureissa kahdesta -> kolmeen, joten nvenc piirillä voi ajaa nyt kolmea hommaa yhtäaikaa (mikäli se jaksaa niitä laskea) joka taas johtaa suorituskykyparannuksiin kaikessa mitä piirillä tehdään mikäli k.o. tehtävät ei ole syöneet piirin täyttä kapasiteettia, käytännöllinen jos tekee useampaa hommaa sillä enkooderilla yhtä aikaa vaikka videoeditoinnissa..



Yhteenvetona siis; nVidia laittaa yhä vaan lisää vettä myllyyn sisällöntuottajille ja media-alan ihmisille. @Kaotik voipi olla jopa uutisoinnin aihe, ja ennenkaikkea jotain mitä kannattaa seurata. Epoxen video on taas pitkänlainen, mutta hän käy videolla läpi esimerkkien kanssa noita uusia juttuja mitä tässä ajuripäivityksessä on tullut, esimerkiksi viiden minuutin kohdalla voi ihmetellä tuota RTX Voice härveliä toiminnassa kun häivyttelee mikin taustasta näppäimistön (mx blue) ääniä (tai yrittää ainakin) sekä pölynimurin äänen.

*edit*

Kokeilin tuota äänihommelia, ja tuo on erittäin hyvä. Tulee itselläni välittömästi käyttöön, varmaan iltapäivästä lyön perjantain "pitsaa ja bannerloordia" striimin päälle niin ei muuta kun kattelemaan miten homma skulaa. Olen erittäin vaikuttunut tuosta; vaikuttaa omassa setissä (GoXLR, Rhode NT-A1 mikki) todella hyvältä, slaideri noin 70% ja leikkaa todella hyvin taustaäänet veke mutta säilyttää puheäänen samanlaisena kuin ilman tätä. Merkittävä parannus siihen mitä pystyn tekemään ton äänialustan (GoXLR) noise-gatella ja muilla säädöillä, vaikka siinä on ihan hemmetin hyvät mahdollisuudet näitä säätöjä tehdä. Yksi suurimpia päivityksiä mun striimiäänenlaatuun mitä on tullu tehtyä, ja hinta: 0e.
 
Viimeksi muokattu:
Vaikuttaa todella erinomaiselta ominaisuudelta. Toivottavasti saavat koulutettua tuon blokkaamaan syömisen ääniä, misofonia asian suhteen tuntuu vaivaavan todella monia ja onhan se todella rasittavaa kuunnella jos joku mässyttää tai rouskuttaa jotain korvan juuressa.
 
Vaikuttaa todella erinomaiselta ominaisuudelta. Toivottavasti saavat koulutettua tuon blokkaamaan syömisen ääniä, misofonia asian suhteen tuntuu vaivaavan todella monia ja onhan se todella rasittavaa kuunnella jos joku mässyttää tai rouskuttaa jotain korvan juuressa.
Eikö sitä kutsuta ASMR... sehän on niin hienoo nykyää, että pitää oikein tubesta katella.
 
Joko AMD API HDR toimii? Lueskelin, että on ollut Navilla rikki julkaisusta lähtien. Syöttää kuulemma REC709:ää HDR:llä SMTPE:n sijasta...?
HDR oli monessa ajurissa rikki, korjaantui ulkomuistista 19.10.x ajureissa ja meni uudestaan rikki ekoissa Adrenalin 2020 -ajureissa ja korjaantui olikohan 20.1.1 vai 20.1.2 ajureissa.
Ainakin tällä C32GH70:llä näyttää samalta kuin miltä GTX 1060:n ulostama HDR näytti. Tosin MPC-HC:ta en ole saanut HDR:ää ulostamaan, en tiedä missä on vika kun on kaiken sortin 10-bit outputit sun muut ruksittu päälle, VLC:llä, Windowsin sisäänrakennetulla soittimella jne toimii normaalisti, peleissä samoin.
 
Vaikka HUB:ia täällä olen soimannut, niin ihan päteviä mittauksia silti tekevät. Alempana nyt uutta dataa, mistä näemme ettei RX 5700 XT ole käytännössä kirinyt RTX 2070 Superin tehoja, koska molemmat firmat ovat parannelleet ajureitaan, mutta huomion arvoisena plussana RX 5700 XT pärjää minimiruuduissa yllättävän hyvin. Silti RTX 2070 Super on peleissä kuten PUBG:ssa niin paljon tehokkaampi, että voisi puhua jo toisen teholuokan näytönohjaimesta, eli aina kannattaa ostaessaan muistaa, jos jaksaa enempi perehtyä, tuo pelikohtainen tehokkuus. Minä mm. pelaan PUBG:ia ja ei olisi pahitteeksi jos Radeonini toimisi vähän nopeammin, mutta toki peli toimii silti oikein hyvin, RTX 2070 Superilla vaan reilusti paremmin, jopa RTX 2060 Super on nopeampi.

Tämän sanottuani, suurella määrällä pelejä vertaillessa RX 5700 XT on realistisesti kilpailija RTX 2070 Superia vastaan, vaikka sitä verrataan aikaisemmassa videossa halvempaan malliin. Etenkin minimi FPS-lukemat ovat niin paljon korkeammat mitä RTX 2060 Superilla, ettei vertailu ole enää kovin mielekästä. Hinta tosin on sama, joten aina RX 5700 XT ostoskoriin jos kyseinen on budjettisi, ellei ne RTX-ominaisuudet nykyisellään jostain syystä ole hyödyllisiä sinulle. Kuten tuo Steve sanoo, ei edes DLSS 2.0:n voitokkaaseen menestykseen voi kauheammin luottaa, koska sen sisällyttäminen kestää kauan, sitä on nähty nyt vain Gameworks-peleissä, eli Nvidian pitää olla mukana touhussa, ja kuinka monta Gameworks-peliä vuodessa tulee kaikkiaan näin keskimäärin? Ei montaakaan. Teknologia on siis hieno, mutta niin kallis levittää, että näyttää aika pahalta tässä vaiheessa. Samalla se alleviivaa Nvidian filosofiaa pelinäyttisten suhteen, että parempaa FPS:ää sopii aina tavoitella kuvanlaadun kustannuksella, minkä kannalla en henkilökohtaisesti niinkään ole. Tietenkään DLSS:ää ei tarvitse halutessaan käyttää.





PS. On tullut vielä tällainenkin vertailu maanantain aikana, mitä en ole vielä katsonut.
 
Mun mielestä DLSS:ää verrataan tyhmästi lähes aina natiiviresoon, sen sijaan että verrattaisiin sellaiseen matalaan resoon joka pyörii yhtä hyvin kuin DLSS:llä. Samaa näki checkerboard renderöinnin kanssa. Eihän DLSS:n 2560x1440->4K skaalaus ole samannäköinen kuin natiivi 4K ( vaikka ihmeen lähelle pääseekin ), mutta entä jos vertailukohtana on saman suorituskyvyn tuottava matalareso->4K bilineaarisella skaalauksella? DLSS:n etu on minun silmääni melko massiivinen.

Näyttisten tehot ja tehonkasvu on mitä on, joten tässä on jo vuosien ajan haettu parempaa suorituskykyä tekemällä kompromisseja kuvanlaadussa. Esim. SSAA ja MSAA on vaihtuneet FXAA/SMAA/TAA-linjaan. On tullut variable rate shadingiä, pelintekijät renderöivät tiettyjä efektejä matalemmalla resoluutiolla, ja näin pois päin. Nämä ovat välttämättömiä, ellei haluta mennä pelien graafisessa loistossa rutkasti taaksepäin. Pelintekijöiltä itseltään on näkynyt twiittejä sun muuta avautumista, että 4K natiiviresoluutio on kauheaa tehojen hukkaanheittoa, ja että parempi ratkaisu on tehdä paremman näköinen peli ja rakentaa 4K kuva matalemmasta renderöintiresoluutiosta rekonstruktiotekniikoilla. Siihen nähden, miten paljon grafiikka-asetuksia pitää laskea, jotta natiivi 4K pyörisi isossa osassa peleistä 60fps edes 2080ti:llä, niin joudun olemaan samaa mieltä. 2560x1440 normiskaalauksella näyttää minusta aika kamalalta 55"+ 4K-ruudulta, mutta DLSS2.0:lla oikein hyvältä.
 
Huvittavaa miten osa (tunneutut nimimerkit jotka ovat 100% varnuudella Amd kannattajia) näkevät tässä vaan vikaa virheitä ja matalaa potentiaalia.
On kuin soutaisi vastatuuleen kun lähtee näiden kanssa vääntämään.
 
Huvittavaa miten osa (tunneutut nimimerkit jotka ovat 100% varnuudella Amd kannattajia) näkevät tässä vaan vikaa virheitä ja matalaa potentiaalia.
On kuin soutaisi vastatuuleen kun lähtee näiden kanssa vääntämään.

1700x660-25games.jpg


DLSS2 on kyllä sitä tukevien pelien perusteella todella kova parannus, mutta monikos noista 2018 luvatuista peleistä saikaan DLSS tuen? Tuon 2.0 version tukeminen pitäisi olla kyllä helpompaa, eikä se vaadi enää pelikohtaista opetusta, joten paljon paremmat lähtökohdat sillä on yleistymisen osalta. Toisaalta yhtä RTX korttia (myyty 15 miljoonaa) vastaan on yli 10x pelikonsoleita ja vielä enemmän RTX disabled kortteja. Ellei tuota tukea integroida suoraan peliengineen, niin tuki tulee vain AAA peleille, joilla on varaa heittää devaaja sitä kasaamaan.
 
1700x660-25games.jpg


DLSS2 on kyllä sitä tukevien pelien perusteella todella kova parannus, mutta monikos noista 2018 luvatuista peleistä saikaan DLSS tuen? Tuon 2.0 version tukeminen pitäisi olla kyllä helpompaa, eikä se vaadi enää pelikohtaista opetusta, joten paljon paremmat lähtökohdat sillä on yleistymisen osalta. Toisaalta yhtä RTX korttia (myyty 15 miljoonaa) vastaan on yli 10x pelikonsoleita ja vielä enemmän RTX disabled kortteja. Ellei tuota tukea integroida suoraan peliengineen, niin tuki tulee vain AAA peleille, joilla on varaa heittää devaaja sitä kasaamaan.
Jos se tulee kiinteäksi osaksi engineitä, niin eihän sen tukemiseen kovin ihmeitä panostuksia pitäisi tarvita..
 
Huvittavaa miten osa (tunneutut nimimerkit jotka ovat 100% varnuudella Amd kannattajia) näkevät tässä vaan vikaa virheitä ja matalaa potentiaalia.
On kuin soutaisi vastatuuleen kun lähtee näiden kanssa vääntämään.
Keskitytään siihen ketjun asiaan, eikä toisista käyttäjistä puhumiseen.
 
Huvittavaa miten osa (tunneutut nimimerkit jotka ovat 100% varnuudella Amd kannattajia) näkevät tässä vaan vikaa virheitä ja matalaa potentiaalia.
On kuin soutaisi vastatuuleen kun lähtee näiden kanssa vääntämään.
Minusta RTX kortit on aivan liian kalliita hyötyynsä nähden.

Just tämä että sujuva minecraft vaatii 2080Ti:n, hohhoijaa.

Ja nvidia käyttäjä olen sitten X 800XT radeonin.
 
Minusta RTX kortit on aivan liian kalliita hyötyynsä nähden.

Just tämä että sujuva minecraft vaatii 2080Ti:n, hohhoijaa.

Ja nvidia käyttäjä olen sitten X 800XT radeonin.
Ennen RTX kortteja kunnollinen (tuon minen käyttämän tyylinen) säteenjäljitys valaistukseen oli vain ja ainoastaan kaukainen unelma. Nyt on sentään jo todellisuus, ihan ekassa sukupolvessakin.
Tai oli niitä muutama demo, resoluutio jotain 600p luokkaa ja nopeus melko olematon.

Sanoisin tosin, että kun nyt tulevien konsoleiden rakenne on, mitä on, niin jos niiden toteutus on edes välttävä, niin tuon käyttöön tullaan siirtymään peleissä seuraavan 5 vuoden aikana suuressa mittakaavassa, jonka jälkeen ei säteenjäljitykseen kykenevän raudan kanssa ei pärjää sitä vaativissa peleissä ollenkaan (joita tulee olemaan hyvinkin paljon).
Nykyinen sukupolvi on välttämätön ensiaskel, joka oli otettava ja jota monet ovat jo hyödyntäneet, ammattisoftissakin. Varsinkin kehittäjille tämä on ollut välttämätön, loppukäyttäjille ei niinkään..

Otetaan nyt esim X64:
Amd julkaisi opteronin X64:llä 2003, intel vastaavan 2004 (itanium oli aikaisemmin, mutta se ei ole X86 millääntavoin)
MS julkaisi 2005 XP X64:n Ajurituki oli olematonta koko käyttiksen ajan, vistassa jo siirryttiin usein 64 bittisiin versioihin ja 7:ssa 64 bittinen olikin sitten jo etusijalla..
Mutta jos ei olisi ensin julkaistu noita prossuja, niin kaikki muukin olisi siirtynyt. Lisäksi kunnollinen, laaja hyödyntäminen vaati sen 5 vuotta..
Vähän sama tässä näyttisasiassa. Nvidia julkasi PC puolelle raytracingin avauksen mahdollistavan sukupolven näyttiksiä (joiden perusteella on etupäässä kehitetty rajapinnat (esim DX:ään ja vulkaniin) (Luonnollisesti AMD ja intel on ollut keskusteluissa mukana, mutta rauta on ollut tätä RTX rautaa). Nyt kun seuraava sukupolvi tulee, niin sovelluksia on sitten jo ALUSTAVASTI olemassa. Lisäksi ko ominaisuus pitäisi löytyä seuraavassa sukupolvessa kummaltakin valmistajalta (tulossa vuoden sisään), ja jo ainankin keskitason suorituskyvyn korteistakin.
 
Viimeksi muokattu:
Tai oli niitä muutama demo, resoluutio jotain 600p luokkaa ja nopeus melko olematon.
Yhtälailla se minecraft pyörii 540p resolla, jopa 50+fps, 500€ näytönohjaimilla.

Ja koko skeneä ei edes rendata joka ruudulla, vaan varjot valuu kymmeniä ruutuja jäljessä.

edit
GN:n testit tuli just julki ja yllätys yllätys 2080ti ei pääse edes 60fps rajapyykin yli 1% low tuloksissa @540p. Kunnon vitsi.
 
Viimeksi muokattu:
Ennen RTX kortteja kunnollinen (tuon minen käyttämän tyylinen) säteenjäljitys valaistukseen oli vain ja ainoastaan kaukainen unelma. Nyt on sentään jo todellisuus, ihan ekassa sukupolvessakin.
Tai oli niitä muutama demo, resoluutio jotain 600p luokkaa ja nopeus melko olematon.

Sanoisin tosin, että kun nyt tulevien konsoleiden rakenne on, mitä on, niin jos niiden toteutus on edes välttävä, niin tuon käyttöön tullaan siirtymään peleissä seuraavan 5 vuoden aikana suuressa mittakaavassa, jonka jälkeen ei säteenjäljitykseen kykenevän raudan kanssa ei pärjää sitä vaativissa peleissä ollenkaan (joita tulee olemaan hyvinkin paljon).
Nykyinen sukupolvi on välttämätön ensiaskel, joka oli otettava ja jota monet ovat jo hyödyntäneet, ammattisoftissakin. Varsinkin kehittäjille tämä on ollut välttämätön, loppukäyttäjille ei niinkään..

Otetaan nyt esim X64:
Amd julkaisi opteronin X64:llä 2003, intel vastaavan 2004 (itanium oli aikaisemmin, mutta se ei ole X86 millääntavoin)
MS julkaisi 2005 XP X64:n Ajurituki oli olematonta koko käyttiksen ajan, vistassa jo siirryttiin usein 64 bittisiin versioihin ja 7:ssa 64 bittinen olikin sitten jo etusijalla..
Mutta jos ei olisi ensin julkaistu noita prossuja, niin kaikki muukin olisi siirtynyt. Lisäksi kunnollinen, laaja hyödyntäminen vaati sen 5 vuotta..
Vähän sama tässä näyttisasiassa. Nvidia julkasi PC puolelle raytracingin avauksen mahdollistavan sukupolven näyttiksiä (joiden perusteella on etupäässä kehitetty rajapinnat (esim DX:ään ja vulkaniin) (Luonnollisesti AMD ja intel on ollut keskusteluissa mukana, mutta rauta on ollut tätä RTX rautaa). Nyt kun seuraava sukupolvi tulee, niin sovelluksia on sitten jo ALUSTAVASTI olemassa. Lisäksi ko ominaisuus pitäisi löytyä seuraavassa sukupolvessa kummaltakin valmistajalta (tulossa vuoden sisään), ja jo ainankin keskitason suorituskyvyn korteistakin.
Joo kyllä vain, olen samaa mieltä siitä että säteenseuranta on tulevaisuuden suunta.

Mutta silti nykyisten RTX korttien hinnat on ihan järkyttävää paskaa siihen nähden miten aneemiseen grafiikkaan niissä riittää vääntö RT efektien kanssa.

Mielestäni todella heikko bang for buck.

Jos 2080Ti:n vääntö kerrottaisiin n. kymmenellä niin alettaisiin olla siellä missä 1300€ GPU kuuluisi olla jotta siitä irtoaisi rahaa vastaava WAU -efekti.


Olen sen ajan pelaajia itse että voodoo kortit tuli nähtyä, softarendauksesta rauta 3d kiihdytykseen oli aivan mieletön ero. RT ei mene edes lähelle sitä.

3DFX Voodoo 1 maksoi 1996 n. $200 joka on nykyrahassa $334.82
3DFX Voodoo 2 maksoi 1997 n. $250 joka on nykyrahassa $405.07
 
Joo kyllä vain, olen samaa mieltä siitä että säteenseuranta on tulevaisuuden suunta.

Mutta silti nykyisten RTX korttien hinnat on ihan järkyttävää paskaa siihen nähden miten aneemiseen grafiikkaan niissä riittää vääntö RT efektien kanssa.

Mielestäni todella heikko bang for buck.

Jos 2080Ti:n vääntö kerrottaisiin n. kymmenellä niin alettaisiin olla siellä missä 1300€ GPU kuuluisi olla jotta siitä irtoaisi rahaa vastaava WAU -efekti.


Olen sen ajan pelaajia itse että voodoo kortit tuli nähtyä, softarendauksesta rauta 3d kiihdytykseen oli aivan mieletön ero. RT ei mene edes lähelle sitä.
2080Ti:lle ei ole ollut sen oloaikana kilpailijalla yhtäänmitään vastinetta tarjota, VAIKKA ei käytettäisi RTX:ää tai muita kortin erityisominaisuuksia.
Edes 2080:lle on kyseenalaista tuo kilpailu, tosin ilmeisesti koettiin olevan, kun julkaistiin tuo S versio.

Lisäksi korttien hinnat hilasi ylös se leikkirahabuumi. Jos hinnat olisivat olleet matalat, niin kaikki kortit olisivat menneet varmasti kaupaksi sille sektorille ja olisi myyty "ei oota" ja markkinoilla olisi ollut paljon nykyistä enemmän halpoja edellisen sukupolven kortteja. En usko, että mikään valmistuskapasiteetti olisi kyennyt kyllästämään ko markkinaa..
 
Viimeksi muokattu:
Jos se tulee kiinteäksi osaksi engineitä, niin eihän sen tukemiseen kovin ihmeitä panostuksia pitäisi tarvita..

Se ei ole vain nopeaa. DX12? 2017, nyt alkaa vasta yleistymään oikeasti. DLSS1 ja RTX 2018, lopputulos on kourallinen pelejä. Variable shading rate? 2018/2019 (DX12 tuki tuli alkuvuodesta 2019) onko saldo yksi peli ja 3dmark? Kertoo hyvin siitä, että enginen ja pelintekijöitä kiinnostaa eniten se 95% kokoonpanoista (viimeksi steam surveuta katsellessa 4.49% oli RTX on kortteja).

DLSS2:n osalta tilanne on kyllä huomattavasti edeltäjäänsä parempi, kun se ei pasko kuvanlaatua ja vaadi pelikohtaista opetusta. Silti sen lisäys maksaa ja osuu pieneen käyttäjäjoukkoon, joten jos nvidian kaverin saa lisäämään tuon engineen, tai itse peliin, niin totta kai se tuki tulee. Jos se pitää maksaa itse, niin yleistyminen hidastuu kummasti. Sama juttu vanhan pelin kanssa, ei kannata lisätä tukea, ellei pelin rahastus tapahdu mikro/kuukausimaksuilla.

Konsoleita kun mainostetaan 4k pelikoneilla, niin sietä kautta tulee aika iso motivaatio kehittää checkerboardia eteenpäin, tai directml pohjaista skaalausta. Ne kun toimii konsoleissa, hinnat alkaen kannettavissa ja nvidian lippulaivoissakin. Investoinnin palautusprosentti on vähän eriluokkaa.
 
2080Ti:lle ei ole ollut sen oloaikana kilpailijalla yhtäänmitään vastinetta tarjota, VAIKKA ei käytettäisi RTX:ää tai muita kortin erityisominaisuuksia.
Edes 2080:lle on kyseenalaista tuo kilpailu, tosin ilmeisesti koettiin olevan, kun julkaistiin tuo S versio.

Lisäksi korttien hinnat hilasi ylös se leikkirahabuumi. Jos hinnat olisivat olleet matalat, niin kaikki kortit olisivat menneet varmasti kaupaksi sille sektorille ja olisi myyty "ei oota" ja markkinoilla olisi ollut paljon nykyistä enemmän halpoja edellisen sukupolven kortteja. En usko, että mikään valmistuskapasiteetti olisi kyennyt kyllästämään ko markkinaa..
Usko tai älä niin minua ei varsinaisesti kiinnosta tippaakaan onko 2080Ti:lle kilpailijaa vai ei.


Tuhnulla ominaisuudella rahastaminen sen sijaan ärsyttää.
 
  • Tykkää
Reactions: W32
Usko tai älä niin minua ei varsinaisesti kiinnosta tippaakaan onko 2080Ti:lle kilpailijaa vai ei.


Tuhnulla ominaisuudella rahastaminen sen sijaan ärsyttää.
No, se, mikä sinua tai minua kiinnostaa ei vaikuta millääntavoin noiden hintoihin, vaan kilpailu ja kysyntä VS tarjonta vaikuttaa. Koska hinnat eivät ole laskeneet, niin epäilen kysynnän olevan "riittävää" vs valmistuskapasiteetti. (2080Ti:llä esim).
 
Yhtälailla se minecraft pyörii 540p resolla, jopa 50+fps, 500€ näytönohjaimilla.

Ja koko skeneä ei edes rendata joka ruudulla, vaan varjot valuu kymmeniä ruutuja jäljessä.

edit
GN:n testit tuli just julki ja yllätys yllätys 2080ti ei pääse edes 60fps rajapyykin yli 1% low tuloksissa @540p. Kunnon vitsi.
Sentään pyörii, toisin kuin sinisen tai punaisen leirin korteilla.
 
GN:n testit tuli just julki ja yllätys yllätys 2080ti ei pääse edes 60fps rajapyykin yli 1% low tuloksissa @540p. Kunnon vitsi.
Ei siellä mitään 540p testejä ajeltu? 1080p DLSS:n pohjaresoluutiona toimii tässä pelissä 720p.

Videon kommenteissa GN mainitsee myös että "The absolute FPS numbers are largely meaningless, as they will change from map-to-map and creation-to-creation."

Automaattisesti generoidut maailmat joissa olen tuntitolkulla rakennellut omia kyhäelmiäni creation modessa pyörii siellä 55-75fps välimaastossa RTX 2080:llä 835p->1440p DLSS resolla. Täysin kelvollinen ruudunpäivitys tämänkaltaiseen peliin.
 
Ei siellä mitään 540p testejä ajeltu? 1080p DLSS:n pohjaresoluutiona toimii tässä pelissä 720p.

Videon kommenteissa GN mainitsee myös että "The absolute FPS numbers are largely meaningless, as they will change from map-to-map and creation-to-creation."

Automaattisesti generoidut maailmat joissa olen tuntitolkulla rakennellut omia kyhäelmiäni creation modessa pyörii siellä 55-75fps välimaastossa RTX 2080:llä 835p->1440p DLSS resolla. Täysin kelvollinen ruudunpäivitys tämänkaltaiseen peliin.
Okei, controllista olin saanut päähäni että tässäkin olisi 100% upscale. Ehkä tosin pitäisi olla, jotta päästäisiin edes 60 fps:n yläpuolelle nvidian itsensä tuottamalla sisällöllä, jolla noi GN:ssä testaili tota.
 
Okei, controllista olin saanut päähäni että tässäkin olisi 100% upscale. Ehkä tosin pitäisi olla, jotta päästäisiin edes 60 fps:n yläpuolelle nvidian itsensä tuottamalla sisällöllä, jolla noi GN:ssä testaili tota.
Siellä on samat skaalat kuin controllissa käsittääkseni, mutta toisin kuin controllissa käyttäjää ei saa päättää laatua itse ja esim 1080p käyttää Quality-asetusta tjsp
 
Paremmin tuo rt toimii kuin mitä olisi voinut odottaa ensimmäiseltä sukupolvelta. Pari kuvankaappausta nähnyt tuosta minecraftista, ja siitähän tulee ihan mukiinmenevän näköinen noiden efektien kanssa.

Myös hintatasosta kahden kilpailijan välillä on turha puhua mitään, koska vain toiselta löytyy tällä hetkellä Toimivia kortteja mihinkään keskiluokkaan tai ylöspäin.
Mistäs näitä sinisen leirin kortteja voi ostaa, olisin kovasti kiinnostunut.
Siitähän valitset minkä tahansa iGPU:n :zoom: olipa harvinaisen tyhmä ja hyödytön nollapostaus.
 
Onhan se kyllä aika huvittavaa että top of the line raudalla voi juuri ja juuri pelata... Minecraftia.


Myös hintatasosta kahden kilpailijan välillä on turha puhua mitään, koska vain toiselta löytyy tällä hetkellä Toimivia kortteja mihinkään keskiluokkaan tai ylöspäin.

Olipa harvinaisen tyhmä ja hyödytön nollapostaus.
 
Mitä ihmeen ulinaa taas täällä on..? Tottakai se on etu Nvidialle, että raytracing on edes käytössä pyörii se peli sitten 10 fps tai 100 fps. Juuri tällä hetkellä muilla valmistajilla ei ole vastaavaa tarjolla, joten tässä asiassa Nvidia on tällä hetkellä ylivoimainen. Nvidialta löytyy myös se absoluuttisesti paras kortti pelaamiseen jos rahaa löytyy. Muut valmistajat eivät voi tällä hetkellä tarjota vastaavaa kokemusta kuin Nvidia.
 
Juu, Minecraftia joka sattuu näyttämään aika helvetin hyvältä. Uskomattoman suolaisia kommentteja taas näin tiistai-iltana. :lol:
 
...Niin ja sanottakoon nyt vielä jos joltain on mennyt ohi. Tuo Minecraft with RTX on vielä beta vaiheessa, joten optimointia ja parempaa denoiseria siihen on vielä luvassa ennen varsinaista lopullista versiota.
 
...Niin ja sanottakoon nyt vielä jos joltain on mennyt ohi. Tuo Minecraft with RTX on vielä beta vaiheessa, joten optimointia ja parempaa denoiseria siihen on vielä luvassa ennen varsinaista lopullista versiota.

Jos on... No minecraftin tapauksessa jopa uskon, mutta nykyään vaan on tällä alalla tapana julkaista tuote, lätkäistä beta-vesileima valikkoon ja ongelmia kohdatessa mennä sen taakse, että betassahan tässä vain ollaan, kyllä me tätä kehitetään. Hinnassa tämä ei toki näy, vaan täysi hinta niistä betoista pitää usein maksaa.

Toki tätä keskeneräisenä julkaisua ja sitten parchailua on harjoitettu isosti n. 2007-2008 lähtien, mutta tuo beta/early acces "vapaudut vankilasta -kortti" on keksitty vasta viimeisen 5v aikana
 
Paremmin tuo rt toimii kuin mitä olisi voinut odottaa ensimmäiseltä sukupolvelta. Pari kuvankaappausta nähnyt tuosta minecraftista, ja siitähän tulee ihan mukiinmenevän näköinen noiden efektien kanssa.

Tuhnu se on. Tekniikka demona se toki toimii jotenkin mutta siinäpä se. Mitään ylimääräistä en ikinä moisesta tuhnusta rupeaisi maksamaan.

Myös hintatasosta kahden kilpailijan välillä on turha puhua mitään, koska vain toiselta löytyy tällä hetkellä Toimivia kortteja mihinkään keskiluokkaan tai ylöspäin.

Molemmalta löytyy toimivia kortteja keskiluokkaan ja siitä ylöskin päin. Ainoastaan ihan siellä huipulla ei ole kilpailua. Ja mitä sitten hintatasoon tulee niin AMD tarjoaa selvästi parempaa hinta/perf juuri nyt.

Siitähän valitset minkä tahansa iGPU:n :zoom: olipa harvinaisen tyhmä ja hyödytön nollapostaus.

Ymmärrätkö mitä eroa on näytönohjain kortilla ja CPU:lla? Viestissä kun puhuttiin korteista.

Jos edelleen olet sitä mieltä että viestini oli tyhmä ja hyödytön nollapostaus, niin paina ihmeessä sitä kaipurinappia äläkä täällä itke asiasta.
 
Tuhnu se on. Tekniikka demona se toki toimii jotenkin mutta siinäpä se. Mitään ylimääräistä en ikinä moisesta tuhnusta rupeaisi maksamaan.

Molemmalta löytyy toimivia kortteja keskiluokkaan ja siitä ylöskin päin. Ainoastaan ihan siellä huipulla ei ole kilpailua. Ja mitä sitten hintatasoon tulee niin AMD tarjoaa selvästi parempaa hinta/perf juuri nyt.
Kyllähän tuo minecraftia piristää kummasti ja varmasti osa ostaa tuon sen takia, että viitsii katsella siellä paremmin maisemia..

AMD ei ole pitkään aikaan kyennyt kilpailemaan Nvidian kanssa suorituskyvyssä, eikä ominaisuuksissakaan, varsinkin 20xx sarjan kanssa.
Toivottavasti tilanne muuttuu paremmaksi (siis AMD:n suhteen) seuraavassa sukupolvessa. Tosin AMD:n pitää tehdä melkoisen iso suorituskykyloikka ja Nvidian kohtuu pieni, jos aikoo kilpailla myös highend luokassa.
 
AMD ei ole pitkään aikaan kyennyt kilpailemaan Nvidian kanssa suorituskyvyssä, eikä ominaisuuksissakaan, varsinkin 20xx sarjan kanssa.

Jos unohdetaan nuo törkyhintaiset high-end ja prosumer-kortit niin AMD kilpailee kovastikin ja tarjoaa paremman hinta/suorituskykysuhteen tuolla 300-500 euron hintaluokassa ja sen alapuolella, eli siellä missä ne suuret massat liikkuvat. Vaikka sinänsä olisikin ihan kiva nähdä miten nvidialta vietäisiin se suorituskykykruunu, niin ei sillä sinänsä ole paljon merkitystä ainakaan itselle. Lottovoittajat ja muut hillomiehet voivat kasailla niitä 5000 euron pelikoneita 2080Ti:llä ja 9900K:lla. Reilun tonnin kone Ryzen 3600:lla ja Radeon 5700XT:llä hengittää sen verran kovasti niskaan (about 80% tuloksella) että itse mieluummin säästän ison rahatukon.
 
Jos unohdetaan nuo törkyhintaiset high-end ja prosumer-kortit niin AMD kilpailee kovastikin ja tarjoaa paremman hinta/suorituskykysuhteen tuolla 300-500 euron hintaluokassa ja sen alapuolella, eli siellä missä ne suuret massat liikkuvat. Vaikka sinänsä olisikin ihan kiva nähdä miten nvidialta vietäisiin se suorituskykykruunu, niin ei sillä sinänsä ole paljon merkitystä ainakaan itselle. Lottovoittajat ja muut hillomiehet voivat kasailla niitä 5000 euron pelikoneita 2080Ti:llä ja 9900K:lla. Reilun tonnin kone Ryzen 3600:lla ja Radeon 5700XT:llä hengittää sen verran kovasti niskaan (about 80% tuloksella) että itse mieluummin säästän ison rahatukon.


Kyllä se enemmän jää kuin 80% jos pelataan GPU-rajoitteisilla resoluutioilla.

Minulle AMD:n suurin ongelma ajureiden jälkeen on se, että niiden nopeimmatkin kortit on vaan liian hitaita.
 

Statistiikka

Viestiketjuista
259 438
Viestejä
4 512 259
Jäsenet
74 368
Uusin jäsen
ElZurjuZ

Hinta.fi

Back
Ylös Bottom