Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Eniten mun silmääni viime päivinä on näissä eri ketjuissa paistanut ylioptimistisuus AMD:n tulevaa julkaisua kohtaan. Tuntuu että harva näytti olleen paikalla kun viimeksi varsinainen myynti alkoi. Hinnat oli ihan eri luokkaa kuin kukaan odotti, ja saatavuus AIB malleilla oli kirjaimellisesti 0.

Jotenkin näyttää että tällä kertaa tilanne tulee olemaan paljon huonompi.

Ja Nvidian korttien saatavuusko oli viimeksi hyvä?
 
En näe yhteyttä sun kommentilla ja omalla viestilläni.
Tilanne oli todella poikkeuksellinen viimeksi. Kaikki näytönohjaimet meni kaupaksi hinnalla millä hyvänsä louhinnan takia.
Ei ihan suoraan voi tähän tilanteeseen verrata.

Millä perusteella tilanne tulee tällä kertaa olemaan huonompi?
Saatavuus huonompi? Suorituskyky huonompi? Hinnoittelu huonompi?
 
Vielä vertaluksi miten RDNA1 vs RDNA2 meni.

5700 XT:
2560 shaders
448 GB/s muistikaista

6950 XT:
5120 shaders (2x vs. 5700 XT)
576 GB/s muistikaista (1.29x vs. 5700 XT)

Suorituskyky kasvoi 2.13x vs. 5700XT (techpowerup)

Ja jos huhutut specsit 7950 XT kortista pitää paikkaansa niin:
12288 shaders (2.4x vs. 6950 XT)
960 GB/s muistikaista (1.67x vs. 6950 XT)

Eli specseissä on suurempi hyppäys kuin RDNA1 vs. RDNA2.
4090 suorituskyky on saman techpowerup taulukon mukaan 1.53x vs. 6950 XT

Jos nuo huhutut specsit pitää paikkaansa ja AMD:n kortti on hitaampi kuin 4090 niin jotain on mennyt pieleen RDNA3 arkkitehtuurin kanssa. Ainakin suorituskyky/shader on huomattavan paljon huonompi.
 
Heti kun tuosta RTX 4090 Founders kortista tuli uutinen ja arvostelu io-techhiin niin foorumille iski viestejä, että "tuhnu tuli". :facepalm: Sitten oli kerinnyt kyseiset postaajat lukemaan uutisenkin ja RTX 4090 järjettömän suorituskyky hyppäyksestä alkuperäisten viestien jälkeen ja totesivat, että ei se nyt ihan tuhnu ollutkaan, sitten syyksi muodostuikin ja editoitiin viesteihin ja yllättäen yllättäen hinta. :facepalm:

No siis jos tarkastellaan tuota rtx4090 hiukan tarkemmin ja verrataan vaikkapa rtx3090.
- Kellot 2700MHz vs 1800MHz, eli 1,5x rtx4090 hyväksi.
- SM lukumäärä rtx4090 128 vs rtx3090 82, eli 1,56x rtx4090 hyväksi.

Kun rtx3090 suorituskyky on 1 niin näiden lukujen valossa rtx4090 pitäisi kepittää rtx3090 paljon selvemmin numeroin mitä nyt tekee eli 2,34x. Tietysti ei voida olettaa täysin lineaarista skaalautumista, mutta todellisuudessa kun on nyt nähty että se suorituskyky on "vain" 1,5-1,7x rtx3090 verrattuna, niin jotenkin tuntuu että kovin huonosti tuossa rtx4090 tuo teho skaalautuu. Mutta ehkä jäämme odottelemaan niitä jumalajureita samalla kun ihmetellään spontaanisti itsestäänsyttyviä virtaliittimiä.

Taitaa olla muistikaista tuhnuttamassa tehoja kun siinä ero on ainoastaan 1,077x
L2 kakkua rtx4090 on 12x määrä mutta ei tunnu sekään pelastavan tilannetta.
 
Jos tämä ei todista AMD-fanaatikkojen olemassa oloon täällä foorumilla, joiden viestien agendaan Nvidiasta (automaattinen dissaus) ja AMD:sta (automaattinen hypetys) ei faktat perustu vaan pelkkä sanoman levitys niin en tiedä mikä. :whistling::cigar2:

Eniten näitä AMD-fanaatikko, AMD-fanipoika jne. termejä viljelee ne, jotka itse suhtautuu AMD:hen erittäin negatiivisesti (automaattinen dissaus), ja Nvidiaan erittäin myönteisesti (automaattinen hypetys).

Tehojen puolesta jytky se RTX 4090 oli. Kyllä tuo 4k-tehoissa otti ison loikan. Ja @finWeazel :lilta oppina se, että RTX 4090 on halotuote jonka hinta on melko irrelevanttia. Näytönohjainten ferrari siis.

4080 sitten pilasi hinta ja se mokattu pienempi malli. Joka peruttiin onneksi. Viikon päästä nähdään AMD:n tarjontaa. Itse toivon vain kovaa kilpailua. Molempien kortit kelpaa, ja lähes vuorotellen ollut punaista ja vihreää. Kukin tyylillään. Ei pieni fanitus ole pahasta sekään. Pitää olla tunteitakin joskus.
 
4080 sitten pilasi hinta ja se mokattu pienempi malli. Joka peruttiin onneksi. Viikon päästä nähdään AMD:n tarjontaa. Itse toivon vain kovaa kilpailua. Molempien kortit kelpaa, ja lähes vuorotellen ollut punaista ja vihreää. Kukin tyylillään. Ei pieni fanitus ole pahasta sekään. Pitää olla tunteitakin joskus.

Vain 4070 aka 4080 12 GB peruttiin, 16 GB malli edelleen tulossa alustavasti niin suolaisella hinnalla, että kannattaa ostaa mieluummin 4090 kun 4080 hintaero halvimpaan 4090 on pari hunttia.

Itseasiassa vähän sama tilanne kuin 2019 alussa kun ostin halvan 2080 Ti enkä paremman pään 2080, samanlaisella hintaerolla. Jälkeenpäin katsottuna kyllä kannatti, edelleen hyvä kortti ja vasta nyt 3070 saa tarpeeksi halvalla.

Toivon, että AMD julkistaa hyvät kortit ensi viikolla. Parhaimmillaan ollaan samalla tasolla Nvidian kanssa nopeudessa ja saadaan ainakin 4090/4080 sarjan hinnoista ilmat pois.

Parhaimmassa tapauksessa tämän sukupolven taisto tehdään softan puolella. DLSS on edelleen kuvanlaadultaan parempi kuin FSR ja uusi frame generation vaikuttaa hyvältä vaikka siinä onkin lastentauteja. Toivon, että AMD julkaisee jotain vastaavaa ja parantaa FSR entuudestaan tai tarjoaa uusissa korteissa rauta-avustusta kuvanlaatuun.
 
uusi frame generation vaikuttaa hyvältä vaikka siinä onkin lastentauteja.

Oikein hyvältä gimmikiltä se vaikuttaa jolla on ainoastaan tarkoitus saada näyttämään nvidian tuotteet paremmilta mitä ne on. HUB:n arvostelussa oli hyvin asia ilmaistu kun sanottiin että on aika omituinen olo kun selvästi framerate on korkea mutta silti peli ei tunnu siltä että freimit olisi korkeat.
Ja eihän se ole mikään ihme kun input lägi on ihan pielessä tuon kanssa ja sitä tuskin pystytään korjaamaan kun se toimii miten toimii.
 
Kuinka hyvin tämä kuva pitää paikkansa eri korttien nopeuksein vertailuissa? Olen hitaasti ostamassa korttia ja tämä olisi kätevä eri mallien vertailuun jos pitää paikkansa. Varsinkin eri valmistajien vanhojen sarjojen nopeuden vertailu nykyisiin malleihin on helppoa.


Arikkelista löytyy myös taulukot muille resoluutioille jos joku sellaista kaipaa. https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html
 
Oikein hyvältä gimmikiltä se vaikuttaa jolla on ainoastaan tarkoitus saada näyttämään nvidian tuotteet paremmilta mitä ne on. HUB:n arvostelussa oli hyvin asia ilmaistu kun sanottiin että on aika omituinen olo kun selvästi framerate on korkea mutta silti peli ei tunnu siltä että freimit olisi korkeat.
Ja eihän se ole mikään ihme kun input lägi on ihan pielessä tuon kanssa ja sitä tuskin pystytään korjaamaan kun se toimii miten toimii.
Olen samaa mieltä, että DLSS 3 frame generationin tulosten käyttäminen benchmarkeissa on kyseenalaista jos verrataan näyttiksiin, joissa ominaisuutta ei ole saatavilla.

Se ei kuitenkaan tarkoita, etteikö tekniikka olisi käyttökelpoinen. Jokainen käyttäjä voi itse valita onko se hänen mielestään hyvä vai ei, pelikohtaisesti. Ajattelin 4090 saatuani kokeilla esim. uuden Plague Talen joka hidastempoisuudellaan (ekan pelin perusteella) pitäisi olla erinomainen kohde frame generationille, koska korkeammalla latenssilla vs oikea korkeampi framerate ei ole niin väliä. Ennen kuin pääsen itse kokeilemaan ominaisuutta en osaa sanoa miltä se "tuntuu" käytännössä.

Jos huhut ovat totta ja AMD onnistuu julkaisemaan 4090 lähellä vastaavan näyttiksen, Nvidialla on yhä näitä lisäominaisuusetuja jotka ainakin minulla painavat vaakakupissa näyttistä valitessa. Tietysti jos AMD pystyy tarjoamaan vastaavaa selvästi paremmalla hinnoittelulla, niin vaaka kallistuu eri suuntaan. Samoin jos heillä on jotain tarjoattavaa tuohon 3090 - 4090 välimaastoon, joka varmaan olisi aivan riittävä useimmille uutta näyttistä etsiville.
 
Kuinka hyvin tämä kuva pitää paikkansa eri korttien nopeuksein vertailuissa? Olen hitaasti ostamassa korttia ja tämä olisi kätevä eri mallien vertailuun jos pitää paikkansa. Varsinkin eri valmistajien vanhojen sarjojen nopeuden vertailu nykyisiin malleihin on helppoa.


Arikkelista löytyy myös taulukot muille resoluutioille jos joku sellaista kaipaa. https://www.tomshardware.com/reviews/gpu-hierarchy,4388.html
4K tuloksia katsellessa näyttäisi melko kohdillaan olevan. Kannattaa muistaa, että tulokset ovat kuitenkin yhdistelmä useampaa peliä ja tarpeettoman kovilla ultra asetuksilla.

Esim. 4K tuloksissa mun nykyinen 2080 Ti heitetään tuonne johonkin 40-50 fps maastoon, mutta sitten esim. Doom Eternal pyörii DLSS:n avittamana about 4K 120 fps ja ilmankin yli 60 fps jos hitusen karsii yksityiskohtia.

Jotkut moninpeliräiskinnät sitten pyörivät helposti monen sadan fps lukemissa sopivilla asetuksilla.
 
4K tuloksia katsellessa näyttäisi melko kohdillaan olevan. Kannattaa muistaa, että tulokset ovat kuitenkin yhdistelmä useampaa peliä ja tarpeettoman kovilla ultra asetuksilla.

Esim. 4K tuloksissa mun nykyinen 2080 Ti heitetään tuonne johonkin 40-50 fps maastoon, mutta sitten esim. Doom Eternal pyörii DLSS:n avittamana about 4K 120 fps ja ilmankin yli 60 fps jos hitusen karsii yksityiskohtia.

Jotkut moninpeliräiskinnät sitten pyörivät helposti monen sadan fps lukemissa sopivilla asetuksilla.

Lähinnä käytän kuvaa korttien keskinäisten nopeuksein vertailuun. Esimerkiksi käytetyn hintaa pohtiessa siitä näkee helposti että 2080 Ti tai 6700 XT menee jonnekin 3060 Ti ja 3070 välimaastoon nopeudessa. Kun käytettyä 3070 myydään 400-450€ tietää ettei maksa niistä ainakaan tämän yli.
 
Lähinnä käytän kuvaa korttien keskinäisten nopeuksein vertailuun. Esimerkiksi käytetyn hintaa pohtiessa siitä näkee helposti että 2080 Ti tai 6700 XT menee jonnekin 3060 Ti ja 3070 välimaastoon nopeudessa. Kun käytettyä 3070 myydään 400-450€ tietää ettei maksa niistä ainakaan tämän yli.
2080 Ti on aikalailla yhtäläinen perus 3070 kanssa. Erona lähinnä HDMI 2.1 portti 3070:ssa ja pelikohtaisesti hitaampi tai nopeampi.
 
Kyssäriä....

Uusi PC hankinnassa joka tulee 3 näyttöiseen simulaattoriin tai itse asiassa 4 mutta 3 vaakatasoon joissa tahto tila on että 3 näyttöön saadaan max resoluutio (1440p/240Hz) jos vaan muuten koneen potku riittää? :)
Näytöiksi on tulossa: Samsung Odyssey G7 32"

Eli siinä portit 1 x DP 1.4 (1440p/240Hz) ja 1 x HDMI 2.0 (1440p/144Hz)

Kysymys on että jos hommaa uuden AMD Radeon RX 7900 TX tai TXT:n (jossa portteja 2 x DP, 1 x HDMI ja 1 x USB-c) niin 2 x DP porttia toimii hienosti 1440p / 240Hz tilassa mutta saako tuosta USB-C liittimestä USB-C / DP adapterilla ulos kolmanteen näyttöön 1440p / 240Hz?
HDMI:llähän ei onnistu kun näytössä vain HDMI 2.0...

Sellaisia kaapeleita ainakin löysin mutta ajattelin varmistaa jos joku fiksumpi osaa vastata?
Täytyykö näytön tukea "DP Alternate Mode"a?

Toki näyttöäkin voi vaihtaa mutta mennään nyt aluksi näillä :) tai ostaa kalliimpi nVidia RTX näyttis... :)

Kiitos avusta!
 
Kyssäriä....

Uusi PC hankinnassa joka tulee 3 näyttöiseen simulaattoriin tai itse asiassa 4 mutta 3 vaakatasoon joissa tahto tila on että 3 näyttöön saadaan max resoluutio (1440p/240Hz) jos vaan muuten koneen potku riittää? :)
Näytöiksi on tulossa: Samsung Odyssey G7 32"

Eli siinä portit 1 x DP 1.4 (1440p/240Hz) ja 1 x HDMI 2.0 (1440p/144Hz)

Kysymys on että jos hommaa uuden AMD Radeon RX 7900 TX tai TXT:n (jossa portteja 2 x DP, 1 x HDMI ja 1 x USB-c) niin 2 x DP porttia toimii hienosti 1440p / 240Hz tilassa mutta saako tuosta USB-C liittimestä USB-C / DP adapterilla ulos kolmanteen näyttöön 1440p / 240Hz?
HDMI:llähän ei onnistu kun näytössä vain HDMI 2.0...

Sellaisia kaapeleita ainakin löysin mutta ajattelin varmistaa jos joku fiksumpi osaa vastata?
Täytyykö näytön tukea "DP Alternate Mode"a?

Toki näyttöäkin voi vaihtaa mutta mennään nyt aluksi näillä :) tai ostaa kalliimpi nVidia RTX näyttis... :)

Kiitos avusta!
Ei tarvitse tukea jos ostat USB-C > DisplayPort -kaapelin. Radeoneiden USB-C tukee DP Alt Modea, eli siitä adapterilla tavalliseen displayportiin ei pitäisi olla mitään hämminkiä.
 
Mites noi amd näyttikset vr pelaamisessa toimii vs nvidia? Ollut tarkoituksena ostaa 3080 mutta olis tossa lähellä pari käytettyä rx 6900xt mallia myynnissä.
 
Mites noi amd näyttikset vr pelaamisessa toimii vs nvidia? Ollut tarkoituksena ostaa 3080 mutta olis tossa lähellä pari käytettyä rx 6900xt mallia myynnissä.
Mitä olen seurannut VR threadeja niin suosittelevat nVidia välttääkseen harmaita hiuksia. Esim Varjon lasit ei toimi ollenkaan AMD:llä (tai jotain ongelmia) ja tiettyjä fiitsereitä ei ole AMD korteille koska käyttävät nVidian VR-Worksiä tjms. Paljon siis pientä köhnää AMD:llä ilmeisesti että välttääkseen vitutusta niin nVidiaa pellin alle.
 
Mitä haittapuolia on ostaa AMD verrattuna nvidiaan? Huonompi säteenseuranta, vähemmän pelejä, jotka tukee AMD:n versiota DLSS3:sta, huonompi VR-käytössä. Mitä muita syitä olla ostamatta AMD:n korttia?
 
Mitä haittapuolia on ostaa AMD verrattuna nvidiaan? Huonompi säteenseuranta, vähemmän pelejä, jotka tukee AMD:n versiota DLSS3:sta, huonompi VR-käytössä. Mitä muita syitä olla ostamatta AMD:n korttia?
Joku ammattisofta tykkää nvidian cuda
-ytimistä.

Siinäpä ne syyt onkin.
 
Mitä haittapuolia on ostaa AMD verrattuna nvidiaan? Huonompi säteenseuranta, vähemmän pelejä, jotka tukee AMD:n versiota DLSS3:sta, huonompi VR-käytössä. Mitä muita syitä olla ostamatta AMD:n korttia?

Cuda tuki jos devaa, osa hyötysoftista (video/kuvankäsittelypuoli/rendaus) pyörii nykyään nvidialla paremmin, kun on suoraa cudatukea tai vastaavaa opencl tuen lisäksi. Streamaus puolella tuki on käsittääkseni parempi, vaikka on kuroutunut aika tavalla umpeen.
 
Cuda tuki jos devaa, osa hyötysoftista (video/kuvankäsittelypuoli/rendaus) pyörii nykyään nvidialla paremmin, kun on suoraa cudatukea tai vastaavaa opencl tuen lisäksi. Streamaus puolella tuki on käsittääkseni parempi, vaikka on kuroutunut aika tavalla umpeen.

Streamaukseen AMD selvästi lähteny nyt panostaa kun ruvenneet vihdoin OBS sponsseiksi, joten eiköhän se streamaus ole kohta kunnossa.
 
Streamaukseen AMD selvästi lähteny nyt panostaa kun ruvenneet vihdoin OBS sponsseiksi, joten eiköhän se streamaus ole kohta kunnossa.
Ei se ole ollut toviin kiinni enää muusta kuin uusimman SDK:n tukemisesta striimisoftien puolella, eli tosiaan eiköhän se kunnossa ole tuota pikaa
 
Ei se ole ollut toviin kiinni enää muusta kuin uusimman SDK:n tukemisesta striimisoftien puolella, eli tosiaan eiköhän se kunnossa ole tuota pikaa

Joo mutta OBS devaajat esim valitellu ettei kommunikointi AMD:n kanssa oikein toimi. Nyt kun laittaavat vähintään 50k$ vuodessa rahaa, niin luulempa että se kommunikointikin kiinnostaa ihan eri tavalla.
Osin syynä tuohon huonoon kommunikointiin on varmaan ollut myös ReLive jota AMD koitti ajaa eteenpäin niin ei niin hirveästi ole ollut intoa ns. kilpailevaa tuotetta tukea.
 
Tuli toisella foorumilla puheeksi AF-laatu, kun siellä on yksi Arc A770:n omistaja nyt tehnyt jos jonkin näköisiä testejä.
AMD:lla ja Intelillä on käytännössä "täydellinen" Anisotropic Filtering, mutta NVIDIA jostain syystä vielä jumittaa kulmariippuvaisena (ei toki mitenkään vastaava kuin muinaishistorian kulmariippuvaisuus)

Intel (Arc/Alchemist):
1669218625382.png


AMD (RDNA2):
1669218665137.png


NVIDIA (RTX 20):
1669218694755.png
 
Cuda tuki jos devaa, osa hyötysoftista (video/kuvankäsittelypuoli/rendaus) pyörii nykyään nvidialla paremmin, kun on suoraa cudatukea tai vastaavaa opencl tuen lisäksi. Streamaus puolella tuki on käsittääkseni parempi, vaikka on kuroutunut aika tavalla umpeen.

Uudessa työssä pitäisi koodailla ja VR juttuja myös. Ei toki tarvitse omaa konetta niihin käyttää, mutta jos teen kotoa käsin niin silloin mieluusti.
 
Joo mutta OBS devaajat esim valitellu ettei kommunikointi AMD:n kanssa oikein toimi. Nyt kun laittaavat vähintään 50k$ vuodessa rahaa, niin luulempa että se kommunikointikin kiinnostaa ihan eri tavalla.
Näyttää olevan melkoinen vaikutus kun RDNA3 AV1 enkooderi-tukea pukkaa OBS 29 betaan vaikkei kortteja ole vielä edes myynnissä.
"Added support for the AMD AV1 Encoder for RDNA3 GPUs "
 
Mitä haittapuolia on ostaa AMD verrattuna nvidiaan? Huonompi säteenseuranta, vähemmän pelejä, jotka tukee AMD:n versiota DLSS3:sta, huonompi VR-käytössä. Mitä muita syitä olla ostamatta AMD:n korttia?
AMD:n versio DLSS3 frame generationista ei ole juuri millään asteella vielä.

FSR-tukea alkaa näkyä yhä enemmän, mutta sen kuvanlaatu on edelleen Nvidia DLSS 2.x jäljessä. Tämä on on ainakin itselleni se isoin kompastuskivi tällä hetkellä. DLSS:n voi mielestäni heittää päälle jo aikalailla vakiona kuvanlaadun siitä juuri kärsimättä Balanced tai Quality tasolla.

AMD tuntuu olevan hitusen hitaampi ajuripäivityksissä uusille peleille, mutta ei mitenkään olennaisesti.

Nvidian puolelta huonoina puolina sanoisin ajurien bloatin määrän. Käytän itse NvCleanInstallia karsimaan tätä, sillä hoituu päivityksetkin näppärästi.

Nvidian Control Panel on myös auttamattoman vanhanaikainen. Joo, kyllähän se toimii, mutta siinä on asetukset ripoteltu ympäriinsä ihan mihin sattuu ja pelien listan lataaminen kestää.

Geforce Experience on usein aiheuttanut odottamattomia ongelmia ihmisille ja sen pakotettu kirjautuminen on silkkaa paskaa. En edes itse asenna sitä nykyään.
 
FSR-tukea alkaa näkyä yhä enemmän, mutta sen kuvanlaatu on edelleen Nvidia DLSS 2.x jäljessä.
Tämä on täysin kiinni pelistä, on tapauksia joissa FSR on parempi ja tapauksia joissa DLSS on parempi. XeSS ei taida (vielä) olla paras missään.
 
DLSS on tuettu useammassa pelissä kuin FSR, toki voi kattoa mitä ajattelee pelata ja tarkistaa jääkö kaipaamaan FSR tukea. Nvidia lahjoo pelien kehittäjiä, joten tukea myös jatkossa luultavasti hieman enemmän, vaikka FSR olisi yhtä helppo laittaa kuin DLSS.
 
Olikos jossain jo testiä FSR2.3 versiosta? Senhän piti parantaa laatua. Voisi olla jo aika lähellä DLSS2:sta.
 
Nvidian Control Panel on myös auttamattoman vanhanaikainen. Joo, kyllähän se toimii, mutta siinä on asetukset ripoteltu ympäriinsä ihan mihin sattuu ja pelien listan lataaminen kestää.

Joo on vanhanaikaisen näköinen, mikä on vaan helvetin hyvä asia. Ja nimenomaan ei ole riputeltu minne sattuu, vaan kaikki löytyy selkeästi omista ja selkeistä osisoistaan siitä selkeästä vasemman puolen valikosta. AMD:n "cool" ajurisofta on helvetin sekava ja täynnä kaikkien näköistä vipua ja ihme valikkoa.
 
Joo on vanhanaikaisen näköinen, mikä on vaan helvetin hyvä asia. Ja nimenomaan ei ole riputeltu minne sattuu, vaan kaikki löytyy selkeästi omista ja selkeistä osisoistaan siitä selkeästä vasemman puolen valikosta. AMD:n "cool" ajurisofta on helvetin sekava ja täynnä kaikkien näköistä vipua ja ihme valikkoa.

Mun mielestä taas AMD:n control panel on varsin selkeä. Makuasia sanoi koira kun muniaan nuoli.
 
Mun mielestä taas AMD:n control panel on varsin selkeä. Makuasia sanoi koira kun muniaan nuoli.

Joo makuasia. Pelikannettavalla on tullut nvidian ajureiden kanssa klikkailtua vielä tämän vuoden puolella. Ihan toimivat, vaikka ovat kuin windows 98 maailmasta. Selkeän funktionaaliset.
Pidin kyllä AMD:n versiota selkeämpänä: Näyttöasetukset kliksutellaan (custom reso/virkistystaajuuskin jos on tarpeen) kerran, sitten vain yleispreset peliasetuksille ja kellotus ajureista päälle. UI mielessä ne haaskaa kyllä graafisuudellaan tilaa aika tavalla, mutta eipä siellä juuri asennuksen jälkeen tarvitse käydä.

Pelikohtaiset konffit ja kellotukset sai vähän helpommin luotua. Jäi siis ajuri/experience/afterburner hyppely pois, kun kaikki oli saman gui:n alla, mitä tulee kyllä arvostettua. Vaikka afterburneissa on kyllä omat etunsa.
 
Näytönohjainten hinnat saattavat lähteä nousuun Yhdysvalloissa mahdollisten tulevien tariffimaksujen vuoksi.

Linkin takana lyhyt uutinen Tom'sHardwarelta:


"Prices of the best graphics cards may get higher in early 2023 in the U.S. as the exemption on tariffs imposed several years ago by the Trump administration will expire on December 31. The Office of the United States Trade Representative may renew the exclusion, or graphics card manufacturers could try to find a way to work around the high tariffs."

Osaako joku fiksumpi sanoa voiko tällä olla epäsuoraa vaikutusta Eurooppaankin?
 
HardwareUnboxedin testissä 8 Gt RTX 3060. Rajusti leikattu siru tuottaa jopa 35 % heikomman pelisuorituskyvyn, mutta maksaa lähestulkoon saman verran kuin samankaltaisesti nimetty, oikea RTX 3060 12 Gt isoveljensä. Nvidia ei oppinut RTX 4080 12 Gt sekoilusta yhtään mitään ja kuluttajien huijaaminen jatkuu nyt alemmassa hintakategoriassa.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Joo on vanhanaikaisen näköinen, mikä on vaan helvetin hyvä asia. Ja nimenomaan ei ole riputeltu minne sattuu, vaan kaikki löytyy selkeästi omista ja selkeistä osisoistaan siitä selkeästä vasemman puolen valikosta. AMD:n "cool" ajurisofta on helvetin sekava ja täynnä kaikkien näköistä vipua ja ihme valikkoa.
Suurin ongelma nvidian CP:ssa on sen hitaus. Minkä tahansa muutoksen hyväksyminen kestää yllättävän kauan, vaikka on hyvin simppelistä toimenpiteestä kyse. Ja esimerkiksi 3d-settingseissä eri asetusten valitsemisessakin on joku aivan käsittämätön viive. Toisin sanoen on kasattu purkkaa purkan purkan päälle, ja lopputuloksena on hidas toiminnallisuus, vaikka kyseessä pitäisi olla äärimmäisen yksinkertainen ja nopeasti toimiva softa.
 
HardwareUnboxedin testissä 8 Gt RTX 3060. Rajusti leikattu siru tuottaa jopa 35 % heikomman pelisuorituskyvyn, mutta maksaa lähestulkoon saman verran kuin samankaltaisesti nimetty, oikea RTX 3060 12 Gt isoveljensä. Nvidia ei oppinut RTX 4080 12 Gt sekoilusta yhtään mitään ja kuluttajien huijaaminen jatkuu nyt alemmassa hintakategoriassa.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


1080p tiputus näytti äkkiseltään olevan luokkaa 14 % ja 1440p 15 % (keskiarvoista).

Jos oikein ymmärsin niin siru on se sama vanha, sen kylkeen on vain laitettu muistit jotka ei siihen yhteyteen sovi. Niin suorituskyky laskee samalla kun virrankulutus pysyy ennallaan. Läppäriin sopii mahdollisimman huonosti tämä tuote eikä toivottavasti tarjolle niihin tulekaan.

Koko tuotteen olemassaolon oikeutus on vähän heikoissa kantimissa. Tietysti 12 GB voi olla ei-optimaalinen overkill 3060-korttiin. Leikatun sirun tekemisessä olisi joku järki ollutkin, jotta olisi saanut melkein kelvolliset piirit tuupattua alennushintaan kaupan hyllylle.

Luottamusta hivenen syö tämäkin tuote kyllä. Tuntuu vähän sitä kuin mentäisiin heikoille jäille ja kepillä koitettaisiin yleisön reaktioita, kannattaako jatkaa. 3060 ei toisaalta luultavasti ole kovin monelle niin rakas tuote, että tulisi merkittävää kritiikkiä. Ehkä pienellä ahneussekoilulla ei ole isossa kuvassa mitään vaikutusta myynteihin muutenkaan, kun vaihtoehtoja ei ole niin liian montaa.
 
1080p tiputus näytti äkkiseltään olevan luokkaa 14 % ja 1440p 15 % (keskiarvoista).

Jos oikein ymmärsin niin siru on se sama vanha, sen kylkeen on vain laitettu muistit jotka ei siihen yhteyteen sovi. Niin suorituskyky laskee samalla kun virrankulutus pysyy ennallaan. Läppäriin sopii mahdollisimman huonosti tämä tuote eikä toivottavasti tarjolle niihin tulekaan.

Koko tuotteen olemassaolon oikeutus on vähän heikoissa kantimissa. Tietysti 12 GB voi olla ei-optimaalinen overkill 3060-korttiin. Leikatun sirun tekemisessä olisi joku järki ollutkin, jotta olisi saanut melkein kelvolliset piirit tuupattua alennushintaan kaupan hyllylle.

Luottamusta hivenen syö tämäkin tuote kyllä. Tuntuu vähän sitä kuin mentäisiin heikoille jäille ja kepillä koitettaisiin yleisön reaktioita, kannattaako jatkaa. 3060 ei toisaalta luultavasti ole kovin monelle niin rakas tuote, että tulisi merkittävää kritiikkiä. Ehkä pienellä ahneussekoilulla ei ole isossa kuvassa mitään vaikutusta myynteihin muutenkaan, kun vaihtoehtoja ei ole niin liian montaa.

Tuonkin olisi voinut hyvin nimetä vaikka 3050 TI:ksi, kun sellaista ei tuossa sukupolvessa vielä ole. Olisi kuluttajille helpompi nähdä mihin sijoittuu suorituskyvyn osalta, ja välttynyt negatiiviselta PR:ltä. Mutta kai siellä on dollarin kuvat painanut enemmän kuin yrityksen julkisuuskuva. Voi tietty olla että suurilta massoilta ero jää huomaamatta, jos tekniikkalehdistö ei tuosta äidy enempää uutisoimaan.
 
1080p tiputus näytti äkkiseltään olevan luokkaa 14 % ja 1440p 15 % (keskiarvoista).

Koko tuotteen olemassaolon oikeutus on vähän heikoissa kantimissa. Tietysti 12 GB voi olla ei-optimaalinen overkill 3060-korttiin. Leikatun sirun tekemisessä olisi joku järki ollutkin, jotta olisi saanut melkein kelvolliset piirit tuupattua alennushintaan kaupan hyllylle.

Tuohan on leikattu, oletettavasti noissa piireissä on yksi muistiohjain rikki joka on poistettu käytöstä. Eli on tuo järkevää, että saadaan nekin käyttöön, toki nimi olisi voinut olla jotain muuta.
 
Tuohan on leikattu, oletettavasti noissa piireissä on yksi muistiohjain rikki joka on poistettu käytöstä. Eli on tuo järkevää, että saadaan nekin käyttöön, toki nimi olisi voinut olla jotain muuta.

Mitenkähän tavallista tuommoinen on, että muistiohjaimesta on joku osa kaputt siten, että 192 bittiä leveä väylä ei pelaa mutta 128 vielä pelittää?

En tiedä suunnitellaanko noita väyliä tuolla tavalla leikattaviksi tai hyödynnettäviksi, kun tuloksena taitaa olla kuitenkin rampa tuote jossa piiri ja muistit on eri paria.

Miksi semmoista ei sitten harrastettaisi myös muissa paremman katteen korteissa?

Aihe menee multa yli hilseen, mutta ei pysty heti vakuuttumaan. En ole lukenut tuosta juttua enkä oikein jaksa katsoa videoita.
 
Mitenkähän tavallista tuommoinen on, että muistiohjaimesta on joku osa kaputt siten, että 192 bittiä leveä väylä ei pelaa mutta 128 vielä pelittää?

En tiedä suunnitellaanko noita väyliä tuolla tavalla leikattaviksi tai hyödynnettäviksi, kun tuloksena taitaa olla kuitenkin rampa tuote jossa piiri ja muistit on eri paria.

Miksi semmoista ei sitten harrastettaisi myös muissa paremman katteen korteissa?

Aihe menee multa yli hilseen, mutta ei pysty heti vakuuttumaan. En ole lukenut tuosta juttua enkä oikein jaksa katsoa videoita.
Muistiohjaimia voidaan kytkeä keskimäärin päälle/pois yksi 32bit (2x16bit) ohjain/väylä kerrallaan, oli niissä vikaa tai ei
 
  • Tykkää
Reactions: hik
Samsung vahvistaa, että GDDR7 käyttää PAM3 signalointia. Samsungin mukaan uuden sukupolven GDDR7 on 25 % energiatehokkaampi kuin GDDR6-standardi. Yhtiö vahvistaa, että G7 käyttää PAM3-signalointia (Pulse-Amplitude Modulation) tarjoten 25 % paremman hyötysuhteen kuin NRZ (Non-Return to Zero) joka on käytössä GDDR6-muisteissa.

Samsung vahvistaa, että GDDR7n odotetaan toimivan 36 Gbps nopeudella, siis tuplasti nopeammin kuin useimmat Radeon 6000 sarjan kortit, joiden muistit toimivat 18 Gbps nopeudella. Kohta tulevat Radeon 7000 sarjan kortit käyttävät 20 Gbps nopeuksisia muisteja. Nvidian ja Micronin yhdessä RTX 30/40 sarjoille kehittämät G6X muistit ovat silti Radeoneita nopeampia. GeForce-korttien muistit käyttävät PAM4-signalointia 23 Gbps nopeudella.

GDDR7 käyttävät näytönohjaimet antavat 1152 Gt/s kaistan 256-bittisen väylän yli ja 384-bittiä leveän väylän yli kaistaa on 1728 Gt/s.

Ihan lähiaikoina ei ole odotettavissa, että GDDR7 nähtäisiin käytössä näytönohjaimissa.


Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
Mitenkähän tavallista tuommoinen on, että muistiohjaimesta on joku osa kaputt siten, että 192 bittiä leveä väylä ei pelaa mutta 128 vielä pelittää?

En tiedä suunnitellaanko noita väyliä tuolla tavalla leikattaviksi tai hyödynnettäviksi, kun tuloksena taitaa olla kuitenkin rampa tuote jossa piiri ja muistit on eri paria.

Miksi semmoista ei sitten harrastettaisi myös muissa paremman katteen korteissa?

Aihe menee multa yli hilseen, mutta ei pysty heti vakuuttumaan. En ole lukenut tuosta juttua enkä oikein jaksa katsoa videoita.

Ne suunnitellaan juurikin tuolla tavalla käytettäväksi. Leikaamattomat piirit menevät kalliilla myyntiin ja maksimaalisesti leikattua piiriä laitetaan halvimpaan kategoriaan. 4090:en ei ole koko piiri ja nvidialla on varaa tehdä vähemmänleikattu 4090ti ja enemmän leikattu 4080ti ad102:sta(teoriassa, aika näyttää miten vähemmän ja enemmän leikatut piirit käytetään).

3090/3090ti:ssa olevaa ga102 piiriä on leikattu jopa niin paljon, että sitä on myyty 3070:ssa.

The GeForce RTX 3070 Ti 8 GB GA102 is a graphics card by NVIDIA, launched on October 21st, 2022
lähde: NVIDIA GeForce RTX 3070 Ti 8 GB GA102 Specs.
 
Ihan lähiaikoina ei ole odotettavissa, että GDDR7 nähtäisiin käytössä näytönohjaimissa.

Voi olla että seuraava siirtymä on GDDR6W muistit.

Nvidian ja Micronin yhdessä RTX 30/40 sarjoille kehittämät G6X muistit ovat silti Radeoneita nopeampia.

Tämä ei pidä paikkaansa. GDDR6 yltää ihan samoihin nopeuksiin nykyään kuin GDDR6X eli 24Gbps.
 
Nvidian ja Micronin yhdessä RTX 30/40 sarjoille kehittämät G6X muistit ovat silti Radeoneita nopeampia. GeForce-korttien muistit käyttävät PAM4-signalointia 23 Gbps nopeudella.
Sekä GDDR6 että GDDR6X yltävät 24 Gbps, mutta kummankaan osalta ei ole missään vielä käytössä tuota nopeutta (eikä kyllä mainittua 23 Gbps:kään)
 
Sekä GDDR6 että GDDR6X yltävät 24 Gbps, mutta kummankaan osalta ei ole missään vielä käytössä tuota nopeutta (eikä kyllä mainittua 23 Gbps:kään)
4080 ja 4090 korteissa muistit on ylikellottuneet hyvinkin yli 24Gbps nopeuksiin. Nähtäneen 24Gbps malleja 2023 kun tulee super/ti päivitykset.
 
4080 ja 4090 korteissa muistit on ylikellottuneet hyvinkin yli 24Gbps nopeuksiin. Nähtäneen 24Gbps malleja 2023 kun tulee super/ti päivitykset.
Kellottuminen on ihan eri asia kuin valmistajien (sekä muistivalmistaja että GPU-valmistaja) lupaamat nopeudet.
Molemmista muisteista on siis 24 Gbps versiot olemassa kyllä, mutta yhtään tuotetta sellaisilla ei vielä ole.
 
Kellottuminen on ihan eri asia kuin valmistajien (sekä muistivalmistaja että GPU-valmistaja) lupaamat nopeudet.
Molemmista muisteista on siis 24 Gbps versiot olemassa kyllä, mutta yhtään tuotetta sellaisilla ei vielä ole.

Tottakai se on eri asia. Siksi niin kirjoitinkin. Mutta liha oli siinä, että kun nykyistenkin korttien muistit tuntuvat toimivan ihan ok. nopeuksilla niin ei ole mitenkään epärealistista odottaa 2023 aikana päivitettyjä versiota 24Gbps muistinopeuksilla. Jos korttien muistit eivät kellottuisi niin odotusarvo 2023 vuodelle olisi paljon pienempi.

Oletettavasti nvidia binnaa nopeimmat muistit ja gpu:t ja kerää ne jemmaan päivitettyjä tuotteita varten.
 
Tottakai se on eri asia. Siksi niin kirjoitinkin. Mutta liha oli siinä, että kun noi nykyisetkin kortit tuntuvat toimivan ihan ok. nopeuksilla niin ei ole mitenkään epärealistista odottaa 2023 aikana päivitettyjä versiota 24Gbps muistinopeuksilla. Jos korttien muistit eivät kellottuisi niin odotusarvo 2023 vuodelle olisi paljon pienempi.

Oletettavasti nvidia binnaa nopeimmat muistit ja gpu:t ja kerää ne jemmaan päivitettyjä tuotteita varten.

Öh.. Miksi niitä muisteja tarttee binnata? :D Jos valmistajalla on 24Gbps muisteja tarjolla niin eiköhän niitä silloin käytetä eikä jotain binnattuja hitaampia.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
297 780
Viestejä
5 077 545
Jäsenet
81 373
Uusin jäsen
saneski

Hinta.fi

Back
Ylös Bottom