Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Joo mutta OBS devaajat esim valitellu ettei kommunikointi AMD:n kanssa oikein toimi. Nyt kun laittaavat vähintään 50k$ vuodessa rahaa, niin luulempa että se kommunikointikin kiinnostaa ihan eri tavalla.
Näyttää olevan melkoinen vaikutus kun RDNA3 AV1 enkooderi-tukea pukkaa OBS 29 betaan vaikkei kortteja ole vielä edes myynnissä.
"Added support for the AMD AV1 Encoder for RDNA3 GPUs "
 
Mitä haittapuolia on ostaa AMD verrattuna nvidiaan? Huonompi säteenseuranta, vähemmän pelejä, jotka tukee AMD:n versiota DLSS3:sta, huonompi VR-käytössä. Mitä muita syitä olla ostamatta AMD:n korttia?
AMD:n versio DLSS3 frame generationista ei ole juuri millään asteella vielä.

FSR-tukea alkaa näkyä yhä enemmän, mutta sen kuvanlaatu on edelleen Nvidia DLSS 2.x jäljessä. Tämä on on ainakin itselleni se isoin kompastuskivi tällä hetkellä. DLSS:n voi mielestäni heittää päälle jo aikalailla vakiona kuvanlaadun siitä juuri kärsimättä Balanced tai Quality tasolla.

AMD tuntuu olevan hitusen hitaampi ajuripäivityksissä uusille peleille, mutta ei mitenkään olennaisesti.

Nvidian puolelta huonoina puolina sanoisin ajurien bloatin määrän. Käytän itse NvCleanInstallia karsimaan tätä, sillä hoituu päivityksetkin näppärästi.

Nvidian Control Panel on myös auttamattoman vanhanaikainen. Joo, kyllähän se toimii, mutta siinä on asetukset ripoteltu ympäriinsä ihan mihin sattuu ja pelien listan lataaminen kestää.

Geforce Experience on usein aiheuttanut odottamattomia ongelmia ihmisille ja sen pakotettu kirjautuminen on silkkaa paskaa. En edes itse asenna sitä nykyään.
 
FSR-tukea alkaa näkyä yhä enemmän, mutta sen kuvanlaatu on edelleen Nvidia DLSS 2.x jäljessä.
Tämä on täysin kiinni pelistä, on tapauksia joissa FSR on parempi ja tapauksia joissa DLSS on parempi. XeSS ei taida (vielä) olla paras missään.
 
DLSS on tuettu useammassa pelissä kuin FSR, toki voi kattoa mitä ajattelee pelata ja tarkistaa jääkö kaipaamaan FSR tukea. Nvidia lahjoo pelien kehittäjiä, joten tukea myös jatkossa luultavasti hieman enemmän, vaikka FSR olisi yhtä helppo laittaa kuin DLSS.
 
Olikos jossain jo testiä FSR2.3 versiosta? Senhän piti parantaa laatua. Voisi olla jo aika lähellä DLSS2:sta.
 
Nvidian Control Panel on myös auttamattoman vanhanaikainen. Joo, kyllähän se toimii, mutta siinä on asetukset ripoteltu ympäriinsä ihan mihin sattuu ja pelien listan lataaminen kestää.

Joo on vanhanaikaisen näköinen, mikä on vaan helvetin hyvä asia. Ja nimenomaan ei ole riputeltu minne sattuu, vaan kaikki löytyy selkeästi omista ja selkeistä osisoistaan siitä selkeästä vasemman puolen valikosta. AMD:n "cool" ajurisofta on helvetin sekava ja täynnä kaikkien näköistä vipua ja ihme valikkoa.
 
Joo on vanhanaikaisen näköinen, mikä on vaan helvetin hyvä asia. Ja nimenomaan ei ole riputeltu minne sattuu, vaan kaikki löytyy selkeästi omista ja selkeistä osisoistaan siitä selkeästä vasemman puolen valikosta. AMD:n "cool" ajurisofta on helvetin sekava ja täynnä kaikkien näköistä vipua ja ihme valikkoa.

Mun mielestä taas AMD:n control panel on varsin selkeä. Makuasia sanoi koira kun muniaan nuoli.
 
Mun mielestä taas AMD:n control panel on varsin selkeä. Makuasia sanoi koira kun muniaan nuoli.

Joo makuasia. Pelikannettavalla on tullut nvidian ajureiden kanssa klikkailtua vielä tämän vuoden puolella. Ihan toimivat, vaikka ovat kuin windows 98 maailmasta. Selkeän funktionaaliset.
Pidin kyllä AMD:n versiota selkeämpänä: Näyttöasetukset kliksutellaan (custom reso/virkistystaajuuskin jos on tarpeen) kerran, sitten vain yleispreset peliasetuksille ja kellotus ajureista päälle. UI mielessä ne haaskaa kyllä graafisuudellaan tilaa aika tavalla, mutta eipä siellä juuri asennuksen jälkeen tarvitse käydä.

Pelikohtaiset konffit ja kellotukset sai vähän helpommin luotua. Jäi siis ajuri/experience/afterburner hyppely pois, kun kaikki oli saman gui:n alla, mitä tulee kyllä arvostettua. Vaikka afterburneissa on kyllä omat etunsa.
 
Näytönohjainten hinnat saattavat lähteä nousuun Yhdysvalloissa mahdollisten tulevien tariffimaksujen vuoksi.

Linkin takana lyhyt uutinen Tom'sHardwarelta:


"Prices of the best graphics cards may get higher in early 2023 in the U.S. as the exemption on tariffs imposed several years ago by the Trump administration will expire on December 31. The Office of the United States Trade Representative may renew the exclusion, or graphics card manufacturers could try to find a way to work around the high tariffs."

Osaako joku fiksumpi sanoa voiko tällä olla epäsuoraa vaikutusta Eurooppaankin?
 
HardwareUnboxedin testissä 8 Gt RTX 3060. Rajusti leikattu siru tuottaa jopa 35 % heikomman pelisuorituskyvyn, mutta maksaa lähestulkoon saman verran kuin samankaltaisesti nimetty, oikea RTX 3060 12 Gt isoveljensä. Nvidia ei oppinut RTX 4080 12 Gt sekoilusta yhtään mitään ja kuluttajien huijaaminen jatkuu nyt alemmassa hintakategoriassa.

 
Joo on vanhanaikaisen näköinen, mikä on vaan helvetin hyvä asia. Ja nimenomaan ei ole riputeltu minne sattuu, vaan kaikki löytyy selkeästi omista ja selkeistä osisoistaan siitä selkeästä vasemman puolen valikosta. AMD:n "cool" ajurisofta on helvetin sekava ja täynnä kaikkien näköistä vipua ja ihme valikkoa.
Suurin ongelma nvidian CP:ssa on sen hitaus. Minkä tahansa muutoksen hyväksyminen kestää yllättävän kauan, vaikka on hyvin simppelistä toimenpiteestä kyse. Ja esimerkiksi 3d-settingseissä eri asetusten valitsemisessakin on joku aivan käsittämätön viive. Toisin sanoen on kasattu purkkaa purkan purkan päälle, ja lopputuloksena on hidas toiminnallisuus, vaikka kyseessä pitäisi olla äärimmäisen yksinkertainen ja nopeasti toimiva softa.
 
HardwareUnboxedin testissä 8 Gt RTX 3060. Rajusti leikattu siru tuottaa jopa 35 % heikomman pelisuorituskyvyn, mutta maksaa lähestulkoon saman verran kuin samankaltaisesti nimetty, oikea RTX 3060 12 Gt isoveljensä. Nvidia ei oppinut RTX 4080 12 Gt sekoilusta yhtään mitään ja kuluttajien huijaaminen jatkuu nyt alemmassa hintakategoriassa.



1080p tiputus näytti äkkiseltään olevan luokkaa 14 % ja 1440p 15 % (keskiarvoista).

Jos oikein ymmärsin niin siru on se sama vanha, sen kylkeen on vain laitettu muistit jotka ei siihen yhteyteen sovi. Niin suorituskyky laskee samalla kun virrankulutus pysyy ennallaan. Läppäriin sopii mahdollisimman huonosti tämä tuote eikä toivottavasti tarjolle niihin tulekaan.

Koko tuotteen olemassaolon oikeutus on vähän heikoissa kantimissa. Tietysti 12 GB voi olla ei-optimaalinen overkill 3060-korttiin. Leikatun sirun tekemisessä olisi joku järki ollutkin, jotta olisi saanut melkein kelvolliset piirit tuupattua alennushintaan kaupan hyllylle.

Luottamusta hivenen syö tämäkin tuote kyllä. Tuntuu vähän sitä kuin mentäisiin heikoille jäille ja kepillä koitettaisiin yleisön reaktioita, kannattaako jatkaa. 3060 ei toisaalta luultavasti ole kovin monelle niin rakas tuote, että tulisi merkittävää kritiikkiä. Ehkä pienellä ahneussekoilulla ei ole isossa kuvassa mitään vaikutusta myynteihin muutenkaan, kun vaihtoehtoja ei ole niin liian montaa.
 
1080p tiputus näytti äkkiseltään olevan luokkaa 14 % ja 1440p 15 % (keskiarvoista).

Jos oikein ymmärsin niin siru on se sama vanha, sen kylkeen on vain laitettu muistit jotka ei siihen yhteyteen sovi. Niin suorituskyky laskee samalla kun virrankulutus pysyy ennallaan. Läppäriin sopii mahdollisimman huonosti tämä tuote eikä toivottavasti tarjolle niihin tulekaan.

Koko tuotteen olemassaolon oikeutus on vähän heikoissa kantimissa. Tietysti 12 GB voi olla ei-optimaalinen overkill 3060-korttiin. Leikatun sirun tekemisessä olisi joku järki ollutkin, jotta olisi saanut melkein kelvolliset piirit tuupattua alennushintaan kaupan hyllylle.

Luottamusta hivenen syö tämäkin tuote kyllä. Tuntuu vähän sitä kuin mentäisiin heikoille jäille ja kepillä koitettaisiin yleisön reaktioita, kannattaako jatkaa. 3060 ei toisaalta luultavasti ole kovin monelle niin rakas tuote, että tulisi merkittävää kritiikkiä. Ehkä pienellä ahneussekoilulla ei ole isossa kuvassa mitään vaikutusta myynteihin muutenkaan, kun vaihtoehtoja ei ole niin liian montaa.

Tuonkin olisi voinut hyvin nimetä vaikka 3050 TI:ksi, kun sellaista ei tuossa sukupolvessa vielä ole. Olisi kuluttajille helpompi nähdä mihin sijoittuu suorituskyvyn osalta, ja välttynyt negatiiviselta PR:ltä. Mutta kai siellä on dollarin kuvat painanut enemmän kuin yrityksen julkisuuskuva. Voi tietty olla että suurilta massoilta ero jää huomaamatta, jos tekniikkalehdistö ei tuosta äidy enempää uutisoimaan.
 
1080p tiputus näytti äkkiseltään olevan luokkaa 14 % ja 1440p 15 % (keskiarvoista).

Koko tuotteen olemassaolon oikeutus on vähän heikoissa kantimissa. Tietysti 12 GB voi olla ei-optimaalinen overkill 3060-korttiin. Leikatun sirun tekemisessä olisi joku järki ollutkin, jotta olisi saanut melkein kelvolliset piirit tuupattua alennushintaan kaupan hyllylle.

Tuohan on leikattu, oletettavasti noissa piireissä on yksi muistiohjain rikki joka on poistettu käytöstä. Eli on tuo järkevää, että saadaan nekin käyttöön, toki nimi olisi voinut olla jotain muuta.
 
Tuohan on leikattu, oletettavasti noissa piireissä on yksi muistiohjain rikki joka on poistettu käytöstä. Eli on tuo järkevää, että saadaan nekin käyttöön, toki nimi olisi voinut olla jotain muuta.

Mitenkähän tavallista tuommoinen on, että muistiohjaimesta on joku osa kaputt siten, että 192 bittiä leveä väylä ei pelaa mutta 128 vielä pelittää?

En tiedä suunnitellaanko noita väyliä tuolla tavalla leikattaviksi tai hyödynnettäviksi, kun tuloksena taitaa olla kuitenkin rampa tuote jossa piiri ja muistit on eri paria.

Miksi semmoista ei sitten harrastettaisi myös muissa paremman katteen korteissa?

Aihe menee multa yli hilseen, mutta ei pysty heti vakuuttumaan. En ole lukenut tuosta juttua enkä oikein jaksa katsoa videoita.
 
Mitenkähän tavallista tuommoinen on, että muistiohjaimesta on joku osa kaputt siten, että 192 bittiä leveä väylä ei pelaa mutta 128 vielä pelittää?

En tiedä suunnitellaanko noita väyliä tuolla tavalla leikattaviksi tai hyödynnettäviksi, kun tuloksena taitaa olla kuitenkin rampa tuote jossa piiri ja muistit on eri paria.

Miksi semmoista ei sitten harrastettaisi myös muissa paremman katteen korteissa?

Aihe menee multa yli hilseen, mutta ei pysty heti vakuuttumaan. En ole lukenut tuosta juttua enkä oikein jaksa katsoa videoita.
Muistiohjaimia voidaan kytkeä keskimäärin päälle/pois yksi 32bit (2x16bit) ohjain/väylä kerrallaan, oli niissä vikaa tai ei
 
  • Tykkää
Reactions: hik
Samsung vahvistaa, että GDDR7 käyttää PAM3 signalointia. Samsungin mukaan uuden sukupolven GDDR7 on 25 % energiatehokkaampi kuin GDDR6-standardi. Yhtiö vahvistaa, että G7 käyttää PAM3-signalointia (Pulse-Amplitude Modulation) tarjoten 25 % paremman hyötysuhteen kuin NRZ (Non-Return to Zero) joka on käytössä GDDR6-muisteissa.

Samsung vahvistaa, että GDDR7n odotetaan toimivan 36 Gbps nopeudella, siis tuplasti nopeammin kuin useimmat Radeon 6000 sarjan kortit, joiden muistit toimivat 18 Gbps nopeudella. Kohta tulevat Radeon 7000 sarjan kortit käyttävät 20 Gbps nopeuksisia muisteja. Nvidian ja Micronin yhdessä RTX 30/40 sarjoille kehittämät G6X muistit ovat silti Radeoneita nopeampia. GeForce-korttien muistit käyttävät PAM4-signalointia 23 Gbps nopeudella.

GDDR7 käyttävät näytönohjaimet antavat 1152 Gt/s kaistan 256-bittisen väylän yli ja 384-bittiä leveän väylän yli kaistaa on 1728 Gt/s.

Ihan lähiaikoina ei ole odotettavissa, että GDDR7 nähtäisiin käytössä näytönohjaimissa.


 
Viimeksi muokattu:
Mitenkähän tavallista tuommoinen on, että muistiohjaimesta on joku osa kaputt siten, että 192 bittiä leveä väylä ei pelaa mutta 128 vielä pelittää?

En tiedä suunnitellaanko noita väyliä tuolla tavalla leikattaviksi tai hyödynnettäviksi, kun tuloksena taitaa olla kuitenkin rampa tuote jossa piiri ja muistit on eri paria.

Miksi semmoista ei sitten harrastettaisi myös muissa paremman katteen korteissa?

Aihe menee multa yli hilseen, mutta ei pysty heti vakuuttumaan. En ole lukenut tuosta juttua enkä oikein jaksa katsoa videoita.

Ne suunnitellaan juurikin tuolla tavalla käytettäväksi. Leikaamattomat piirit menevät kalliilla myyntiin ja maksimaalisesti leikattua piiriä laitetaan halvimpaan kategoriaan. 4090:en ei ole koko piiri ja nvidialla on varaa tehdä vähemmänleikattu 4090ti ja enemmän leikattu 4080ti ad102:sta(teoriassa, aika näyttää miten vähemmän ja enemmän leikatut piirit käytetään).

3090/3090ti:ssa olevaa ga102 piiriä on leikattu jopa niin paljon, että sitä on myyty 3070:ssa.

The GeForce RTX 3070 Ti 8 GB GA102 is a graphics card by NVIDIA, launched on October 21st, 2022
lähde: NVIDIA GeForce RTX 3070 Ti 8 GB GA102 Specs.
 
Ihan lähiaikoina ei ole odotettavissa, että GDDR7 nähtäisiin käytössä näytönohjaimissa.

Voi olla että seuraava siirtymä on GDDR6W muistit.

Nvidian ja Micronin yhdessä RTX 30/40 sarjoille kehittämät G6X muistit ovat silti Radeoneita nopeampia.

Tämä ei pidä paikkaansa. GDDR6 yltää ihan samoihin nopeuksiin nykyään kuin GDDR6X eli 24Gbps.
 
Nvidian ja Micronin yhdessä RTX 30/40 sarjoille kehittämät G6X muistit ovat silti Radeoneita nopeampia. GeForce-korttien muistit käyttävät PAM4-signalointia 23 Gbps nopeudella.
Sekä GDDR6 että GDDR6X yltävät 24 Gbps, mutta kummankaan osalta ei ole missään vielä käytössä tuota nopeutta (eikä kyllä mainittua 23 Gbps:kään)
 
Sekä GDDR6 että GDDR6X yltävät 24 Gbps, mutta kummankaan osalta ei ole missään vielä käytössä tuota nopeutta (eikä kyllä mainittua 23 Gbps:kään)
4080 ja 4090 korteissa muistit on ylikellottuneet hyvinkin yli 24Gbps nopeuksiin. Nähtäneen 24Gbps malleja 2023 kun tulee super/ti päivitykset.
 
4080 ja 4090 korteissa muistit on ylikellottuneet hyvinkin yli 24Gbps nopeuksiin. Nähtäneen 24Gbps malleja 2023 kun tulee super/ti päivitykset.
Kellottuminen on ihan eri asia kuin valmistajien (sekä muistivalmistaja että GPU-valmistaja) lupaamat nopeudet.
Molemmista muisteista on siis 24 Gbps versiot olemassa kyllä, mutta yhtään tuotetta sellaisilla ei vielä ole.
 
Kellottuminen on ihan eri asia kuin valmistajien (sekä muistivalmistaja että GPU-valmistaja) lupaamat nopeudet.
Molemmista muisteista on siis 24 Gbps versiot olemassa kyllä, mutta yhtään tuotetta sellaisilla ei vielä ole.

Tottakai se on eri asia. Siksi niin kirjoitinkin. Mutta liha oli siinä, että kun nykyistenkin korttien muistit tuntuvat toimivan ihan ok. nopeuksilla niin ei ole mitenkään epärealistista odottaa 2023 aikana päivitettyjä versiota 24Gbps muistinopeuksilla. Jos korttien muistit eivät kellottuisi niin odotusarvo 2023 vuodelle olisi paljon pienempi.

Oletettavasti nvidia binnaa nopeimmat muistit ja gpu:t ja kerää ne jemmaan päivitettyjä tuotteita varten.
 
Tottakai se on eri asia. Siksi niin kirjoitinkin. Mutta liha oli siinä, että kun noi nykyisetkin kortit tuntuvat toimivan ihan ok. nopeuksilla niin ei ole mitenkään epärealistista odottaa 2023 aikana päivitettyjä versiota 24Gbps muistinopeuksilla. Jos korttien muistit eivät kellottuisi niin odotusarvo 2023 vuodelle olisi paljon pienempi.

Oletettavasti nvidia binnaa nopeimmat muistit ja gpu:t ja kerää ne jemmaan päivitettyjä tuotteita varten.

Öh.. Miksi niitä muisteja tarttee binnata? :D Jos valmistajalla on 24Gbps muisteja tarjolla niin eiköhän niitä silloin käytetä eikä jotain binnattuja hitaampia.
 
Öh.. Miksi niitä muisteja tarttee binnata? :D Jos valmistajalla on 24Gbps muisteja tarjolla niin eiköhän niitä silloin käytetä eikä jotain binnattuja hitaampia.

Jos olettaa, että kaikki muistipiirit toimivat 24Gbs+ niin ei niitä tarvikaan kerätä/binnata. Tein vain argumentin siitä, että 2023 voisi tulla 24Gbs nopeudella oleva tuote mahdollisimman vahvaksi. Jos on tarve niin nvidia voi jättää parhaat muistipiirit jemmaan odottamaan 2023 vuonna tulevia päivitettyjä tuotteita.

iotechin arvostelussa 4090 muistit venyivät ylikellotettuna 24Gbps nopeuteen ja 4080:en muistipiirit 24.9Gbps.

Jotenkin tuntuu ettei noista 24Gbps muistipiireistä ole pulaa, kun ylikellottuvuus on tuota tasoa eikä gpu-piireissä&korttien linjavedoissakaan taida olla ongelmia,... Lisäksi nuo uudet muistipiirit käyvät viileämpinä kuin 30x0 sarjassa olleet gddr6x muistit niin ei lämmötkään tule ongelmaksi.
 
Viimeksi muokattu:
Jos olettaa, että kaikki muistipiirit toimivat 24Gbs+ niin ei niitä tarvikaan kerätä/binnata. Tein vain argumentin siitä, että 2023 voisi tulla 24Gbs nopeudella oleva tuote mahdollisimman vahvaksi. Jos on tarve niin nvidia voi jättää parhaat muistipiirit jemmaan odottamaan 2023 vuonna tulevia päivitettyjä tuotteita.

iotechin arvostelussa 4090 muistit venyivät ylikellotettuna 24Gbps nopeuteen ja 4080:en muistipiirit 24.9Gbps.

Jotenkin tuntuu ettei noista 24Gbps muistipiireistä ole pulaa, kun ylikellottuvuus on tuota tasoa eikä gpu-piireissä&korttien linjavedoissakaan taida olla ongelmia,... Lisäksi nuo uudet muistipiirit käyvät viileämpinä kuin 30x0 sarjassa olleet gddr6x muistit niin ei lämmötkään tule ongelmaksi.

Kyllä se nVidia ostaa 24Gbps muistit niin että jokainen toimitettu piiri on speksattu sille, eikä binnaile omiaan. Joku Asus sitten saattaa binnailla johonkin hypermalliin siitä 24Gbps piireistä ostamistaan huippumalleja
 
Kyllä se nVidia ostaa 24Gbps muistit niin että jokainen toimitettu piiri on speksattu sille, eikä binnaile omiaan. Joku Asus sitten saattaa binnailla johonkin hypermalliin siitä 24Gbps piireistä ostamistaan huippumalleja
Mun pointti yksinkertaisuudessaan oli asettaa odotusarvo 2023 päivityksille perustuen siihen, että jo nykyiset kortit pääsevät 24Gbps muistinopeuksiin siitä huolimatta, että korttien speksit eivät tuollaista lupaa. Virallinen 24Gbps päivitystuote 2023 aikana ei tunnu mahdottomalta.
 
Mun pointti yksinkertaisuudessaan oli asettaa odotusarvo 2023 päivityksille perustuen siihen, että jo nykyiset kortit pääsevät 24Gbps muistinopeuksiin siitä huolimatta, että korttien speksit eivät tuollaista lupaa. Virallinen 24Gbps päivitystuote 2023 aikana ei tunnu mahdottomalta.

Sehän toki on lähes itsestäänselvyys että sellainen päivitys tulee, mutta ei minään binnattuna erikoisuutena, vaan ihan speksin mukaisilla 24Gbps (ellei jopa nopeammillaa) muisteilla
 
Mun pointti yksinkertaisuudessaan oli asettaa odotusarvo 2023 päivityksille perustuen siihen, että jo nykyiset kortit pääsevät 24Gbps muistinopeuksiin siitä huolimatta, että korttien speksit eivät tuollaista lupaa. Virallinen 24Gbps päivitystuote 2023 aikana ei tunnu mahdottomalta.
Sun pointissa ei ole vain mitään järkeä. Yhdistämälläsi kahdella asialla ei ole mitään tekemistä keskenään.
 
Jos olettaa, että kaikki muistipiirit toimivat 24Gbs+ niin ei niitä tarvikaan kerätä/binnata. Tein vain argumentin siitä, että 2023 voisi tulla 24Gbs nopeudella oleva tuote mahdollisimman vahvaksi. Jos on tarve niin nvidia voi jättää parhaat muistipiirit jemmaan odottamaan 2023 vuonna tulevia päivitettyjä tuotteita.

Ennemminkin lähtisin miettimään että onko nää lastut niitä paskoja 24Gbps lastuja jotka ei täytä niitä 24Gbps speksejä ja ne myydään sitten alemmilla spekseillä, eli valmistaja binnaa niitä. Toki ne voi kulkea kovempaa kun annetaan jännitettä yli speksien.
 
Ennemminkin lähtisin miettimään että onko nää lastut niitä paskoja 24Gbps lastuja jotka ei täytä niitä 24Gbps speksejä ja ne myydään sitten alemmilla spekseillä, eli valmistaja binnaa niitä. Toki ne voi kulkea kovempaa kun annetaan jännitettä yli speksien.
Eli jos vertaa konseptina ddr4 muisteihin, niin muistit kulkee 1.2v jänöllä 3200 mbps ja 1.35v 3600 mbps. Valmistaja myy vain 1.2v jänön muisteja mutta ne kestää oikein hyvin 1.35v.

Samalla tavalla 24 Gbps saavutetaan turvallisella "1.35v" jännitteellä.
 
Eli jos vertaa konseptina ddr4 muisteihin, niin muistit kulkee 1.2v jänöllä 3200 mbps ja 1.35v 3600 mbps. Valmistaja myy vain 1.2v jänön muisteja mutta ne kestää oikein hyvin 1.35v.

Samalla tavalla 24 Gbps saavutetaan turvallisella "1.35v" jännitteellä.

Juurikin näin.
 
Laitan tähän ketjuun, kun ei taida oikein parempaakaan "mitä piirit maksavat" ketjua olla olemassa? Ei ne pelkät piirin valmistuskustannukset nouse. Myös piirien r&d/kehityskustannukset nousevat. Alla marvelin näkymys kehityskustannuksista. Kehityskustannukset pitää toki kerätä takaisin myytyjen piirien/tuotteiden hinnassa.

Esimerkiksi tuo 400M$ 16nm vs. 5nm ero kehityskuluissa on aika iso määrä massia. Jos olettaisi myytävän 10 miljoonaa piiriä niin tulee 40$ per piiri lisähintaa pelkistä r&d-kuluista,... Siihen päälle se, että itse piirin valmistaminen on hullun paljon kalliimpaa. Ei tarvi ihmetellä miksi on painetta korottaa hintoja/miksi ei näy halpistuotteita uusimmilla prosesseilla. Toki tässä hetkessä on myös paljon muita tekijöitä hintaan vaikuttamassa(inflaatio, valuuttakurssit, komponenttipulan jälkimainingit,...)

1670422735080.png

 
Laitan tähän ketjuun, kun ei taida oikein parempaakaan "mitä piirit maksavat" ketjua olla olemassa? Ei ne pelkät piirin valmistuskustannukset nouse. Myös piirien r&d/kehityskustannukset nousevat. Alla marvelin näkymys kehityskustannuksista. Kehityskustannukset pitää toki kerätä takaisin myytyjen piirien/tuotteiden hinnassa.

Esimerkiksi tuo 400M$ 16nm vs. 5nm ero kehityskuluissa on aika iso määrä massia. Jos olettaisi myytävän 10 miljoonaa piiriä niin tulee 40$ per piiri lisähintaa pelkistä r&d-kuluista,... Siihen päälle se, että itse piirin valmistaminen on hullun paljon kalliimpaa. Ei tarvi ihmetellä miksi on painetta korottaa hintoja/miksi ei näy halpistuotteita uusimmilla prosesseilla. Toki tässä hetkessä on myös paljon muita tekijöitä hintaan vaikuttamassa(inflaatio, valuuttakurssit, komponenttipulan jälkimainingit,...)

1670422735080.png



Tuotekehityskulut ovat toki nousseet, mutta iso ongelma hintojen nostossa on se, että se laskee volyymejä. Vaikka premium+++ tuotteissa kuten 4080/4090 on kovat katteet, se ei auta jos tuotantomäärät on sadoissa tuhansissa eikä miljoonissa.

Oliko tuolla muuten mitään itse valmistuskustannuksista?
 
Tuotekehityskulut ovat toki nousseet, mutta iso ongelma hintojen nostossa on se, että se laskee volyymejä. Vaikka premium+++ tuotteissa kuten 4080/4090 on kovat katteet, se ei auta jos tuotantomäärät on sadoissa tuhansissa eikä miljoonissa.
Tosin esimerkiksi tuosta marvellin kaaviosta iso osa jakautuu kaikkien saman arkkitehtuurin piirien välille eikä niin että jokainen eri piiri maksaa ton
 
Tosin esimerkiksi tuosta marvellin kaaviosta iso osa jakautuu kaikkien saman arkkitehtuurin piirien välille eikä niin että jokainen eri piiri maksaa ton

Niin mutta tässä tulee taas se, että jostain syystä nVidia on lopettanut noin 200-300 euron näyttisten valmistamisen, mikä väkisinkin pienentää volyymejä.
 
Laitan tähän ketjuun, kun ei taida oikein parempaakaan "mitä piirit maksavat" ketjua olla olemassa? Ei ne pelkät piirin valmistuskustannukset nouse. Myös piirien r&d/kehityskustannukset nousevat. Alla marvelin näkymys kehityskustannuksista. Kehityskustannukset pitää toki kerätä takaisin myytyjen piirien/tuotteiden hinnassa.

Esimerkiksi tuo 400M$ 16nm vs. 5nm ero kehityskuluissa on aika iso määrä massia. Jos olettaisi myytävän 10 miljoonaa piiriä niin tulee 40$ per piiri lisähintaa pelkistä r&d-kuluista,... Siihen päälle se, että itse piirin valmistaminen on hullun paljon kalliimpaa. Ei tarvi ihmetellä miksi on painetta korottaa hintoja/miksi ei näy halpistuotteita uusimmilla prosesseilla. Toki tässä hetkessä on myös paljon muita tekijöitä hintaan vaikuttamassa(inflaatio, valuuttakurssit, komponenttipulan jälkimainingit,...)

1670422735080.png


Niin mikä tuossa nyt on kustannusten vertailukohta? Mitä konkreettista tuolla miljoonamäärällä saadaan, yksi AutoCAD piirustus siitä miten piiri valmistetaan? Tarvitseeko tuo maksaa vuosittain vai kertakuluna? Maksaako jokainen yritys tuon verran saadakseen uuden piirin?

Esimerkkinä TSMC, vuoden 2021 nettotulot olivat 21 350 000 miljoonaa. Tuossa on yksi $780M kärpäsen paskan verran rahaa, jos esimerkiksi tämä yritys joutuisi tuon kehityskulun maksamaan itse. Tuollaisesta käppyrästä tulee mieleen näytönohjain- ja prosessorivalmistajien julkistustilaisuudessa nähdyt kuvaajat, joissa +2% parannus saadaan tarkoituksella näyttämään +25% parannukselta.
 
Niin mikä tuossa nyt on kustannusten vertailukohta? Mitä konkreettista tuolla miljoonamäärällä saadaan, yksi AutoCAD piirustus siitä miten piiri valmistetaan? Tarvitseeko tuo maksaa vuosittain vai kertakuluna? Maksaako jokainen yritys tuon verran saadakseen uuden piirin?
Vertailukohta on samat kustannukset aiemmilla nodeilla. Kyseessä on yhden piirin valmistus- ja suunnittelukustannukset nollasta valmiiksi rahassa mitattuna, poislukien itse piirin massatuotanto. Sisältää siis projektin työntekijöiden palkat yms kulut.
 
Olisiko siis kannattavampaa valmistaa ja myydä niitä vanhemman noden tuotteita tuohon halpis kategoriaan tai vaikka muihinkin? Vähän niin kuin Intel teki vuosia pakon edessä.
 
Olisiko siis kannattavampaa valmistaa ja myydä niitä vanhemman noden tuotteita tuohon halpis kategoriaan tai vaikka muihinkin? Vähän niin kuin Intel teki vuosia pakon edessä.

nVidiahan on myynyt GTX 1600-sarjaa tähän asti lowendissä ja ampere-arkkitehtuurista (=rtx 3000-sarja) varsinaista budjettimallia ei tullut lainkaan.
Veikkaan myös että AMD myy RX 6700 sarjasta alaspäin kortteja todella pitkään tuolla alemman hintaluokan kategorioissa. Ja aiemmin samaan polaris 10 piiriin perustuneita RX 400 ja RX 500 kortteja myytiin todella pitkään budjettiluokkaan.
 
Ohhoh, vaikuttaisi ihan siltä että NVIDIA on tehnyt Portal with RTX:stä tarkoituksella mahdollisimman paskasti kilpailijoilla pyörivän eikä se edes liity RT-suorituskykyyn.

 
Ohhoh, vaikuttaisi ihan siltä että NVIDIA on tehnyt Portal with RTX:stä tarkoituksella mahdollisimman paskasti kilpailijoilla pyörivän eikä se edes liity RT-suorituskykyyn.


Tästä oli jo toisaalla kommenttina että tuossa ketjussa lähinnä luetaan histogrammeja väärin eikä ymmärretä kuinka RDNA ISA toimii

"Säteet kun iteroidaan shadereilla ja kun niitä tässä demossa on V*TUSTI niin tuossa tulos. 43% ajasta menee iterointiin pelkästään rt-opseilla, eli kertoo hyvin siitä miksi nopeus on huono"
 
Tästä oli jo toisaalla kommenttina että tuossa ketjussa lähinnä luetaan histogrammeja väärin eikä ymmärretä kuinka RDNA ISA toimii

"Säteet kun iteroidaan shadereilla ja kun niitä tässä demossa on V*TUSTI niin tuossa tulos. 43% ajasta menee iterointiin pelkästään rt-opseilla, eli kertoo hyvin siitä miksi nopeus on huono"
Meinaat että AMD:n iterointi on niin surkeaa, että se ei käytä raudasta muuta kuin rekistereitä?
1670623489616.png
 
Meinaat että AMD:n iterointi on niin surkeaa, että se ei käytä raudasta muuta kuin rekistereitä?
1670623489616.png
Ymmärtääkseni tässä on lopputulos siitä AMD:n suunnitteluvalinnasta käyttää shadereita sellaiseen mihin nvidia käyttää muusta pipelinesta erotettua fixed function rautaa. RDNA:ssa koko pipeline on tukossa siihen asti että kaikki säteet on ratkaistu.

Nämä path tracing demot sisältää säteitä ja toisiosäteitä ihan helvetin paljon vrt. hybridipelit joten vertailu AAA peleihin on turhaa.
 
Ymmärtääkseni tässä on lopputulos siitä AMD:n suunnitteluvalinnasta käyttää shadereita sellaiseen mihin nvidia käyttää muusta pipelinesta erotettua fixed function rautaa. RDNA:ssa koko pipeline on tukossa siihen asti että kaikki säteet on ratkaistu.

Nämä path tracing demot sisältää säteitä ja toisiosäteitä ihan helvetin paljon vrt. hybridipelit joten vertailu AAA peleihin on turhaa.
AMD käyttää säteiden traversal vaiheessa streamprosessoreita, mutta se ei "sido" niitä yhtään sen enempää kuin muut hommat, ts. ne eivät ole pois muusta käytöstä kuin sen aktiivisen traversal laskennan ajan. Ja tosiaan jos katot tuota 99ms kestävää "ubershaderia" niin se ei käytä raudasta käytännössä mitään muuta kuin rekistereitä
 
AMD käyttää säteiden traversal vaiheessa streamprosessoreita, mutta se ei "sido" niitä yhtään sen enempää kuin muut hommat, ts. ne eivät ole pois muusta käytöstä kuin sen aktiivisen traversal laskennan ajan. Ja tosiaan jos katot tuota 99ms kestävää "ubershaderia" niin se ei käytä raudasta käytännössä mitään muuta kuin rekistereitä
Tuosta spekuloitiin että jos tämä ubershader ei mahdu GPU:n L2 kakkuun niin se romuttaa suorituskyvyn täysin.
 
Jos Nvidia tekee itse softaa, niin miksi ne EI tekisi sitä mahdollisimman tarkasti omalle raudalleen ja mahdollisimman huonosti kilpailijalleen? Ehkä tästä ei kannata olla kauhean shokeerattu.
 
Jos Nvidia tekee itse softaa, niin miksi ne EI tekisi sitä mahdollisimman tarkasti omalle raudalleen ja mahdollisimman huonosti kilpailijalleen? Ehkä tästä ei kannata olla kauhean shokeerattu.
Onhan se nyt aika kusipäistä touhua jos tarkoituksella tehdään keinotekoisesti jostain pelistä pelikelvoton muiten valmistajien raudalla.
Todellista "anti-consumer" käyttäytymistä.

Siis jos tuo pitää paikkaansa niin ihan siitä syystä pitäisi jättää Nvidian kortit kaupan hyllylle...
 
Onhan se nyt aika kusipäistä touhua jos tarkoituksella tehdään keinotekoisesti jostain pelistä pelikelvoton muiten valmistajien raudalla.
Todellista "anti-consumer" käyttäytymistä.

Siis jos tuo pitää paikkaansa niin ihan siitä syystä pitäisi jättää Nvidian kortit kaupan hyllylle...
Ei siellä koodissa ole mitään

MakeRDNASuck = "1"


AMD:n RNDA ei nyt vain ole optimoitu path tracing kuormille joissa säteitä ja toisiosäteitä aivan helvetin paljon. Ei tämä portal RTX ole mikään ensimmäinen esimerkki samasta asiasta.

AMD ei omissa demoissaan esim käytä toisiosäteitä ollenkaan.. miksihän :) Ja AMD:n RT optimointiohje oli about että käytä vähemmän RT opseja
 
Onhan se nyt aika kusipäistä touhua jos tarkoituksella tehdään keinotekoisesti jostain pelistä pelikelvoton muiten valmistajien raudalla.
Todellista "anti-consumer" käyttäytymistä.

Siis jos tuo pitää paikkaansa niin ihan siitä syystä pitäisi jättää Nvidian kortit kaupan hyllylle...

Riippuu katsantokannasta. Ymmärrän, että asia hiertää joitakin. Toisaalta myös Nvidia-asiakkaat ovat consumereita, ja Nvidia ihan erikseen otti ja teki Portalista omin voimin RTX-version, jota jaetaan ilmaiseksi (alkuperäisen pelin omistajille).

On myös totta, että riippumatta siitä, miten homma olisi koodattu, ei tuosta AMD-raudalla olisi juurikaan mahdollista nauttia. Tulokset voisivat olla paremmat, mutta vain akateemisessa mielessä. Ihan minimissään olisi ollut pakko implementoida FSR, ja ihan käsi sydämellä: miksi ihmeessä Nvidia laittaisi omaa devausaikaansa siihen?
 

Statistiikka

Viestiketjuista
259 457
Viestejä
4 512 768
Jäsenet
74 372
Uusin jäsen
Akeboy78

Hinta.fi

Back
Ylös Bottom