Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Se, ettei löydä pelien asetuksista sitä säätöä, jolla tekstuureista valitaan vähän vähemmän tarkat versiot on kyllä melko käyttäjän oma ongelma.

Sen, että seinä näyttää vähän epätarkemmalta kun sitä menee metrin päästä paikallaan tuijottelemaan, ei pitäisi olla oieka ongelma jonka takia tarvii näyttistä vaihtaa
Riippuu käyttäjästä. Jotkut eivät huomaa, vaikka tekstuurit eivät lataudu kunnolla. Itse taas fiilistelen peleissä hyvin tehtyjä yksityiskohtia. Esimerkiksi The Last of Us Part 1 on nyt menossa ja siinä on panostettu valtavasti yksityiskohtiin ja tykkään lukea julisteita ja vaikka levyjen ja kirjojen kansia. Noista irtoaa jopa uutta lorea. Kyllä se vähän häiritsisi, jos kaikki olisi niin puuroa, ettei saa selvää. Hiljattain pelasin Metro Exodus Enhanced Editionia ja kirosin jatkuvasti sumeita tekstuureita muuten upeassa pelissä ja googlasin, jos ongelmaan olisi joku ratkaisu.
Höpöhöpö.

Siinä vaiheessa kun peli tehdään täysin säteenjäljityksellä, se muistintarve putoaa merkittävästi, koska ei tarvi olla ziljoona purkkavalopuskuria muistissa.
Mitä höpö höpöä se on, jos sanon sekä säteenseurannan että DLSS 3:n lisäävän muistin kulutusta. Tuo on ihan fakta, jonka voi kokeilla ja todeta itsekin :confused: En usko, että pelejä ihan heti ruvetaan tekemään rasterointi täysin unohtaen. Ihmisten vanha rauta ja konsolit on yhä taakkana.
"huoletta tappiin" on typerä asenne. Ne asetukset on säädettäviä sen takia, että ne säädetään sen raudan mukaan millä pelataan. Se, että maksetaan satoja euroja lisää näyttiksestä sen takia että voi "huoletta laittaa tappiin" on vaan typeryyttä.

Ja jos se vaiva on siinä se ongelma, ja haluaa sitä "huolettomuutta" niin melkein joka pelistä löytyy asetuksista toiminto, jolla peli itse arpoo itse itselleen sellaiset asetukset, että se pyörii sillä raudalla hyvin.
Omalla 8GB RTX 3070 Ti kortilla ei yksinkertaisesti meinannut löytyä asetuksia moniin uusiin peleihin, joilla kuva ei näyttänyt puurolta tai saisi tasaiset frametimet, vaikka kyseessä oli tehokas ja hyvin kellottuva kortti. Esimerkiksi HU:lla oli Hogwart's Legacyssa ja The Last of Us Part 1:ssä 1080p Medium asetuksillakin frametimejen kanssa ongelmaa. Vielä hetki sitten noita mainostettiin 1440p High-Ultra korteiksi. Moni varoitti, että 8GB ei tule riittämään, mutta suurin osa, kuten itse, en uskonut. Useasta pelistä katosi kaikki FPS dropit ja ongelmat korttia vaihtamalla. Ja esimerkiksi Forspokenissa ja Deathloopissa näyttis ei vain välillä suostunut lataamaan tekstuureita, vaikka seisoisi päällään.
Jos haluaa sen isomman muistin ja tarkemmat tekstuurit, sitten ostaa sen kalliimman 4080n. Mikä tässä on niin vaikeaa ymmärtää?
Onhan se vähän suolaista, että Nvidialla pitää laittaa melkein 1.5 tonnia rahaa tiskiin, jotta saa kortin, jossa on vasta monen suosittelema määrä VRAMia 1440p-resoluutiolle ja jota AMD ja Intel tarjoaa 400-500€ kortteihin. Aika harvalla on varaa semmoiseen lopulta. Itse arvoin pariin kertaan tonnin RX 7900 XT ostoskorissa ja en lopulta pystynyt, vaan ostin 709€ RX 6950 XT:n.

Itse koin juuri kantapään kautta sen, että 8GB muisti ei yhtäkkiä riitä mihinkään ja melkein jokaisessa uudessa ja myös vanhemmassa pelissä on ongelmia, jotka eivät välttämättä korjaannu edes asetuksia säätämällä. Useiden YouTube-kanavien, tekniikkasivustojen ja pelaajien mielipide oli, että Nvidia laski tarkkaan, mikä muistimäärä riittää juuri sen sukupolven ajan ja itse uskon samaan. 12GB on nyt vielä ihan kivasti 1440p-resoluutiolla. Toki esimerkiksi RTX 4070 Ti on hyvin tehokas kortti ja etenkin frame generationin päällä pyörittää pelejä varmasti vielä vuosien päästä. Lähivuosina voi kuitenkin tulla pelejä, joissa kortin teho riittäisi vaikka näyttävään säteenseurantaan ja FG päällä pyörisi hyvin, mutta 12GB muisti ei riitä. Ja jos kyseisessä pelissä FG hörppää esimerkiksi gigan näyttömuistia ja RT useamman, niin sitä ei voi ohittaa sanomalla höpö höpö. Esimerkiksi The Last of Us Part 1 vetää 1440p-resoluutiolla asetuksista riippuen 10-12GB pelkällä rasteroinnilla, niin jos PC:lle tuotaisiin RT ja DLSS3 siihen, voisi käydä huonosti. Itse olen sitä mieltä, että RTX 4070 korttiin 12GB on vielä hyväksyttävä, mutta vähän niukasti, mutta tehokkaampiin liian vähän. 8GB RTX 4060 -sarja ja RX 7600 taas on yksi vitsi.

Tuossa HU:n videolla näkee vielä, miten RTX 3070 yskii 1080p resoluutiolla ja kaikki mediumilla ja 16GB RX 6800 sen kuin porskuttaa vaikka kaikki ultralla. Samoin Forspokenissa näytetään, miten tekstuurit ovat oikeasti ihan puuroa, kun muistiin ei mahdu. Muistan todenneeni omalla kortilla samassa pelissä, että tekstuurien asetuksien vaihtaminen ei tuohon auttanut. Resident Evil 4:ssä RTX 3070 yskii jopa vaatimattomilla 1GB tekstuureilla, kun RX 6800 painelee 8GB tekstuureilla, eli paha tuossa enää sanoa "Pudota tekstuureita, niin mitään ongelmaa ei ole". En yhtään ihmettelisi, jos lähivuosina tulisi vastaavilla tuloksilla vastaava video "RTX 4070 12GB vs RX 7900 XT". Toki konsolisukupolvi ei välttämättä heti vaihdu, mutta konsoleilla datan striimaus on älyttömän nopeaa ja PC:lle voidaan tuoda ekslusiivisia ominaisuuksia, jotka lisäävät muistin käyttöä.

Eli tiivistäen voisin sanoa, että 8GB RTX 3070 Ti kortin VRAM-ongelmista oppineena huolehdin, että seuraavassa kortissa on vähintään 16GB muistia. 8GB muistista varoiteltiin, kun se alkoi olla jo rajoilla, mutta varoituksia ei kuunneltu. Moni väitti kovasti, ettei ongelmia tule, mutta toisin kävi. 12GB muistille voi käydä lähivuosina samoin etenkin tehokkaampien korttien kanssa ja RT ja DLSS 3 päällä. Tai sitten ei käy, mutta itse en ottanut riskiä.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Viimeksi muokattu:
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.

Vaikka kaikki kolme GPU valmistajaa yhdessä.

Mutta ilmeisesti sinun on vaikeaa ymmärtää taikka hyväksyä tätä kun ilmeisesti todella toivot sitä että muut tippuu pelistä pois.

Rocm siis amd:n ratkaisu mitä suositellaan raskaampaan koneoppimiskäyttöön.

ROCM on suunniteltu pääasiassa Vähän eri korteille kuin nää kuluttaja kamppeet. Jonkinlainen tuki toki on kuluttaja korteille, mutta pääpaino on vähän toisessa raudassa kuten Mi250 jne...

Jonkin sortin windows tukeakin alkaa pikkuhiljaa tulemaan

Mitähän korttia tämä hiilenä käyvä ohjelmoija guru oikein on mahtanut käyttää?
 
Viimeksi muokattu:
Offtopic mutta huomionarvoista: älä ruoki trollia. Esim. jos jonkun kirjoitukset vaikuttavat asiantuntevilta, mutta tuntuvat kummallisen aggressiivisilta, vilkaisen usein hänen viestihistoriaansa. Siitä voin jossain määrin päätellä, millaisesta keskustelijasta on kyse. Ääriajatteluun taipuvaisen henkilön kanssa väittely voi olla työlästä ja turhauttavaa.

Muuten olen sitä mieltä, että AMD tekee todella hyviä näytönohjaimia ainakin peruskäyttäjälle kuten minä. Nvidialla on myös erittäin hyviä tuotteita, mutta harmittavan kalliita.
 
Viimeksi muokattu:
Hyvin toteutettu striimaus ratkaisisi monta tekstuuriongelmaa. Ei ole mitenkään realistista ladata tarkimpia versioita kaikista tekstuureista kerralla muistiin jos peli on yhtään kunnianhimoisempi. UnrealEngine5.2 tukee 8k tekstuureita kaikille objekteille. Tekstuurit ja geometria objekteille ladataan muistiin sen mukaan miten ison osan näytöstä kappale täyttää. ue5.2:ssa oli asiaan liittyen myös bugikorjauksia.

Tekstuurien striimausta auttaa heuristiikan lisäksi directstorage api+ssd, tiled resources api ja sampler feedback api. Sampler feedback:in avulla saa engineen tiedon siitä mitä pikseleitä engine yritti teksuurista käyttää. Tiedon pohjalta voidaan ladata tiilitetysti alipalaset mip tasoisa mitä tarvitaan(tiled resources). Vältetään koko tekstuurin ja vältetään myös koko mip tason lataus "varmuuden" vuoksi. Paras on tietenkin yhdistää heuristiikkaa, joka yrittää arvata mitä tarvisi ja paikata loput aukot sampler feedback:lla. Heuristiikka hyvä sen vuoksi, että jos tulee liian paljon latauspyyntöjä niin niiden toteuttamisessa menee pidempi aika ja käyttäjä voi huomata tekstuurien latauksen hitauden.

lähteitä väitteille. ue5.2 fiksaus mimap tasoihin liittyen. Enginen julkaisuvideossa youtubesta saa paljon paremman yksityiskohtaisen selityksen tekstuureiden ja tekstuureiden mip tasojen lataamisesta dynaamisesti.

The landscape will generally drive the virtual texture update, and you'd want the grass to sample the same mip used on the landscape. Using this option stops the grass from requesting higher mips than necessary.


sampler feedback api
The general process of loading texture data on-demand, rather than upfront-all-at-once, is called texture streaming in this document, or streaming for short.

Independently of whether sampler feedback is available, Direct3D12-based applications have, through tiled resources, the ability to progressively load the mip chain.
SFSFlowChart.png


Sampler Feedback

Toivoisi, että optimoitu striimauksenkäyttö + ssd levyt yleistyisivät pelien minimivaatimuksena. Päästäisiin eroon muistinmääräväännöistä, jotka usein johtuvat typerästä enginestä/asetuksesta jolla pakotetaan tekstuureita muistiin vaikka ei tarvitsisi. Toinen yleinen keissi on optimoimaton peli kuten last of us jonka muistinkulutus on patchien myötä oleellisesti vähäisempi
 
Mitähän korttia tämä hiilenä käyvä ohjelmoija guru oikein on mahtanut käyttää?

2x 7900XTX, lähteenä [Driver] BUG: unable to handle page fault for address: ffffa7c13eaffff8 · Issue #2198 · RadeonOpenCompute/ROCm


Käsittääkseni ko. kaveria ei muutenkaan pidetä erityisen luotettavana, ilmeisesti ratsastaa edelleen vanhoilla Apple/PS3 häkkien maineella.

Esim. marcanin, erään toisen pelikonsolihakkerin ja nykyisen Asahi Linuxin leadin kommentit tästä ROCmgatesta:
1686370409863.png
 
Keskustelussa menee hieman sekaisin, että on tosiaan pelejä, joita
1) yleensä pelataan maksimiasetuksilla ja ruudunpäivitys on ihan riittävä kun näyttää sulavalta (yleensä ns. Tarinavetoisia yksinpelejä, seikkailupelejä jne). Sitten on pelejä
2) joita pelataan optimoiduilla grafiikka-asetuksilla siten että ruudunpäivitys on lähempänä näytön maksimikykyä, ja ylimääräisen koristeet karsittuna selkeämmän näkymän takaamiseksi (verkkomoninpelit, yleensä first person shootterit jne.)

ykköskorin peleissä yleensä tärkeimpiä asetuksia on tekstuurit, valaistukset ja varjot, jotka tekee ison osan näyttävyydestä, näissä myös rt-on useammin käytössä. Myös skaalaimet toimii näissä.

Kakkoskorin peleissä kytketään kaikki rt:t ja ylimääräiset valo- ja varjoefektit yms pois. Skaalaimet monesti näissä tekee myös välkettä ja muuta häröä jolloin ne on pois käytöstä jos rauta riittää riittäville ruudunpäivitystasoille ilman.
 
Itse nyt tällä viikolla totesin että en jaksa odottaa Amd Rx 7800(xt) ja tilasin Nvidian Rtx 4070 vaikka siinä on se 12gb vramia joka varmaan tarkoittaa että itse tulen sitten päivittämään seuraavassa sukupolvessa 2025(2024 tulee varmaan kalliimmat mallit ja halvemmat sitten 2025) joko Nvidia Rtx 5070/Amd Rx 8800(xt)/Intel joku?

Rtx 3060(12gb) kanssa joutunut liikaa kompromisseja tekemään 4k 144hz näytön kanssa(oli "halpa" kun yksi pikseli rikki vasemmassa yläkulmassa joka ei onneksi haittaa yhtään) ja Quest 2 kanssa(ostan varmaan Quest 3 heti kun tulee saataville joka saattaa vieläkin enemmän vaatia koneelta).

Riippuen pelistä varmaan teen niin törkeästi että 4k ultra/high asetukset(ilman säteenseurantaa) ja sitten mahdollisesti Dlss/Fsr/XeSS ultra quality/quality asetuksella päälle.

Edit ja syy miksi en ostanut vaikkapa Amd rx 6950 xt/6900 xt/6800 xt oli että ne ei tue av1 enkoodausta ja että itselläni vain 650w laadukas virtalähde joka ei riitä ainakaan tuolle 6950 xt ja ehkä ei myöskään 6900 xt malleille.
 
Viimeksi muokattu:
Käsittääkseni ko. kaveria ei muutenkaan pidetä erityisen luotettavana, ilmeisesti ratsastaa edelleen vanhoilla Apple/PS3 häkkien maineella.
Henkisesti ihan egoistinen lapsihan se on, mutta teknisesti pätevä. Viimeisin firma siltä comma ai, missä tekevät kamera ja neuroverkkopohjaista ajoavustinta. Toimii isossa määrässä autoja. Kolmosversio raudasta myynnissä.

Keissi amd:n hajoaminen tapahtyi tinygrad koneoppimisframeworkin kanssa mitä se kirjoittaa

Molemmat projektit open sourcea. Voi käydä committeja katsomassa. Commasta paljon videoita tuubissa kuten myös hotzin megapitkiä koodaussesioita youtubessa


 
Viimeksi muokattu:
Näyttiksen muistin loppumisen kesken ei pitäisi johtaa kaatumiseen.

Sen, että näyttämuisti käy vähiin, pitäisi johtaa siihen, että tekstuureita säilytetään siellä näyttömuistissa vähemmän, ja lataillaan sitten käyttöä varten (hitaasti) koneen keskusmuistista (ja heti käytön jälkeen heivataan mäkeen että mahtuu seuraava tilalle).

Ja jos se muisti loppuu kesken niin pahasti, ettei sinne mahdu edes framepuskureita, silloinkin pitäisi antaa siisti virhekoodi, että ei voida vaihtaa haluttuun näyttötilaan tai allokoida haluttuja puskureita, eikä softan kaatua.
Toki onhan se mahdollista, että softa ei osaa tarkastaa näitä virhekoodeja, jolloin vika on softassa eikä ajureissa.

Että jotkut "download more ram"-heitot on todella typeriä ja kertoo vain siitä, kuinka pihalla itse olet kun yrität haukkua toista.
Kyllä se vaan niin tuppaa olemaan että kun näyttömuisti loppuu kesken tai käy vähiin niin peli kyykkää/kaatuu.
 
Mää en myöskään sulata sitä väitettä että peli kaatuisi, havaittavaa hidastumista varmasti tulee. Vika on silloin muualla jos ohjelma kippaa.

Nvidian developer ohjeistus puhuu vain nylkytyksen / stutter havaitsemisesta ja analysoinnista overcommitment tilanteessa eri työkaluilla eikä sanaakaan mistään epästabiiliudesta.
 
Mää en myöskään sulata sitä väitettä että peli kaatuisi, havaittavaa hidastumista varmasti tulee. Vika on silloin muualla jos ohjelma kippaa.

Nvidian developer ohjeistus puhuu vain nylkytyksen / stutter havaitsemisesta ja analysoinnista overcommitment tilanteessa eri työkaluilla eikä sanaakaan mistään epästabiiliudesta.

Hardware Unboxed oli alkanu hogwarts legacy testaan uudestaan niin jollain nvidian 8GB kortilla ultra asetuksilla kippaa muutamassa sekunnissa uusimmilla ajureilla. Aiemmin oli toiminu mutta suorituskyky huono.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Ajureissa tai pelin koodissa on jotain perustavanlaatuista perseellään jos tulee tuommoisia kaatumisia sen sijaan että muistin loppuessa siirryttäisiin käyttämään keskusmuistia ja kovalevyswappia.
 
Se on proshoppi suomesta päässyt näköjään videocardzin uutisiin asti RTX4060 edullisella hinnoittelulla. Ottaen huomioon suomen markkinat voisin veikata että täällä myydään todennäköisesti vielä 3 vuoden päästä RTX 3000-sarjalaisia 500-600 eurolla. Ja ulkomaisten toimitusten etsiessä vertailuhintoja verrattain kalliimpaan pään hinnoittelulle suomi pitää todennäköisesti kärkipaikkaa.
 
Se on proshoppi suomesta päässyt näköjään videocardzin uutisiin asti RTX4060 edullisella hinnoittelulla. Ottaen huomioon suomen markkinat voisin veikata että täällä myydään todennäköisesti vielä 3 vuoden päästä RTX 3000-sarjalaisia 500-600 eurolla. Ja ulkomaisten toimitusten etsiessä vertailuhintoja verrattain kalliimpaan pään hinnoittelulle suomi pitää todennäköisesti kärkipaikkaa.
Suomen elektroniikan (sis tietokonejutut) hintataso on Euroopan keskitasoa, ei kalleinta päätä. Ja tosiaan siellä on päässyt tuo 500€ Strixi otsikkoon, kuvassa näkyy toki edullisemmatkin mallit alkaen 350€
 
Tällä hetkellä Proshopilla halvin listattu 4060 on 330€:lla eli kympin alle MSRP:n:


Tuskinpa Suomi muuten kuin vähän korkeamman alvinsa vuoksi erottuu muista Euroa käyttävistä maista mitä noihin lähtöhintoihin tulee. MSRP on sanellut hyvin tarkkaan lähtöhinnat tämän vuoden julkaisuissa. Tosin ei ole kyllä Strix tyyppisten mallien hintoja tullut tarkkailtua, ehkä niissä meillä sitten enemmän extraa muihin eurooppalaisiin maihin verrattuna kuin mitä pelkkä alv selittää?
 
Kukas sen avoimen koodin kirjoittaa ja millä rahalla? Tietyillä yrityksillä avoimeen lähdekoodiin panostamisen suurin motivaatio on omien resurssien puute. Halutaan, että joku muu tekee työn ja mielellään ilmaiseksi.
Koodi muodostuu monesti eri projektin toimijoiden yhteistyönä. Firma millä suurin intressi asiaan ottaa monesti vetovastuussa mutta jokaisella firmalla on intressit varmasti kehittää kun kaikilla on sama päämäärä lopulta vaikkakin ehkä eri syistä. Ei avoimen ja yhteisen standardin käyttäminen ole mikään ylitsepääsemätön juttu softapuolellakaan. Käytännössä näytönohjaimet on valmiiksi täynnä yhdessä sovittuja ja laadittuja standardeja raudan osalta.

Kuten @JiiPee aikaisemmin totesi. Suljetuilla softaratkaisuilla ei ole tosielämässä muuta tavoitetta kuin rahastaminen ja etumatkan kurominen kilpailijoihin. Joka loppujen lopuksi kaventuu ajan kanssa tilanteeseen jossa kilpailijat pääset samalle tasalle ja tuottavat monesti jopa paremmin tuettua softaa/koodia vs proprietary ratkaisut.

Sillä näiden proprietary kehittäjien intressi päivittämiseen lakkaa monesti siinä vaiheessa kun johdon mielestä tuote ei tee enää riittävästi rahaa yritykselle tai sen tukeminen uuden raudan kanssa ei tunnu enää niin "hauskalta". Avoimen ratkaisun kanssa tätä ongelmaa ei ole sillä loppupeleissä koodin ylläpidon voi ottaa käytännössä kuka tahansa haltuun lisenssin salliessa ja monesti yhteisöt myös haluavat ylläpitää (tai tähän on ainakin mahdollisuus olemassa vs suljettu koodi) koodia sen "parasta ennen" ajankin jälkeen.
 
Koodi muodostuu monesti eri projektin toimijoiden yhteistyönä. Firma millä suurin intressi asiaan ottaa monesti vetovastuussa mutta jokaisella firmalla on intressit varmasti kehittää kun kaikilla on sama päämäärä lopulta vaikkakin ehkä eri syistä. Ei avoimen ja yhteisen standardin käyttäminen ole mikään ylitsepääsemätön juttu softapuolellakaan. Käytännössä näytönohjaimet on valmiiksi täynnä yhdessä sovittuja ja laadittuja standardeja raudan osalta.

Kuten @JiiPee aikaisemmin totesi. Suljetuilla softaratkaisuilla ei ole tosielämässä muuta tavoitetta kuin rahastaminen ja etumatkan kurominen kilpailijoihin. Joka loppujen lopuksi kaventuu ajan kanssa tilanteeseen jossa kilpailijat pääset samalle tasalle ja tuottavat monesti jopa paremmin tuettua softaa/koodia vs proprietary ratkaisut.

Sillä näiden proprietary kehittäjien intressi päivittämiseen lakkaa monesti siinä vaiheessa kun johdon mielestä tuote ei tee enää riittävästi rahaa yritykselle tai sen tukeminen uuden raudan kanssa ei tunnu enää niin "hauskalta". Avoimen ratkaisun kanssa tätä ongelmaa ei ole sillä loppupeleissä koodin ylläpidon voi ottaa käytännössä kuka tahansa haltuun lisenssin salliessa ja monesti yhteisöt myös haluavat ylläpitää (tai tähän on ainakin mahdollisuus olemassa vs suljettu koodi) koodia sen "parasta ennen" ajankin jälkeen.

Eikös tuo nyt ole aika loogista, että jos kehittää alaa eteenpäin vievää teknologiaa, niin siitä olisi kiva myös hyötyä...

Tottakai propietary hommma loppuu siinä vaiheessa, kun/jos tulee yhtä hyvä tai parempi avoin vastine. Tämä on ihan luonnollista. Jonkun täytyy sitä kehitystä puskea eteenpäin ja ei sitä viitsisi ihan hyväntekeväisyyttään firmat tehdä.
 
Eikös tuo nyt ole aika loogista, että jos kehittää alaa eteenpäin vievää teknologiaa, niin siitä olisi kiva myös hyötyä...

Kehittäjällä on joka tapauksessa yksinkertaisenkin softan osalta kuukausien ja vähänkin monimutkaisimpien teknologioiden osalta vuosien etumatka, vaikka kyseessä olisikin avoin rajapinta. Erityisesti jos ja kun operatiivinen dokumentaatio ei ole julkisesti jaossa, ainoastaan tekninen dokumentaatio.
 
Tuli vastaan mielenkiintoinen tviitti. Näinköhän kiinalaiset haluavat AI servereihin RTX 4090 näytönohjaimia?

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?

IMG_0348.jpeg

punainen 7900xtx ja harmaa 4080
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?

IMG_0348.jpeg

punainen 7900xtx ja harmaa 4080

Harmi, että mainostaa vajavaiseksi tiedettyä pcatia noin avoimesti.
 
No tuossahan on lainatussa kuvassa ihan selvästi "total watts @ wall". Eli tuo väittäisinpä oleellisin tulos on ilman kyseistä pcat-laitetta mitattu. Sitten toki videossa käytiin näitä muita tehonkulutuslukemia läpi joissa kyseistä mittauslaitetta käytettiin. Mutta vaikka pcatissa itsessään olisikin jotain ongelmia tarkkuuden kanssa, niin tulokset ovat sen verran selkeät että aika iso punainen hattu pitää olla päässä jotta lähtisi niitä kiistämään.
 
No tuossahan on lainatussa kuvassa ihan selvästi "total watts @ wall". Eli tuo väittäisinpä oleellisin tulos on ilman kyseistä pcat-laitetta mitattu. Sitten toki videossa käytiin näitä muita tehonkulutuslukemia läpi joissa kyseistä mittauslaitetta käytettiin. Mutta vaikka pcatissa itsessään olisikin jotain ongelmia tarkkuuden kanssa, niin tulokset ovat sen verran selkeät että aika iso punainen hattu pitää olla päässä jotta lähtisi niitä kiistämään.
Ja niitähän kovasti kiistettiin missä? Ongelmana tuossa työkalussa oli ettei se näyttänyt 3000-sarjan piikkejä oikein, joku ilkeämielinen voisi arvailla syitä sille.
 
Niin oliko lainatussa kuvassa huipputeho vai keskiarvo? Hieman keltaisen lehdistön tapa, että valitaan se yks peli missä ero on 100% (tai 50% kummin päin haluaa ajatella) ja revitään otsikot siitä? Muissa peleissä ero oli 20..40%?

Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.
 
Niin oliko lainatussa kuvassa huipputeho vai keskiarvo? Hieman keltaisen lehdistön tapa, että valitaan se yks peli missä ero on 100% (tai 50% kummin päin haluaa ajatella) ja revitään otsikot siitä? Muissa peleissä ero oli 20..40%?

Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.
Onhan tuo valtava ero kotelon kuumenemisessa ja melussa.
 
Niin, eipä se chiplettien välinen tiedonsiirtokaan varmasti ilmaiseksi tule, vaan virtaa kuluu kyllä.. Tokkopa sitä voi helposti korjata..
 
Niin oliko lainatussa kuvassa huipputeho vai keskiarvo? Hieman keltaisen lehdistön tapa, että valitaan se yks peli missä ero on 100% (tai 50% kummin päin haluaa ajatella) ja revitään otsikot siitä? Muissa peleissä ero oli 20..40%?

Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.
Ero noissa kaikissa peleissä on ihan älytön. Myös kuten huomasit varmaan kun videon katsoit ero esimerkiksi menussa ollessa on älytön. En kyllä itse ainakaan ollut ymmärtänyt, että ero on noin suuri virrankulutuksessa. Aiemmin olisin suosinut 7900xtx:ä, mutta tän jälkeen helposti 4080 on kiinnostavampi.
 
Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.

Toisaalta jos pelaa vaikka joka päivä 5 tuntia Overwatchia ja sulla on vähän kalliimpi sähkösoppari niin tuo on vuodessa melkein 100 euroa, jos sulla on lisäksi pari näyttöä niin, että idlekulutuksessakin on paljon eroa niin tuo tulee vielä kalliimmaksi :geek:
 
Toisaalta jos pelaa vaikka joka päivä 5 tuntia Overwatchia ja sulla on vähän kalliimpi sähkösoppari niin tuo on vuodessa melkein 100 euroa, jos sulla on lisäksi pari näyttöä niin, että idlekulutuksessakin on paljon eroa niin tuo tulee vielä kalliimmaksi :geek:
Liekkö se enää keskivertopelaaja jos joka päivä 5 tuntia siihen aikaa ympäri vuoden? Taitaa mennä puolin ja toisin mutuiluksi, kun ei tutkimusta ole esittää. Oma mutu ois lähempänä 2 tuntia päivässä, joka sekin vaikea saavuttaa työssäkäyvälle, jolla on muutakin elämää. Jos elämä on pelkkää työssä tai koulussa käyntiä ja pelaamista, niin ei se keskivertopelaaja silloin ole. Ja sitten kannattaa se sähkösopimus varmaan kilpailuttaa nopeeta, jos se on 20 snt/kWh :D

Mutta kyllä, noilla arvoilla ja pelillä jossa ero oli suurin onnistuu sähkönkulutusta laskeen 100 euroa vuodeksi. Jokainen voi laskea omalle kohdalleen omilla spekseillään. Harvalla tulee tuota satasta, jolloin 2-5 vuodessa kalliimpi kortti maksaa itsensä takaisin. Se tässä minun pointti oli, että ei toisteta sokeana säästömantraa, vaikka ero äkkiä tuntuukin isolta.
 
Samaa mieltä, tuo sähkönkulutus euroissa on tässä tapauksessa kuitenkin ihan marginaalinen asia (vaikutuksia korkeintaan jossain mainaamisessa tms). Sen sijaan kuten @Kizmo sanoi, tuo on peruskäyttäjälle valtava ero nimenomaan näytönohjaimen ja kotelon jäähdytyksessä ja melussa.
 
Ei pidä laskea vain sähkön hinta, vaan myös näytönohjaimen vaatiman powerin ja kotelotuuletuksen hinta. Ja tällaisilla kesäkeleillä se 50-100 W voi tehdä eron sen välille, muuttuuko kämppä tukalan kuumaksi vai ei eli haluaako sitä konetta ylipäätään käyttää pelaamiseen.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?

IMG_0348.jpeg

punainen 7900xtx ja harmaa 4080

AMD ei ole myöskään saanut idle kulutusta mitenkään järkevälle tasolle.

Ykköstiimi kehittelee prossuja, kakkostiimi ja kesähessut on markkinoinnissa, ja ö-ukkelit on Radeon puolella. Samaa skeidaa sukupolvesta toiseen.
 
AMD ei ole myöskään saanut idle kulutusta mitenkään järkevälle tasolle.

Vasta tullu fiksausta ja tuosta ainakin itse tulkitsisin että tuo ei ole mikään globaali ongelma vaan joidenkin näyttöjen kanssa.

  • Improvements to high idle power when using select 4k@144Hz FreeSync enabled displays or multimonitor display configurations (such as 4k@144HZ or 4k@120Hz + 1440p@60Hz display) using on Radeon™ RX 7000 series GPUs.
 
Sen sijaan kuten @Kizmo sanoi, tuo on peruskäyttäjälle valtava ero nimenomaan näytönohjaimen ja kotelon jäähdytyksessä ja melussa.

Jos +1000 euroa laittaa näytönohjaimeen, niin luulisi että kotelon tuuletuskin on ollut varaa laittaa kuntoon. Varsinkin kun kunnon koteloita tuulettimien kera saa jo noin satasella, ei siis mikään iso investointi enää tänä päivänä. Ja itse kortin jäähyt jossain XFX ja Sapphiren Nitroissa on todella hiljaisia, itsellä Nitro+ ja hiljainen kuin kuiskaus ja kellottuu kuin perkele (kellotusten kanssa melua tulee, mutta myös selvä ero 4080 perffiin).

Mutta jos kotelotuuletus ei ole kunnossa tai haluaa minimoida virrankulutusta, niin sitten valitsee Nvidian, ja ekstra satasia joutuu laittamaan 4080. Kunnon jäähyllä varustettu 4080 vs 7900 xtx, taitaa edelleen AMD olla satasia halvempi? En ole ihan viime viikkojen hintoja katsonut tosin.

Idle-virrankulutus pitäisi olla korjattu, siitä ei mitään lisäpisteitä Nvidialle. Paskoista ajureista huutelee lähinnä ne joilla ei ole mitään kokemusta itse korteista.
 
Eipä se hintaero tosiaan ole enää kummoinen kun mennään yli 1000 euron näyttiksiin joka tapauksessa. Toki aina voi kaikkea perustella itselleen parhain päin ja asentaa vaikka custom-vesijäähdytyksen ihan vaan harrastamisen vuoksi. Sen sijaan tuo ero paljonko nuo kaksi noin saman nopeusluokan kortit kuluttaa virtaa on silti merkittävä. Olisi kiva nähdä tilanne laajemmallakin peliotannalla, mitä tuossa videossa. Tuossahan on paljon suht kevyitä pelejä, vai onko se ongelma nimenomaan niissä vai laajemminkin.

Joka tapauksessa on tärkeää nostaa esiin tuo ero, jonka jälkeen jokainen voi miettiä millaisen kiukaan itselleen haluaa. Omalla kohdalla tämä kyllä aiheuttaa sen, ettei tuo 7900xt enää kiinnosta, vaikka sitä aiemmin hieman mietin.
 
Jos +1000 euroa laittaa näytönohjaimeen, niin luulisi että kotelon tuuletuskin on ollut varaa laittaa kuntoon. Varsinkin kun kunnon koteloita tuulettimien kera saa jo noin satasella, ei siis mikään iso investointi enää tänä päivänä. Ja itse kortin jäähyt jossain XFX ja Sapphiren Nitroissa on todella hiljaisia, itsellä Nitro+ ja hiljainen kuin kuiskaus ja kellottuu kuin perkele (kellotusten kanssa melua tulee, mutta myös selvä ero 4080 perffiin).

Mutta jos kotelotuuletus ei ole kunnossa tai haluaa minimoida virrankulutusta, niin sitten valitsee Nvidian, ja ekstra satasia joutuu laittamaan 4080. Kunnon jäähyllä varustettu 4080 vs 7900 xtx, taitaa edelleen AMD olla satasia halvempi? En ole ihan viime viikkojen hintoja katsonut tosin.

Idle-virrankulutus pitäisi olla korjattu, siitä ei mitään lisäpisteitä Nvidialle. Paskoista ajureista huutelee lähinnä ne joilla ei ole mitään kokemusta itse korteista.
Eipä se hintaero tosiaan ole enää kummoinen kun mennään yli 1000 euron näyttiksiin joka tapauksessa. Toki aina voi kaikkea perustella itselleen parhain päin ja asentaa vaikka custom-vesijäähdytyksen ihan vaan harrastamisen vuoksi. Sen sijaan tuo ero paljonko nuo kaksi noin saman nopeusluokan kortit kuluttaa virtaa on silti merkittävä. Olisi kiva nähdä tilanne laajemmallakin peliotannalla, mitä tuossa videossa. Tuossahan on paljon suht kevyitä pelejä, vai onko se ongelma nimenomaan niissä vai laajemminkin.

Joka tapauksessa on tärkeää nostaa esiin tuo ero, jonka jälkeen jokainen voi miettiä millaisen kiukaan itselleen haluaa. Omalla kohdalla tämä kyllä aiheuttaa sen, ettei tuo 7900xt enää kiinnosta, vaikka sitä aiemmin hieman mietin.

Huoneen/pelinurkkauksen kuumenemisen kannalta näytönohjaimen lämmöillä tai jäähdytysratkaisulla ei ole mitään merkitystä, ainoastaan käytetyllä sähköenergialla.
 
Huoneen/pelinurkkauksen kuumenemisen kannalta näytönohjaimen lämmöillä tai jäähdytysratkaisulla ei ole mitään merkitystä, ainoastaan käytetyllä sähköenergialla.
Itse en ostanut 4080 energiankulutuksen takia, vaan dlss ja RT tehot. Mutta 250W kulutus alivolteilla on kyllä hyvä plussa ahtaaseen pelinurkkaan jossa ilma vaihtuu huonosti.
 
Olisi kiva nähdä tilanne laajemmallakin peliotannalla, mitä tuossa videossa. Tuossahan on paljon suht kevyitä pelejä, vai onko se ongelma nimenomaan niissä vai laajemminkin.

Niin olisi, senkin takia että ei ne erot muiden testaajien kuten techpowerupin testeissä olleet läheskään noin isoja. Jotain spesifiä hän tuossa videolla siis testasi, kenties niitä kevyempiä pelejä. Pienemmällä kuormalla AMD näyttää olevan huono (fps/watti) Oliko videolla muuten myös AMD custom TUF eikä refu, ja nvidialta taas referenssi kortti? Olisi hyvä testata refu vastaan refu tai custom vastaan custom. Vai miksi se 7900 xtx tuf vilahtelee videolla?

Huoneen/pelinurkkauksen kuumenemisen kannalta näytönohjaimen lämmöillä tai jäähdytysratkaisulla ei ole mitään merkitystä, ainoastaan käytetyllä sähköenergialla.

Miksi et kommentoinut sitä mitä kirjoitin? Mutta kyllä, asia on noin kuten kirjoitit. Etenkin kesän lämpöjä varten on alivoltitus, noin 270 wattisena ajan 7900 xtx eikä pelitehot älyttömästi kärsi. Tehoa kun on jopa 4k-resoluutiolle varsin ruhtinaallisesti. Alivoltitus on päivän sana, haluaapa sitten vähemmän kulutusta tai lisää perffiä.
 
Niin olisi, senkin takia että ei ne erot muiden testaajien kuten techpowerupin testeissä olleet läheskään noin isoja. Jotain spesifiä hän tuossa videolla siis testasi, kenties niitä kevyempiä pelejä. Pienemmällä kuormalla AMD näyttää olevan huono (fps/watti) Oliko videolla muuten myös AMD custom TUF eikä refu, ja nvidialta taas referenssi kortti? Olisi hyvä testata refu vastaan refu tai custom vastaan custom. Vai miksi se 7900 xtx tuf vilahtelee videolla?
En tiedä asiasta yhtään tuota videota enempää. Tuo asia vaan yllätti minut täysin ja jaoin sen takia tänne, koska voi tulla muillekin yllätyksenä.
Ehkä eniten kiinnostaa syyt ilmiön taustalla: ajurit/firmware, poikkeava muistiratkaisu, nälkäinen piiri vai jotain muuta. Toisinsanoen, voiko olla seuraavassa revisiossa parannusta vai seuraavassa piirissä vai voisiko joku ajuripäivitys ratkaista. Jäädään seuraamaan poikiiko tuo lisätestejä tai muuta.
 
En tiedä asiasta yhtään tuota videota enempää. Tuo asia vaan yllätti minut täysin ja jaoin sen takia tänne, koska voi tulla muillekin yllätyksenä.
Ehkä eniten kiinnostaa syyt ilmiön taustalla: ajurit/firmware, poikkeava muistiratkaisu, nälkäinen piiri vai jotain muuta. Toisinsanoen, voiko olla seuraavassa revisiossa parannusta vai seuraavassa piirissä vai voisiko joku ajuripäivitys ratkaista. Jäädään seuraamaan poikiiko tuo lisätestejä tai muuta.

Onhan sitä nvidian puolellakin 4090 vs 4080 kulutuseroa TPU:n testeissä 60Hz lukituksella jolloin kumpikaan kortti ei varmasti hyrrää täysillä ja se etu on 4080 hyväksi. Josta voisi vetää sen johtopäätöksen että 16GB vs 24GB muistoa tuo sitä eroa (11W). Samoiten 7900XT vs 7900XTX ero on 7900XT:n eduksi (25W).

power-vsync.png


Tuohon kun lisätään Radeonin chiplet rakenne niin sieltä tulee kanssa sellaista "staattista" kulutusta lisää joka siis on vain pakko olla siellä jotta läpyskä toimisi. Suurempi muistimäärä on kanssa kulutusta lisäävä, oli se muisti käytössä taikka ei.
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
Vaikka pääpiirteittäin oletkin oikeassa, niin eikö se hinta-laatu suhde ollut Fermin heikkous. Hinta oli kova ja samalla lämmöt iso heikkous tai jopa ennenkuulumattoman haastavat. Hintahan taisi olla täysin posketon 500 dollaria…

Eli kyllä kritiikki on aina ollut ihan asiallistakiin, joskin kuvauksesi on kyllä myöskin oikein.
 
Vaikka pääpiirteittäin oletkin oikeassa, niin eikö se hinta-laatu suhde ollut Fermin heikkous. Hinta oli kova ja samalla lämmöt iso heikkous tai jopa ennenkuulumattoman haastavat. Hintahan taisi olla täysin posketon 500 dollaria…

Eli kyllä kritiikki on aina ollut ihan asiallistakiin, joskin kuvauksesi on kyllä myöskin oikein.

Joo, GTX 480 tuli jotain 7 kuukautta HD 5870 jälkeen markkinoille, maksoi ulkomuistista 30-40% enemmän, kulutti 30-40% enemmän ja oli korkeintaan 20% nopeampi. HD 5870 OC mallit olivat jo ulkona Fermin julkaisussa, niihin nopeusero luokkaa 10%, mutta olivat myös vähän normimallia kalliimpia ja syöpömpiä. Ai niin ja molemmat firmat olivat tuossa kohtaa tiukasti tupla-gpu-kortti ajatuksessa kiinni ja GTX 490 ei koskaan tullut, HD 5970 oli jo Fermin julkaisussa markkinoilla myös
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
No siis Fermi tuli markkinoille helvetin myöhässä (6kk ATI:n jälkeen) joka aiheutti skenessä levottumuutta.

Sitten kun se 480 tuli ulos, niin se voitti HD5870 jollain 10-15%:lla, mutta kortti huusi rasituksessa kuin kidutettu sika ja pyöri 90c+. TPU:n mukaan HD5870 perf/watt oli 60% parempi. Se on jo aikamoinen ero.
 
No siis Fermi tuli markkinoille helvetin myöhässä (6kk ATI:n jälkeen) joka aiheutti skenessä levottumuutta.

Sitten kun se 480 tuli ulos, niin se voitti HD5870 jollain 10-15%:lla, mutta kortti huusi rasituksessa kuin kidutettu sika ja pyöri 90c+. TPU:n mukaan HD5870 perf/watt oli 60% parempi. Se on jo aikamoinen ero.
Oliko tuo fermi se vuosikerta josta kierteli niitä liekinheitinvideoita?
 
Oliko tuo fermi se vuosikerta josta kierteli niitä liekinheitinvideoita?
Jotain grillaus/kananmunanpaistomeemuja siitä ainakin oli viritetty, näin muistan.

AMD:kin teki tuosta hauskan mainoksen jossa piikiteltiin Fermin virrankulutusta:
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Hullu on, jos tällä hetkellä ostaa Nvidiaa. Sama homma kuin heille, jotka ostivat Bitcoinia sen hinnan huidellessa 50 000 - 70 000 dollarissa.

Koronapandemia tuon kurssinousun aloitti ja vahvasti veikkaan, että koronapandemian loppuminen (ja hidas maailmantalouden normalisoituminen) tulee myös kurssinousun pysäyttämään (ja kääntämään laskuun).
1677160274378.png

Huutikset
NVDA @ 460$
 

Uusimmat viestit

Statistiikka

Viestiketjuista
297 646
Viestejä
5 073 976
Jäsenet
81 354
Uusin jäsen
RoWell

Hinta.fi

Back
Ylös Bottom