Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
No tuossahan on lainatussa kuvassa ihan selvästi "total watts @ wall". Eli tuo väittäisinpä oleellisin tulos on ilman kyseistä pcat-laitetta mitattu. Sitten toki videossa käytiin näitä muita tehonkulutuslukemia läpi joissa kyseistä mittauslaitetta käytettiin. Mutta vaikka pcatissa itsessään olisikin jotain ongelmia tarkkuuden kanssa, niin tulokset ovat sen verran selkeät että aika iso punainen hattu pitää olla päässä jotta lähtisi niitä kiistämään.
Ja niitähän kovasti kiistettiin missä? Ongelmana tuossa työkalussa oli ettei se näyttänyt 3000-sarjan piikkejä oikein, joku ilkeämielinen voisi arvailla syitä sille.
 
Niin oliko lainatussa kuvassa huipputeho vai keskiarvo? Hieman keltaisen lehdistön tapa, että valitaan se yks peli missä ero on 100% (tai 50% kummin päin haluaa ajatella) ja revitään otsikot siitä? Muissa peleissä ero oli 20..40%?

Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.
 
Niin oliko lainatussa kuvassa huipputeho vai keskiarvo? Hieman keltaisen lehdistön tapa, että valitaan se yks peli missä ero on 100% (tai 50% kummin päin haluaa ajatella) ja revitään otsikot siitä? Muissa peleissä ero oli 20..40%?

Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.
Onhan tuo valtava ero kotelon kuumenemisessa ja melussa.
 
Niin, eipä se chiplettien välinen tiedonsiirtokaan varmasti ilmaiseksi tule, vaan virtaa kuluu kyllä.. Tokkopa sitä voi helposti korjata..
 
Niin oliko lainatussa kuvassa huipputeho vai keskiarvo? Hieman keltaisen lehdistön tapa, että valitaan se yks peli missä ero on 100% (tai 50% kummin päin haluaa ajatella) ja revitään otsikot siitä? Muissa peleissä ero oli 20..40%?

Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.
Ero noissa kaikissa peleissä on ihan älytön. Myös kuten huomasit varmaan kun videon katsoit ero esimerkiksi menussa ollessa on älytön. En kyllä itse ainakaan ollut ymmärtänyt, että ero on noin suuri virrankulutuksessa. Aiemmin olisin suosinut 7900xtx:ä, mutta tän jälkeen helposti 4080 on kiinnostavampi.
 
Onhan tuo nyt ollut koko tän sukupolven ajan selvää, että AMD:n tuotteet imee enemmän virtaa kuin Nvidian eli eihän tuossa ole mitään uutta. Mutta eihän näillä tarkoitus ole sähköä säästää vaan lähinnä pelata, niin hieman ihmettelen sitä vihreän leirin ja noita ostaneiden hehkutusta jostain 50..100 watin säästöstä. Se on aika usealle peruspelaajalle vuodessa muutaman euron tai kympin ero. Kun taas ostohinnassa esim 7900xtx vs 4080 on se 200..500 euron ero.

Toisaalta jos pelaa vaikka joka päivä 5 tuntia Overwatchia ja sulla on vähän kalliimpi sähkösoppari niin tuo on vuodessa melkein 100 euroa, jos sulla on lisäksi pari näyttöä niin, että idlekulutuksessakin on paljon eroa niin tuo tulee vielä kalliimmaksi :geek:
 
Toisaalta jos pelaa vaikka joka päivä 5 tuntia Overwatchia ja sulla on vähän kalliimpi sähkösoppari niin tuo on vuodessa melkein 100 euroa, jos sulla on lisäksi pari näyttöä niin, että idlekulutuksessakin on paljon eroa niin tuo tulee vielä kalliimmaksi :geek:
Liekkö se enää keskivertopelaaja jos joka päivä 5 tuntia siihen aikaa ympäri vuoden? Taitaa mennä puolin ja toisin mutuiluksi, kun ei tutkimusta ole esittää. Oma mutu ois lähempänä 2 tuntia päivässä, joka sekin vaikea saavuttaa työssäkäyvälle, jolla on muutakin elämää. Jos elämä on pelkkää työssä tai koulussa käyntiä ja pelaamista, niin ei se keskivertopelaaja silloin ole. Ja sitten kannattaa se sähkösopimus varmaan kilpailuttaa nopeeta, jos se on 20 snt/kWh :D

Mutta kyllä, noilla arvoilla ja pelillä jossa ero oli suurin onnistuu sähkönkulutusta laskeen 100 euroa vuodeksi. Jokainen voi laskea omalle kohdalleen omilla spekseillään. Harvalla tulee tuota satasta, jolloin 2-5 vuodessa kalliimpi kortti maksaa itsensä takaisin. Se tässä minun pointti oli, että ei toisteta sokeana säästömantraa, vaikka ero äkkiä tuntuukin isolta.
 
Samaa mieltä, tuo sähkönkulutus euroissa on tässä tapauksessa kuitenkin ihan marginaalinen asia (vaikutuksia korkeintaan jossain mainaamisessa tms). Sen sijaan kuten @Kizmo sanoi, tuo on peruskäyttäjälle valtava ero nimenomaan näytönohjaimen ja kotelon jäähdytyksessä ja melussa.
 
Ei pidä laskea vain sähkön hinta, vaan myös näytönohjaimen vaatiman powerin ja kotelotuuletuksen hinta. Ja tällaisilla kesäkeleillä se 50-100 W voi tehdä eron sen välille, muuttuuko kämppä tukalan kuumaksi vai ei eli haluaako sitä konetta ylipäätään käyttää pelaamiseen.
 


Mielenkiintoinen video, samoilla freimeillä AMD:n 7900 xtx vei yli tuplasti virtaa mitä Nvidian 4080. Mikä noissa 7000-sarjan korteissa hörppää tuota virtaa noin paljon enemmän?

IMG_0348.jpeg

punainen 7900xtx ja harmaa 4080

AMD ei ole myöskään saanut idle kulutusta mitenkään järkevälle tasolle.

Ykköstiimi kehittelee prossuja, kakkostiimi ja kesähessut on markkinoinnissa, ja ö-ukkelit on Radeon puolella. Samaa skeidaa sukupolvesta toiseen.
 
AMD ei ole myöskään saanut idle kulutusta mitenkään järkevälle tasolle.

Vasta tullu fiksausta ja tuosta ainakin itse tulkitsisin että tuo ei ole mikään globaali ongelma vaan joidenkin näyttöjen kanssa.

  • Improvements to high idle power when using select 4k@144Hz FreeSync enabled displays or multimonitor display configurations (such as 4k@144HZ or 4k@120Hz + 1440p@60Hz display) using on Radeon™ RX 7000 series GPUs.
 
Sen sijaan kuten @Kizmo sanoi, tuo on peruskäyttäjälle valtava ero nimenomaan näytönohjaimen ja kotelon jäähdytyksessä ja melussa.

Jos +1000 euroa laittaa näytönohjaimeen, niin luulisi että kotelon tuuletuskin on ollut varaa laittaa kuntoon. Varsinkin kun kunnon koteloita tuulettimien kera saa jo noin satasella, ei siis mikään iso investointi enää tänä päivänä. Ja itse kortin jäähyt jossain XFX ja Sapphiren Nitroissa on todella hiljaisia, itsellä Nitro+ ja hiljainen kuin kuiskaus ja kellottuu kuin perkele (kellotusten kanssa melua tulee, mutta myös selvä ero 4080 perffiin).

Mutta jos kotelotuuletus ei ole kunnossa tai haluaa minimoida virrankulutusta, niin sitten valitsee Nvidian, ja ekstra satasia joutuu laittamaan 4080. Kunnon jäähyllä varustettu 4080 vs 7900 xtx, taitaa edelleen AMD olla satasia halvempi? En ole ihan viime viikkojen hintoja katsonut tosin.

Idle-virrankulutus pitäisi olla korjattu, siitä ei mitään lisäpisteitä Nvidialle. Paskoista ajureista huutelee lähinnä ne joilla ei ole mitään kokemusta itse korteista.
 
Eipä se hintaero tosiaan ole enää kummoinen kun mennään yli 1000 euron näyttiksiin joka tapauksessa. Toki aina voi kaikkea perustella itselleen parhain päin ja asentaa vaikka custom-vesijäähdytyksen ihan vaan harrastamisen vuoksi. Sen sijaan tuo ero paljonko nuo kaksi noin saman nopeusluokan kortit kuluttaa virtaa on silti merkittävä. Olisi kiva nähdä tilanne laajemmallakin peliotannalla, mitä tuossa videossa. Tuossahan on paljon suht kevyitä pelejä, vai onko se ongelma nimenomaan niissä vai laajemminkin.

Joka tapauksessa on tärkeää nostaa esiin tuo ero, jonka jälkeen jokainen voi miettiä millaisen kiukaan itselleen haluaa. Omalla kohdalla tämä kyllä aiheuttaa sen, ettei tuo 7900xt enää kiinnosta, vaikka sitä aiemmin hieman mietin.
 
Jos +1000 euroa laittaa näytönohjaimeen, niin luulisi että kotelon tuuletuskin on ollut varaa laittaa kuntoon. Varsinkin kun kunnon koteloita tuulettimien kera saa jo noin satasella, ei siis mikään iso investointi enää tänä päivänä. Ja itse kortin jäähyt jossain XFX ja Sapphiren Nitroissa on todella hiljaisia, itsellä Nitro+ ja hiljainen kuin kuiskaus ja kellottuu kuin perkele (kellotusten kanssa melua tulee, mutta myös selvä ero 4080 perffiin).

Mutta jos kotelotuuletus ei ole kunnossa tai haluaa minimoida virrankulutusta, niin sitten valitsee Nvidian, ja ekstra satasia joutuu laittamaan 4080. Kunnon jäähyllä varustettu 4080 vs 7900 xtx, taitaa edelleen AMD olla satasia halvempi? En ole ihan viime viikkojen hintoja katsonut tosin.

Idle-virrankulutus pitäisi olla korjattu, siitä ei mitään lisäpisteitä Nvidialle. Paskoista ajureista huutelee lähinnä ne joilla ei ole mitään kokemusta itse korteista.
Eipä se hintaero tosiaan ole enää kummoinen kun mennään yli 1000 euron näyttiksiin joka tapauksessa. Toki aina voi kaikkea perustella itselleen parhain päin ja asentaa vaikka custom-vesijäähdytyksen ihan vaan harrastamisen vuoksi. Sen sijaan tuo ero paljonko nuo kaksi noin saman nopeusluokan kortit kuluttaa virtaa on silti merkittävä. Olisi kiva nähdä tilanne laajemmallakin peliotannalla, mitä tuossa videossa. Tuossahan on paljon suht kevyitä pelejä, vai onko se ongelma nimenomaan niissä vai laajemminkin.

Joka tapauksessa on tärkeää nostaa esiin tuo ero, jonka jälkeen jokainen voi miettiä millaisen kiukaan itselleen haluaa. Omalla kohdalla tämä kyllä aiheuttaa sen, ettei tuo 7900xt enää kiinnosta, vaikka sitä aiemmin hieman mietin.

Huoneen/pelinurkkauksen kuumenemisen kannalta näytönohjaimen lämmöillä tai jäähdytysratkaisulla ei ole mitään merkitystä, ainoastaan käytetyllä sähköenergialla.
 
Huoneen/pelinurkkauksen kuumenemisen kannalta näytönohjaimen lämmöillä tai jäähdytysratkaisulla ei ole mitään merkitystä, ainoastaan käytetyllä sähköenergialla.
Itse en ostanut 4080 energiankulutuksen takia, vaan dlss ja RT tehot. Mutta 250W kulutus alivolteilla on kyllä hyvä plussa ahtaaseen pelinurkkaan jossa ilma vaihtuu huonosti.
 
Olisi kiva nähdä tilanne laajemmallakin peliotannalla, mitä tuossa videossa. Tuossahan on paljon suht kevyitä pelejä, vai onko se ongelma nimenomaan niissä vai laajemminkin.

Niin olisi, senkin takia että ei ne erot muiden testaajien kuten techpowerupin testeissä olleet läheskään noin isoja. Jotain spesifiä hän tuossa videolla siis testasi, kenties niitä kevyempiä pelejä. Pienemmällä kuormalla AMD näyttää olevan huono (fps/watti) Oliko videolla muuten myös AMD custom TUF eikä refu, ja nvidialta taas referenssi kortti? Olisi hyvä testata refu vastaan refu tai custom vastaan custom. Vai miksi se 7900 xtx tuf vilahtelee videolla?

Huoneen/pelinurkkauksen kuumenemisen kannalta näytönohjaimen lämmöillä tai jäähdytysratkaisulla ei ole mitään merkitystä, ainoastaan käytetyllä sähköenergialla.

Miksi et kommentoinut sitä mitä kirjoitin? Mutta kyllä, asia on noin kuten kirjoitit. Etenkin kesän lämpöjä varten on alivoltitus, noin 270 wattisena ajan 7900 xtx eikä pelitehot älyttömästi kärsi. Tehoa kun on jopa 4k-resoluutiolle varsin ruhtinaallisesti. Alivoltitus on päivän sana, haluaapa sitten vähemmän kulutusta tai lisää perffiä.
 
Niin olisi, senkin takia että ei ne erot muiden testaajien kuten techpowerupin testeissä olleet läheskään noin isoja. Jotain spesifiä hän tuossa videolla siis testasi, kenties niitä kevyempiä pelejä. Pienemmällä kuormalla AMD näyttää olevan huono (fps/watti) Oliko videolla muuten myös AMD custom TUF eikä refu, ja nvidialta taas referenssi kortti? Olisi hyvä testata refu vastaan refu tai custom vastaan custom. Vai miksi se 7900 xtx tuf vilahtelee videolla?
En tiedä asiasta yhtään tuota videota enempää. Tuo asia vaan yllätti minut täysin ja jaoin sen takia tänne, koska voi tulla muillekin yllätyksenä.
Ehkä eniten kiinnostaa syyt ilmiön taustalla: ajurit/firmware, poikkeava muistiratkaisu, nälkäinen piiri vai jotain muuta. Toisinsanoen, voiko olla seuraavassa revisiossa parannusta vai seuraavassa piirissä vai voisiko joku ajuripäivitys ratkaista. Jäädään seuraamaan poikiiko tuo lisätestejä tai muuta.
 
En tiedä asiasta yhtään tuota videota enempää. Tuo asia vaan yllätti minut täysin ja jaoin sen takia tänne, koska voi tulla muillekin yllätyksenä.
Ehkä eniten kiinnostaa syyt ilmiön taustalla: ajurit/firmware, poikkeava muistiratkaisu, nälkäinen piiri vai jotain muuta. Toisinsanoen, voiko olla seuraavassa revisiossa parannusta vai seuraavassa piirissä vai voisiko joku ajuripäivitys ratkaista. Jäädään seuraamaan poikiiko tuo lisätestejä tai muuta.

Onhan sitä nvidian puolellakin 4090 vs 4080 kulutuseroa TPU:n testeissä 60Hz lukituksella jolloin kumpikaan kortti ei varmasti hyrrää täysillä ja se etu on 4080 hyväksi. Josta voisi vetää sen johtopäätöksen että 16GB vs 24GB muistoa tuo sitä eroa (11W). Samoiten 7900XT vs 7900XTX ero on 7900XT:n eduksi (25W).

power-vsync.png


Tuohon kun lisätään Radeonin chiplet rakenne niin sieltä tulee kanssa sellaista "staattista" kulutusta lisää joka siis on vain pakko olla siellä jotta läpyskä toimisi. Suurempi muistimäärä on kanssa kulutusta lisäävä, oli se muisti käytössä taikka ei.
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
Vaikka pääpiirteittäin oletkin oikeassa, niin eikö se hinta-laatu suhde ollut Fermin heikkous. Hinta oli kova ja samalla lämmöt iso heikkous tai jopa ennenkuulumattoman haastavat. Hintahan taisi olla täysin posketon 500 dollaria…

Eli kyllä kritiikki on aina ollut ihan asiallistakiin, joskin kuvauksesi on kyllä myöskin oikein.
 
Vaikka pääpiirteittäin oletkin oikeassa, niin eikö se hinta-laatu suhde ollut Fermin heikkous. Hinta oli kova ja samalla lämmöt iso heikkous tai jopa ennenkuulumattoman haastavat. Hintahan taisi olla täysin posketon 500 dollaria…

Eli kyllä kritiikki on aina ollut ihan asiallistakiin, joskin kuvauksesi on kyllä myöskin oikein.

Joo, GTX 480 tuli jotain 7 kuukautta HD 5870 jälkeen markkinoille, maksoi ulkomuistista 30-40% enemmän, kulutti 30-40% enemmän ja oli korkeintaan 20% nopeampi. HD 5870 OC mallit olivat jo ulkona Fermin julkaisussa, niihin nopeusero luokkaa 10%, mutta olivat myös vähän normimallia kalliimpia ja syöpömpiä. Ai niin ja molemmat firmat olivat tuossa kohtaa tiukasti tupla-gpu-kortti ajatuksessa kiinni ja GTX 490 ei koskaan tullut, HD 5970 oli jo Fermin julkaisussa markkinoilla myös
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
No siis Fermi tuli markkinoille helvetin myöhässä (6kk ATI:n jälkeen) joka aiheutti skenessä levottumuutta.

Sitten kun se 480 tuli ulos, niin se voitti HD5870 jollain 10-15%:lla, mutta kortti huusi rasituksessa kuin kidutettu sika ja pyöri 90c+. TPU:n mukaan HD5870 perf/watt oli 60% parempi. Se on jo aikamoinen ero.
 
No siis Fermi tuli markkinoille helvetin myöhässä (6kk ATI:n jälkeen) joka aiheutti skenessä levottumuutta.

Sitten kun se 480 tuli ulos, niin se voitti HD5870 jollain 10-15%:lla, mutta kortti huusi rasituksessa kuin kidutettu sika ja pyöri 90c+. TPU:n mukaan HD5870 perf/watt oli 60% parempi. Se on jo aikamoinen ero.
Oliko tuo fermi se vuosikerta josta kierteli niitä liekinheitinvideoita?
 
Hullu on, jos tällä hetkellä ostaa Nvidiaa. Sama homma kuin heille, jotka ostivat Bitcoinia sen hinnan huidellessa 50 000 - 70 000 dollarissa.

Koronapandemia tuon kurssinousun aloitti ja vahvasti veikkaan, että koronapandemian loppuminen (ja hidas maailmantalouden normalisoituminen) tulee myös kurssinousun pysäyttämään (ja kääntämään laskuun).
1677160274378.png

Huutikset
NVDA @ 460$
 
Oliko tuo fermi se vuosikerta josta kierteli niitä liekinheitinvideoita?

Tais olla Geforce FX:t joilla Nvidia käytti kaikkia mahdollisia huijauksia että näytti FX:t OK:lta verrattuna ATI:n luomuksiin.
Kuten 3dmarkeissa jätettiin renderoimatta yhtä sun toista ja AF ei ollut AF nähnytkään.
 
Mitä perkelettä :D Syön sanani!
Konesalipuoli. Q2 liikevaihdoksi ennustettu 11 miljardia missä kasvua 4 miljardia edelliseen kvartaaliin. Pelipuoli ei ole tuosta kuin reilun 2 miljardia. Huhujen mukaan, jos nyt lähtee ostamaan nvidialta konesalipiiriä niin odotusaika voi olla lähelle vuosi. Ilmeisesti aikalailla kaikki kapasiteetti tsmc:lta ostettu mitä irtosi. Ihan järjetön FOMO konesalipuolella. Piireistä on "pulaa", chatgpt aiheutti liikettä yrityksissä.

"Startupitkin" tekevät aika keveitä laskentaklustereita. 22 exaflopsia 16bit dataformaatilla ai kuormalla ja aika kasa nvidia piiriä sisällä.

Palo Alto-based startup Inflection AI yesterday said it is building the world’s largest AI cluster comprised of 22,000 NVIDIA H100 Tensor Core GPUs that will deliver 22 exaFLOPS performance. The company also said it has raised $1.3 billion in a funding round led by Microsoft, Reid Hoffman, Bill Gates, Eric Schmidt and new investor NVIDIA, bringing total funding raised by the company to $1.525 billion.

 
Viimeksi muokattu:
No siis Fermi tuli markkinoille helvetin myöhässä (6kk ATI:n jälkeen) joka aiheutti skenessä levottumuutta.

Sitten kun se 480 tuli ulos, niin se voitti HD5870 jollain 10-15%:lla, mutta kortti huusi rasituksessa kuin kidutettu sika ja pyöri 90c+. TPU:n mukaan HD5870 perf/watt oli 60% parempi. Se on jo aikamoinen ero.

Joo olihan tuo 400 sarja tosiaan aika pirun kuuma ja äänekäs ihan pelikäytössäkin. Jotenkin sekoitin sen vähän tuohon 500 sarjaan omissa ajatuksissa, kun sekin oli fermi siruun perustuva ns. Refresh, vaikkakin viivan leveys olikin sama kun 400 sarjalaisissa. Se 500 sarja olikin sitten jo aika hyvä ja sitä, mitä 400 olis pitäny olla.
 
Joo olihan tuo 400 sarja tosiaan aika pirun kuuma ja äänekäs ihan pelikäytössäkin. Jotenkin sekoitin sen vähän tuohon 500 sarjaan omissa ajatuksissa, kun sekin oli fermi siruun perustuva ns. Refresh, vaikkakin viivan leveys olikin sama kun 400 sarjalaisissa. Se 500 sarja olikin sitten jo aika hyvä ja sitä, mitä 400 olis pitäny olla.

No se on kirjaimellisesti se, mitä sen olisi pitänyt olla. Sama piiri uudella steppingillä, joka pudotti virrankulutusta huomattavasti ja paranti saantoja ja nämä yhdessä mahdollistivat täyden piirin käytön ja korkeammat kellot. Ei se silti mitenkään erinomainen ollut, mutta kun AMD 6900-sarjan arkkitehtuuri (6870 ja alemmat käyttivät hieman parannettua 5000-sarjan arkkitehtuuria) oli kanssa pettymys hyvän 4000-sarjan ja erinomaisen 5000-sarjan jälkeen, niin GTX 500-sarja näyttäytyi hyvältä onnistautumiselta ekan Fermi-erän jälkeen
 
Taisi tuo 500 sarja muuten tuoda mukanaan myös valmistajien custom kortit. Sitä ennen jäähyt oli aikalailla ihan samat, kun rwfuissa. En ainakaan 7tse muista ennen 500 sarjaa hirveästi custom jäähyjä nöhneeni näyttiksissä.
 
Taisi tuo 500 sarja muuten tuoda mukanaan myös valmistajien custom kortit. Sitä ennen jäähyt oli aikalailla ihan samat, kun rwfuissa. En ainakaan 7tse muista ennen 500 sarjaa hirveästi custom jäähyjä nöhneeni näyttiksissä.

Oli niitä, mutta melko harvinaisia olivat ainakin näillä markkinoilla. Paitsi halvemmissa malleissa, niissä oli kaikenlaisia virityksiä, yleensä vielä referenssejä huonompia :D

Mutta sitten pari vuotta myöhemmin GTX 600 ja HD 7000-sarjoissa oli jo lähes nykyinen kaltainen markkina noiden valmistajien omien jäähyjen ja PCB-ratkaisujen suhteen. Oli niitä ASUS ARES, MATRIX yms hirveitä möhkömalleja ja Gigabyten Windforcet olivat sitten vähän järkevämmän kokoisia ja hintaisia ja hiljaisia verrattuna referenssiin. Nurinkurista kun tuolloin aikanaan niillä premium-malleilla olisi ollut oiekasti lisäarvoa, mutta niitä oli saatavilla vähemmän. Nykyään kun refukortit ovat hyviä niin niitä ei kukaan myy...
 
Taisi tuo 500 sarja muuten tuoda mukanaan myös valmistajien custom kortit. Sitä ennen jäähyt oli aikalailla ihan samat, kun rwfuissa. En ainakaan 7tse muista ennen 500 sarjaa hirveästi custom jäähyjä nöhneeni näyttiksissä.
Näyttiksissä on ollut valmistajilla "custom" jäähyjä niin pitkään kuin itse muistan, eli suunnilleen siitä asti, kun näyttikset alkoivat tarvita jäähyjä.
 
Kulutus tuntuu aina olevan hyvinkin tärkeä juttu, sille leirille, kenellä se on pienempi. Aikoinaan GTX 400 sarja lytättiin täälläkin (Murossa) täysin, kun vei virtaa huomattavasti enemmän vs ratukat, vaikka olikin ihan selkeästikin nopeampi kun kilpailija.

Kaiken lisäksi silloin virta virus nimeltään FurMark oli pinnalla ja sitä käytettiin valitettavasti revikossa hyvinkin laajasti. Myöhemmin toki tuli aivan selväksi, että karvarinkulan lukememilla ei ole mitään tekemistä todellisuuden kanssa, mutta aivan lapselliset Harvia meemit oli jo "tuhonneet" aivan pätevän näyttiksen maineen ihan turhaan.
Oman muistikuvan mukaan GTX 460 pelitti kyllä ihan hyvin. Elettiin omalla kohdalla kuitenkin vielä sitä aikaa kun Nvidian kortit oli ainoita jotka toimi kunnolla myös linuxissa (ennen kuin AMD lähti tukemaan kunnolla ajurikehitystä opensourcen kautta) jos halus pelata lähinnä mitään pelejä.

Toki mitä muistelen että GTX 460 oli noista fermikorteista ainoa järkevä kortti Nvidialta joka asettu siihen keskiluokkaan myös. 480 oli kyllä aika huono kortti kieltämättä tehonkulutuksen yms osalta jos halus parasta.
 
Viimeksi muokattu:


Tässä aika hyvi kuvattu omatkin ajatukset näytönohjainten uusimmasta sukupolvesta. Edellisen sukupolven korttien omistajille ei ole oikein mitään parannusta saatavilla. Samalla euromäärällä saa jotakuinki saman tehon joten parempi olla päivittämättä ellei jostain syystä ny halua erityisesti laittaa esim tuplat euroja näyttikseen. Täytyy kyllä olla onnellinen, että tuli msrp-hintainen 6800xt aikanaan hommattua. Tuolla rullaa hyvin 7000- ja 40-sarjojen yli seuraaviin.
 
Tässä aika hyvi kuvattu omatkin ajatukset näytönohjainten uusimmasta sukupolvesta. Edellisen sukupolven korttien omistajille ei ole oikein mitään parannusta saatavilla. Samalla euromäärällä saa jotakuinki saman tehon joten parempi olla päivittämättä ellei jostain syystä ny halua erityisesti laittaa esim tuplat euroja näyttikseen. Täytyy kyllä olla onnellinen, että tuli msrp-hintainen 6800xt aikanaan hommattua. Tuolla rullaa hyvin 7000- ja 40-sarjojen yli seuraaviin.
Eikä oo pelkästään sukupolven välinen loikka vaan tällä hetkellä vaivaa monia myös krooninen jarrutus resoluutioloikan osalta. Koronan alusta lukien markkinoille on alkanu tulemaan jo järkevähintasia 1440p näyttöjä IPS paneeleilla pelaamiseen tai muuten vaan pihillä virrankulutuksella. Tällä hetkellä suurin jarru kuitenkin 1440p siirtymiseen monella (varsinkin jos omistaa vanhemman kuin viime sukupolven kortin) on nimenomaan tuo rampautettu muistin määrä. Jonka lisääminen olisi enemmän kuin tarpeen futureprooffin osalta kuten ollaan päästy jo todistamaan uusimpien pelien osalta.
 
Eikä oo pelkästään sukupolven välinen loikka vaan tällä hetkellä vaivaa monia myös krooninen jarrutus resoluutioloikan osalta. Koronan alusta lukien markkinoille on alkanu tulemaan jo järkevähintasia 1440p näyttöjä IPS paneeleilla pelaamiseen tai muuten vaan pihillä virrankulutuksella. Tällä hetkellä suurin jarru kuitenkin 1440p siirtymiseen monella (varsinkin jos omistaa vanhemman kuin viime sukupolven kortin) on nimenomaan tuo rampautettu muistin määrä. Jonka lisääminen olisi enemmän kuin tarpeen futureprooffin osalta kuten ollaan päästy jo todistamaan uusimpien pelien osalta.

Onhan noita 1440p IPS näyttöjä ollut jo pitkään.
 
Onhan noita 1440p IPS näyttöjä ollut jo pitkään.
Joo, ei ole enää pariin vuoteen ollut minkäänlainen ongelma. Sitä aiemmin oli ehkä parin vuoden jumi, jolloin ei tullut Asus PG ja Acer XB (molemmat rauta Gsync) parempaa millään ja liikuttiin liki 500 eurossa. Sitten kun tuli se LG:n GL Freesync laatumonitori (2021?) voi aistia tulpan poistuneen. Nyt on vaikka miten monta vaihtoehtoa IPS:ssa.

Taitaa olla 4k tv:n yleistymisen myötä eniten alkanut vain full hd näytön katselu tietokoneella olemaan riittämätöntä. IPS 1440p:ta on ollut jo harrastajilla viimeistään Pascaleista lähtien. Itselläni oli Qnix QX2710 1440p 1070 Ti:n kanssa 2010-luvun alusta alkaen. Sitä muistaakseni osteltiin murossa/täällä aika runsain mitoin mistä saatiin halvalla.

Silti onhan tuossa 1080p:ssa oltu jumissa yllättävän pitkään steamsurveyn perusteella.
 
Viimeksi muokattu:
Joo, ei ole enää pariin vuoteen ollut minkäänlainen ongelma. Sitä aiemmin oli ehkä parin vuoden jumi, jolloin ei tullut Asus PG ja Acer XB (molemmat rauta Gsync) parempaa millään ja liikuttiin liki 500 eurossa. Sitten kun tuli se LG:n GL Freesync laatumonitori (2021?) voi aistia tulpan poistuneen. Nyt on vaikka miten monta vaihtoehtoa IPS:ssa.

Joo mutta oli kuitenkin, ja vielä suunnilleen järkevään hintaan. Ja jos ei tarvinnut olla korkeahertsinen, vaihtoehtoja oli vaikka kuin.

Itselläni oli Qnix QX2710 1440p 1070 Ti:n kanssa 2010-luvun alusta alkaen. Sitä muistaakseni osteltiin murossa/täällä aika runsain mitoin mistä saatiin halvalla.

Ei varmaan kuitenkaan ollut 1070 ti vielä 2010-luvun alusta lähtien? :)
 
Onhan noita 1440p IPS näyttöjä ollut jo pitkään.
Tarkoitin siis tilannetta massojen osalta. Taitaa edelleen steamin surveyn pohjalta suurimmalla osalla päänäyttönä joku 1080p variaatio. Tottakai 1440p näyttöjä myös IPS paneeleilla ollut markkinoilla jo pitkään. Itselle esimerkiksi ehtona siirtymiseen on ollut 1) Riittävän alhainen hinta erityisesti IPS paneeleilla varustetuilla 2) Keskiluokan raudan suorituskyky että jaksaa ylipäänsä pyörittää 1440p sujuvasti 3) Freesync yleistyminen.

Jos 2010 lähtien 1440p alkanut yleistymään esikäyttäjien osalta. Ja nyt ollaan 2023 niin kyllähän tuossa vuosikymmen on edelleen vierähtänyt ennen kuin hyviä IPS paneeleita 1440p:llä tai 4k:lla alkaa saamaan järkevällä hintaa. Kehitys on siis edelleen hidasta. Puhumattakaan laajemman mittakaavan adaptiosta joka odottaa edelleen tapahtumistaan ja väittäisin että tällä hetkellä monella on suurimpana jarruna nykysukupolven näytönohjainten suorituskyky suhteessa hintaan.
 
Viimeksi muokattu:
Näyttiksissä on ollut valmistajilla "custom" jäähyjä niin pitkään kuin itse muistan, eli suunnilleen siitä asti, kun näyttikset alkoivat tarvita jäähyjä.

On varmasti ollut olemassa, mutta aika harvinaista kamaa se oli ennen NVIDIA:n 500/600 sarjaa. Eipä mitään customeja teatailtu revikossa tms.
 
Ei varmaan kuitenkaan ollut 1070 ti vielä 2010-luvun alusta lähtien? :)
Juu 290 bios-modattuna 290X:ksi oli ensin. Eikä yleensä 2010 vaan ennen vuosikymmenen puoliväliä. Sekin oi niitä suuria palstavillityksiä aiemman biosmodattavan 6950->6970 ohella.

Kyllä helposti voisi sanoa, että monitorit junnasivat jonkun aikaa mitä televisiot ehkä ei. TV:n puolella taas 3d ja 8k olivat ennenaikaisia/niche hasseja.
 
Joskus 2019 ostin 3kpl 1440p 75Hz IPS Freesync 32" näyttöjä muistaakseni 205€/kpl hintaan.
Jos ei tarvinnut korkeaa virkistystaajuuttaa niin kyllä noita on saanut kohtuuhintaan jo pidemmän aikaa...
 
Eiköhän näitä "custom"-jäähyjä ole ollut aikojen alusta alkaen, ainakin sen jälkeen kun se pelkkä 4x4cm alumiinisiili ei ole riittänyt.

GF4 Ti-sarjasta muistuu mieleen erillaisia jäähdytysratkaisuja, julkaistu yli 20 vuotta sitten...

Tuossa nyt esim. muutama Ti4800 SE.

Ti4800SE-VTD8X-lg__65289.jpg
a57859_95d500897b494ce9a634afd71b10534b~mv2.jpg
3e3d0e48474c8ecee7dd4ec59d98.jpg
 
Viimeksi muokattu:
Taisi tuo 500 sarja muuten tuoda mukanaan myös valmistajien custom kortit. Sitä ennen jäähyt oli aikalailla ihan samat, kun rwfuissa. En ainakaan 7tse muista ennen 500 sarjaa hirveästi custom jäähyjä nöhneeni näyttiksissä.
Nvidia 500-sarja tuli vasta 2010.

Ostin 12/1998 Nvidia Riva TNT Diamond Viper V550:n. Voi kun oliskin olleet kaikki jäähyt samoja. Asus V3400TNT olisi ollut Tomshardwaren mukaan 14°C viileämpi samalla 100 MHz:iin vakioidulla kellotaajuudella. Elsa:n ja STB:n Riva TNT:t toisaalta olisivat olleet vielä heikompia ollen 21°C kuumempia kuin Asus samalla taajuudella.

MikroBitti 12/1998:ssa 3Dfx Voodoo Banshee -piirillisissä Creativessa ja Guillemotissa oli erilaiset passiivisiilit.

MB 5/2002:ssa GeForce3 Ti200 -piirillisten Gainwardin ja MSI:n GPU-siili ja tuuletin olivat erilaiset, kuten myös muistisiilit. Gainward oli lisäksi laittanut kortille tavallista nopeammat muistipiirit, joten muistiväylän kellotaajuus oli 400 MHz:n sijaan 480 MHZ. VRAM:ia Gainwardissa oli tuplat vs. refu, 128 Mt vs. 64 Mt.

Mun mielestä eroja valmistajien customien välillä alkoi näkyä vähän 90-luvun puolivälin jälkeen, kun 3D-kiihdyttimet alkoivat hyötyä aktiivijäähdytyksestä. Viimeistään siinä 1997-1998.
 

Liitteet

  • Screenshot_20230716-204230.png
    Screenshot_20230716-204230.png
    166,7 KB · Luettu: 33
  • IMG_20230716_203816.jpg
    IMG_20230716_203816.jpg
    427,8 KB · Luettu: 46
  • IMG_20230716_204102.jpg
    IMG_20230716_204102.jpg
    262,6 KB · Luettu: 44
Joo olihan noita customeja näemmä jo 3dfx ajoista asti ollut. Itse ei silloin niin tarkkaan tullut eri valmistajien kortteihin tutustuttua, kun tietoakin oli paljon vähemmän saatavilla aiheesta.

Mutta semmoinen iso vaihde ja valmistajien yleisen tason isompi panostus custom malleihin, ja varsinkin niihin jäähyihin alkoi silti omasta mielestä silloin GTX 500 sarjan kohdalla/jälkeen, kun tuli Esim Asuksen Direct Cu2:n.
 
Joo olihan noita customeja näemmä jo 3dfx ajoista asti ollut. Itse ei silloin niin tarkkaan tullut eri valmistajien kortteihin tutustuttua, kun tietoakin oli paljon vähemmän saatavilla aiheesta.

Mutta semmoinen iso vaihde ja valmistajien yleisen tason isompi panostus custom malleihin, ja varsinkin niihin jäähyihin alkoi silti omasta mielestä silloin GTX 500 sarjan kohdalla/jälkeen, kun tuli Esim Asuksen Direct Cu2:n.
Olet varmaan keskittynyt kovemman luokan Nvidia-näyttiksiin ja uudempiin kuin GF3/GF4. Vain niitä katsoen taisikin olla monen vuoden hiljaiselo ennen GTX 580:ä. Kesymmistä malleista oli MSI Twin Frozr II, Gigabyte SOC ym, mutta FX5800, 6800 GT, 7800 GT, 8800 GTX, 9800 GTX ja GTX 280 piteli hyvin hiljaista. Sitten GTX 480 -Harviasta alkoi varmaankin korkean lämmöntuoton takia pitkästä aikaa tipahdella enemmän custom-jäähyjä myös high endiin, ja GTX 580 räjäytti potin mallitulvallaan.

Nvidian suvantoaikana Atin huippumalleista sai Sapphire Ultimatea, HIS IceQ, Vapor-X jne. Voipi olla, että Radeon 8500 ja 9700 Pro oli hiljaisempaa Atinkin osalta, ja vasta X800/X1800 -aikoihin alkoi tulla enemmän custom-jäähyjä.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
259 384
Viestejä
4 510 900
Jäsenet
74 359
Uusin jäsen
Sigma gooner

Hinta.fi

Back
Ylös Bottom