Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Vaikka Hoffissa onkin 3x8-pin niin ei sitä ilman bios-modia tms. saa syömään ihan kauheasti watteja, jotain 360W ihan hetkellisenä piikkinä veti kun otti kaiken irti mitä modaamattomana sai.
Alle 300W vaan pelaillessa tms. oikeassa käytössä veteli kellotettuna, eli mitään oikeaa hyötyä siitä ylimääräisestä 8-pin liittimestä ei kyllä siinä saa :(

Nykyinen vesitetty 1080 Ti vetää 2x8-pin liittimistä enemmän virtasta kuin ex-Hoffi 3x8-pin :geek:

Tuo viittaus KFA2 HOF-korttiin oli osittainen joke näille jotka ovat vallanneet ketjun väittelyllään 15v vanhoista ajureista
Mutta puhuttaessa Bios-modista , niin ne on jo ilmestyneet RTX -sarjaan , koska varsinkin 2080 Power Limit on alimitoitettu

Nythän puhutaan ( ihan hiljaa ) että nämä RTX Ti lappuset imaisevat 400W tuosta vaan ja vielä puuttuu nuo isot ylikellotus erikoismallit joita on perinteisesti löytynyt Inno3D , KFA2 ,MSI , EVGA erikoismallistoista
 
Nythän puhutaan ( ihan hiljaa ) että nämä RTX Ti lappuset imaisevat 400W tuosta vaan ja vielä puuttuu nuo isot ylikellotus erikoismallit joita on perinteisesti löytynyt Inno3D , KFA2 ,MSI , EVGA erikoismallistoista
400W? :jd:
Missäs tuollaisia lukemia näkynyt?

Alle 300W keskimääräinen kulutus näiden testien mukaan:
NVIDIA Fixes RTX 2080 Ti & RTX 2080 Power Consumption. Tested. Better, But not Good Enough
Power Consumption - Nvidia GeForce RTX 2080 Ti Founders Edition Review: A Titan V Killer

Järeimpien 2080Ti customkorttien maksimi power limititkin jäävät kauas 400wattista:

tdp-adjustment-limit.png
 
Tuo TDP ja tehonkulutus on noiden korttien kanssa ihan mielenkiintoista. Mitä tapahtuu kun RT-coret tai Tensor-coret laitetaan päälle tai siis niitä käytetään? Tuskin tuota power limittiä ylitetään, joten jostain joudutaan kulutusta tiputtamaan. Onko tilannetta jossa RT-coreja ja Tensoreita käytetään yhtä aikaa?
 
Tuo viittaus KFA2 HOF-korttiin oli osittainen joke näille jotka ovat vallanneet ketjun väittelyllään 15v vanhoista ajureista
Mutta puhuttaessa Bios-modista , niin ne on jo ilmestyneet RTX -sarjaan , koska varsinkin 2080 Power Limit on alimitoitettu

Nythän puhutaan ( ihan hiljaa ) että nämä RTX Ti lappuset imaisevat 400W tuosta vaan ja vielä puuttuu nuo isot ylikellotus erikoismallit joita on perinteisesti löytynyt Inno3D , KFA2 ,MSI , EVGA erikoismallistoista

Normaalisti Avg. kulutukset ovat n.300w luokkaa
piikki arvot sitten joillakin malleilla voi olla sen 350w kieppeillä.
400w piikkaus jollain "öky" malleilla ei tietenkään ole mahdottomuus, mutta Avg. arvona ei tollasia 400w lukemia tule ilman modauksia.

power_average.png


performance-per-watt_3840-2160.png
 
Legenda AMD/ATI:n ajurien huonoudesta taitaa olla aika vanhaa perua mutta omista kokemuksistani voin sanoa sillä totuuspohjaa olevan. Muistan itse joskus noin vuonna 2001 ja 2002 kun käytössä oli vähän aikaa Radeon 7500 DDR (98SE:llä) ja 9100 (XP:llä) -kortit aikaan ennen Catalysteja. Silloin ATIn ajurit ja softa olivat aivan täyttä paskaa.
Komppaan, tuli omistettua ensimmäinen Radeon :)
edit: käytännössä piti valita ajuri pelin mukaan, muuten saattoi mennä rikki
edit2: ja päivitystahti ei ollu kummoinen, ehkä noin kaksi ajuria vuodessa.
 
Viimeksi muokattu:
Kävin ajureiden release noteja läpi ja tuloksena: Amd 10 BSOD, Nvidia 1 BSOD.
Että tämä yhtenä näkökulmana ajureihin.

tarkennus: 10.6.2015: "Ajureiden release notesit selailin ja tulos: AMD kymmenkunta BSOD korjausta, Nvidia ei yhtäkään."
 
Viimeksi muokattu:
Kävin ajureiden release noteja läpi ja tuloksena: Amd 10 BSOD, Nvidia 1 BSOD.
Että tämä yhtenä näkökulmana ajureihin.

Vähän usko noihin karsiutui, kun se 397.93 ajurien bluescreen ongelmaan ei ikinä tullut release notejen mukaan korjausta, mutta edeltävät ja sen jälkeiset ajurit eivät kärsineet ko. viasta.
 
Herttaista, että AMD-faneilla meni heti herne nenään ajurituesta. Kai niitä turhaumia pitää jotenkin purkaa. Hyvä, jos ajurit ovat nyt yhtä hyvät kuin Nvidialla. Kai tämä on sama kuin myöntäisi, että ladassakin on nykyään turvavyöt takapenkillä. En ole AMD:tä kauheasti seurannut, kun ei sieltä löydy mitään ostettavaa ikinä. Vaatimukseni ovat mielestäni kuitenkin kohtuulliset:

- nopeampi kuin nykyinen ikämies GTX 1070
- hiljainen
- viileä
- virtapihi

Mikäs AMD:n kortti olisi sopiva näillä kriteereillä? Voisin ostaa välittömästi. Ihan mielelläni tukisin pienempää kilpailijaa.
 
Herttaista, että AMD-faneilla meni heti herne nenään ajurituesta. Kai niitä turhaumia pitää jotenkin purkaa. Hyvä, jos ajurit ovat nyt yhtä hyvät kuin Nvidialla. Kai tämä on sama kuin myöntäisi, että ladassakin on nykyään turvavyöt takapenkillä. En ole AMD:tä kauheasti seurannut, kun ei sieltä löydy mitään ostettavaa ikinä. Vaatimukseni ovat mielestäni kuitenkin kohtuulliset:

- nopeampi kuin nykyinen ikämies GTX 1070
- hiljainen
- viileä
- virtapihi

Mikäs AMD:n kortti olisi sopiva näillä kriteereillä? Voisin ostaa välittömästi. Ihan mielelläni tukisin pienempää kilpailijaa.
Itseasiassa AMD on virtapihimpi, ei kaupasta ostetussa muodossa, mutta alikellotettuna.
Itse aiemmin päädyin siihen että GloFo:n prosessi on vain niin paljon TSMC:tä jäljessä, että ero syntyi osin siitä. Siksipä odotankin mielenkiinnolla tulevia AMD:n TSMC -piirejä. Vegaa ehdottaisin muuten, alikellotettuna, mutta jäänee silloin tuosta 1070 -kortista jälkeen.
 
400W? :jd:
Missäs tuollaisia lukemia näkynyt?

Alle 300W keskimääräinen kulutus näiden testien mukaan:
NVIDIA Fixes RTX 2080 Ti & RTX 2080 Power Consumption. Tested. Better, But not Good Enough
Power Consumption - Nvidia GeForce RTX 2080 Ti Founders Edition Review: A Titan V Killer

Järeimpien 2080Ti customkorttien maksimi power limititkin jäävät kauas 400wattista:

tdp-adjustment-limit.png
Nettiä selailemalla törmäilee kaikennäköisiin juttuihin , jotkut hurjat on jo näilläkin korteilla ajaneet SLI tä
Jos vilkaistaan lähtöjä
RTX 2080 FE on 8+6-pin ja 10 power phases kun RTX 2080 Ti FE on 8+8-pin ja 16 power phases
Tuossa kuvassa GiBy on refu ja MSI custom ( 8+8+6-pin ) onhan niissä eroja
Myös se että power limit on hyvin tiukka näkyy kuvasta
GiByltä löytyisi bios-päivitys , mutta ketkä lähtevät räpläämään 1-biosin tonnin korttejaan
 
GeForce cards mysteriously begin playing nice with TR's FreeSync monitors


:kahvi:

Uusimmilla ajureilla raportoitu FreeSyncin toimivan ainakin Pascaleilla ja Turingeilla.

Joo lueskelin saman jutun ja mietin että tainnu nyt ajuritiimiltä unohtua joku lippu kääntää päälle. :D
Tuskin toimii enää seuraavassa ajuriversiossa.
Mutta osoitus vaan siitä kuinka teennäinen koko g-sync on. Mitään estettä Adaptive sync:n tukemiselle ei ole muuta kuin haluttomuus. Voisihan niitä g-sync näyttöjä edelleen myydä niille uskovaisille jotka uskoo että ne on jotenkin premiumia ja varmasti kauppa edelleen kävisi.

Adaptive syncin tukeminen sensijaan voisi tuoda ihan uusia asiakkaita kun ne joilla freesync näyttö on, ei olisi enää hyvää syytä olla ostamatta nvidian korttia.
 
Adaptive syncin tukeminen sensijaan voisi tuoda ihan uusia asiakkaita kun ne joilla freesync näyttö on, ei olisi enää hyvää syytä olla ostamatta nvidian korttia.
Ja hyvää PR:ää hieman heikosti menneen tuotejulkaisun jälkeen.

Melkoinen paskamyrsky noussee jos tuo poistetaan tulevissa ajureissa ja ansaitustikin.
 
After further research and the collection of more high-speed camera footage from our G-Sync displays, I believe the tear-free gameplay we're experiencing on our FreeSync displays in combination with GeForces is a consequence of Windows 10's Desktop Window Manager adding some form of Vsync to the proceedings when games are in borderless windowed mode, rather than any form of VESA Adapative-Sync being engaged with our GeForce cards. Pending a response from Nvidia as to just what we're experiencing, I'd warn against drawing any conclusions from our observations at this time and sincerely apologize for any misleading conclusions we've presented in our original article. The original piece continues below for posterity.

Vai toimiiko sittenkään?
 
Jaa sulla on Freesync näyttö+Nvidia ja sait toimimaan?
Toimiiko hyvin?

Mulle ei kauheesti vaikutusta mahdollisesta hot fix ajurista kun Gsync näyttö kuitenkin.

Mun näytössä ei ole freesynciä, oli kyllä harkinnassa, mutta mahdollisuus tee-se-itse rautakalibirointiin ja taustavalo ilman PWM:ää vei voiton. Silti näissä graafisen puolen näytöissä voi olla freesync ja osassa onkin, gsynciä ei ole yhdessäkään.
 
Nyt on taas Jimbolta kovaa settiä.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Ja olen samaa mieltä että polkusädetys ei välttämättä ole enää niin kaukana mitä moni kuvittelee.
 
Nyt on taas Jimbolta kovaa settiä.

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.


Ja olen samaa mieltä että polkusädetys ei välttämättä ole enää niin kaukana mitä moni kuvittelee.

Miksikäs noin?
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Videon setämies testaili eri pelejä käyttäen GTX10X0 sarjan kortteja ajuriversiolla joka oli ennen RTX julkaisua ja kahdella RTX jälkeisellä ajurilla. Ensin näytti että pari FPS oli vähemmän, sitten ei ollutkaan.

Pelkästään jo lämpötila vaikuttaa näytönohjaimen kellotaajuuksiin josta tulee helposti muutama Fps lisää.
Tosin pari Fps menee vielä virhemarginaaliin ja pitäisi tehdä usempi ajo että voisi olla varma tuloksesta.

Ja oliko ohjauspaneelissa asetukset identtiset jne.. kaikki kuitenkin vaikuttaa.

Jos ajaisin testin suoraan idlestä viileellä koneella ja toisen esim rasituksen jälkeen niin tälläi saa myös muutaman Fps eron aikaiseksi.
 
Videon setämies testaili eri pelejä käyttäen GTX10X0 sarjan kortteja ajuriversiolla joka oli ennen RTX julkaisua ja kahdella RTX jälkeisellä ajurilla. Ensin näytti että pari FPS oli vähemmän, sitten ei ollutkaan.

Eli ei siis todistanut yhtäänmitään.
 
Tämmönen tuli vastaan, ei suoranaisesti tähän ketjuun kuulu mutta en oikein mitään ketjua keksi mihin laittaisi.
Time for a Guinness? AMD and Xilinx announce a new world record for AI Inference

Mitä tuolta sivuilta kiihottimen tietoja tutkailin niin heidän ilmoittamissa palkeissa pieksee esim. V100 ihan 6-0.
Kyse tosiaan taitaa olla int8 kiihottimesta. Jaksaisikohan joku pureutua asiaan syvällisemmin ja kertoilla lisää?
No vaikka sen verran voi heti pintaa raapaisemalla todeta että nuo luvuthan on isolla määrällä Xilinxin INT8-kiihottimia, ei näyttiksellä tai prossuilla. Ei sen pitäisi olla mikään yllätys että tiettyyn tehtävään dedikoitu rauta on yleensä nopeampaa.
 
No vaikka sen verran voi heti pintaa raapaisemalla todeta että nuo luvuthan on isolla määrällä Xilinxin INT8-kiihottimia, ei näyttiksellä tai prossuilla. Ei sen pitäisi olla mikään yllätys että tiettyyn tehtävään dedikoitu rauta on yleensä nopeampaa.

Niin sitä vaan kun noita näyttiksiä nyt kovasti machine learning hommiin markkinoidaan ja tensor coret vartavasten siihen touhuun on kait tehty, niin miten merkittävä toi INT8 yleensäkkin on jossain ML hommissa? Vai onko tää ihan marginaali keisseihin? Ja kun Volta ja Turing tensorit tuota INT8 näyttäisi tukevan, niin ilmeisesti sillä markkinoita on?
 
Niin sitä vaan kun noita näyttiksiä nyt kovasti machine learning hommiin markkinoidaan ja tensor coret vartavasten siihen touhuun on kait tehty, niin miten merkittävä toi INT8 yleensäkkin on jossain ML hommissa? Vai onko tää ihan marginaali keisseihin? Ja kun Volta ja Turing tensorit tuota INT8 näyttäisi tukevan, niin ilmeisesti sillä markkinoita on?
Interferöintihommissa yleinen.
Voltan Tensor-coret toimii FP16-tarkkuudella (yksinkertaistaen), vasta Turing toi tuen INT8, INT4 jne tarkkuuksille. Voltallakin voidaan toki noita tarkkuuksia epäilemättä toteuttaa mutta se ei ole tippaakaan sen nopeampaa kuin FP16-tarkkuudella, toisin kuin Turingeissa.
 
Interferöintihommissa yleinen.
Voltan Tensor-coret toimii FP16-tarkkuudella (yksinkertaistaen), vasta Turing toi tuen INT8, INT4 jne tarkkuuksille. Voltallakin voidaan toki noita tarkkuuksia epäilemättä toteuttaa mutta se ei ole tippaakaan sen nopeampaa kuin FP16-tarkkuudella, toisin kuin Turingeissa.

Höh ole edes kovin tehokas int8 hommiin tommonen, käytössä ollut Xilinxin Alveo U250:nen, TOPS 33,3. Vertaat että Quadro GV100:ssa TOPSeja on 59,3 ilman tensoreita. Joku turing heittelee nuokin vielä tensoreille, niin jää jo kauas moinen(Esim. Tesla T4 130 TOPS).
 
Höh ole edes kovin tehokas int8 hommiin tommonen, käytössä ollut Xilinxin Alveo U250:nen, TOPS 33,3. Vertaat että Quadro GV100:ssa TOPSeja on 59,3 ilman tensoreita. Joku turing heittelee nuokin vielä tensoreille, niin jää jo kauas moinen(Esim. Tesla T4 130 TOPS).

Niin tiedä sitten
https://www.xilinx.com/publications/product-briefs/alveo-product-brief.pdf
Tuolta vaan kattoin jotta heidän vertailukäppyrässä jossain kuva prosessoinnissa V100 ottaa pataan aika pahasti.
 
Pelkästään jo lämpötila vaikuttaa näytönohjaimen kellotaajuuksiin josta tulee helposti muutama Fps lisää.
Tosin pari Fps menee vielä virhemarginaaliin ja pitäisi tehdä usempi ajo että voisi olla varma tuloksesta.

Ja oliko ohjauspaneelissa asetukset identtiset jne.. kaikki kuitenkin vaikuttaa.

Jos ajaisin testin suoraan idlestä viileellä koneella ja toisen esim rasituksen jälkeen niin tälläi saa myös muutaman Fps eron aikaiseksi.
Pystyykö Nvidia näyttiksen kellotaajuuksia lukitsemaan mitenkään ts saako vaika sen turbon kokonana pois päältä.

Jos sitä ei pysty lukitsemaan eikä saa pois päältä niin sitten käytännössä vesijäähy on ainoa vaihtoehto kun sen avulla pystyy takaamaan että kortti pysyy jatkuvasti maksimi turbo taajuudella.
 
Pystyykö Nvidia näyttiksen kellotaajuuksia lukitsemaan mitenkään ts saako vaika sen turbon kokonana pois päältä.

Jos sitä ei pysty lukitsemaan eikä saa pois päältä niin sitten käytännössä vesijäähy on ainoa vaihtoehto kun sen avulla pystyy takaamaan että kortti pysyy jatkuvasti maksimi turbo taajuudella.

Volttikäyriä, temp limittejä, powerlimittejä/shunttimodeja tuossapa ne keinot millä noita voi yrittää lukittaa johonkin arvoon. Mutta ainahan net pelit kuormittavat gputa eri tavalla, eli vaikka kellot pysyisi pelissä X viivana turbossaan, pelissä Y kuormitus on erillaista ja kellot vatkaa.
 
Tämmönen tuli vastaan, ei suoranaisesti tähän ketjuun kuulu mutta en oikein mitään ketjua keksi mihin laittaisi.
Time for a Guinness? AMD and Xilinx announce a new world record for AI Inference

Mitä tuolta sivuilta kiihottimen tietoja tutkailin niin heidän ilmoittamissa palkeissa pieksee esim. V100 ihan 6-0.
Kyse tosiaan taitaa olla int8 kiihottimesta. Jaksaisikohan joku pureutua asiaan syvällisemmin ja kertoilla lisää?

No vaikka sen verran voi heti pintaa raapaisemalla todeta että nuo luvuthan on isolla määrällä Xilinxin INT8-kiihottimia, ei näyttiksellä tai prossuilla. Ei sen pitäisi olla mikään yllätys että tiettyyn tehtävään dedikoitu rauta on yleensä nopeampaa.
Eiköhän tuo AMD:n ja Xlinx:in demo ole suunnattu niitä Nvidian Tesloja vastaan kilpailijaksi niin että sillä ei ole tarkoistuskaan olla mitään tekemistä pelinäyttisten säteenseurantakykyjen kanssa.
 
Volttikäyriä, temp limittejä, powerlimittejä/shunttimodeja tuossapa ne keinot millä noita voi yrittää lukittaa johonkin arvoon. Mutta ainahan net pelit kuormittavat gputa eri tavalla, eli vaikka kellot pysyisi pelissä X viivana turbossaan, pelissä Y kuormitus on erillaista ja kellot vatkaa.
Juuri tuota ajattelin kun sillä vesijäähyllä pystyy takaamaan että näyttis pysyy jatkuvast temp kynnyksen rajoissa/yläpuolella, temp limit ja nuo tempi kynnyksethän on eriasia kun temp limit on maksimiraja mutta ne temp kynnykset määrää missävaiheessa heitetään korkemmalle tai matalammalle turbo taajuudelle.

Alin temp kyynnis saattoi olla 50 astetta (jos en muista väärin) eli kun vesijäähyllä saa näytönohjaimen GPU:n lämpötilan pysymään jatkuvasti selvästi alle 50 astetta (vaatii käytännössä sen että kierrossa olavan veden lämpötila on alle normaalin huonelämpötilan) se näyttis pysyy korkemmallla muidenrajojen sallimalla turbotaajuudella.
 
Juuri tuota ajattelin kun sillä vesijäähyllä pystyy takaamaan että näyttis pysyy jatkuvast temp kynnyksen rajoissa/yläpuolella, temp limit ja nuo tempi kynnyksethän on eriasia kun temp limit on maksimiraja mutta ne temp kynnykset määrää missävaiheessa heitetään korkemmalle tai matalammalle turbo taajuudelle.

Alin temp kyynnis saattoi olla 50 astetta (jos en muista väärin) eli kun vesijäähyllä saa näytönohjaimen GPU:n lämpötilan pysymään jatkuvasti selvästi alle 50 astetta (vaatii käytännössä sen että kierrossa olavan veden lämpötila on alle normaalin huonelämpötilan) se näyttis pysyy korkemmallla muidenrajojen sallimalla turbotaajuudella.

Njoo taidat muistella TPUn gtx1080 testejä, ei noissa pitäisi varsinaista alarajaa lämmöille olla(eihän niistä saisi ln2:lla mitään ylimääräistä pihallekkaan jos olisi). Toki mitä alemmaksi mennään sitä pitempi toi hyppäys seuraavaan askeleeseen on eli siinä mielessä olet oikeassa että vedellä ollessa lämpötilan vähäinen vaihtelu ei niin pääse helposti sotkemaan kelloja.
 
Njoo taidat muistella TPUn gtx1080 testejä, ei noissa pitäisi varsinaista alarajaa lämmöille olla(eihän niistä saisi ln2:lla mitään ylimääräistä pihallekkaan jos olisi). Toki mitä alemmaksi mennään sitä pitempi toi hyppäys seuraavaan askeleeseen on eli siinä mielessä olet oikeassa että vedellä ollessa lämpötilan vähäinen vaihtelu ei niin pääse helposti sotkemaan kelloja.
Jays ainakin taisi puhua että ne Nvidian kynnyiset olisi noin 10:n asteen välein eli vedellä kun lämmön vetää tarpeeksi alas sen GPU:n lämmönvaihtelun saa pidettynä niin pienenä että se ei hypi eri turbo kynnysten välillä.
 
Eiköhän tuo AMD:n ja Xlinx:in demo ole suunnattu niitä Nvidian Tesloja vastaan kilpailijaksi niin että sillä ei ole tarkoistuskaan olla mitään tekemistä pelinäyttisten säteenseurantakykyjen kanssa.
Ei tuossa kukaan puhunut missään vaiheessa mitään säteenseurannasta
 
Ei tuossa kukaan puhunut missään vaiheessa mitään säteenseurannasta
Juu esitin asiani vähän väärin, tarkoitin että ei pyrittykkään vertaamaan näihin nyt ulkona olnvii Turing nänyttiksiin.
 
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.

Jäänyt koko UFD Tech:istä pahamakusuuhun tältä kryptro uutisoinnin jälkeiseltä ajalla.

Tuntuu vähän siltä että kun ne kryptouutisoinnin aikana pääsivät korkeampien katsojalukujen makuun
niin nyt ne suoltaa vähän mitä sattuu uutista jotta saa katsojia
sillä että onko niiillä uutisilla mitään todellisuuspohjaa ei ole niin kauheastiväliä
(kaunhan uutisenyhteydessä muistaa muutamankerran hokea että tämä on vain spelulaatiota niin kaikki on ok).
 
AMD specuaatioketjusta löytyy @HeadCase linkki videoon
Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
jossa kohdassa 7min viitataan
RX 588 korttiin
Eli ? AMD May Be Prepping New Polaris 30 GPUs For October Launch - ExtremeTech
Löytyykö vahvoja huhuja kuluttajaluokasta

Eiku sori , se olikin norjalainen Ö eikä 8 , ostan ensi tilistä lukulasit
 
Viimeksi muokattu:
Tottahan toki Polarista kannattaa päivittää. Todella hyvin performoiva kortti tärkeimmässä hintaluokassa. Kaikki riippuu tietysti siitä miten lähellä Navin julkaisu on, ettei turhaan julkaise saman tien vanhenevaa tavaraa, mutta joulumarkkinoille tai ennen GTX 2060 julkaisua kannattaisi kortti saada pihalle.
Mietin, että uuden Polariksen julkaisu saattaisi vaikuttaa siihen, että onko 300 euron hintaluokassa jatkossa GTX 2050 Ti vai GTX 2050. :grumpy:
 
Millos AMD tulee nuo uudet tehokortit? Eikö nyt olisi aika laittaa pihalle 2080ti murskaaja niin saataisiin niiden hintaa vähän alas ja freesync näytöt liikkumaan myös tehokorttien omistajien pöydille. Vai käykö tässä niin että AMD ei enään edes halua haastaa tuolla tehokkaammassa päässä? Siltä ainakin alkaa tuntumaan parien viime julkaisujen jälkeen... :oops:
 
Millos AMD tulee nuo uudet tehokortit?
Eikö nyt olisi aika laittaa pihalle 2080ti murskaaja niin saataisiin niiden hintaa vähän alas ja freesync näytöt liikkumaan myös tehokorttien omistajien pöydille. Vai käykö tässä niin että AMD ei enään edes halua haastaa tuolla tehokkaammassa päässä? Siltä ainakin alkaa tuntumaan parien viime julkaisujen jälkeen... :oops:

Loppuvuodesta tullee Vega 20-piiri (eli Vega 10(56/64)-piirin die shrink pikkuparannuksilla ja tuplasti leveämmällä muistikaistalla) mutta se ei varmaan riitä 2080ti:stä vastaan, ja voi olla silti kallis. Ilmeisesti markkinoidaan enemmän ammattilaiskäyttöön kuin pelaajille, mutta kyllä se jonkin verran parantaa suorituskykyä Vega 64een nähden, koska tulee käymään suuremmalla kellotaajuudella.

Ensi vuonna (varmaan kesällä tai syksyllä) tulee sitten uusi Navi-arkkitehtuuri. Silloin voidaan EHKÄ nähdä jotain haastamista high endissä. Tai sitten ensi vuonna tulee navista vain sellainen upper mid-end-kortti ja high-end-piiri tulee vasta myöhemmin.
 
Loppuvuodesta tullee Vega 20-piiri (eli Vega 10(56/64)-piirin die shrink pikkuparannuksilla ja tuplasti leveämmällä muistikaistalla) mutta se ei varmaan riitä 2080ti:stä vastaan, ja voi olla silti kallis. Ilmeisesti markkinoidaan enemmän ammattilaiskäyttöön kuin pelaajille, mutta kyllä se jonkin verran parantaa suorituskykyä Vega 64een nähden, koska tulee käymään suuremmalla kellotaajuudella.

Ensi vuonna (varmaan kesällä tai syksyllä) tulee sitten uusi Navi-arkkitehtuuri. Silloin voidaan EHKÄ nähdä jotain haastamista high endissä. Tai sitten ensi vuonna tulee navista vain sellainen upper mid-end-kortti ja high-end-piiri tulee vasta myöhemmin.
Tämän hetkisen virallisen kannan mukaan 7nm Vega on tulossa vain Instinct-puolelle, mutta ainahan toki kantaa voidaan muuttaa jos niikseen tulee.
 
No ei kovin lupaavalta vaikuta :/ Eikö jossain povattu että myös NVIDIA julkaisee ensi vuonna taas uudet ja AMD jää entisestään...

Vegat ei ainakaan vakuuta. 64 häviää 1080ti:lle heittämällä ja hinta ainakin julkaisun aikoihin oli sama... Ei oikein käy järkeen :confused:
 

Statistiikka

Viestiketjuista
296 955
Viestejä
5 064 621
Jäsenet
81 245
Uusin jäsen
Jenssi95

Hinta.fi

Back
Ylös Bottom