NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Huhupaja väittää että RTX 3090 24 gigan muistilla maksaisi 1399 dollaria, ja Founders edition vielä satasen lisää. Yllättävän kohtuuhintaista, jos tuo pitää paikkansa.
En pitäisi yhtään yli tonnin maksavaa pelinäytönohjainta kohtuuhintaisena
 
Ei oo kyllä enään mitään järkeä noissa pelikorttien hinnoitteluissa, jos tuo 3090 (uusi Ti) maksaa oikeasti 2000 dollaria, se on vähä niiku 2300-2500 euroa täällä? :D.
Ottaen huomioon dollarin lievä heikkous 1eur- 1,18 dollaria Suomihinta on kohdillaan koska kallis maa.
 
En pitäisi yhtään yli tonnin maksavaa pelinäytönohjainta kohtuuhintaisena
Kysehän on hinta/suorituskyky-suhteesta. Pitäisin verrokkina edellistä sukupolvea. Onhan tuossa parempi hinta/suorituskyky-suhde kuin 2080 Ti:ssä tällä hetkellä, mikä lienee vähimmäisvaatimus järjelliselle hinnoittelulle. Muistimäärän lisäystä pitäisin jopa aika rajuna.
 
En pitäisi yhtään yli tonnin maksavaa pelinäytönohjainta kohtuuhintaisena

No jos suhteutaa siihen, että ennen vaihtoehtoina oli vain Vega VII tai founders edition tai Titanit jos tarvitsi enemmän vrammia, niin tuo on "kohtuuhintainen". Jännää kun kilpailu ajaa siihen, että Titanin käyttäjäryhmälle alkaa tulla edullisempia vaihtoehtoja.

Tietty tilannetta saa korjattua ajuripuolelta, jolloin ammattisoftat pyörii odotettua huonommin kuluttajakorteilla. Aivan kuten ne ammattisoftien (ei kaikkien) optimoinnit yllättäen ilmestyi titanille Vega Founders editionin ilmestyessä (sehän pyöri peli ja pro ajureilla ja pro ajureiden takia se hetken aikaa teurasti titanit pro softilla).
 
Tuleekohan nyt sitten 3080 Ti vai ei. :think: Jos ei tule laisinkaan ja se on vain nimetty 3090:ksi, niin tuohan enteilisi sertifioitua jytkyä suorituskyvyn puolesta, jos 3080 riittää tekemään niin ison kaulan aiemman sukupolven huippumalliin, että siitä parhaasta kortista voi tahtoa $400 lisää ($999->$1399, mikäli huhut pitävät paikkansa.)
 
Kysehän on hinta/suorituskyky-suhteesta. Pitäisin verrokkina edellistä sukupolvea. Onhan tuossa parempi hinta/suorituskyky-suhde kuin 2080 Ti:ssä tällä hetkellä, mikä lienee vähimmäisvaatimus järjelliselle hinnoittelulle. Muistimäärän lisäystä pitäisin jopa aika rajuna.
Tässähän pitää muistaa, että huippukorttien hinnat ovat nousseet jo vuositolkulla eli tuo vertailu ei ole minusta pätevä.
 
Tässähän pitää muistaa, että huippukorttien hinnat ovat nousseet jo vuositolkulla eli tuo vertailu ei ole minusta pätevä.
Huippukorttien hinnat ovat nousseet vuositolkulla, koska huippukortteja on ollut saatavilla vain yhdeltä valmistajalta.
Ei niinkään sen takia, että niiden materiaali- ja valmistuskustannukset olisivat vastaavasti nousseet.
Kunhan saadaan kilpailua (AMD, Intel) niin huippukorttien hinnat tulevat aivan varmasti laskemaan.
 
Huippukorttien hinnat ovat nousseet vuositolkulla, koska huippukortteja on ollut saatavilla vain yhdeltä valmistajalta.
Ei niinkään sen takia, että niiden materiaali- ja valmistuskustannukset olisivat vastaavasti nousseet.
Kunhan saadaan kilpailua (AMD, Intel) niin huippukorttien hinnat tulevat aivan varmasti laskemaan.
Nimenomaan ja tuo vääristää sitä kuvaa kohtuuhintaisesta. Jos vemkin vertailua käytetään, niin se on kohtuuhintainen nVidiaan verrattuna, mutta koko markkinat huomioiden sikakallis
 
Mua ei kiinnosta 3090:n hinta pätkääkään. Se tulee joka tapauksessa olemaan täysin suhteeton, kuten oli myös 2080Ti:n hinta. Kiinnostavaa on se, että mikä on 3080:n hinta ja speksit. Minimitavoitteena nyt voisi pitää sitä, että 4k60-kykyinen näyttis irtoaisi halvemmalla kuin Turing-kaudella. Jos siis olisi tuosta suuresta piiristä leikattu, muistia 20GB ja hinta Suomessakin 800 euron tuntumassa, niin hyvä. Jos ei, niin sitten katsotaan AMD:n tarjoamat.
 
Joko noissa uusissa korteissa on muuten riittävästi tehoa pelata peliä kuin peliä vähintään 60fps 4k resolla?
 
Pitäisköhän nvidia Hopperista tehdä oma ketju vai tuleeks jauhaminen siitä tänne. Ilmeisesti AMD Ryzen tyylistä useasta piiristä kostuvaa tuotetta pukkaa. 5nm kun on kyseessä voi tulla jo normaalista 2-vuoden syklistä poiketen ensi vuonna ja sitten 3nm kortteihin voi kestää mitä vaan. Jos 5nm nvidia kortit tulisi jo ensi vuonna se olisi hyvä ja huono. Tuollaisen 3090 kortin osto ei olisi kovin älykästä siitä perspektiivistä, että piirin yhteispinta-ala kasvaa 5nm tuotteessa ensimmäisten arvioiden mukaan todella reilusti. Eli reilua teho hyppäystä olisi odotettavissa. 3nm sitten ehkä 2023-2025 sektorilla. 5nm tuotteet tulennee olemaan koneissa pitkään.

https://www.tweaktown.com/images/ne...r-gpu-arrives-ampere-smash-intel-amd_full.jpg

lähde:
 
Jos uutta flight simulatoria ei lasketa, niin ehkä.
RTX 2080 näyttäisi menevät videoiden mukaan 40 fps lentokentällä ja 70 fps korkealla. En tiedä onko tuossa Ai lentokoneet mukana, ne kait pudottavat FPS:ää huomattavasti. 3080 alkaa varmaan riittämään hyvin, lentely ei kuitenkaan tarvitse mitään hirveän nopeata ruudunpäivitystä, monelle riittää varmasti jo tuo 40 fps.
 
RTX 2080 näyttäisi menevät videoiden mukaan 40 fps lentokentällä ja 70 fps korkealla. En tiedä onko tuossa Ai lentokoneet mukana, ne kait pudottavat FPS:ää huomattavasti. 3080 alkaa varmaan riittämään hyvin, lentely ei kuitenkaan tarvitse mitään hirveän nopeata ruudunpäivitystä, monelle riittää varmasti jo tuo 40 fps.

Guru3D:n testin mukaan 2080Ti pääsee 35fps vauhtiin. Simulaattorit on kyllä hankalia testata, kun sää on mallinnettu yms. Testipaikan valinta vaikuttaa myös rajusti.
 
Guru3D:n testin mukaan 2080Ti pääsee 35fps vauhtiin. Simulaattorit on kyllä hankalia testata, kun sää on mallinnettu yms. Testipaikan valinta vaikuttaa myös rajusti.
Varsin karua kateltavaa, yksikään AMD:n kortti ei pääse 25 fps:ään ja nVidialta tulee ihan kohta uudet nopeat kortit. Moni simupilotti varmasti odottelee kuumeisesti uutta korttia.
Jatkot FS-threadiin Microsoft Flight Simulator (2020) PC / Xbox
 
4k/60fps onnistuu melkolailla kaikissa peleissä.
1.Kellottaa 2080Ti tappiin.
2.laskee asetuksia sen verran että ottaa sen 60fps/yli ja Freesync/Gsync hoitaakin loput.
 
Pitäisköhän nvidia Hopperista tehdä oma ketju vai tuleeks jauhaminen siitä tänne. Ilmeisesti AMD Ryzen tyylistä useasta piiristä kostuvaa tuotetta pukkaa. 5nm kun on kyseessä voi tulla jo normaalista 2-vuoden syklistä poiketen ensi vuonna ja sitten 3nm kortteihin voi kestää mitä vaan. Jos 5nm nvidia kortit tulisi jo ensi vuonna se olisi hyvä ja huono. Tuollaisen 3090 kortin osto ei olisi kovin älykästä siitä perspektiivistä, että piirin yhteispinta-ala kasvaa 5nm tuotteessa ensimmäisten arvioiden mukaan todella reilusti. Eli reilua teho hyppäystä olisi odotettavissa. 3nm sitten ehkä 2023-2025 sektorilla. 5nm tuotteet tulennee olemaan koneissa pitkään.

https://www.tweaktown.com/images/ne...r-gpu-arrives-ampere-smash-intel-amd_full.jpg

lähde:
Kahtotaan, tulee joko uusi ketju tai tämän otsikko päivitetään kun se on ajankohtaista. Toistaiseksi ei ole vielä edes peli-Amperet ulkona ja Hopper MCM -huhujen alkuperäislähteellä on vähintäänkin kyseenalainen historia missä on muistaakseni speksien osuminen varmistettu ns. "haulikkomenetelmällä", ennustetaan kaikki mahdollinen niin jokin osuu varmasti.
Varsin karua kateltavaa, yksikään AMD:n kortti ei pääse 25 fps:ään ja nVidialta tulee ihan kohta uudet nopeat kortit. Moni simupilotti varmasti odottelee kuumeisesti uutta korttia.
Jatkot FS-threadiin Microsoft Flight Simulator (2020) PC / Xbox
Tuo peli julkaistiin turhan "keskeneräisenä", DirectX 12 -renderöijään aikovat siirtyä kunhan saavat valmiiksi mikä saattaa parantaa suorituskykyä jos tekevät hommat kunnolla. Mutta eipä siellä näytä 4K:lla olevan kuin 4 korttia ylipäätään mitkä rikkoo 25 FPS:n rajan tällä hetkellä, samat neljä mitkä ovat keskimäärinkin AMD:n tämän hetkistä tarjontaa nopeampia muutenkin, eli ei tuo nyt mitenkään erikoisen huono tilanne ole.
 
Viimeksi muokattu:
Joko noissa uusissa korteissa on muuten riittävästi tehoa pelata peliä kuin peliä vähintään 60fps 4k resolla?
Varmasti - asetuksia tiputtamalla. En muista että yksikään uusi näytönohjain olisi pyörittänyt kaikkia sen hetken pelejä kaikki karkit täysillä 4K:na ja 60 fps.
 
4k/60fps onnistuu melkolailla kaikissa peleissä.
1.Kellottaa 2080Ti tappiin.
2.laskee asetuksia sen verran että ottaa sen 60fps/yli ja Freesync/Gsync hoitaakin loput.
Joo ja kun poistaa värit, pelaten mustavalkoisena peliä ja kaikki reunanpehmennykset ja tehosteet minimiin varmaan saadaan jopa 4k 144 Hz tai jopa enemmän.
 
Joo ja kun poistaa värit, pelaten mustavalkoisena peliä ja kaikki reunanpehmennykset ja tehosteet minimiin varmaan saadaan jopa 4k 144 Hz tai jopa enemmän.
Huomaan ettet ole tainnut 2080Ti ja 4K. näytöllä pelailla, muuten tietäisit että 60fps onnistuu hyvin kohtuu asetuksilla ja useassa pelissä myös korkeillakin asetuksilla.

Tietäisit myös ettei tarvita reunanpehmennyksiä 4K.lla ;)
 
Igorslab höpisee taas amperesta.

Tiivistelmänä:
- AIB:it on vielä kuutamolla. Mikä nyt tarkoittaisi soft , tai founders edition kortit ensin julkaisua.
- AIB:it eivät ole saaneet vielä referenssilautoja ja kellotaajuudet on mysteeri, eli kaikki benchmarkit on sinnepäin, eivät oikeita.
- Toinen on lämpöongelmat. Hiton korkealle kellotetut muistit on puristuksissa GPU:n ja VRM:n välissä:

"If you take a look at the documents and what is known about the micron memory, the memory dies at 120 °C Tcase. But the somewhat lower tjunction is not everything, because already clearly below this value the memory starts to throttle. "

"The memory is, even if you ask the board partners, the real problem child, which is to place current air coolers before such problems. One reports of up to 98 ° in the hottest module. At least here AMD can sleep a bit quieter because of the wider memory interface, without having to tinker with the GDDR6 on steriods (in the form of the GDDR6X). "
 
Igorslab höpisee taas amperesta.

Tiivistelmänä:
- AIB:it on vielä kuutamolla. Mikä nyt tarkoittaisi soft , tai founders edition kortit ensin julkaisua.
- AIB:it eivät ole saaneet vielä referenssilautoja ja kellotaajuudet on mysteeri, eli kaikki benchmarkit on sinnepäin, eivät oikeita.
- Toinen on lämpöongelmat. Hiton korkealle kellotetut muistit on puristuksissa GPU:n ja VRM:n välissä:

"If you take a look at the documents and what is known about the micron memory, the memory dies at 120 °C Tcase. But the somewhat lower tjunction is not everything, because already clearly below this value the memory starts to throttle. "

"The memory is, even if you ask the board partners, the real problem child, which is to place current air coolers before such problems. One reports of up to 98 ° in the hottest module. At least here AMD can sleep a bit quieter because of the wider memory interface, without having to tinker with the GDDR6 on steriods (in the form of the GDDR6X). "
Tarkoittikohan vain joitakin AIB? kun osalle ilmeisesti olisi mennyt kuitenkin jo aikaa sitten.
Nämä Gddr6X myös kuluttaa hieman vähemmän kuin Gddr6.

Mielelläni kyllä näkisin nämä "lämpöongelmat" sitten kun on jossain se valmis näytönohjain testissä.
 
Tarkoittikohan vain joitakin AIB? kun osalle ilmeisesti olisi mennyt kuitenkin jo aikaa sitten.
Nämä Gddr6X myös kuluttaa hieman vähemmän kuin Gddr6.

Mielelläni kyllä näkisin nämä "lämpöongelmat" sitten kun on jossain se valmis näytönohjain testissä.

Anandtechin mukaan gddr6x kuluttaa kyllä enemmän. Siirrettyä datamäärää kohti se on energiatehokkaampi, mutta kerran nopeus nousee, niin kulutus nousee gddr6:n ohi.

Igorskin kehotti lukemaan rivien välistä artikkelia, joten tässä oma tulkinta lämpöhaasteista:

Enemmän nuo "lämpöongelmat" vaikuttaisi viittaavan jännän malliseen refu piirilevyyn ja 150$ vakiojäähyyn. Eli ei ole helppoa ja halpaa saada tuon paketin lämpöjä kuriin. Siinä vihjattiin, että nvidian oma erikoisjäähy tehdään pajalla, jossa minimitilaukset on tasoa miljoona kappaletta.

AIB partnereilla ei ole oikein katteiden takia varaa moiseen (se sanottiin suoraan). Joten oman tulkinnan mukaan haaste on kierrättää jäähyt ja saada oma custom pcb sellaiseksi, että se sopii kierrätettyyn jäähyyn ja silti pitää paketin lämmöt kurissa.

Edit: Lisätty Anandtechin teksti kulutuksesta:

"According to Micron's brief, we’re looking at an average device power of roughly 7.25 picojoules per byte for GDDR6X, versus 7.5 for GDDR6. Going by this data, this is also relatively close in power efficiency to HBM2, though well behind HBM2E. That said, as this is efficiency per byte, it means that actual power consumption is a function of bandwidth; and while GDDR6X is a little more efficient, it’s slated to be a lot faster. So going by Micron’s data, the total power consumption of GDDR6X is going to be higher than GDDR6, by about 25%."
 
Viimeksi muokattu:
Kahtotaan, tulee joko uusi ketju tai tämän otsikko päivitetään kun se on ajankohtaista. Toistaiseksi ei ole vielä edes peli-Amperet ulkona ja Hopper MCM -huhujen alkuperäislähteellä on vähintäänkin kyseenalainen historia missä on muistaakseni speksien osuminen varmistettu ns. "haulikkomenetelmällä", ennustetaan kaikki mahdollinen niin jokin osuu varmasti.

Tuo peli julkaistiin turhan "keskeneräisenä", DirectX 12 -renderöijään aikovat siirtyä kunhan saavat valmiiksi mikä saattaa parantaa suorituskykyä jos tekevät hommat kunnolla. Mutta eipä siellä näytä 4K:lla olevan kuin 4 korttia ylipäätään mitkä rikkoo 25 FPS:n rajan tällä hetkellä, samat neljä mitkä ovat keskimäärinkin AMD:n tämän hetkistä tarjontaa nopeampia muutenkin, eli ei tuo nyt mitenkään erikoisen huono tilanne ole.

Tässähän tulikin kaikki olennainen tuohon FS:ään liittyen. Nykyisilläkin lippulaivakorteilla on aivan riittävä laskentateho (joskaan ei hinta/teho -suhde) ja on suorastaan älyllistä epärehellisyyttä viitata huonosti optimoituihin sovelluksiin.

Aiemmin ketjussa keskusteltu CSGO on tästä hieno esimerkki missä pelimoottoria tahallisesti peukaloitiin että saadaan rautaa myytyä lampaille.
 
Anandtechin mukaan gddr6x kuluttaa kyllä enemmän. Siirrettyä datamäärää kohti se on energiatehokkaampi, mutta kerran nopeus nousee, niin kulutus nousee gddr6:n ohi.

Igorskin kehotti lukemaan rivien välistä artikkelia, joten tässä oma tulkinta lämpöhaasteista:

Enemmän nuo "lämpöongelmat" vaikuttaisi viittaavan jännän malliseen refu piirilevyyn ja 150$ vakiojäähyyn. Eli ei ole helppoa ja halpaa saada tuon paketin lämpöjä kuriin. Siinä vihjattiin, että nvidian oma erikoisjäähy tehdään pajalla, jossa minimitilaukset on tasoa miljoona kappaletta.

AIB partnereilla ei ole oikein katteiden takia varaa moiseen (se sanottiin suoraan). Joten oman tulkinnan mukaan haaste on kierrättää jäähyt ja saada oma custom pcb sellaiseksi, että se sopii kierrätettyyn jäähyyn ja silti pitää paketin lämmöt kurissa.
Joo AIB tuskin lähtee tuohon Nvidian toteutukseen mukaan, tuntuu hieman epäkäytännölliseltä mutta jokin syy siihen on oltava että tuollaista toteutusta lähtivät tekemään.
 
Joo AIB tuskin lähtee tuohon Nvidian toteutukseen mukaan, tuntuu hieman epäkäytännölliseltä mutta jokin syy siihen on oltava että tuollaista toteutusta lähtivät tekemään.

Oma veikkaus on, että ne ovat ujuttaneet gpu:n ja gddr6x:t niin lähelle kuin mahdollista (eikä vain singaloinnin vuoksi). GPU:n päällä on kai vapor chamber ja siitä on jatkettu kuparia gddr6x päälle ja vrm on omana osanaan rivastossa. Sitten heatpipet ja läpiveto toiseen päähän, jotta saadaan maksimi-ilmavirta toiselle tuulettimelle.

Tuon nyt luulisi maksimoivan kokonaisjäähdytystehon ja muistien jäähdytyksen.
 
So going by Micron’s data, the total power consumption of GDDR6X is going to be higher than GDDR6, by about 25%."

Eli jos mennään sen GDDR6 moduulin 2,5W mukaan, tuohon kun lisätään 25 pinnaa niin saadaan 12GB:llä 37,5W lämmitystä ja 24GB 75W. Aikamoista.
 
Eli jos mennään sen GDDR6 moduulin 2,5W mukaan, tuohon kun lisätään 25 pinnaa niin saadaan 12GB:llä 37,5W lämmitystä ja 24GB 75W. Aikamoista.
Ja kun kattoo tota vuodettua kuvaa piirilevystä, niin toi lämpö kohdistuu paljon pienempään pinta-alaan kuin ennen.
 
Aika kovia ratkaisuja joutunut Nvidia tekemään Ampereen jos tosiaan nämä huhut pitävät paikkansa. Alkaa pikkuhiljaa vaikuttamaan, että myös tuo huhu virrankulutuksesta voi pitää paikkaansa.

Jos Amperesta tulee kiuas niin 3080:n sijaan 3070 saa riittää, jopa 3060 ja päivittää sitten seuraavaan heti kun tulee. Onhan se huhu olemassa, että TSMC-versiot Amperesta voisi tulla ensi vuonna. Tämä tosin kuulostaa hieman erikoiselta, kun se Hopperikin on siellä jo putkessa.
 
Aika kovia ratkaisuja joutunut Nvidia tekemään Ampereen jos tosiaan nämä huhut pitävät paikkansa. Alkaa pikkuhiljaa vaikuttamaan, että myös tuo huhu virrankulutuksesta voi pitää paikkaansa.

Jos Amperesta tulee kiuas niin 3080:n sijaan 3070 saa riittää, jopa 3060 ja päivittää sitten seuraavaan heti kun tulee. Onhan se huhu olemassa, että TSMC-versiot Amperesta voisi tulla ensi vuonna. Tämä tosin kuulostaa hieman erikoiselta, kun se Hopperikin on siellä jo putkessa.
nVidian mukaan TSMC/7nm-versioita tulee, eivät sanoneet että ensi vuonna tai ensi vuosikymmenellä. Aika luottavainen olen, että 3080 tulee heti 7nm tekniikalla. 3060 voikin jo olla 8nm tuotannossa. Ei olisi mitään järkeä teetättää tehokkaita huonommalla prosessilla ja sitten jotain ensivuoden 3050-kortteja paremmalla 7nm prosessilla.
 
Aika kovia ratkaisuja joutunut Nvidia tekemään Ampereen jos tosiaan nämä huhut pitävät paikkansa. Alkaa pikkuhiljaa vaikuttamaan, että myös tuo huhu virrankulutuksesta voi pitää paikkaansa.

Jos Amperesta tulee kiuas niin 3080:n sijaan 3070 saa riittää, jopa 3060 ja päivittää sitten seuraavaan heti kun tulee. Onhan se huhu olemassa, että TSMC-versiot Amperesta voisi tulla ensi vuonna. Tämä tosin kuulostaa hieman erikoiselta, kun se Hopperikin on siellä jo putkessa.
tai 3080 10gb versio.
 
nVidian mukaan TSMC/7nm-versioita tulee, eivät sanoneet että ensi vuonna tai ensi vuosikymmenellä. Aika luottavainen olen, että 3080 tulee heti 7nm tekniikalla. 3060 voikin jo olla 8nm tuotannossa. Ei olisi mitään järkeä teetättää tehokkaita huonommalla prosessilla ja sitten jotain ensivuoden 3050-kortteja paremmalla 7nm prosessilla.
Toivottavasti näin, joskin huhut kertoo muuta ja nämä huhuilijat on nyt osuneet aika hyvin kohdilleen. Tosin vaikka olisi TSMC:n 7nm niin en silti paljoa yli 200 w TDP:n näyttistä osta.
Edit huhut puhuu siis että esim "Super"-versiot noista tehokkaista tulisi vasta TSMC:llä.
 
Minulle tulossa näillä korteilla ensimmäinen vesijäähy ja on jo odottamassa 2 x 360mm radit ja 420 MO-RA. Eli saunaan olen varautunut :D
Jos sieltä tulis ei-niin-lukittu meininki kun oli tonnikorttien kanssa että saisi modibiosseilla melkein kaikki rajat pois.

Mun 1080ti powedraw oli modatulla biossilla yli 600w benchmarkeissa, lämmöt pysyi jossain 55-60 välimaastossa. Kaksi 360 radia oli silloin näyttikselle, yksi ei riittänyt :btooth: Ja jos siihen yhdistyisi se että myös laskentatehoa saisi sitten rajusti lisää, niin olisi kyllä tän 2000-sarjan jälkeen oikein kiva leikkikalu. Nähtäväksi jää, lompakkoni on valmis :btooth:
 
Jos sieltä tulis ei-niin-lukittu meininki kun oli tonnikorttien kanssa että saisi modibiosseilla melkein kaikki rajat pois.

Mun 1080ti powedraw oli modatulla biossilla yli 600w benchmarkeissa, lämmöt pysyi jossain 55-60 välimaastossa. Kaksi 360 radia oli silloin näyttikselle, yksi ei riittänyt :btooth: Ja jos siihen yhdistyisi se että myös laskentatehoa saisi sitten rajusti lisää, niin olisi kyllä tän 2000-sarjan jälkeen oikein kiva leikkikalu. Nähtäväksi jää, lompakkoni on valmis :btooth:
Kehoni ei ole valmis 700W lämpökuormaan pelikoneelta. Ei auta vesijäähyt kun kämpästä tulee uuni kesäkuumilla.
 
Kehoni ei ole valmis 700W lämpökuormaan pelikoneelta. Ei auta vesijäähyt kun kämpästä tulee uuni kesäkuumilla.
Aina voi pelata ultrabookilla jos lämmitysteho on prioriteetti numero yksi. ;)
olishan se aika hullun hyvä tilanne jos suorituskyky skaalautuisi jonnekkin 500W asti.
 
Eli jos mennään sen GDDR6 moduulin 2,5W mukaan, tuohon kun lisätään 25 pinnaa niin saadaan 12GB:llä 37,5W lämmitystä ja 24GB 75W. Aikamoista.
Jos nyt kerrankin otettais kunnolla suorituskykyä irti niin ei tarvitse hetkeen kaivata päivitystä.
Eiköhän toikin jäähdy jos jäähtyy 2080Ti joka piikkailee sinne 400w kellotettuna.

Msi trio tai sitten SeaHawk vesille ja kellotellaan niin paljon kun lähtee ja vetäsee nopeat ajot siinä vkonlopun aikana hyvässä seurassa murskaten kaikki aikaisemmat 2080Ti saadut tulokset :cigar2:
Referenssiä pitää toki ihan ensin päästä kokeilemaan kun on sen verran mielenkiintoiselta vaikuttavia ratkaisuja.

Kehoni ei ole valmis 700W lämpökuormaan pelikoneelta. Ei auta vesijäähyt kun kämpästä tulee uuni kesäkuumilla.
Onneksi julkaisu on syyskuulla vasta niin ehtii ilmat viilenemään ja kesäksi sitten ilmastointi kämppään jos sellaista ei vielä ole.
 
Kai sitä voi sanoa kehitykseksikin jos seuraava sukupolvi myydään jo ulkolauhdutinyksiköllä varustettuna.
 
Jos sieltä tulis ei-niin-lukittu meininki kun oli tonnikorttien kanssa että saisi modibiosseilla melkein kaikki rajat pois.

Mun 1080ti powedraw oli modatulla biossilla yli 600w benchmarkeissa, lämmöt pysyi jossain 55-60 välimaastossa. Kaksi 360 radia oli silloin näyttikselle, yksi ei riittänyt :btooth: Ja jos siihen yhdistyisi se että myös laskentatehoa saisi sitten rajusti lisää, niin olisi kyllä tän 2000-sarjan jälkeen oikein kiva leikkikalu. Nähtäväksi jää, lompakkoni on valmis :btooth:

Voit perustaa hyötykasvikuivaamon asuin tilaasi sitten. :psmoke:
 
Onneksi julkaisu on syyskuulla vasta niin ehtii ilmat viilenemään ja kesäksi sitten ilmastointi kämppään jos sellaista ei vielä ole.
Yritin - pitäisi hommata rakennuslupa kaupungilta, eikä semmoista ole saamassa. Ulkoyksikkö näyttää viranomaisen mielestä liian rumalta.
 
Kyllä mun mielestä tarvitaan. Sahalaidat vilkkuu ihan hulvattomasti jos ei ole mitään reunanpehmennystä käytössä.
Makuasioita jos haluaa käyttää,mutta välttämätön se ei ole 4K.lla toisin kuin esim 1080p.llä.
Usein jätän pois,koska saavutettu hyöty perf hittiin nähden on liian vähäinen.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 305
Viestejä
4 490 328
Jäsenet
74 193
Uusin jäsen
MetsänSankari

Hinta.fi

Back
Ylös Bottom