NVIDIA GeForce RTX 3080 / 3080 Ti / 3090 -ketju (GA102)

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu
No siis ensimmäinen asia aina jos jotain mätää epäilee ajureissa on DDU ajuriwipe ja uudelleenasennus.

Lisäksi voi katsoa onko kortille vbios-päivitystä valmistajalta.
 
Laitoitko puusto korttiin jo sen tuoreimman Vbios, En tiedä auttaako tuulettimen kanssa mutta ihan kokeilun arvoinen asia.
 
No siis ensimmäinen asia aina jos jotain mätää epäilee ajureissa on DDU ajuriwipe ja uudelleenasennus.

Lisäksi voi katsoa onko kortille vbios-päivitystä valmistajalta.
uusin v-bios rebarilla on heitetty sisään. Eikö tolla nvidian omalla installerilla aja saman asian kun laitan puhtaan asennuksen vai onko DDU jotenkin superimpi?

Laitoitko puusto korttiin jo sen tuoreimman Vbios, En tiedä auttaako tuulettimen kanssa mutta ihan kokeilun arvoinen asia.

Se on jo sisässä. voisiko se tehdä tän ongelman :hmm:
 
uusin v-bios rebarilla on heitetty sisään. Eikö tolla nvidian omalla installerilla aja saman asian kun laitan puhtaan asennuksen vai onko DDU jotenkin superimpi?



Se on jo sisässä. voisiko se tehdä tän ongelman :hmm:

En osaa sanoa kun pistin oman jo vesille :love2:
 
Jos epäilet ajurikusua, DDU on varmempi. Voit tietty askarrella pidemmän kautta ja kattoa jos NVn oman "clean install" riittää, mutta itse kävisin suoraan DDUn kautta tämmöisessä casessa. Lisäksi heittäisin afterburnerit sun muut mäkeen (uninstall) kunnes kaikki toimii "vakiona" oikein.
 
Jos epäilet ajurikusua, DDU on varmempi. Voit tietty askarrella pidemmän kautta ja kattoa jos NVn oman "clean install" riittää, mutta itse kävisin suoraan DDUn kautta tämmöisessä casessa. Lisäksi heittäisin afterburnerit sun muut mäkeen (uninstall) kunnes kaikki toimii "vakiona" oikein.
Nyt vaikuttaisi siltä että ajurit oli mikä kusi. nyt rokkaa toi tuuletin tai vaikuttaisi. tehdään testejä ja katsellaan mitä tapahtuu.

Edit: Voisi jo melkein varmuudella sanoa että toi tuuletin toimii. Kiitokset todella paljon sulle @Jarnis !! Pelastit mut kaljuuntumasta vielä lisää.
 
Jos saisin euron joka kerta kun jonkun mystinen GPU-kusu korjautuu DDU-wipellä niin olisin rikas... Windows ja windowsin ajurit on sellainen korttitalohimmeli että se nyt vaan aina välillä menee ihan häröpalloon ja DDU on todistetusti kykenevä vetämään kaiken sileäksi niin että häröt saa hittoon ja voi asentaa puhtaalta pöydältä.
 
Jos saisin euron joka kerta kun jonkun mystinen GPU-kusu korjautuu DDU-wipellä niin olisin rikas... Windows ja windowsin ajurit on sellainen korttitalohimmeli että se nyt vaan aina välillä menee ihan häröpalloon ja DDU on todistetusti kykenevä vetämään kaiken sileäksi niin että häröt saa hittoon ja voi asentaa puhtaalta pöydältä.
Tämähän se. Oli jpea yllätys, että asuksen emolevyt asentaa Armoury Craten automaattisesti, jos sitä ei uefista käännä pois. Ei ole oikein toivottu ominaisuus, ja suuntaus ylipäätään valmistajilta, tämä. /offtopic

Aika erikoinen on itselle on tämä 3000-sarjan ylikellotus. Nyt on löytynyt järkevä volttikäyrä onneksi. Tietääkö kukaan, mikä on noiden TUF 3080ti:n powerlimit? En ole itse siihen testaamalla vastausta löytänyt.
 
Tämähän se. Oli jpea yllätys, että asuksen emolevyt asentaa Armoury Craten automaattisesti, jos sitä ei uefista käännä pois. Ei ole oikein toivottu ominaisuus, ja suuntaus ylipäätään valmistajilta, tämä. /offtopic

Aika erikoinen on itselle on tämä 3000-sarjan ylikellotus. Nyt on löytynyt järkevä volttikäyrä onneksi. Tietääkö kukaan, mikä on noiden TUF 3080ti:n powerlimit? En ole itse siihen testaamalla vastausta löytänyt.
350/370w todennäkösesti. 3080 TUFissa (tai no oikeastaan kaikissa 2x8-pin korteissa) on vaan sellanen jippo et vaikka power limit oliskin oikeasti 370w, niin se yleensä imeskelee max 350w koska se ei tykkää ottaa PCI-E slotista täysiä virtoja. En tiedä päteekö myös tohon Ti-malliin. Pikasella googletuksella useemmalla korttimallilla oli tota samaa et PCI-E kautta tuleva virta tyssää siihen 50w nurkille, eli noi 2x8-pin kortit jäis kanssa siihen 350w nurkille.

Testaamallahan se tosin selviää, AB:lla uus profiili ja powerlimit tappiin, benchmarkkia pyörittelemään ja katot HWInfosta et mikä homma.
 
Pitäisi laittaa 3080 TI tilaukseen, mutta mietityttää kannattaako laittaa Suprim X:ään 330€ enemmän verrattuna Asus TUF OC malliin?
Alkuvuodesta omistin yhden 3080 Suprim X ja hyvä korttihan se oli. Ehkä nyt kortin kokoon nähden olisin odottanut, että olisi ollut viileämpi.
Alla yksi vertailu minkä mukaan TUF OC kellotettuna vastaan Suprimia normaaleilla kelloilla.
Onko kukaan 3080 TI Suprim X:n omistaja kokeillut onko näissä uusissa TI malleissa saatu lämpöjä paremmin kuriin?


1624213240063.png
 
Itse omistan ASUS Strix ROG LC OC 3080ti Aio-malli ja se edustaa lippulaivaa. Siinä on ainakin Power limit 450w max kellotettuna ja sen se ottaa. Tästä löytyy myös Sampsan tekemä artikkeli. :) :thumbsup:
 
Itse omistan ASUS Strix ROG LC OC 3080ti Aio-malli ja se edustaa lippulaivaa. Siinä on ainakin Power limit 450w max kellotettuna ja sen se ottaa. Tästä löytyy myös Sampsan tekemä artikkeli. :) :thumbsup:
Joo, no siinä onkin 3x8-pin virtaliittimet, toisinkun noissa halvemmissa malleissa on yleensä se 2x8-pin. Noi kolmella liittimellä olevat saa aina jollain biosilla ottamaan sen 450w, mutta noilla kahdella virtaliittimellä olevat yleensä rajottuu siihen 350-370w akselille. Poislukien 3090, siitä tais olla puhetta et joku oli flashannu 2x8-pin korttiinsa sen Kingpinin 1000w biosin ja sitä kautta sai sitten enemmän virtaa lykittyä, mut toi on poikkeus siinä mielessä et kaikki muut biosit kunnioittaa sitä rajotusta et yhdestä 8-pin liittimestä imeskellään max 150w.
 
Joo, no siinä onkin 3x8-pin virtaliittimet, toisinkun noissa halvemmissa malleissa on yleensä se 2x8-pin. Noi kolmella liittimellä olevat saa aina jollain biosilla ottamaan sen 450w, mutta noilla kahdella virtaliittimellä olevat yleensä rajottuu siihen 350-370w akselille. Poislukien 3090, siitä tais olla puhetta et joku oli flashannu 2x8-pin korttiinsa sen Kingpinin 1000w biosin ja sitä kautta sai sitten enemmän virtaa lykittyä, mut toi on poikkeus siinä mielessä et kaikki muut biosit kunnioittaa sitä rajotusta et yhdestä 8-pin liittimestä imeskellään max 150w.
Juu näin se ikävä kyllä on.. Mitenköhän nuo kortit ylipäätään kestää tommoisia 1000w Bios, luulisi ettei kovin montaa vetoa.. :rolleyes:
Tuo oma 3080ti on kyllä kova kulkemaan, mitä testaillut. ~22k Graphics Score. Lämmöt kumminkin pyörivät muistit mukaan lukien viileänä tuommoiseksi AIO malliksi. Grafiikkapiiri 50-54c / Muistit 75c-80c pelatessa about..
 
Juu näin se ikävä kyllä on.. Mitenköhän nuo kortit ylipäätään kestää tommoisia 1000w Bios, luulisi ettei kovin montaa vetoa.. :rolleyes:
Tuo oma 3080ti on kyllä kova kulkemaan, mitä testaillut. ~22k Graphics Score. Lämmöt kumminkin pyörivät muistit mukaan lukien viileänä tuommoiseksi AIO malliksi. Grafiikkapiiri 50-54c / Muistit 75c-80c pelatessa about..
LN2 biosejahan nuo on ja tarkotettu yksinomaan pelkästään kärkimalleille, eli Kingpinille ja Hall of Famelle oikeastaan. Eikä siinä tarkotuksena taida olla lykkiä 1000w läpi, siinä varmaan alkais kortti leviämään vaikka millä jäähyttäis, tarkotuksena vaan se et on rajottamaton bios ja voi puskea niin kovaa kun on fiksua.

Mut en välttämättä edes vesilläkään lähtis yli 500w millään kortilla vetämään. Se hyöty on muutenkin varsin minimaalinen siihen virrankulutukseen ja lämmöntuottoon nähden.
 
Mut en välttämättä edes vesilläkään lähtis yli 500w millään kortilla vetämään. Se hyöty on muutenkin varsin minimaalinen siihen virrankulutukseen ja lämmöntuottoon nähden.

No jos pitää kämppää lämmittää ja on kylmä ja... :D

Jos poislasketaan 3DMark-keuliminen niin joo muuten aika "diminishing returns" nykypäivänä näiden GPUiden kellotukset on. Hirveästi saa pistää ylimääräistä jäähdytystä ja virtaa ja irtoaa häviävän pientä lisätehoa joka ei oikeasti juur näy missään.
 
No jos pitää kämppää lämmittää ja on kylmä ja... :D

Jos poislasketaan 3DMark-keuliminen niin joo muuten aika "diminishing returns" nykypäivänä näiden GPUiden kellotukset on. Hirveästi saa pistää ylimääräistä jäähdytystä ja virtaa ja irtoaa häviävän pientä lisätehoa joka ei oikeasti juur näy missään.
Siksipä tuolle ei tee muuta mieli tehdäkään, kuin alivoltittaa
 
Onkos kellään kokemusta volttien laskusta ja pitkästä hdmi-kaapelista (10m). Jos laskee voltit (jos max alle 950 mV:n alivoltittamalla Afterburnerilla), niin videotykin kuvaan tulee "kipinöintiä". 1920x1080 p. Taitaa siis vaikuttaa signaalioutputiin hdmi:llä. 1.5 m displayport näyttää monitorille samaan aikaan hyvää kuvaa ...
Jos DP funkkaa niin hommaa esim. tämmönen Club 3D DisplayPort 1.2 -> HDMI 2.0 aktiivinen adapteri, 4K-/UHD-tuki - 29,90€
 
No nyt ei BFGPU roiku enää! Cooler Master ARGB GPU Support Bracket saapui 4kk odottelun jälkeen. Ja kaksi alle 3v vaippapöksyä tykkää. :D

IMG_20210703_142017__01.jpg
 
No jos pitää kämppää lämmittää ja on kylmä ja... :D

Jos poislasketaan 3DMark-keuliminen niin joo muuten aika "diminishing returns" nykypäivänä näiden GPUiden kellotukset on. Hirveästi saa pistää ylimääräistä jäähdytystä ja virtaa ja irtoaa häviävän pientä lisätehoa joka ei oikeasti juur näy missään.
Tää on hyvin sanottu. Ite näen hyvän jäähyn edun siinä, että on hiljainen ja boostit ei tipu pelatessa. Hiljainen ja tehokas jäähy ilman ylikelloja on aika usein hyvä. Tosin talvella voi pistää vähän kelloja, että kämppä lämpiää.

Oc ja benchmarkit on hauskoja, mutta oma lajinsa.
 
Metro Exodus kaatuilee. Pirustakohan johtuu. Liian matalat voltit 3080:llä? Täyttä arpapeliä, ei mitään tietoa mikä voisi aiheuttaa.

Noh opin että afterburnerissä voi curve editorissa shift+left click valita esim 925->1250 välin hiirellä (x-akselin voltteja raahaamalla siis), jolloin se valitsee sen volttialueen
shift+enter valitsee sen "tekstikentän" jossa lukee kellotaajuus tms.
sit backspace ja kirjottaa vaikka 1900 niin se vetää kaikki valitun alueen voltit 1900mhz. eli saa tolla suoran käyrän. Olipa helvetin epäintiutiviisesti toteutettu :D

Kokeillaan 1850/925mV josko Metro pysyis päällä. CPU kellot otin jo pois. Kotelotuulettimiin laitoin kesäprofiilin.
 
Viimeksi muokattu:
Metro Exodus kaatuilee. Pirustakohan johtuu. Liian matalat voltit 3080:llä? Täyttä arpapeliä, ei mitään tietoa mikä voisi aiheuttaa.

Noh opin että afterburnerissä voi curve editorissa shift+left click valita esim 925->1250 välin hiirellä (x-akselin voltteja raahaamalla siis), jolloin se valitsee sen volttialueen
shift+enter valitsee sen "tekstikentän" jossa lukee kellotaajuus tms.
sit backspace ja kirjottaa vaikka 1900 niin se vetää kaikki valitun alueen voltit 1900mhz. eli saa tolla suoran käyrän. Olipa helvetin epäintiutiviisesti toteutettu :D

Kokeillaan 1850/925mV josko Metro pysyis päällä. CPU kellot otin jo pois. Kotelotuulettimiin laitoin kesäprofiilin.

Exodus on vakaustestien ehdotonta A-luokkaa, erikoistunut siis epävakauksien bongaamiseen. Eiköhän kyse ole siis juuri tuosta.
 
Metro Exodus kaatuilee. Pirustakohan johtuu. Liian matalat voltit 3080:llä? Täyttä arpapeliä, ei mitään tietoa mikä voisi aiheuttaa.

Noh opin että afterburnerissä voi curve editorissa shift+left click valita esim 925->1250 välin hiirellä (x-akselin voltteja raahaamalla siis), jolloin se valitsee sen volttialueen
shift+enter valitsee sen "tekstikentän" jossa lukee kellotaajuus tms.
sit backspace ja kirjottaa vaikka 1900 niin se vetää kaikki valitun alueen voltit 1900mhz. eli saa tolla suoran käyrän. Olipa helvetin epäintiutiviisesti toteutettu :D

Kokeillaan 1850/925mV josko Metro pysyis päällä. CPU kellot otin jo pois. Kotelotuulettimiin laitoin kesäprofiilin.
Joo, Exodus on tosiaan tosi kova kippailemaan näillä RTX 30-sarjan korteilla jos on pikkasenkaan epävakaat kellot. Sen takia just oli itelle se peli millä ne kellot haettiinkin. Ei oo ainakaan mikään toinen peli tähän mennessä niskotellut, ja kohta 6kk näillä kelloilla menty niin uskaltaa jo sanoa et tällä väitteellä olis jotain perääkin :smoke:
 
Hei. Olen uusi tällä ketjulla ja saan vihdoinkin tänään uuden näytönohjaimen (3080 Ti) En millään jaksanut lukea noita 139 sivua joten kysyn nyt näitä:
Miten saan kaiken hyödyn uusista ominaisuuksista (resis bar, dlss, säteenseuranta, yms.), siis mitä pitää laittaa biossista päälle ja mita nvidian ohjauspaneelista työpöydällä ?
Minulla intel i9-11900kf, asus rog strix z490-e gaming ja Samsung C49HG90 näyttö.
Kiitos avusta jo etukäteen.
 
Hei. Olen uusi tällä ketjulla ja saan vihdoinkin tänään uuden näytönohjaimen (3080 Ti) En millään jaksanut lukea noita 139 sivua joten kysyn nyt näitä:
Miten saan kaiken hyödyn uusista ominaisuuksista (resis bar, dlss, säteenseuranta, yms.), siis mitä pitää laittaa biossista päälle ja mita nvidian ohjauspaneelista työpöydällä ?
Minulla intel i9-11900kf, asus rog strix z490-e gaming ja Samsung C49HG90 näyttö.
Kiitos avusta jo etukäteen.
DLSS ja Ray Tracing säädetään pelin sisältä, mutta re-bar vaatii enempi tai vähempi kikkailua. Tarkista nyt ensimmäisenä onko se jo päällä; Nvidia Control Panel -> vasemmalta alhaalta "System Information" ja katsot sieltä onko Resizable Bar "Yes". Mikäli ei, niin sitten säätämään;
 
Metro Exodus EE pysyi lopulta 3080 tuf oc:llä vakaana 1850/0.925mV. Pitänee kokeilla, kestäisikö vielä kovempia kelloja, mutta toisaalta kun 2x8pin ei anna määräänsä enempää virtaa..

Prossu pysyi nyt vakiona ajettaessa pelikäytössä 65C:ssä aiemman 80-90C sijasta. Täytyy kokeilla, josko 4.3Ghz ja 4.7Ghz välimaastosta löytyisi jokin kellotaajuus, jolla lämmöt pysyisivät jossain 70-80C, mikä tuntuu vielä "siedettävältä" omaan makuun.
 
DLSS ja Ray Tracing säädetään pelin sisältä, mutta re-bar vaatii enempi tai vähempi kikkailua. Tarkista nyt ensimmäisenä onko se jo päällä; Nvidia Control Panel -> vasemmalta alhaalta "System Information" ja katsot sieltä onko Resizable Bar "Yes". Mikäli ei, niin sitten säätämään;

joo kiitos neuvoista, sain re-barin toimimaan ja metro exoduksessa siinä hienommassa versiossa kokeilin niin hyvin pyörii vaikka kaikki karkit on kupissa. Se dlss saa pelin näyttämään rumemmalta…?
 
joo kiitos neuvoista, sain re-barin toimimaan ja metro exoduksessa siinä hienommassa versiossa kokeilin niin hyvin pyörii vaikka kaikki karkit on kupissa. Se dlss saa pelin näyttämään rumemmalta…?
Yksinkertaistettuna joo, DLSS on aina visuaalisesti huonompi kuin natiiviresoluutio, mutta antaa suorituskykyboostia.
 
4k resoilla ei tuota juurikaan huomaa jos on DLSS qualitylla, vähän vielä terävyyttä Nvidian paneelista lisää. Uusimmassa CoDissa ainakin toimii todella hyvin quality asetus.

Huippu ominaisuus, ilmaista fps tupsahtaa ruudulle.
 
4k resoilla ei tuota juurikaan huomaa jos on DLSS qualitylla, vähän vielä terävyyttä Nvidian paneelista lisää. Uusimmassa CoDissa ainakin toimii todella hyvin quality asetus.

Huippu ominaisuus, ilmaista fps tupsahtaa ruudulle.

Isot pojat juttelee jotta DLSS ongelmat tulee selvästi esiin kun kuvaa aletaan katsella isolta ruudulta eli jostain 65" esim. Postimerkki ruuduilta (27") katsellessa ne ei vielä oikein tule esiin.
 
Isot pojat juttelee jotta DLSS ongelmat tulee selvästi esiin kun kuvaa aletaan katsella isolta ruudulta eli jostain 65" esim. Postimerkki ruuduilta (27") katsellessa ne ei vielä oikein tule esiin.

Juu sepä se, tosin on PC välillä ollut vielä isompien poikien 77” OLED töllössä kiinni muttei tullut eroja silloin testailtua. Saattais vaatia sen tulevan ultra quality -tilan mieluusti jo.
 
Isot pojat juttelee jotta DLSS ongelmat tulee selvästi esiin kun kuvaa aletaan katsella isolta ruudulta eli jostain 65" esim. Postimerkki ruuduilta (27") katsellessa ne ei vielä oikein tule esiin.

Katselen 55" ruudulta hyvin läheltä, ja näkyyhän ne DLSS:n ongelmat siellä. Mutta kun vaihtoehdot ovat liian hidas natiivi 4K tai perinteisesti skaalattu matalareso, niin DLSS on minusta selvästi paras ongelmineenkin.
 
Moro, mulla on 2x RTX 3090 koneessa kiinni, mutta ei ole vielä nvlink palikkaa, joten onko mitään hyötyä tuosta toisesta näyttiksestä missään tilanteessa?
 
Moro, mulla on 2x RTX 3090 koneessa kiinni, mutta ei ole vielä nvlink palikkaa, joten onko mitään hyötyä tuosta toisesta näyttiksestä missään tilanteessa?

Suurin hyöty on jossain hyötyohjelmissa jotka hyvin skaalaa usealle kortille. Peleissä hyöty on melko mitätön. Niin nvia kuin amd ovat molemmat lopettanu virallisen tuen peleissä. Tuki on DX12 myötä siten pelinkehittäjien harteilla ja on harvassa ne pelit jotka hyötyy.
 
Suurin hyöty on jossain hyötyohjelmissa jotka hyvin skaalaa usealle kortille. Peleissä hyöty on melko mitätön. Niin nvia kuin amd ovat molemmat lopettanu virallisen tuen peleissä. Tuki on DX12 myötä siten pelinkehittäjien harteilla ja on harvassa ne pelit jotka hyötyy.
Oliko tämä vastaus nyt ilman nvlinkiä, kuten kysyjä kysyi?
 
Oliko tämä vastaus nyt ilman nvlinkiä, kuten kysyjä kysyi?

Ilman että sen kanssa. Sen kanssa käsittääkseni tarttee peliltä SLI tuen ja ne pelit on harvassa. Hyötyohjelmissa siitä nvlinkistä on hyötyä vaihtelevasti. Suurin hyöty käsittääkseni tilanteissa joissa käsitellään jotain todella paljon muistia tarvitsevaa settiä jolloin nvlinkin kautta saadaan sen toisen kortin muisti käyttöön.
 
Onko kokemuksia EVGA 3080 - näytönohjaimista? Taitaa Suomessa olla jäänyt hieman marginaalimerkiksi näiden uusimpien mallien kohdalla? PNY taitaa kuulua samaan kastiin…
 
Oma TUF 3080 OC ei oikein tykännyt uusimmasta BIOS-päivityksestä (Resizable bar tuki) mitä tulee saman aikaan pidettävien prossun ja muistien kellotusten kanssa. Koneen jokainen bootti oli mustaa ruutua, piti vaihtaa DP portin paikkaa ensi boottiin niin meni winukkaan. Poistin kellot ja laitoin emon (z390m) game moden päälle, niin nyt toimii kone normaalisti ja resizable bar toimii myös ja kellot pysyy koko ajan 5,1ghz ja muistejakin kellotin ja vCore on jopa adaptiivinen. Eli oikein hyvä tämä game mode tässä emossa. Vähän prossun piikkilämmöt karkaa, mutta vain hetkellisesti.
 
Onkohan Intelin 6700K prossu kuinka paha pullonkaula jos hankkisi 3080:n tai 3080 TI:n näytönohjaimeksi?
 
Onkohan Intelin 6700K prossu kuinka paha pullonkaula jos hankkisi 3080:n tai 3080 TI:n näytönohjaimeksi?

Riippuu ihan pelistä ja resoluutiosta. Allaolevalla videolla on 7700k + 3080 testattu yhteensä 21 pelissä 2560x1440 resoluutiolla. Kyllähän tuo melkein kaikissa on enemmän tai vähemmän pullonkaulana. Joskus GPU-tehosta jää käyttämättä ~10%, joskus ~50%. Joissain peleissä ilmenee myös kovasti stutteria, kun prossu tukehtuu työtaakkaan. 4K-resoluutiolla prossun taakka toki kevenee, kun ruutuja ei tarvitse valmistella niin montaa per sekunti.

Ainahan pelit ei osaa käyttää lisäytimiä hyödykseen, joten ero saattaa olla hyvinkin pieni moderniin prosessoriin pelistä riippuen, ja modernikin prosessori voi olla pullonkaulana ihan yhtälailla.
 
Viimeksi muokattu:
Onkohan Intelin 6700K prossu kuinka paha pullonkaula jos hankkisi 3080:n tai 3080 TI:n näytönohjaimeksi?
Ei välttämättä, riippuu mitä pelaat (ja millä resoluutiolla). Niin moni peli menee tänä päivänä pitkälti näytönohjaimen varassa kunhan prossu on vähintään 6-7genin 4 ytimisiä malleja. Selvähän se on että jotain "jää pöydälle" mutta oletan että ajatuksena on kuitenkin prossupuoltakin päivittää myöhemmin...? niin ei tuo hölmöin paikka ole aloittaa.

Itse ostin 2080Ti:n silloin 2019 keväällä kun korttien saatavuus parani (nehän oli loppu kaikkialta hyvän tovin silloinkin) ja sen parina minulla oli tähän kevääseen asti i7 7700k (joka kellotettu 4.8GHz) 1440p pelailussa. Se tuli korvattua 10-ytimisellä i9 10900kf:llä ja ei se ero nyt mitenkään huomattava ole, lähinnä streamatessa / pelaamista nauhoittaessa huomaa että puhtia piisaa paremmin.
 
Ei välttämättä, riippuu mitä pelaat (ja millä resoluutiolla). Niin moni peli menee tänä päivänä pitkälti näytönohjaimen varassa kunhan prossu on vähintään 6-7genin 4 ytimisiä malleja. Selvähän se on että jotain "jää pöydälle" mutta oletan että ajatuksena on kuitenkin prossupuoltakin päivittää myöhemmin...? niin ei tuo hölmöin paikka ole aloittaa.

Itse ostin 2080Ti:n silloin 2019 keväällä kun korttien saatavuus parani (nehän oli loppu kaikkialta hyvän tovin silloinkin) ja sen parina minulla oli tähän kevääseen asti i7 7700k (joka kellotettu 4.8GHz) 1440p pelailussa. Se tuli korvattua 10-ytimisellä i9 10900kf:llä ja ei se ero nyt mitenkään huomattava ole, lähinnä streamatessa / pelaamista nauhoittaessa huomaa että puhtia piisaa paremmin.

Kiitos vastauksesta.

Battlefieldejä on pitkälti tullut pelattua ja 2042 varten mietin, että riittääkö nykyinen 1080 (uskoisin että minimeillä vähintään voi pelata). Alkujaan ajatuksena oli laittaa koko setuppi uusiksi, mutta kirstun pohjalle katsellessa kävi mielessä, että jos kuitenkin vain näyttiksen päivittäisi nyt (tai siis sitten kun hinnat ovat edes jossain määrin järkeviä, esim joulun alla) ja loput sitten esim. vuoden tai kahden päästä.

Muokkaus, reso 3440×1440 60 fps käytössä.
 
Kiitos vastauksesta.

Battlefieldejä on pitkälti tullut pelattua ja 2042 varten mietin, että riittääkö nykyinen 1080 (uskoisin että minimeillä vähintään voi pelata). Alkujaan ajatuksena oli laittaa koko setuppi uusiksi, mutta kirstun pohjalle katsellessa kävi mielessä, että jos kuitenkin vain näyttiksen päivittäisi nyt (tai siis sitten kun hinnat ovat edes jossain määrin järkeviä, esim joulun alla) ja loput sitten esim. vuoden tai kahden päästä.

Muokkaus, reso 3440×1440 60 fps käytössä.
BF V ei ainakaan käyttänyt kuin tyyliin 70% näyttiksestä kun oli itsellä vielä 6700K parina ja aivan järkyttävää stutteria. Witcher 3 oli myös sellainen ettei kaupungeissa ottanut kyllä näyttiksen tehoja irti kun prossu jarrutti.

Jos kuitenkin meinaat sen jossain vaiheessa päivittää eikä kerralla pysty molempia, niin jostainhan sitä on lähdettävä liikkeelle.
 
Onnistuuko asentaa NVlinkiä jos näytönohjaimet on eri tasolla? Ja tällä tarkoitan sitä että, toinen näyttis on noin 1cm alempana kuin toinen.
 
Eiköhän tarkoittanut että toisen kortin pcb/piirilevy on kapeampi kun toisen. Jos näin niin ei onnistu, en ainakaan itse ole nähnyt taipuvia nvlink siltoja.
 
Onko 3090 korteissa tuollaisia eroja? En ole nähnyt itse kuin pituuseroja. Toisaalta lähtökohtaisesti olisi hyvä olla kaksi identtistä korttia muutenkin koska bios ja kellot, muuten mennään aina heikomman ehdoilla.

Mutta joo, jos kortin korkeus emosta eroaa naapurista, siihen ei ole ratkaisuja, kaikki NVLink-sillat ovat "kiinteitä" eivätkä taivu.
 
Onhan noissa nyt todella paljon eroja, esim asuksen ja msi custom kortit sekä nvidian oma FE on useamman sentin leveämpiä kun nvidian "referenssi pcb:llä" varustetut custom kortit.
 
Viimeksi muokattu:
Siis tiesin että FE ja non-FE "refe" eroavat, mutta elin siinä uskossa että non-FE kortit olisivat kaikki samankorkuisia. No, ei kai sitten. No, sitä suuremmalla syyllä kaksi identtistä korttia on hyvä idea tai ainakin sama refe PCB jos ensimmäinen on sellainen.

Se, onko SLI nykypäivänä yleensä hyvä idea on sitten toinen tarina... en itse vaivautuisi pelikäytössä vaikka olisi miten rahaa heittää menemään koska NVIDIAa ei enää kiinnosta ja ajuripuolen SLI-tuki dropattiin ja kaikki roikkuu nykyään pelinkehittäjien kiinnostuksesta, ja suoraan sanoen heitä ei kiinnosta. Ja jos hankkii kahta korttia hyötykäyttöön, suurin osa käyttötavoista toimii ilman bridgeä ihan hyvin.
 

Statistiikka

Viestiketjuista
258 146
Viestejä
4 487 996
Jäsenet
74 159
Uusin jäsen
kahvirommi

Hinta.fi

Back
Ylös Bottom