NVIDIA-spekulaatioketju (Blackwell ja tulevat sukupolvet)

Ei silloin 4090 julkaisussa voinut ajatella että kukaan ostaisi noita yli 2k€ näytönohjaimia. Mutta sitten kun testituloksia tuli ulos ja siellä oli merkittävää parannusta, kyllä ostohousut menivät monella jalkaan. Premium-malleista otettiin erityisesti rahat pois, eikö joku MSI Suprim ja ASUS Strix ollut joku 2600€ julkaisun aikana.

Teho tietysti tärkeä mutta muut ominaisuudet ovat tärkeitä eri käyttäjille, itse arvostan esim. hiljaista ilmajäähdytettyä näytönohjainta.

Jos menee kuten RTX 4090 kanssa niin kyllä tässä käydään Kübler-Rossin viisi prosessia läpi.

  1. Kieltäminen: en minä näitä tehoja tarvitse, turhaa rahan haaskausta, nykyiselläkin pärjää, enhän minä edes pelaa mitään uusia pelejä
  2. Viha: Pakkoko tuon 5090 on olla kokoajan mielessä? Miksi se on noin kallis? Prkle!
  3. Neuvottelu: No mutta jos sitten kuitenkin, toisaalta harrastukset maksaa.... jotkuthan käy ulkomailla joka vuosi.... nykyisestä voisi saada hyvin rahaa takaisin... jos sittenkin? Onhan mulla jo uusi virtalähdekin...
  4. Masennus: Jahas ja mistään ei saa varastosta vaikka olisin valmis ostamaan!!1
  5. Hyväksyminen: No niin nyt on uusin näyttis... <pelaa indie-pelejä jotka pyörisivät integroidulla näyttiksellä>
Jos päädyn takaisin vihreään näytönohjaimeen niin se on 5080 vaikka olisi 5090:een pinkka taskussa. Kuumottelisi liikaa se että ton pikkuliittimen läpi ollaan työntämässä 575W ja että siinä ei juurikaan marginaalia ole toisin kuin 8-pinnisessä PCI-E liittimessä.
 
Heatkillerin blokista on kyllä niin hyvät kokemukset niin laadun kuin suorituskyvynkin osalta, että pitää hehkuttaa. Itse en toki omaani ole vielä kauheasti päässyt testaamaan / rääkkäämään mutta laajastihan tuo maailmallakin on testattu.

Jos TUF / Strix on uusissakin samalla piirilevyllä kuten todennäköistä on, niin mielestäni tuo on järkevin parivaljakko valita vesileikkeihin. Ihan minkä tahansa blokin saa ainakin 4080/90 TUF:n.

FE myös hyvin tuettu, mutta itse korttia ei sitten järkevästi mistään saanutkaan ainakaan täällä saatavuuden loppupäässä.
 
Ei silloin 4090 julkaisussa voinut ajatella että kukaan ostaisi noita yli 2k€ näytönohjaimia.
Ja vuonna 2013 naurettiin Titanin 1000€ hintalapulle. Nyt 5070ti näyttää olevan tuon touhutonnin verran ja siitä paremmat kortit sit eksponentiaalisesti enemmän. Kukahan ois osannu arvata 10v sitten että nyt jengi harkitsee 2500€ maksavia näytönohjaimia pelikäyttöön aivan tosissaan?

Rehellisesti kuitenkin 5080 todennäköisesti riittää pelikäyttöön ihan jokaselle jantterille jos resona on 4k tai alle. 5090 tarvetta on ihan helvetin vaikea lähteä perustelemaan yhtään minään muuna kun haluna että ne framet on niin korkeat kun mahollista. Ja mikäs siinä, jos pinkkaa löytyy ja rahalle ei muuta käyttöä keksi niin on sitä paskempiakin investointeja nähty. Periaatteessa jos käy nvidialla pieni bugi ja 5070ti tippuukin liian lähelle 5080, niin helposti kääntyy siihen et se onkin se fiksuin investointi.
Jos päädyn takaisin vihreään näytönohjaimeen niin se on 5080 vaikka olisi 5090:een pinkka taskussa. Kuumottelisi liikaa se että ton pikkuliittimen läpi ollaan työntämässä 575W ja että siinä ei juurikaan marginaalia ole toisin kuin 8-pinnisessä PCI-E liittimessä.
PCI-E väylästä tulee 75w. Tai no useimmiten joku 50w kun ei ainakaan RTX 30-sarjan korteilla uskaltaneet enempää imeä kun ton verran. Mut se kaapeli on speksattu 600w asti niin eipä tosta ongelmaa tule, toivottavasti. Hiffaan kyllä pelon.
 
Jos päädyn takaisin vihreään näytönohjaimeen niin se on 5080 vaikka olisi 5090:een pinkka taskussa. Kuumottelisi liikaa se että ton pikkuliittimen läpi ollaan työntämässä 575W ja että siinä ei juurikaan marginaalia ole toisin kuin 8-pinnisessä PCI-E liittimessä.
Ostat 5090 ja rajotat sen haluamaasi wattimäärään ohjelmallisesti, luultavasti saat silti hyvin irti ruutuja. Ainakin 4090 kanssa ne viimeiset pisarat vie suhteettomasti watteja.
 
Gigabyteltä tulee myös suoraan blokitetut mallit. Myös 5090 saatavilla


Kannattaa muistaa et FE on se hankalimmalla PCB:llä oleva ollu jo 30-sarjasta lähtien. Siihen on kalleimmat blokit ja muistaakseni niitä on paikotellen odoteltu aika pitkäänkin. En usko et tälläkään kertaa tulee poikkeusta. Noi Alphacoolin blokithan ei mee FE.

Blokillinen 5090 olisi kyllä kiinnostava jos hinta ei ole posketon...
 
Blokillinen 5090 olisi kyllä kiinnostava jos hinta ei ole posketon...
Lähempänä 3k ku 2,5k varmasti, mut jos alphacoolinkin blokit on alkaen 200€ niin ei ne sen halvempia tuu muillakaan olemaan. Eli lopputuloksena samanhintanen tai kalliimpi, plus pitää ite räpeltää se blokki paikalleen
 
Gigabyten blokillisissa malleissa on vain huono historia kontaktin ja QC ongelmien takia, Menisin itse ainakin Alphacoolilla.
 
Saapa nähdä testien ja arvostelujen jälkeen jatkaako sitä vielä 3080 Ti:llä jonkin aikaa eteenpäin. Tonnin luokkaa voisi laittaa rahaa korttiin ja 5070 Ti nyt siihen aikalailla menee, mutta onko sitten tarpeeksi tehoeroa.

5080 muutaman satasen kalliimpi ja ei taida olla wörtti varsinkin kun saman verran muistiakin sisässä.
 
Jaa-a ajatuksena oli päivittää koko kone uuteen ja 5090 tulille mutta ei tuo framegen update oikein säväytä. Taitaa reilun 4 vuotta palvellut 5900x ryzeni setuppi jatkaa edelleen vuosi sitten hommatun 4090 kanssa, josko nvidian 6000-sarja parin vuoden päästä toisi enemmän uutta.
 
Gigabyten blokillisissa malleissa on vain huono historia kontaktin ja QC ongelmien takia, Menisin itse ainakin Alphacoolilla.
Hemmetti. Jotain tällästä muistelinkin et jossakin valmiiks blokitetussa on ollu ongelmia jäähtymisen kanssa ja muutakin sanottavaa. Oliks joku vielä sellanen et ei jäähyttäny kunnolla muisteja tai virransyöttöä tjsp?
 
Inno3d tekee myös Frostbite version 5090 lappuun.Taitaa blokki olla jälleen Alphacoolin tuotantoa.
 
Alan wake 2:lla pääsee testaileen uusia ominaisuuksia

1736291319852.png
 
Vähän kiinnostaa nyt kuitenkin toi 5070 vielä. Tohon hintaluokkaan se ostos kuitenkin osuu ja 2080 Superin jälkeen suorituskykyparannusta tulee varmasti. Toki toivon, että AMD lyö edes yhtä hyvän vaihtoehdon lauteille. Silloin saatan lähteä siihen kelkkaan 16GB:n vuoksi ja myös ihan vaan sen takia, että mä oon lopen kyllästynyt kaiken maailman valehtelijoihin. Toi 5070 = 4090kun aliarvioi ihmisten älykkyyttä hyvin ärsyttävästi. Ei jaksais enää tässä maailmassa tollasta yhtään.
 
No se jos uskoo valmistajan omia best case scenario lukuja mihin on otettu kaikki kikat käyttöön on vähän niinkun oma syy. Jos tähän uskoi kovinkaan kauaa niin lähdekriittisyys ja medialukutaito vois olla asioita mitä kannattaa treenata niin ei tuu kusetetuks sit jatkossa.

Mua sinällänsä aika vähän haittaa toi koska jos ei se aiemmissa sukupolvissa ollu selkeetä niin jospa se nyt viimeistään olis et nyt ja tulevaisuudessa pelejä ei tulla enää renderöimään natiiviresolla, vaan huomattavasti alemmalla jota ylösskaalataan. Ja vissiinkin myös tapauskohtasesti taiotaan kolme lisäframea yhden renderöidyn kyytipojaks jolla sit saadaankin aika korkeat framet ilman että varsinaisesti ees hiki tulee. Mut se ongelma onkin sit se et kaikki temput ei onnistukkaan ihan jokasessa pelissä ja nVidia esimerkiks mainostaa et 75 peliä/ohjelmaa tukee julkasussa. Se ei oo ihan kauheasti, eikä tulevaisuudessakaan jokaikinen peli tuu tukemaan tota DLSS Frame Geniä. Tai RT:tä. Alkaa niitä aika monessa pelissä kyllä olemaan, mut ennenkun kattavuus on 100% niin tekee sillä rasterisaatiollakin jotain. Lisäks riippuen kumpi firma avaa lompakkoaan voi olla et pelistä puuttuu joko FSR tai DLSS jonka sit modaajat puukottaa perästä mukaan tarpeen vaatiessa.

Toki nää skaalaustekniikkojen käyttötarkotukset on kokenut tässä vuosien aikana aika ikävän muutoksen myös. Ennen niitä käytettiin et saatiin pelattava framerate korkeammaks että päästiin lähemmäs näytön virkistystaajuutta, nykyään niitä käytetään siihen et saadaan se 20fps natiivina renderöity lukema sinne pelattavuuden nurkille edes. Mut se on sit eri aihe jo ja tuskin tulee myöskään muuttumaan.
 
Joo, mut olihan toi nyt jo niin tökeröä vedätystä, että mulla meni maku koko hommaan. Inhoan mainoksia ja businesspuhetta muutenkin.

En sinänsä tee oikein mitään koko DLSS:llä kun pelaan enimmäkseen vanhempia pelejä ja tarve uudelle kortille tulee lähinnä VR-puolen peleistä. Niissä sitten ei vissiin tee ray tracingillä kovinkaan paljoa (vai?). Et joo, jään siis vielä odottamaan mitä AMD tarjoaa ja sitten lähtee jompikumpi ton tason kortti kassiin. Hinta on jokseenkin ok. Just ton verran mä suunnittelin törsääväni.
 
Ei kyllä jaksa innostua muutamasta generoidusta framesta lisää. Sen muutaman kerran kun frame generationille olisi ollut kunnolla tarvetta (fps jossain 50-80 haarukassa), on se ollut käyttökelvoton koska hiiren tuntuma menee ihan puuroksi. 5000-sarjan lisäframet tuovat nyt vielä lisää viivettä tuohon. Sitten kun frameratea on riittävästi että ominaisuutta voisi käyttää, ei sille ole niin enää tarvetta. Ehkä jossain padipeleissä, ja tietty hyvä ominaisuus niille jotka eivät huomaa tai välitä kasvavista viiveistä.

Muut softapuolen päivitykset kuulostavat paljon hyödyllisemmiltä ja ne tulevat myös vanhoille korteille mikä on oikein mieluisa päätös Nvidialta.
 
Hemmetti. Jotain tällästä muistelinkin et jossakin valmiiks blokitetussa on ollu ongelmia jäähtymisen kanssa ja muutakin sanottavaa. Oliks joku vielä sellanen et ei jäähyttäny kunnolla muisteja tai virransyöttöä tjsp?
Gigabyten 3080Ti waterforcen blokissa ainakin oli alumiinia kontaktissa jäähdytysnesteeseen. Useasti näissä on ylläreitä, Mutta ei aina.
 
Torissakin myydään 2000e 4090, mietin pitäskö pistää rahoiksi ja tienata pari satkua tästä FE ja tilata hitaampi 5080.
En usko että on kovin paljoa tätä nopeampi, yksi dlss4 ei kyllä riitä, se ois ostettava tuo 5090 ja se on aivan liian kallis.
Eri asia jos harrastais oikein kunnolla AI juttuja niin sitten, mutta tällä jaksaa odotella vielä yhden sukupolven.
 
Viimeksi muokattu:
Itteä noin "peruspelailijana" kiinnostaa lähinnä 5060 että paljonko se on 3060 nopeampi. Kun on vieläkin ollut maltillinen 1440p näytön ja asetusten kanssa, niin Elden Ringit jne. on pyörineet ihan ok 3060 näyttiksellä. 5060 upgradella ei sitten tarttis murehtia siitä riittääkö virtalähde sun muut.
 
ite vähän ajattelin kattella että kun tulee dlss 4:n parannukset yleensäkkin, kattoa miten taipuu oma 4090 ennen ku alkaa luopumaan tästä.
 
Videoiden perusteella näyttää että ilman DLSS:ää teho erot cyperbunkissa 7-9 fps luokkaa 4090 vs 5090. :S Aika tuhnu.
 
Ohan se nyt ihan huippujuttu jos saat vaikka 20€ hyvää kuvaa suoraan LG telkkariin eikä tarvii miettiä yhtään mitään sopiiko tämä ylihintainen kortti tähän laitteistoon kuten nykyään.

Tässä on vähän kuin leffojen ja musiikin kanssa. Harrastajat harrastaa fyysisten kiekkojen/pelien/raudan kanssa ja loput pelaavat/katsovat/kuuntelevat pilvestä tuotetta kuukausimaksua/kertakorvausta vastaan. Niin kauan kuin markkinaa on fyysiselle raudalla niin sitä joku tulee kyllä valmistamaan.
 
Itteä noin "peruspelailijana" kiinnostaa lähinnä 5060 että paljonko se on 3060 nopeampi. Kun on vieläkin ollut maltillinen 1440p näytön ja asetusten kanssa, niin Elden Ringit jne. on pyörineet ihan ok 3060 näyttiksellä. 5060 upgradella ei sitten tarttis murehtia siitä riittääkö virtalähde sun muut.

Todennäköisesti se on aika kehno valinta myös peruspelaajalle jos huhut 8 gigan muistista pitää paikkansa. Se kun alkaa jo itsessään kuristaa suorituskykyä vaikka periaatteessa tehoja olisi.

Sen näkee sitten kun tuotteet on julkaistu, mutta vähän epäilen että premiumsarjan alapuolella kannattaa vilkuilla AMD:n tai Intelin tarjontaa.
 
Tässä on vähän kuin leffojen ja musiikin kanssa. Harrastajat harrastaa fyysisten kiekkojen/pelien/raudan kanssa ja loput pelaavat/katsovat/kuuntelevat pilvestä tuotetta kuukausimaksua/kertakorvausta vastaan. Niin kauan kuin markkinaa on fyysiselle raudalla niin sitä joku tulee kyllä valmistamaan.
Leffat ja ja musiikki on täysin eriasia, kuin pelit: Viivellä ei ole niissä mitään väliä. ja voidaan käyttää paljon tehokkaampia pakkausalgoritmejäkin (hitaampi yhteys välttää).
 
Laskentatehoa tässä kaivattais lisää, ei vieläkään mitään saumaa uudemmilla peleillä 4K@240Hz/fps jos sellainen näyttö sattuu olemaan. Graffa-asetuksiakaan laskemalla ei välttämättä fps nouse tarpeeksi, pl. RT jne.

DLSS on hieno systeemi mutta jos pehmeentää kuvaa ja vielä pientä lagia niin joutuu taas arpomaan kompromissien välillä. Olishan se kova juttu jos 5090 olis riittänyt potkua enempi laskentaan ja DLSS yms. jääneet enempi tekohengittämään vanhempien korttien elinikää ja auttamaan uudempia alkaen -malleja. Toki jos paranneltu DLSS toimii paremmin eikä eroa huomaa niin mikäs siinä.

SLI takas ja 2 x 5090 koneeseen! :lol:
 
Videoiden perusteella näyttää että ilman DLSS:ää teho erot cyperbunkissa 7-9 fps luokkaa 4090 vs 5090. :S Aika tuhnu.

Absoluuttiset numerot ei kerro mitään vaan suhteellinen ero. 1fps -> 8-10fps on aika jytky.
Lonkalta ku muistelee niin 4090 pyörittää cyberpunkkia noin 13fps nuilla asetuksilla. Eli jos 5090 menee 21-23 fps niin sehän tarkoittaa noin 50% tehonlisäystä.
 
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.
 
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.

Vaikuttaisiko tuo ylipäätään muuhun kuin että jokainen ruutu olisi sen 2ms myöhässä? Ymmärtääkseni AI-laskenta tehdään eri ytimillä kuin rasterointi ja säteenseuranta, minkä takia ne ei kilpaile tehosta keskenään. :hmm:
 
DLSS4 uusi skaalausmalli voi kasvattaa RTX5000 ja vanhempien korttien välistä tehoeroa. NVIDIAn slidejen perusteella tuo uusi malli vaatii 4x enemmän laskentatehoa, kuin vanha skaalausmalli. Tuosta voisi päätellä, että jos aikaisemmin ruudun skaalaukseen on mennyt vaikka 0,5 ms aikaa RTX4000 sarjan kortilla, niin nyt siihen menisi 2 ms DLSS4 skaalainta käytettäessä. Jos RTX5000 sarjan vastaava kortti pystyy tekemään sen skaalauksen edelleen tuohon 0,5 ms aikaan, niin muodostuuhan tuosta sitten lopullisessa fps-lukemassa aika iso ero jo 60 fps (16,6 ms per frame) tienoolla.
Tosin toi ero koskee vain sitä tekoälyinferenssin osuutta koko skaalausprosessista. Osa kokonaisuudesta on kuvan/syvyysdatan ym. prosessointia.

Joskus useampi vuosi sitten developer versiot DLSS:stä näytti ruudulla sen koko prosessointiajan. Ikävä kyllä nykyään ei enää ja se vanha versio ei toimi 40-sarjalaisella muistaakseni. Tota olis kyllä ihan mielenkiintoista tonkia.

Vaikuttaisiko tuo ylipäätään muuhun kuin että jokainen ruutu olisi sen 2ms myöhässä? Ymmärtääkseni AI-laskenta tehdään eri ytimillä kuin rasterointi ja säteenseuranta, minkä takia ne ei kilpaile tehosta keskenään.
:hmm:
Se DLSS prosessointi tulee ihan normaalisti sinne framen loppuun, eli toi vain suoraan lisää frametimeä.
 
Se DLSS prosessointi tulee ihan normaalisti sinne framen loppuun, eli toi vain suoraan lisää frametimeä.

Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
Pitäisi onnistua niin että kun DLSS operaatioita tehdään niin seuraavan framen renderöinti aloitetaan tai on jo aloitettu.

E: Eiköhän esim Digital Foundry testaa aikanaan tuon että paljonko framerate tippuu uudella skaalaimella 4000 sarjalla.
 
Mutta tarkoitan että voisiko seuraavan framen rasterointi alkaa jo silloin, kun edellisen DLSS-prosessointi on vielä kesken? Jos tämä laskenta tapahtuu erillisillä AI-ytimillä, siihen ei periaatteessa pitäisi olla estettä.
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.

Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.
 
Viimeksi muokattu:
En nyt äkkiseltään keksi miksi ei teoriassa voisi alkaa, mutta mun käsitykseni mukaan tällaista ei kuitenkaan tehdä vaan se DLSS prosessointiaika tulee täysimääräisenä frametimeen (ja frametimejen keskiarvoon, eivät lomitu). Ja tosiaan DLSS skaalauksesta vain osa tehdään tensoreilla, koko homma vaatii muitakin GPU:n laskentaresursseja sekä muistikaistaa.

Enkä kyllä tiedä onko oikein ajatella tensoriytimien olevan jotenkin erillisiä. Jos mä ajan tekoälysoftaa joka hyödyntää tensoriytimiä niin kyllä se voi syödä tehobudjetista sen 100% ja GPU usaget 100%.

Olen ymmärtänyt että DLSS:ssä AI:tä käytetään lopputuloksen siistimiseen normaalin skaalauksen artefakteista, eli tensorilaskenta tulisi siihen loppuun.

Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan. Niitähän voisi myös ajaa vähän pienemmillä kelloilla niin virtaa riittäisi paremmin. Parin millisekunnin AI-grindaus framejen lopussa ei myöskään vaikuttaisi jäähdytystarpeeseen, kun se riippuu lähinnä pidemmän ajan keskiarvosta.

Periaatteessa vois olla niin, että muistikaista menee AI-laskennassa täysin tukkoon. Tai sitten DLSS:n aiheuttama lisäviive on ollut niin pieni, ettei tuollaista ole vaan katsottu tarpeelliseksi tehdä.
 
Sinänsä noi on suunniteltu vähän kehnosti, jos tosiaan olisi niin että kortin virransyöttö ei pysyisi perässä siinä, että tensoriytimiä ja cuda-coreja ajettaisiin samaan aikaan.
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.

Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta. Ja ehkä niin jopa tehdäänkin eikä tämä vain ilmennyt itselleni kun noita frametimejä joskus aikoinaan Nvidian GPU Trace ohjelmalla ihmettelin.
 
Mietin ite lähinnä niin, että jos kumpikin prosessi voisi hyödyntää 100%:iin asti GPU:n tehobudjettia niin onko siitä sitten kuinka paljon iloa ajaa niitä 50% ja 50% tehoilla samanaikaisesti.

Mutta toki nämä on sen verran monimutkaisia juttuja ettei kaltaisellani tuulipuvulla ymmärrys riitä ja varmaan voi hyvin olla että jotain etua saadaan samanaikaisesta laskennasta.

Nokun tehobudjetin käyttäminen ei nosta laskentatehoa lineaarisesti. Esim. jos puolittamalla tehobudjetti saa 80-90% laskentatehosta (arvaus, mutta tuskin kauhean pahasti pielessä), noita voisi hyvin kannattaa ajaa rinnakkain. Siihen täytyy olla joku muu syy.
 
Jep, alan vahvasti epäillä perusteita omalle käsitykselleni, etteikö seuraavan framen renderöintiä aloitettaisi jo DLSS prosessoinnin aikana. Mahdollisesti puhtaasti omaa väärinymmärrystäni tämä... :btooth:

Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
 
Oli miten oli, tuo uusi transformer pohjainen DLSS vaikuttaa kyllä lupaavalta. Vaikka prosessointi olisikin hieman raskaampaa sitä kompensoisi se, että performance mode ei luultavasti enää ole yhtä karun näköinen kuin nykyään ja voisi laskea sitten Q -> P tms.
En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
 
En tiedä onko minulla jo näkö huonontunut, mutta tuossa kun pelaillut God of Waria ja vaihdellut natiivin 4k ja DLSS-perffin välillä niin tuntuu että en näe mitään eroa missään. Peli vain pyörii paremmin ja pienemmällä tehonkulutuksella DLSS kanssa. Ehkä tuo on vain suosiollinen peli DLSS:lle ettei eroa ole mutta tuo transformer based model kyllä varmaan mahdollistaa useassakin pelissä juurikin qualityn tiputtamisen perf moodiin eikä eroa välttämättä huomaa.
Tuossa vaikuttaa näytön/telkkarin koko ja etäisyys.
Itse pelailen 42" 4k näytöllä ja DLSS balanced näyttää mielestäni oikein hyvältä, ehkä ihan pientä eroa qualityyn kun oikein etsimällä etsii. Performancella sitten kuva alkaakin jo muuttua selvästi suttuisemmaksi, mutta jos siirtyisin metrin pari kauemmaksi niin en varmaan huomaisi mitään eroa tuohon balancediin.
 
Saapa nähdä testien ja arvostelujen jälkeen jatkaako sitä vielä 3080 Ti:llä jonkin aikaa eteenpäin. Tonnin luokkaa voisi laittaa rahaa korttiin ja 5070 Ti nyt siihen aikalailla menee, mutta onko sitten tarpeeksi tehoeroa.

5080 muutaman satasen kalliimpi ja ei taida olla wörtti varsinkin kun saman verran muistiakin sisässä.
Itse päivitellyt kun on saanut noin tuplat oikeita freimejä lisää GTX 1070, RTX 3080 ja nyt kiinnostaisi RTX 5080 jos se on oikeasti keskimäärin 30% enemmän potkua 4080 verrattuna mikä vastaisi suurinpiirtein 4090.

Itse en ajatellut 5000 sarjan hinnoittelua ollenkaan. Vertasin vaan 4090 hintaan ja totesin että hinta kohillaan vaikka muistia onkin heikommin.
 
Viimeksi muokattu:
On kyllä jotenkin niin koomisen kokoisia noi rtx 5090/80 näytönohjaimet kun katsoin äskettäin hardware unboxed videon, minkähänlaisia monstereita sitten 60 sarjassa tulee olemaan.

1736331463701.png
 
En tiiä oliko täällä jo julkastu tää linuksen eka kosketus 5090:aan. Tässäpä tuosta kun se pelailee vähän CB2077:aa :D

Tämän sisällön näkemiseksi tarvitsemme suostumuksesi kolmannen osapuolen evästeiden hyväksymiseen.
Lisätietoja löydät evästesivultamme.
 
Yksi asia mihin kiinnitin huomiota kun katsoin MSI ja Asuksen kortteja et molemmat ovat siirtyneet phase-change pädeihin lämpötahnan sijaan. Asuksella kaikissa korteissa(näin sanoivat redditissä), MSI streamia katoin missä ne avasi kortteja niin niissäkin kaikissa oli, tosin eivät avanneet halvinta Ventus mallia niin en ole siitä varma. Gaming x ja ylemmissä ainakin oli.

Eli eipä varmaan enään tule ongelmia +100 asteen hotspoteista kun phase change pädit ei pumppaudu ulos samalailla kuin lämpötahna. Ainakin Asuksen korteissa oli tuota ongelmaa aika paljon 3- ja 4 sarjassa.
 
Tuossa asuksen astral versiossa on 4 tuuletinta, neljäs on takana, ja totta puhut että noi 4080/4090 kortit oli kanssa todella isoja.

1736331856893.png
Astral näyttäisi olevan mitoiltaan muutoin sama kuin tuo esim. 4090 Strixin jäähy, mutta paksuutta tullut hieman lisää, eli 3.5slot -> 3.8slot.
Pistin vertailuun 5070 Ti ja 5080, jotta saa kaikki eri Asuksen jäähymallit samaan: TUF-RTX5070TI-O16G-GAMING、PRIME-RTX5070TI-O16G Product different Compare|ASUS Global
Kaikki Asuksen mallit löytyy täältä: All series|Graphics Cards|ASUS Global
 

Statistiikka

Viestiketjuista
285 063
Viestejä
4 898 447
Jäsenet
78 910
Uusin jäsen
Verneriv

Hinta.fi

Back
Ylös Bottom