NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

On ne enemmän kuin törmäystarkistimia, siellä on myös puussa etenemisestä päättävä yksikkö. AMD taas on toteuttamassa juuri tuon että shadereilla lasketaan mihin edetään ja törmäystarkistin tekstuuriprosessorissa hoitaa oman tehtävänsä

Juu, mutta se, että käydään koko BVH-puu läpi sille yhdelle säteelle ei myöskään anna mitään ruudulle ulos. Pitää silti ajaa normaaleilla shadereilla se koodi joka päättää/laskee sen pikselin värityksen sen löytyneen osuman perusteella, ja tallettaa sen framepuskuriin.


Käytännössä tuon suorituskyvyn voi nykyään järkevästi jakaa karkeasti muutamaan osaan:

1) fixed-function rasterointinopeus (kolmion alustus, Z-testaus jne)
2) shader-vääntö ja teksturointinopeus (nämä on niin sidoksissa keskenään nykyisillä arkkitehtuureilla että yhdistin samaan)
3) säteenjäljityksen törmäystarkastusnopeus

Suurin osa piirien pinta-alasta on shader-prosessoreita ja niihin integroituja TMUita, ja shader-tehoa ja teksturointia vaaditaan molempiin, sekä rasterointiin että säteenjäljitykseen, mutta näiden tarve riippuu suuresti siitä, että millaiset shader-koodit pelissä sattuu olemaan.

Kiinteän fixed-function-rasteroinriraudan suhteellinen osuus piirien pinta-alasta on jatkuvasti vähentynyt, kun pelit ovat ryhtyneet käyttämään yhä monimutkaismepia shader-koodeja.
 
Todennäköisesti. Mutta kannattaa muistaa että nvidialla voi olla focus nyt RT suorituskyvyn parantamisessa, jotain huhuja on ollut että nelinkertaistuisi RT suorituskyky ja jos turingissa RT lisäsi pintaalaa jonkun lähteen mukaan noin 20% niin jos se RT teho nelinkertaistetaan niin se haukkaa jo melkoisesti tilaa jolloin rasterointi tehon nostamiseen ei välttämättä enää olekkaan niin hirmuisesti paukkuja jäljellä, eikä välttämättä edes tarvitsekkaan olla. 2080Ti:n rasterointi teho on kuitenkin melko kovalla tasolla.

En pidä väitettä 20%sta uskottavana; Tässä on todennäköisesti laskettu se, paljonko RT-ytimet ja tensoriytimet yhdessä vie pinta-alaa Turingilta.

Se säteenjäljitys ei kuitenkaan oikeasti tarvisi niitä tensoriytimiä yhtään mihinkään; Paremman kohinanvaimennuksen saa normaalina shader-koodina hyvin pienellä (<10%) utilisaatiolla niille shader-ytimille. nVidia on vaan päättänyt toteuttaa säteenjäljityksen kohinanvaimennuksen tensoriytimillä, koska kehitti tensoriytimet ensin, ja kun kädessä on vasara, kaikki näyttää nauloilta.
 
En pidä väitettä 20%sta uskottavana; Tässä on todennäköisesti laskettu se, paljonko RT-ytimet ja tensoriytimet yhdessä vie pinta-alaa Turingilta.

Se säteenjäljitys ei kuitenkaan oikeasti tarvisi niitä tensoriytimiä yhtään mihinkään; Paremman kohinanvaimennuksen saa normaalina shader-koodina hyvin pienellä (<10%) utilisaatiolla niille shader-ytimille. nVidia on vaan päättänyt toteuttaa säteenjäljityksen kohinanvaimennuksen tensoriytimillä, koska kehitti tensoriytimet ensin, ja kun kädessä on vasara, kaikki näyttää nauloilta.

Käsittääkseni nvidia ei tee kohinan vaimennustakaan tensoreilla, vaan ihan shadereilla(tai ei ainakaan peleissä, ammattisoftissa tilanne voi olla toinen). Ainoa mikä käyttää tensoreita on DLSS.
 
Käsittääkseni nvidia ei tee kohinan vaimennustakaan tensoreilla, vaan ihan shadereilla(tai ei ainakaan peleissä, ammattisoftissa tilanne voi olla toinen). Ainoa mikä käyttää tensoreita on DLSS.
NVIDIAlla on tensoreita käyttävä kohinanvaimennus mutta kukaan pelinkehittäjä ei ole tainnut käyttää sitä vaan tehnyt shadereilla omansa
 
Käsittääkseni nvidia ei tee kohinan vaimennustakaan tensoreilla, vaan ihan shadereilla(tai ei ainakaan peleissä, ammattisoftissa tilanne voi olla toinen). Ainoa mikä käyttää tensoreita on DLSS.

nVidialta on tullut aika paljon esityksiä ja papereita aiheesta, ja sitä on tutkittu paljon ja se on selvästi ollut nVidialla suunnitelmissa.





Se, kuinka paljon sitä lopulta käytetään, on sitten eri asia.
 
Taitaa syy olla siinä, että jos käyttäisivät tensoreita niin sitten pyörisi vain >=Turingilla.
 
Taitaa syy olla siinä, että jos käyttäisivät tensoreita niin sitten pyörisi vain >=Turingilla.
Ei tensorit vaikuta siihen yhtään mitenkään, ihan samalla tavalla ne <Turingit voi laskea tensorilaskut shadereilla kuin RT-laskutkin
 
Veikkaan että 3090 on nvidian backuppi, jos bignavi yllättää. Jos nvidia pystyy kilpailla 3080ti:llä, se ei julkaise 3090 ollenkaan.
 
Veikkaan että 3090 on nvidian backuppi, jos bignavi yllättää. Jos nvidia pystyy kilpailla 3080ti:llä, se ei julkaise 3090 ollenkaan.

En kyllä näe mitä järkeä on ensin suunnitella supernopea gpu ja jättää se sitten kokonaan julkaisematta, tai jättää julkaisu vaikka vain "tulevaisuuden varalle". Tämän päivän nopea on kuitenkin huomisen hidas. Fiksumpaa on luoda kokonaan uusi nopeus- eli hintaluokka, ja myydä sitä siellä jos kilpailua ei kerran ole.
 
En kyllä näe mitä järkeä on ensin suunnitella supernopea gpu ja jättää se sitten kokonaan julkaisematta, tai jättää julkaisu vaikka vain "tulevaisuuden varalle". Tämän päivän nopea on kuitenkin huomisen hidas. Fiksumpaa on luoda kokonaan uusi nopeus- eli hintaluokka, ja myydä sitä siellä jos kilpailua ei kerran ole.

Nvidiahan on tehnyt iät ja ajat sitä että se xx80 Ti (tai vastaava huippumalli) tuodaan markkinoille vasta myöhemmin. Näin saavat ensin rahat pois myymällä ne "välimallin" xx80-ohjaimet, ja sitten uudelleen kun jengi päivittää siihen Ti-malliin. Nyt 20-sarjalaisissa tätä taktiikkaa ei hyödynnetty.

Jos nyt sitten pienemmissä piireissä on paremmat katteet ja ne silti pieksää kaikki kilpailijan tuotteet, voi olla ihan liiketaloudellisestikin järkevää myydä vain niitä pienempiä.
 
Itse valmistajana kyllä myisin sitä ihan samaa piiriä nyt 2000 eurolla 3090:na, kuin vuoden kuluttua 3080ti:na puolta halvemmalla.
 
Itse valmistajana kyllä myisin sitä ihan samaa piiriä nyt 2000 eurolla 3090:na, kuin vuoden kuluttua 3080ti:na puolta halvemmalla.

Mutta kun nuo ei ole ne vaihtoehdot.

Ne taktiikat joita Nvidia on aiemmin käyttänyt on suunnilleen seuraavat (hinnat hatusta):
1. Julkaise 3080 Ti malliston nopeimpana ohjaimena ja myy sitä 1500e hintaan. Kerää näin pois enthusiast-luokan käyttäjiltä rahat. Julkaise 3090 6-12 kuukautta myöhemmin 1500-2000e hintaan ja kerää jälleen siltä samalta porukalta rahat pois. (Nämä siis aiemmin olleet xx80 ja xx80 Ti, eikä xx80 Ti ja xx90)
2. Julkaise kaikki kerralla (kuten 20-sarjan kanssa) ja kerää vain kertaalleen siltä enthusiast-luokalta rahat pois sillä lippulaivaohjaimella.

Toinen juttu on se, että yleensä se sarjan huippumallin ohjain on isommalla piirillä. Se saattaa vaatia suhteellisen pitkäänkin jatkuvaa binnausta, jotta saadaan riittävä määrä toimivia isompia piirejä ko. ohjaimille myyntiin, ennen kuin sitä edes oikeasti voidaan julkaista. Muussa tapauksessa jää helposti paperijulkaisuksi kun piirejä ei saada riittävästi, ja kuluttajat jää odottelemaan korttejaan ikuisiksi ajoiksi.
 
Mutta kun nuo ei ole ne vaihtoehdot.

Ne taktiikat joita Nvidia on aiemmin käyttänyt on suunnilleen seuraavat (hinnat hatusta):
1. Julkaise 3080 Ti malliston nopeimpana ohjaimena ja myy sitä 1500e hintaan. Kerää näin pois enthusiast-luokan käyttäjiltä rahat. Julkaise 3090 6-12 kuukautta myöhemmin 1500-2000e hintaan ja kerää jälleen siltä samalta porukalta rahat pois. (Nämä siis aiemmin olleet xx80 ja xx80 Ti, eikä xx80 Ti ja xx90)
2. Julkaise kaikki kerralla (kuten 20-sarjan kanssa) ja kerää vain kertaalleen siltä enthusiast-luokalta rahat pois sillä lippulaivaohjaimella.

Toinen juttu on se, että yleensä se sarjan huippumallin ohjain on isommalla piirillä. Se saattaa vaatia suhteellisen pitkäänkin jatkuvaa binnausta, jotta saadaan riittävä määrä toimivia isompia piirejä ko. ohjaimille myyntiin, ennen kuin sitä edes oikeasti voidaan julkaista. Muussa tapauksessa jää helposti paperijulkaisuksi kun piirejä ei saada riittävästi, ja kuluttajat jää odottelemaan korttejaan ikuisiksi ajoiksi.
Tämä olisi toki hyödyllinen taktiikka mutta kun kilpailijalla ei ole vielä mitään millä kilpailla olisi myynnit 100% tuolla 3090, sillä hinnalla mikä sille määritellään vaikka 1600e.

Jos 3090 julkaistaan vasta kun Big Navi ilmestyy, olkoonkin Big navi vaikka vähän hitaampi mutta jos se olisi samalla 500e halvempi menisi 3090 katteet kun pitäisi myydä halvemmalla kuin että oltaisiin heti julkaistu ja myyty täydellä.
 
1. Julkaise 3080 Ti malliston nopeimpana ohjaimena ja myy sitä 1500e hintaan. Kerää näin pois enthusiast-luokan käyttäjiltä rahat. Julkaise 3090 6-12 kuukautta myöhemmin 1500-2000e hintaan ja kerää jälleen siltä samalta porukalta rahat pois. (Nämä siis aiemmin olleet xx80 ja xx80 Ti, eikä xx80 Ti ja xx90)

Tämä logiikka toimisi jos näytönohjaimet olisivat kertakayttöisiä. Mutta käytännössä enthusiastit myyvät 3080ti:nsä eteenpäin, jolloin nvidialta jää myymättä yksi uusi 3080ti. Eli absoluuttinen myytyjen näytönohjaimien määrä ei lisäänny yhtään.

Itse lopettelen osaltani tähän kun on vähän offtopiccia tämä mielestäni.
 
Tämä olisi toki hyödyllinen taktiikka mutta kun kilpailijalla ei ole vielä mitään millä kilpailla olisi myynnit 100% tuolla 3090, sillä hinnalla mikä sille määritellään vaikka 1600e.

Jos 3090 julkaistaan vasta kun Big Navi ilmestyy, olkoonkin Big navi vaikka vähän hitaampi mutta jos se olisi samalla 500e halvempi menisi 3090 katteet kun pitäisi myydä halvemmalla kuin että oltaisiin heti julkaistu ja myyty täydellä.

Kävihän esim pascalissa niin, että ensin tuli 1080, sitten Titan X, seuraavaksi vielä nopeampi 1080TI ja loppuun Titan XP. Muistan kyllä ulinan foorumilla, kun Titan X:n ostaneet kokivat olevansa pettyneitä, kun titanin piti olla korttisarjan nopein.
 
nVidialta on tullut aika paljon esityksiä ja papereita aiheesta, ja sitä on tutkittu paljon ja se on selvästi ollut nVidialla suunnitelmissa.





Se, kuinka paljon sitä lopulta käytetään, on sitten eri asia.

Toki ammattisoftiin on, mutta ainakin tuo pelin kehittäjille suunniteltu gameworksin denoiseri toteutus on ollut jäissä jo jonkin aikaa:
The GameWorks Ray Tracing denoisers are on hold. We hope to have a number of samples available in the near future. In the meantime, we suggest you refer to our paper on Spatiotemporal Variance-Guided Filtering:

Spatiotemporal Variance-Guided Filtering: Real-Time Reconstruction for Path-Traced Global Illumination | Research

https://research.nvidia.com/sites/d...Variance-Guided-Filtering://svgf_preprint.pdf

A variant has been implemented as the denoiser in our Quake 2 RTX demo. You can view the source code as inspiration: NVIDIA/Q2RTX
 
Toki ammattisoftiin on, mutta ainakin tuo pelin kehittäjille suunniteltu gameworksin denoiseri toteutus on ollut jäissä jo jonkin aikaa:

2000-sarjan julkaisun aikaan nVIdia kyllä hyvin selvästi markkinoi niitä tensoriytimiä säteenjäljityksen kohinanvaimennukseen, esim.


Ja 2000-sarjan raudan speksit on pitänyt lyödä lukkoon vieläaika paljon aiemmin, joskus 2015-2016.
 
Ei tensorit vaikuta siihen yhtään mitenkään, ihan samalla tavalla ne <Turingit voi laskea tensorilaskut shadereilla kuin RT-laskutkin
Mitä iloa jos se tapahtuisi jotain 10 kertaa hitaammin? Kyllähän se säteenseuranta toimii Pascaleillakin, mutta nopeus on mitä on. Lisäksi miten ajaisit sitä tensoreille kustomoitua koodia RDNA2:lla?
 
Mitä iloa jos se tapahtuisi jotain 10 kertaa hitaammin? Kyllähän se säteenseuranta toimii Pascaleillakin, mutta nopeus on mitä on. Lisäksi miten ajaisit sitä tensoreille kustomoitua koodia RDNA2:lla?
Laskemalla ne shaderprosessoreilla tietenkin, ihan kuten missä tahansa muussakin tapauksessa missä lasket jotain mihin sinulla ei ole erikoistuneita yksiköitä. Pointtina oli että tensoriyksiköiden hyödyntäminen ei sulje pois sellaisia, missä tensoriyksiköitä ei ole. Se on hitaampaa, tietenkin, mutta ei siinä ole mitään uutta että jotkin asiat toimivat jollain toteutuksella nopeammin kuin toisella.
Kuinka paljon ihan oikeasti luulet, että esimerkiksi RDNA2:n suorituskyky on painanut vaakakupissa, kun kehittäjät ovat suunnitelleet NVIDIAn vahvalla tuella ensimmäisiä RT-pelejä, ennen kuin AMD oli ainakaan julkisesti kertonut yhtään mitään tietoa siitä milloin he tulisivat tukemaan DXR:ää?
Jos siellä olisi ollut pirun nopea ja hyvä tensoreita hyödyntävä kohinanvaimennus tarjolla, sitä olisi varmasti käytetty. Tukea muulle voi tuoda myös jälkikäteen jos tarve tulee.
 
Itsellä kanssa 1080ti lähdössä vaihtoon kun näitä saa kaupasta. Arvelin että jos 700e laittaisi ja mitä tästä 1080ti saa päälle. Eli noin tonnilla selvittävä. Toivon että sillä saisi 3080 joka olisi vähintään 30-40% nopeampi kuin nykyinen. :asif:
 
Itsellä kanssa 1080ti lähdössä vaihtoon kun näitä saa kaupasta. :asif:

Täältä on tulossa kanssa kaksi 1080ti korttia myyntiin :-) Ei tarvitse olla kovin suuri tietäjä, jos veikkaa, että muutaman kuukauden päästä alkaa reilulla 300 eurolla saamaan tuolta myyntiosiosta käytettyjä 1080ti kortteja.

Näiden 1080ti korttien osalta arvon aleneminen ei onneksi kovin merkittävä ole, mutta voi tässä kohtaa olla jo varmaan aika nihkeää yrittää myydä GeForce RTX 2080 Ti KINGPIN Gaming korttiä hintaan 2159 euroa. Tuollainenkin löytyy suoraan Jimmsin hyllystä ja tukkureilta löytyy 10 lisää, jos meinaa loppua kesken. Onnea vaan sille, joka tuon käy hakemassa pois tuohon hintaan :-)
 
Mitäs jos keskitytään keskustelemaan siitä että minkälaisia tuhnuja mahdollisesti on tulossa ja jätetään se bostailu siitä kuinka paljon ollaan valmiita ottamaan pikavippejä että saadaan tuhnu ostettua, jookos?
 
Loadin tweet...
Eli onko siellä kenties rannekello vai peräti kaappikello?

huoh etkö oo vieläkään saanu twitteriä toimimaan?

@_rogame

[Nvidia Ampere]

GA102 clocks One of variant has :
> 1485MHz base clock
> 1740MHz boost clock

that's +135MHz/+195MHz over 2080 Ti and +135MHz/+105MHz over 2080 Ti FE

I don't know how much headroom is there for GPU Boost
 
Joo ei tässä ketjussa pikavippejä tarvita, täällä on isommat viikkorahat.


Ja vähän asiaakin. GA102 piirillä varustetun kortin kelloja:


Kuulostaa kyllä melkoisen matalilta kelloilta nämä, eli ei se suorituskyky ainakaan tuosta tule jos pitää paikkaa.
ellei sitten boostit tosiaan olen siellä 2100-2200 välissä.

Muutenkaan en ole oikeen ymmärtänyt näitä vakio arvoja kun aina ne menee heittämällä niiden ylitse, paitsi jos on todella kuumassa kopassa ja +80c
 
Muutenkaan en ole oikeen ymmärtänyt näitä vakio arvoja kun aina ne menee heittämällä niiden ylitse, paitsi jos on todella kuumassa kopassa ja +80c
Tuo NVIDIAn aliarvioitu Boost on kyllä mielenkiintoinen, ellei siellä sitten oikeasti ole siruja jotka eivät korkeammalle pääse, mutta tuo baseclock on juuri noita worst case scenarioita varten (joskin siitäkin on "joustettu" jopa vakiona joskus)
 
Tuo NVIDIAn aliarvioitu Boost on kyllä mielenkiintoinen, ellei siellä sitten oikeasti ole siruja jotka eivät korkeammalle pääse, mutta tuo baseclock on juuri noita worst case scenarioita varten (joskin siitäkin on "joustettu" jopa vakiona joskus)
Toiv.ei ole sillai että kellotaajuuksia nostettu että vakiona boostaa korkeammalle suoraan laatikosta kuin 2000sarjalaiset yleisesti, mutta rajat tulee vastaan silti samoissa lukemissa.
Eli käytännössä kovemmat kellot mutta todellisuudessa ei.
 
Kiva tietää, ettei nykyisten powerien liittimet ole suoraan yhteensopivia. Joutuu taas kikkailee adaptereilla.:grumpy:

Vaikka uudesta liittimestä ei ole mitään hyötyä, koska nää vaan yhdisti 2x 6 pinnistä liitintä yhteen.
 
Onko tää jo nähty?
Vaikea uskoa, että tulisi tuollaisia virtaliittimiä, kun sellaisia ei taida olla yhdessäkään markkinoilla olevassa virtalähteessä.
2x 8 pin riittäisi tähän tarkoitukseen aivan yhtä hyvin.
2x 12 pin liitinratkaisuun taas en jaksa uskoa.
 
Onko tää jo nähty?
Vaikkei mulla mitään NDA:ta ole näiden suhteen kun NVIDIA ei ole mitään kertonut tai muuten ollut tuon suhteen yhteyksissä, niin
:slipsseal:
...mutta ei ihan noin mene kuin tweaktown sanoo ainakaan sen mukaan mitä itse olen kuullut.

Lisäksi sivuston luotettavuutta näissä vuotojen tulkinnoissa ei auta "traversal co-processorin" (edelleen jatkuva) mainostaminen
 
Kiva tietää, ettei nykyisten powerien liittimet ole suoraan yhteensopivia. Joutuu taas kikkailee adaptereilla.:grumpy:
Vaikea kuvitella että moiseen olisivat ryhtyneet. 8+8 pinniä riittää antamaan virtaa siihen asti että kortit sulaa vesijäähdytettynäkin. Pcie speksissä ei ole mitään viitteitä moisen liittimen olemassaolosta ja nvidia tuskin voi omin päin päättää mitä kyseiseen speksiin lisätään.

Joku jatkokaapeli olis periaatteessa mahdollinen jossa näyttikseen kytketään joku nvidian oma proprietaariliitin ja toiseen päähän sit vaikka 8+8. En tosin ymmärrä että miksi näin toimittaisiin.
 
Toivottavasti ootte oikeassa. Tää 12p liitin olis pelkkää keskisormen hieroomista asiakkaitten naamalle.
 
Vaikkei mulla mitään NDA:ta ole näiden suhteen kun NVIDIA ei ole mitään kertonut tai muuten ollut tuon suhteen yhteyksissä, niin
:slipsseal:
...mutta ei ihan noin mene kuin tweaktown sanoo ainakaan sen mukaan mitä itse olen kuullut.

Lisäksi sivuston luotettavuutta näissä vuotojen tulkinnoissa ei auta "traversal co-processorin" (edelleen jatkuva) mainostaminen

Igors lab kirjoitti aiheesta enemmänkin:
What’s up with NVIDIA’s new 12-pin power supply? Don’t panic, but this is actually overdue! | igorsLAB investigative | igor'sLAB

Nähtävästi uudistukselle olisi tarvetta, mutta tämä pätkä kuvaa parhaiten tilannetta:

"The second assessment is much more likely, as it is assumed that NVIDIA is testing a new standard and wants to introduce it step by step later, if it proves useful in the tests. This sounds much more plausible and would also give the power supply manufacturers enough time to change the products or to provide suitable adapters for retrofitting powerful power supplies. The reason behind this action is the current standard, which uses the 20AWG specifications for conventional connectors. This is exactly what I want to explain in more detail. "

Ynnä tuo Tweaktown tuntuu todellakin postaavan "uutisia" about samalla suodatuksella mitä wcftech, eli ei about kaikki mikä netistä löytyy ja tuntuu kivalle. Eli luotettavuusasteikko hutusta vakavampaan päin: twitter/youtube -> tweaktown/wcftech -> videocardz ja muut vakavammat sivustot.
 
Vaikea kuvitella että moiseen olisivat ryhtyneet. 8+8 pinniä riittää antamaan virtaa siihen asti että kortit sulaa vesijäähdytettynäkin. Pcie speksissä ei ole mitään viitteitä moisen liittimen olemassaolosta ja nvidia tuskin voi omin päin päättää mitä kyseiseen speksiin lisätään.

Joku jatkokaapeli olis periaatteessa mahdollinen jossa näyttikseen kytketään joku nvidian oma proprietaariliitin ja toiseen päähän sit vaikka 8+8. En tosin ymmärrä että miksi näin toimittaisiin.
Speksi sitä ja speksi tätä ei ole ennenkään estänyt liitin kikkailuita. Sanoo vaikka suoraan, että ei ole sen ja sen speksin mukainen lisävirransyötön osalta vaan vaatii, mitä vaatii.

Tuonne on nyt kyllä menty kasaamaan kaikki huhut, ei vaikuta kovinkaan luotettavalta luulottelulta tuo tweaktownin juttu.
 
Onhan niitä kortteja ollut jo 3x8pin liittimillä.

Erikoista jos erilaiseen liittimeen tuon ratkaisun sijasta päätyisivät.
 
Speksi sitä ja speksi tätä ei ole ennenkään estänyt liitin kikkailuita.
Milloin viimeksi on tuotu joku emolevy/laajennuskortti/kovalevy/whatever joka käytti (virransyöttöönsä) liitintä jota ei ensin standardoitu kyseiseen käyttöön? Onhan toi nyt hassua että toisivat näyttiksen markkinoille joka ei ole suoraan yhteensopiva minkään olemassaolevan tietokoneen kanssa.
 
Milloin viimeksi on tuotu joku emolevy/laajennuskortti/kovalevy/whatever joka käytti (virransyöttöönsä) liitintä jota ei ensin standardoitu kyseiseen käyttöön? Onhan toi nyt hassua että toisivat näyttiksen markkinoille joka ei ole suoraan yhteensopiva minkään olemassaolevan tietokoneen kanssa.
Mukaan voi pistää adapterin tai sen voi myydä erikseen. On noita erilaisia adaptereita ollut aikojen saatossa pilvin pimein..Ja eihän noilla korteilla ole myöskään mitään ostopakkoa, jos ei adapterin väliin laitto onnistu, niin voi aina olla ilman.
Eikös 3dfx:llä ollut esim ulkoinen powerbrick jossain huimassa virityksessä, ihan siinä lopussa..? Lisäksi noita sisäisiä liittimiä on muistaakseni ollut enemmän, kuin spekseissä on sanottu.
------------------
Jos ei ole vesijäähyä, niin jokatapauksessa yli 300W:n kortit on epätodennäköisiä, kun niiden jäähdytys ei tahdo onnistua siten, että sitä viitsii kuunnella.. ja kortti mahtuu koneen sisään..
 
Viimeksi muokattu:
Mukaan voi pistää adapterin tai sen voi myydä erikseen. On noita erilaisia adaptereita ollut aikojen saatossa pilvin pimein..

Just tuossa illalla tupakalla kun kävin niin pikkulinnut lauloivat korvaani että nvidia laittaa näyttöliittimiin myös omat liittimet ja adapterit myydään erikseen hintaan 99€ kipale. Tämä ilmeisesti ihan ok?
 

Uusimmat viestit

Statistiikka

Viestiketjuista
258 257
Viestejä
4 487 766
Jäsenet
74 190
Uusin jäsen
puririri

Hinta.fi

Back
Ylös Bottom