NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Rane

Coordinator @ Diablo 4 clan "iotech"
Tukijäsen
Liittynyt
01.11.2016
Viestejä
2 915
Colorfulin mukaan olisi tulossa lokakuun 14 ja ilmeisesti SUPERina 16GB:n RTX 3070:n kanssa.
Taisi olla ankka ne Colorfulin 16/20gb jutut. Julkistamistaulukko vedettiin aika pian pois missä nämä näkyi. Kotisivuillakaan ei näy moisia malleja.
 
Liittynyt
24.02.2017
Viestejä
401
Mistä nyt keksitty yht´äkkiä ettei 3090 olisi pelikortti(kin)? Tuo 3080 kyykkäilee jo vuototesteissä 4k:lla joten tuskin se nyt näillä uusilla 144Hz 4k näytöillä mikään takuutuote ole. Jos 3090 on sen 20% tehokkaampi niin se on jo aika monta fps lisää jos lähtökohta vaikka100-120. Jos pyrkimys on korkeat fps 4k:lla niin kaikki jerkku mitä lähtee niin tarvitaan, viimeistään ylihuomenna :)

Hinta on kova kyllä, sille ei mahda minkään. Oispa 3080 NvLink,
Sehän se vähän on kun on vaan +20% niin äkkiä se 3080 kyykkää minimeissä sinne 50fps maximiasetuksilla ja se onkin vaan hikiseen se 60fps 3090:llä. Luopuu jostain detaileista niin tuon 20% ikään kuin kuroo umpeen helposti. Hinta ei vaan ole mitenkään linjassa tuon pienen boostin kanssa. Ehkä jossain kohtaa ne detailit on juuri ne mistä ei enää halua luopua ja boosti on juuri ja juuri riittävä. Mitään järkeä tuossa ei kuitenkaan ole ellei pelaaminen ole koko elämä. Eriasia sitten jos haluaa fiilistellä parhaalla kortilla eikä hinnalla ole mitään väliä. Jos sieltä tulee ti alta tonnin niin se on todennäköisesti enenmmän linjassa suorituskykyyn nähden.
 
Liittynyt
15.12.2016
Viestejä
933
Oliko tästä 3090 tuomasta "vain" +20% tehonlisäyksestä vrt. 3080 jossain jo ihan testattua tietoa?
 

demu

Conducător & Geniul din Carpați
Tukijäsen
Liittynyt
20.10.2016
Viestejä
4 437
Isoin vammaisuus oled näyttöjä ajatellen on meitä vankinaan pitävä HDMI 2.1 hikisine spekseineen. Oled näytöt kykenisi heittämällä 1000+ fps virkistystaajuuksiin. mutta ollaan kaapelin takia rajoitetetut 4k 120Hz. Kun maksan sen korkean hinnan siitä oled näytöstä, niin haluaisin toki, että siitä saa enemmän irti sitten kun näyttikset kasvaa tehoissa ripeästi aina sinne 3nm piireihin asti. Ehkä nää on näitä first world problems tyylisiä. 120Hz on jo kohtuu hyvä mihin tahansa pelaamiseen. Sitten kun ottaa huomioon oled burn in ongelmat, niin ehkä max 10 vuoden elinkaaren tuote anyways.
Ei se HDMI-kaapeli sitä kuvaa sinne näytölle toimita. Se toimittaa kuvan vasta näytön ohjainpiirille (piirin muistiin).
Tuon näytön ohjainpiirin pitää sitten sieltä puskurimuistista siirtää (kuvan muuttuessa) kuvainformaatio varsinaiselle OLED-paneelille (tai LCD-paneelille).
Ja tuon ohjainpiirin pitäisi saada 4K-kuva näytölle 1000 kertaa sekunnissa eri näytön ohjainlinjoille jaetuksi, mikä on sitten se työläin vaihe. Taitaisivat näytötkin kuumentua tuollaisesta prosessoinnista vähän liikaa.
 

Kapteeni_kuolio

⚓Ledimestari⚓
Team R&T
Liittynyt
16.10.2016
Viestejä
1 802
Tämä. Ja 20% on luultavasti yläkanttiin.

2080 Ti on n. 27% nopeampi kuin 2080 4K resolla. Muistikaistaa +37,5% ja SM:iä +47,8%

3090 vs 3080 muistikaista +23,2% ja SM 20,6%.
Joo, tätä itte täs katellu. Että jos teoreettinen suorituskykylisä on tuon 20% ja todellinen toteuma peleissä 5-20% pelistä riippuen, varmaan painottuen johonkin 10-15% keskiarvoon niin ei jotenkin napostele ihan älyttömästi. 10gb muisti on semmonen mikä tossa 3080 :ssa arveluttaa, näyttönä kun on 4k/144hz ja pelimaku on kaikkea muuta kuin noita pienellä muistilla pyöriviä e-sportteja. Silläpä toivonkin tiittimalleja myyntiin, se niissä huhuttu 16-20gb muisti olis just hyvä.
 

Trollercoaster

BANNATTU
BANNED
Liittynyt
17.06.2020
Viestejä
401
Kannattaa muistaa että koska 3070 ja 3080 myy varmasti hyvin niin pelintekijöillä on paine tehdä pelejä joissa tuo muisti on riittävä, eli tästä ei varmaan suurempaa ongelmaa ihan pariin vuoteen tule. Hyvin harva pelintekijä lähtee linjalle jossa oletetaan että ihmisillä on 3090 tai joku tuleva TI versio.
 
Liittynyt
27.04.2017
Viestejä
106
Saakos näitä jotenkin ennakkotilata jostain? Nvidian sivuilta tais saada vain jonkun ilmoituksen kun niitä on tarjolla.
 
Liittynyt
13.12.2016
Viestejä
4 631
Kyl tommonen 3080 Tiitinen olis kiva. Joku 10% hitaampi kun 3090 ja 20GB, muistia vs 24 GB ja hinta 999€.

Sitä odotellessa.
 
Liittynyt
01.01.2017
Viestejä
1 264
Jos 3080 ja 3090 välillä on vain 20% eroa suorituskyvyssä, niin kyllä on aika ahdas rako tuohon väliin julkaista vielä Ti?? 3080+10% hintaan 1000-1200€ kuulostaa aika surkealta diililtä, johan tuon 10 pinnan eron saa kellottamalla kiinni...
 

Proscribo

Kiitos.
Liittynyt
16.10.2016
Viestejä
1 010
Jos 3080 ja 3090 välillä on vain 20% eroa suorituskyvyssä, niin kyllä on aika ahdas rako tuohon väliin julkaista vielä Ti?? 3080+10% hintaan 1000-1200€ kuulostaa aika surkealta diililtä, johan tuon 10 pinnan eron saa kellottamalla kiinni...
Ja mitäs sitten kun otat ja kellotat myös sitä tonnin Ti:tä. Tai jos tilanne on se, että muisti loppuu.
 

latee77

Team Ryzen
Team NVIDIA
RTX ON
Liittynyt
18.02.2017
Viestejä
5 143
Sehän se vähän on kun on vaan +20% niin äkkiä se 3080 kyykkää minimeissä sinne 50fps maximiasetuksilla ja se onkin vaan hikiseen se 60fps 3090:llä. Luopuu jostain detaileista niin tuon 20% ikään kuin kuroo umpeen helposti. Hinta ei vaan ole mitenkään linjassa tuon pienen boostin kanssa. Ehkä jossain kohtaa ne detailit on juuri ne mistä ei enää halua luopua ja boosti on juuri ja juuri riittävä. Mitään järkeä tuossa ei kuitenkaan ole ellei pelaaminen ole koko elämä. Eriasia sitten jos haluaa fiilistellä parhaalla kortilla eikä hinnalla ole mitään väliä. Jos sieltä tulee ti alta tonnin niin se on todennäköisesti enenmmän linjassa suorituskykyyn nähden.
Tämä on totta. Hintaloikka on naurettava 3090:ssa, tuo tonnin 3080Ti kuullostaa jo huomattavasti paremmalta ja tehot olisi varmaan lähes identtiset. Toivottavasti 3080Ti:stä tulosta tulee jotain vahvistuksia ennenkuin 3090 on saannilla.
 
Liittynyt
19.10.2016
Viestejä
1 498
On väliä.
G-Sync ei toimi AMD:n näytönohjaimilla vaikka voissa paistaisi, NVIDIA on pitänyt G-Sync-moduulin ihan omana ilonaan.
Sekoitat sen nyt luultavasti G-Sync Compatibleen mikä on NVIDIAn nimi FreeSync- eli Adaptive-sync-näytöille, jotka se on testannut toimiviksi omilla näytönohjaimillaan.
Kyllä uusimmissa g-sync moduuleissa on tai pitäisi tulla adaptive sync tuki ja hdmi vrr myös.

Edit: Olitko jo mainunnut tuosta
 
Liittynyt
16.03.2017
Viestejä
1 397
Köyhillä ei ole varaa. Itsehän olen suht. köyhä, mutta tarpeettomia sisäelimiä myymällä saan ostettua 3090:n. Miksi? Koska 3080 ei kuitenkaan riitä Cyberpunk 2077:n pelaamiseen 4K:na kaikki nupit kaakossa.
Cyberpunk rullaa varmasti "4K:na" ihan hyvin millä tahansa RTX 2080ti ja ylöpäin korteilla DLSS2.0 päällä asetukset tapissa, en usko että mikään kortti natiivina tuota pyörittää 4K:na hyvin asetukset tapissa ja RT päällä.
 
Viimeksi muokattu:

demu

Conducător & Geniul din Carpați
Tukijäsen
Liittynyt
20.10.2016
Viestejä
4 437
Tämä on totta. Hintaloikka on naurettava 3090:ssa, tuo tonnin 3080Ti kuullostaa jo huomattavasti paremmalta ja tehot olisi varmaan lähes identtiset. Toivottavasti 3080Ti:stä tulosta tulee jotain vahvistuksia ennenkuin 3090 on saannilla.
3080Ti julkistetaan varmaan heti, kun ensimmäinen erä 3080:a on myyty loppuun (eli varmaan aika pian myyntiintulon jälkeen).
Olisikohan myös niin, että GDDR6X:n saatavuus on jonkin verran rajoitettua, joten ei ole varaa laittaa 20G versiota heti myyntiin?
 
Liittynyt
10.08.2020
Viestejä
120
PCI-E liitin + 2x 8pin antaa maksimissaan 375W (75+150+150) tehoa ja 3080:n TDP:n ollessa 320W tuossa on vielä 55W varaa kortilla boostailla tai kellotuksille.
Todennäköisesti kuitenkin edelleen fiksuinta on kellottaa käyrän (curve) avulla, jolloin boostikelloja saa ylemmäs samalla kuin jännitettä saa alennettua.
Tuo 150W per 8pin on ATX-standardin minimivaatimus, ja laadukkaat virtalähteet pystyvät paljon parempaan. Esimerkiksi R9 295x2 ylitti tuon speksin vakiotehollakin. Eri asia sitten on, kuinka korkealle näiden korttien valmistajat antavat nostaa power limittiä.
 
Liittynyt
17.10.2016
Viestejä
22 585
Jos 3080 ja 3090 välillä on vain 20% eroa suorituskyvyssä, niin kyllä on aika ahdas rako tuohon väliin julkaista vielä Ti?? 3080+10% hintaan 1000-1200€ kuulostaa aika surkealta diililtä, johan tuon 10 pinnan eron saa kellottamalla kiinni...
Todennäköisesti siinä on muistia se 20GB ja todennäköisesti sitä ei nyt ole heti tulossa, vaikka täällä sen perään kuolataan.
Oma veikkaus on Q3 2021 ja se perustuu siihen , että Nvidia yleensä odottaa vuoden, ennenkuin tulee nämä "välimallit".
 

latee77

Team Ryzen
Team NVIDIA
RTX ON
Liittynyt
18.02.2017
Viestejä
5 143
3080Ti julkistetaan varmaan heti, kun ensimmäinen erä 3080:a on myyty loppuun (eli varmaan aika pian myyntiintulon jälkeen).
Olisikohan myös niin, että GDDR6X:n saatavuus on jonkin verran rajoitettua, joten ei ole varaa laittaa 20G versiota heti myyntiin?
Viimeksi tuli tosiaan nopsaan se Ti malli tietoon myös, jos nyt malttais kotvan ennen kuin lähtee tehonhimoissaan tilaamaan 3090.

Taas tämä sama vanha itkuvirsi mutta silloin kuin nämä huippukortit maksoi 500-700€ niin oli tapana osta kaks että sai "Overkill" tehot :)
 

latee77

Team Ryzen
Team NVIDIA
RTX ON
Liittynyt
18.02.2017
Viestejä
5 143
Todennäköisesti siinä on muistia se 20GB ja todennäköisesti sitä ei nyt ole heti tulossa, vaikka täällä sen perään kuolataan.
Oma veikkaus on Q3 2021 ja se perustuu siihen , että Nvidia yleensä odottaa vuoden, ennenkuin tulee nämä "välimallit".
Aikaisemmin tais tulla nopeesti myös Ti mallit tietoon, nyt viimeksi näissä Super malleissa meni se vuosi tosiaan. Eihän niin kauaa ihminen siedä odottelua.
 
Liittynyt
17.10.2016
Viestejä
4 562
Tuo 150W per 8pin on ATX-standardin minimivaatimus, ja laadukkaat virtalähteet pystyvät paljon parempaan. Esimerkiksi R9 295x2 ylitti tuon speksin vakiotehollakin. Eri asia sitten on, kuinka korkealle näiden korttien valmistajat antavat nostaa power limittiä.
Tokihan sieltä voidaan enemmänkin ottaa, mutta speksiin kirjattuja lukuja on hyvä käyttää ohjearvona, kun ei välttämättä tiedä mikä virtalähde kysyjällä on, mitkä muut osat kuormittaa kokoonpanoa, onko käytetty jotain custom kaapeleita joissa kuparin paksuus on normaalista poikkeava jne.
Edit: 2080 Ti oli TDP 250W, FE 260W ja customit taisivat hörpätä jopa 320-330W.
 
Liittynyt
17.10.2016
Viestejä
22 585
Aikaisemmin tais tulla nopeesti myös Ti mallit tietoon, nyt viimeksi näissä Super malleissa meni se vuosi tosiaan. Eihän niin kauaa ihminen siedä odottelua.
Myös GTX 1070 Ti, joka tuli noin vuosi myöhemmin (kuten 1080 Ti). 1080 Ti vähän aikaisemmin keväällä, kuten @AeshmA sanoi, GTX 1070 Ti sitten syksyllä.

Sitä ennen kyllä oli taukoa tässä käytännössä, mutta minulla oli ~1v jälkeen julkaistu 560 Ti 448 cores ja 8800 GTS 112.
 
Liittynyt
08.05.2017
Viestejä
1 903
Cyberpunk rullaa varmasti "4K:na" ihan hyvin millä tahansa RTX 2080ti ja ylöpäin korteilla DLSS2.0 päällä asetukset tapissa, en usko että mikään kortti natiivina tuota pyörittää 4K:na hyvin asetukset tapissa ja RT päällä.
Saahan sitä toivoa; pelin preview-versio pyöri kehnolla ruudunpäivityksellä 2080 Ti:llä ray tracing päällä Full HD:na - DLSS päällä. Tuossa jutussa mainitaan, että The RTX 2080Ti should be able to play the game at 4K resolution with DLSS 2.0 active and all ray tracing effects enabled. Ruudunpäivityksestä ei tosin mainita mitään, eikä myöskään muista grafiikka-asetuksista.

Itse kun siirryin aikoinaan konsolipelaajasta PC-pelaajaksi, oli syynä se, että halusin pelata kaikkia pelejä sulavalla ruudunpäivityksellä kaikki grafiikka-asetukset tapissa. Moni peli on jäänyt odottamaan seuraavaa näytönohjainsukupolvea, vaikka koneesta onkin viimeisten vuosien aikana löytynyt tehokkainta pelirautaa. Onko se halpaa? Ei. Onko siinä järkeä? Ei. Mutta ei harrastuksissa tarvitsekaan olla :interested:
 
Liittynyt
10.08.2020
Viestejä
120
Tokihan sieltä voidaan enemmänkin ottaa, mutta speksiin kirjattuja lukuja on hyvä käyttää ohjearvona, kun ei välttämättä tiedä mikä virtalähde kysyjällä on, mitkä muut osat kuormittaa kokoonpanoa, onko käytetty jotain custom kaapeleita joissa kuparin paksuus on normaalista poikkeava jne.
Edit: 2080 Ti oli TDP 250W, FE 260W ja customit taisivat hörpätä jopa 320-330W.
Totta tuokin. Strix 3090 on käsittääkseni 400W ja siinä on 3x8pin. TUF:ssa on vain 2x8pin, toivottavasti antaa kuitenkin nostaa poweria enemmän kuin sen 7%, joka perustuisi 8pin vakiospeksiin.
 
Liittynyt
16.03.2017
Viestejä
1 397
Saahan sitä toivoa; pelin preview-versio pyöri kehnolla ruudunpäivityksellä 2080 Ti:llä ray tracing päällä Full HD:na - DLSS päällä. Tuossa jutussa mainitaan, että The RTX 2080Ti should be able to play the game at 4K resolution with DLSS 2.0 active and all ray tracing effects enabled. Ruudunpäivityksestä ei tosin mainita mitään, eikä myöskään muista grafiikka-asetuksista.

Itse kun siirryin aikoinaan konsolipelaajasta PC-pelaajaksi, oli syynä se, että halusin pelata kaikkia pelejä sulavalla ruudunpäivityksellä kaikki grafiikka-asetukset tapissa. Moni peli on jäänyt odottamaan seuraavaa näytönohjainsukupolvea, vaikka koneesta onkin viimeisten vuosien aikana löytynyt tehokkainta pelirautaa. Onko se halpaa? Ei. Onko siinä järkeä? Ei. Mutta ei harrastuksissa tarvitsekaan olla :interested:
Asetukset tapissa meinaa nykypäivänä sitä, että pistetään PC:llä "Uber ultra" asetukset päälle (varjojen reunat tyyliin 3% blurrimmat kun muuten), jotka ovat varta vasten PC:lle tehty ja on optimoitu todella huonosti, koska lähtökohta on konsoli portti jota ruvetaan ruuvaamaan "hienommaksi". Toivottavasti tämä muuttuu uusien konsolien myötä, kun lähtökohtana on se, että löytyy kaikki mahdolliset uudet tekniikat käytöstä ja tehoakin hyvin.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 829
Kyllä uusimmissa g-sync moduuleissa on tai pitäisi tulla adaptive sync tuki ja hdmi vrr myös.

Edit: Olitko jo mainunnut tuosta
Pitäisi pitäisi, mutta ainakin itselle on tullut vastaan vain yksi japanissa mainostettu G-sync-näyttö, missä oli Adaptive-syncikin tuettuna. Se että on optio tukea ei tarkoita että sitä käytettäisiin.
 
Liittynyt
28.09.2019
Viestejä
898
Miksi se kortti on ihan pakko saada heti ensimmäisestä erästä?
Kerkeehän tuon myöhemminkin ostaa. Vähän aikaa odottelee niin tietää paremmin mikä malli on hyvä...
ei käy silleen että odottelee ja tulee seuraava halvemmalla 1v.
Spekuloin Jos amd:n 3090 pieksevän big-f-navin saa kohta 799€ onko nvidialla enää heittää sille mitään vastinetta vai onko se hinnan alennus ja slap in the face juuri sen +1500€ ostaneille?
Tähän riittää 3080 lyäminen ja isommalla muistilla.
 
Liittynyt
21.06.2019
Viestejä
1 983
Mikään pehmuste ei auta suomen postin runtelua, kaikki paketit vaarassa.

Cyberpunk rullaa varmasti "4K:na" ihan hyvin millä tahansa RTX 2080ti ja ylöpäin korteilla DLSS2.0 päällä asetukset tapissa, en usko että mikään kortti natiivina tuota pyörittää 4K:na hyvin asetukset tapissa ja RT päällä.
...ja eikö kyseessä ole kuitenkin aivan tavallinen yksinpeliseikkailu? Ei se peli käytännössä muutu tunnelmaltaan, jos fps on 60 vs 120. Jos puhdas seikkalupeli olisi, niin alempikin hyvin riittäisi. Nettiräiskinnät ja VR-pelit sitten asia erikseen.
 
Liittynyt
22.10.2018
Viestejä
9 984
...ja eikö kyseessä ole kuitenkin aivan tavallinen yksinpeliseikkailu? Ei se peli käytännössä muutu tunnelmaltaan, jos fps on 60 vs 120. Jos puhdas seikkalupeli olisi, niin alempikin hyvin riittäisi. Nettiräiskinnät ja VR-pelit sitten asia erikseen.
Älä yleistä. Täältäkin foorumilta löytyy muutamia ihmisiä joille tässäkin pelissä niiden näytön täyden potentiaalin käyttäminen ja vihollisten helpompi havainnointi matalilla grafiikka-asetuksilla on tähdellisempää kuin tunnelma, tarinankerronta, tekijöiden taiteellinen näkemys tai oikeastaan mikään muu asia kuin latenssit ja osumatarkkuus. Vai mitä @Savolainen ?


edit: itse pelailen tälläiset elokuvamaiset nautiskelupelit motion blurrit ja DoF efektit päällä lukitulla 60 fps:llä. Ei tule hiki pelatessa kun kone ei pumppaa kilowattia sähköä lämmöksi ja latenssit pysyy kuitenkin aisoissa kun GPU usage on jatkuvasti reippaasti alle 99%.
 
Viimeksi muokattu:
Liittynyt
28.09.2019
Viestejä
898
Vaikkei tietäisi mitään niin tuo on aika turvallinen neuvo kun next-gen on kulman takana ja nykyiset laitteet jäämässä jokatapauksessa kakkossijalle.

MLID on huhupaja villimmästä päästä ja sen "vuodoista" useampi osoittautui valheiksi kun Ampere julkaistiin.
Mutta vastaavasti tää kopite7 kaveri ja catti corgi twitterhemmot olivat hyvin perillä jo 6kk sitten specseistä--luotettavampia.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 829
Mutta vastaavasti tää kopite7 kaveri ja catti corgi twitterhemmot olivat hyvin perillä jo 6kk sitten specseistä--luotettavampia.
Mutta vastaavasti myös vääriä vuotoja pitkät rivit ainakin kopitella, en tuota toista juuri ole seurannut.
 
Liittynyt
20.10.2016
Viestejä
3 455
Mutta vastaavasti tää kopite7 kaveri ja catti corgi twitterhemmot olivat hyvin perillä jo 6kk sitten specseistä--luotettavampia.
Joo ne pari veti aika hyvin. Uskottavuutta laski kyllä toisen uusi twitter tili ja gddr6x, mutta se on edelleen ihme tuote: Olemassa, mutta ei standardoitu. Ei taida olla vieläkään selvää onko se micronin nvidia only ratkaisu, vai oikea muistityyppi. Eli poikkeaa radikaalisti tavasta, millä uudet muistitekniikat on julkaistu.
 

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
21 829
Joo ne pari veti aika hyvin. Uskottavuutta laski kyllä toisen uusi twitter tili ja gddr6x, mutta se on edelleen ihme tuote: Olemassa, mutta ei standardoitu. Ei taida olla vieläkään selvää onko se micronin nvidia only ratkaisu, vai oikea muistityyppi. Eli poikkeaa radikaalisti tavasta, millä uudet muistitekniikat on julkaistu.
On myös muiden kuin NVIDIAn saatavilla, ei ole standardoitu ainakaan vielä.
 
Liittynyt
01.12.2017
Viestejä
1 576
Tuo 150W per 8pin on ATX-standardin minimivaatimus, ja laadukkaat virtalähteet pystyvät paljon parempaan. Esimerkiksi R9 295x2 ylitti tuon speksin vakiotehollakin. Eri asia sitten on, kuinka korkealle näiden korttien valmistajat antavat nostaa power limittiä.
Juu näin on. 16 virtakaapelista (2x8pin) voi katkaista 10 ja vieläkin riittää teho 250w näytönohjaimeen.




Rajuin esimerkki 1080ti kingpin.
2x8 pin on riittänyt 1344w virrankulutukseen.


 
Liittynyt
20.10.2016
Viestejä
3 455
OLI siellä ga 103 3840 core sotkemassa välillä.
Oli, jonka pois tiputuksesta ne kertoi jo keväällä ja samaan infoon tuli, että 3080 on siirretty GA103:sta GA102:lle. Eihän ne nyt jumalan sanaa olleet, mutta selkeästi niillä oli oikeita lähteitä ja valtaosa huhuista osui kohdalleen. (ytimet, fp32 tuplaus, prosessi, v-mallin pcb, kellot, muistityyppi ja lopulta nopeudetkin meni kun useamman kerran hakivat.) Ihan vertailun vuoksi tätä infoa moore's law is dead syötti pihalle.
 
Toggle Sidebar

Statistiikka

Viestiketjut
245 781
Viestejä
4 297 556
Jäsenet
71 699
Uusin jäsen
Arksi

Hinta.fi

Ylös Bottom