NVIDIA-spekulaatioketju (Lovelace ja tulevat sukupolvet)

Ei se samaan generaatioon vaikutakaan, mutta jos lähdetään vertaamaan yleisesti vähänkään pidemmälle niin onhan sillä massiivinen vaikutus.

Mitä budjetti pelaamiseen tulee, niin ei siitä montaa vuotta ole kun rx580 sai kaupasta sillä 150 eurolla ja itsekin ostin 2600x:n alle 120e jimssistä. Noiden edullisempien korttien hinta on sinänsä pysynyt hyvin omistuksessa, kun uudet kortit eivät noille hintatasoille ole laskeneet missään vaiheessa.
Nyt ei kuitenkaan @kajakkivajakki lähteny vertaamaan yhtään sitä yhtä sukupolvea pidemmälle niitä korttien teho/euroja niin ei ollut mitään tarvetta inflaation vaikutuksia ihmetellä.
 
Lienee kuitenkin ihan kivat n. 70% kate valmistuskustannusten jälkeen noissa top level korteissa (ainakin chipin osalta).
Noita katenumeroita voi heitellä pepusta. Miten olet päätynyt 70% katteeseen? EVGA:n kate ei ollut niin iso, igor's lab:in artikkeli laittoi katteet 5-10%:lle aib:lle amperen suhteen. 5nm pohjaiset piirit ovat kalliimpia valmiista, kalliimpia suunnitella ja fe tuuletinta, virransyöttöä yms. on tuunattu paremmaksi ei välttämättä halvemmaksi versus ampere. Tuo 4n ad102 saattaa olla tuplahintainen pelkän piirin valmistamisen osalta versus ga102 ennen kuin aletaan latomaan muita kohonneita kustannuksia ja r&d kuluja päälle,...

Mä väittäsin, että noi isot piirit on pelimaailman ferrareita. Jos ne jää ostamatta niin ne helposti voi myös jäädä tekemättä tai päätyvät samaan kategoriaan hopper konesaligpu:n kanssa missä myydään vain entistä kalliimpaa tuotetta pro-käyttäjille ja jää kuluttajat välistä. En usko, että kysyntää laskemalla tuollainen piiri tulisi halvemmaksi muuta kuin loppuunmyynnissä ja seuraavassa generaatiossa jäisi piiri välistä.
 
Nyt ei kuitenkaan @kajakkivajakki lähteny vertaamaan yhtään sitä yhtä sukupolvea pidemmälle niitä korttien teho/euroja niin ei ollut mitään tarvetta inflaation vaikutuksia ihmetellä.

Ok, luin ne tekstit ja generaatiolta generaatiolle antoi vaan väärän käsityksen.

Mitä katteisiin tulee, niin jos tuosta siirtyy nykyään 70%+ suoraan nvidialla ja se 5-10% OEM tahoille niin kyllähän siellä katteet on kunnossa, vaikka eivät välttämättä itse korttien valmistajilla (ja siis OEM katteet ovat laskeneet koko ajan).
 
Noita katenumeroita voi heitellä pepusta. Miten olet päätynyt 70% katteeseen? EVGA:n kate ei ollut niin iso, igor's lab:in artikkeli laittoi katteet 5-10%:lle aib:lle amperen suhteen. 5nm pohjaiset piirit ovat kalliimpia valmiista, kalliimpia suunnitella ja fe tuuletinta, virransyöttöä yms. on tuunattu paremmaksi ei välttämättä halvemmaksi versus ampere. Tuo 4n ad102 saattaa olla tuplahintainen pelkän piirin valmistamisen osalta versus ga102 ennen kuin aletaan latomaan muita kohonneita kustannuksia ja r&d kuluja päälle,...

Mä väittäsin, että noi isot piirit on pelimaailman ferrareita. Jos ne jää ostamatta niin ne helposti voi myös jäädä tekemättä tai päätyvät samaan kategoriaan hopper konesaligpu:n kanssa missä myydään vain entistä kalliimpaa tuotetta pro-käyttäjille ja jää kuluttajat välistä. En usko, että kysyntää laskemalla tuollainen piiri tulisi halvemmaksi muuta kuin loppuunmyynnissä ja seuraavassa generaatiossa jäisi piiri välistä.

Muah, Nvidian kate on aivan eri luokkaa kuin AIB:n. Sanoin, että "kate chip:lle". Nvidia myy ne AIB:lle. Nvidian net sales - COGS on jo pitkään ollut 60+ ja viimeksi n. 65%. Sä voit itse heitellä pepusta noita lukuja, mutta tuo 70% on aika lähellä nykytilannetta ja nimenomaan noilla isoilla piireillä se voi olla vielä paljon korkeampikin.
 
Muah, Nvidian kate on aivan eri luokkaa kuin AIB:n. Sanoin, että "kate chip:lle". Nvidia myy ne AIB:lle. Nvidian net sales - COGS on jo pitkään ollut 60+ ja viimeksi n. 65%. Sä voit itse heitellä pepusta noita lukuja, mutta tuo 70% on aika lähellä nykytilannetta ja nimenomaan noilla isoilla piireillä se voi olla vielä paljon korkeampikin.
Nvidia antoi kuukausi sitten tulosvaroituksen ja kvartaaliraportin missä firman bruttovoitto 40% pinnassa entisen reilun 60% sijaan. Tämä siitä huolimatta että konesalibisnes ei yski ja konesalibisneksen koko tuplat pelipuoleen verrattuna.

Mutta joo, arvailla voi, mutta ei kannata arvailua väittää tiedoksi. Kate pitää kuitenkin laskea lopputuotteesta. Olis niin helppoa, jos ainoa kustannus olisi piikiekko.
 
Nvidia tosin myös melkein tuplasi tuotekehityskustannuksensa, että ilman tietoa mitä luvut oikeasti kertovat niistä on aika vaikea sanoa mitään (muuta kuin sen, että kryptobuumi törmäsi seinään).
 
Tai nvidia vaa huomaa kuin paljo porukka on valmis maksaa korteista ja nyt koitetaa kepillä jäitä.
 
Täysin hyödytön kuva, kun verrataan kahta täysin eri asiaa. Pitäis verrata dlss3 101 fps ja natiivi 101 fps.

Tuossa Cyberpunk 2077 vertailussahan näkyy, että viive on sama DLSS2 vs. DLSS3, mutta DLSS3:lla fps on ~30 enemmän. Eli ei lisää viivettä. Tuo on tosin varmaan saavutettu Nvidia Reflexillä jonka tukea ei kovin monesta näytöstä löydy.

Tätä en ollut nähnyt vielä mainittavan. Että kun peliä pystytään ajamaan korkeammalla FPS:llä niin silloin myös paneelia pystytään ajamaan korkeammalla virkistystaajuudella, joka vähentää viivettä, eikö vain? Tämä siis kun oletetaan että on G-sync tai vastaava VRR-teknologia käytössä.
 
Viimeksi muokattu:
Tuossa Cyberpunk 2077 vertailussahan näkyy, että viive on sama DLSS2 vs. DLSS3, mutta DLSS3:lla fps on ~30 enemmän. Eli ei lisää viivettä. Tuo on tosin varmaan saavutettu Nvidia Reflexillä jonka tukea ei kovin monesta näytöstä löydy.

Eikö se nimenomaan osoita sen että viivettä tulee lisää? Suuremman FPS:n pitäisi laskea viivettä, jos se on nyt kuitenkin sama kuin alemmalla FPS:llä niin silloinhan viive on jossain muualla pipelinessä korkeampi.
 
Riippuu miten tuota katsoo. Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive, eli mitään ei tullut lisää joten miksi et käyttäisi DLSS3:sta jolla saat smoothimman kuvan (olettaen että se oikeasti toimii)? Jos vertaa 120fps vs. DLSS3 120fps niin viivettä on toki yhden framen verran, kun ne on puhtaasti näytönohjaimen ennustamia joihin ei käyttäjän komentoja lasketa mukaan.

Toisin sanoaen, viive on korkeampi kuin samalla natiivi FPS:llä, mutta DLSS3:n päälle laittaminen ei viivettä lainkaan lisää kun et peliä alkujaankaan 120fps pyörittänyt.
 
Tuo on tosin varmaan saavutettu Nvidia Reflexillä jonka tukea ei kovin monesta näytöstä löydy.
Reflexin vaikutus viiveeseen ei ole riippuvainen yhteensopivasta näytöstä. Eli kunhan on riittävän uusi Nvidian näyttis ja peli joka tukee Reflexiä niin sitä voi hyödyntää millä tahansa näyttölaitteella.

Reflex Analyzer on ominaisuus joissain näytöissä, jolla voi monitoroida hiiren viivettä tms. kunhan hiirikin yhteensopiva.
 
Riippuu miten tuota katsoo. Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive, eli mitään ei tullut lisää joten miksi et käyttäisi DLSS3:sta jolla saat smoothimman kuvan (olettaen että se oikeasti toimii)? Jos vertaa 120fps vs. DLSS3 120fps niin viivettä on toki yhden framen verran, kun ne on puhtaasti näytönohjaimen ennustamia joihin ei käyttäjän komentoja lasketa mukaan.

Toisin sanoaen, viive on korkeampi kuin samalla natiivi FPS:llä, mutta DLSS3:n päälle laittaminen ei viivettä lainkaan lisää kun et peliä alkujaankaan 120fps pyörittänyt.
Koska se näyttää, ainakin sen ainoan näkemäni vertailun perusteella, merkittävän huonolta.
 
Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive

Koska jos se toimii noin, niin se peli tulee silti tuntumaan 60fps peliltä. Jos sillä pystyy pelaamaan, onnittelut niille tyypeille. Ja vaikka lähtökohtana olisi se 90fps (joka itselle on se absoluuttinen minimi) ja dlss3 nostaisi sen vaikkapa 180fps, niin siinäkin on vaarana se, että se tuntuisi liian väärältä.

Varmasti jossain tosi hidastempoisissa peleissä dlss3 tulee olemaan ok, mutta se suurin epäily kohdistuu siihen, miten nää nopeatempoiset pelit (esim räiskinnät) sillä sitten toimii.
 
Riippuu miten tuota katsoo. Jos vaihtoehtona on 60fps vs. DLSS3 120fps niin niissä on sama viive, eli mitään ei tullut lisää joten miksi et käyttäisi DLSS3:sta jolla saat smoothimman kuvan (olettaen että se oikeasti toimii)? Jos vertaa 120fps vs. DLSS3 120fps niin viivettä on toki yhden framen verran, kun ne on puhtaasti näytönohjaimen ennustamia joihin ei käyttäjän komentoja lasketa mukaan.

Toisin sanoaen, viive on korkeampi kuin samalla natiivi FPS:llä, mutta DLSS3:n päälle laittaminen ei viivettä lainkaan lisää kun et peliä alkujaankaan 120fps pyörittänyt.

Näytöthän on jo pitkään tehny tuplausta jos ollaan adaptive sync alueella, eli 60FPS tuplataan jolloin näyttö pyörittää peliä 120Hz. Eli tuodaanko tässä nyt markkinoille kaikkien aikojen huijaus? :D Toi näytön tuplaushan ei näy FPS mittareissa mutta tää nvidian gimmikki näkyy FPS mittareissa vaikka latessin puoleen on ihan sama pyöriikö se 60FPS vaiko 120FPS.
 
Näytöthän on jo pitkään tehny tuplausta jos ollaan adaptive sync alueella, eli 60FPS tuplataan jolloin näyttö pyörittää peliä 120Hz. Eli tuodaanko tässä nyt markkinoille kaikkien aikojen huijaus? :D Toi näytön tuplaushan ei näy FPS mittareissa mutta tää nvidian gimmikki näkyy FPS mittareissa vaikka latessin puoleen on ihan sama pyöriikö se 60FPS vaiko 120FPS.

Se että näyttö piirtää saman kuvan kahdesti perättäin ei lisää fps.
 
Näytöthän on jo pitkään tehny tuplausta jos ollaan adaptive sync alueella, eli 60FPS tuplataan jolloin näyttö pyörittää peliä 120Hz. Eli tuodaanko tässä nyt markkinoille kaikkien aikojen huijaus? :D Toi näytön tuplaushan ei näy FPS mittareissa mutta tää nvidian gimmikki näkyy FPS mittareissa vaikka latessin puoleen on ihan sama pyöriikö se 60FPS vaiko 120FPS.

Ketä tässä nyt kusetetaan ja miten? :D Jos itse pitäis valita 60fps@120hz tai 90fps@90Hz nii valitsen kyllä jälkimmäisen. Jos nyt adaptive syncillä meinaat VRR:n LFC:tä niin ei se 60fps videopelikuva muutu yhtää sen sulavemmaksi vaikka sen toistaisit 240 hertsissä, se olisi silti vain 60fps. Näytön vasteaikoja ja input lagia tuo toki kyllä parantaisi
 
Viimeksi muokattu:
Tällä videolla puhutaan siitä, kuinka surkea PCIe 3.0 -virtaliitin on. Ilmeisesti sitä saa kiinnittää ja irroittaa vaan 30 kertaa ennen kuin liitin alkaa hajota, tuleekohan tuo aiheuttamaan ongelmia myös PCIe 3.0 -virtalähteiden kanssa? Sama liitinhän niissä on kuin tuossa adapterissa... :hmm:

 
Jos se OIKEASTI kestää vähintään sen 30 kertaa 100%:n todennäköisyydellä, niin en näe miten asia tulisi vielä kovin monelle ongelmaksi. Lähinnä tulee mieleen, tesitivustot.

Mutta tuhan on helppoa testata!

Ottaa ja tekee pikku irrooita / kiinnitä session testilaitteilla. Sen liittimen lämpötilan voi esim mitata, kun ajaa tietyn testisoftan ekalla kiinnityksella ja siitten rämppää sitä vaikka 100 kertaa ja mittaa lämpötilan ja 100 kertaa uudestaan ja...

Käytännössähän tuo kestävyys riippuu 90% sesti materiaaleista. Jos on tehty paskasta materiaalista liuskat, jotka löystyvät ja saavat huonosti kosketusta, niin on täysin selvää, että liitin sulaa helposti. Jos taas on kunnollisista, niin tuskin on ongelmia.
 
Viimeksi muokattu:
Generaatio generaatiolta itseni kaltaiselle ns tarkan markan budjettipelaajalle tilanne on huonontunut.
Ennemminkin jo kirjoittanut, että 3000 sarjassa oli kehno suuntaus eli hinta putosi suurinpiirtein samassa suhteessa kuin tehot -> Aiemmin budjettipelaaja sai paremmin tehoa pienemmällä rahalla.
Mittarina käytetty Techpowerupin relative perfonmance listausta ja julkaisuhintaa dollareina.

Nyt eilen piirtelin excelillä käppyrät:
1000.png
2000.png
3000.png

Nyt julkaistusta 4000 sarjastahan ei ole oikeata dataa saatavilla, vain Nvidian itsensä julkaisemat muutamat pelit.
Niiden kertoma on vieläkin tasapäisempää teho/hinta leikkausta kuin 3000 sarjassa.
4000.png
Itseasiassa tähän on olemassa aivan yksinkertainen syy: kilpailu.
Viimeisimmissä generaatioissa kilpailu on yltänyt vahvemmin ihan yläpäähän asti ja Nvidia ei ole voinut rahastaa niillä niin paljoa, kuin silloin kun kortilla ei ollut käytännössä mitään kilpailua omassa teholuokassaan. Väitän jopa, että sinä et ole hävinnyt tarkan markan pelaajana mitään, mutta high- ja midhigh-luokan pelaajat on voittanut (joko säästänyt rahaa tai saanut enemmän tehoa kalliilla summalla). 4000-sarjaa ei vielä oikein voi verrata kun ei ole 60-sarjaa ulkona eikä tiedetä kilpailuasetelmaa.
 
Tällä videolla puhutaan siitä, kuinka surkea PCIe 3.0 -virtaliitin on. Ilmeisesti sitä saa kiinnittää ja irroittaa vaan 30 kertaa ennen kuin liitin alkaa hajota, tuleekohan tuo aiheuttamaan ongelmia myös PCIe 3.0 -virtalähteiden kanssa? Sama liitinhän niissä on kuin tuossa adapterissa... :hmm:


Suosittelen kaivamaan vanhempien liittimien datalehtiä esim. Molexin sivuilta ja katsomaan mitään lupaillaan kiinnityssykleiksi (vinkki: se on samat 30 kiinnityssykliä 8-pin PCI-E lisävirtaliittimelle)...
Tässä on taas vauhdissa idiootit Youtubettajat, joilla ei ole yhtään mitään käryä siitä, mistä he puhuvat. Ollaan kaikkitietävää elektroniikasta, mutta edes datalehtiä ei osata selata. Mutta saapahan paljon klikkejä, kun tekee sensaatiohakuisia juttuja tyhjästä ja laiskat ihmiset levittelee ne sitten ympäri nettiä, kun eivät viitsi edes tarkistaa, että puhuukohan tuo puhuva pää X totta vai ei...
 
Suosittelen kaivamaan vanhempien liittimien datalehtiä esim. Molexin sivuilta ja katsomaan mitään lupaillaan kiinnityssykleiksi (vinkki: se on samat 30 kiinnityssykliä 8-pin PCI-E lisävirtaliittimelle)...
Tässä on taas vauhdissa idiootit Youtubettajat, joilla ei ole yhtään mitään käryä siitä, mistä he puhuvat. Ollaan kaikkitietävää elektroniikasta, mutta edes datalehtiä ei osata selata. Mutta saapahan paljon klikkejä, kun tekee sensaatiohakuisia juttuja tyhjästä ja laiskat ihmiset levittelee ne sitten ympäri nettiä, kun eivät viitsi edes tarkistaa, että puhuukohan tuo puhuva pää X totta vai ei...

Mistäs sää tuon löysit sieltä?

Ja toisekseen, on eri asia jos lupaillaan että liitin VARMASTI toimii 30 sykliä, kuin se että se oikeasti alkaa hajota 30 syklin jälkeen merkittävällä todennäköisyydellä.
 
Se kannattaa myös huomioida, että jos powerivalmistajat ovat siirtyneet / siirtymässä tuohon liittimeen, niin ko liitin tulee löytymään myös AMD:n ja Intelin näyttiksistä.
 
Mistäs sää tuon löysit sieltä?

Ja toisekseen, on eri asia jos lupaillaan että liitin VARMASTI toimii 30 sykliä, kuin se että se oikeasti alkaa hajota 30 syklin jälkeen merkittävällä todennäköisyydellä.
Ja tuolta lisää:
Update: We have confirmed with NVIDIA that the 30-cycle spec for the 16-pin connector is the same as it has been for the past 20+ years. The same 30-cycle spec exists for the standard PCIe/ATX 8-pin connector (aka mini-fit Molex). The same connector is used by AMD and all other GPU vendors too so all of those cards also share a 30-cycle life. So in short, nothing has changed for the RTX 40 GPU series.
 
Ongelmahan ei ole tuo 30 sykliä, vaan mitä käy kun liitin kuluu, ei enää kestä (virta jakautuu epätasaisesti johtimiin) ja voi sulaa 10h jälkeen 55a jatkuvalla virralla. Josta pci-sig antoi varoituksen valmistajille.
 
PSU sammuttaa itsensä? Näin ainankin itsellä kun pcie liitin alkoi sulamaan powerin päästä.
 
Suosittelen kaivamaan vanhempien liittimien datalehtiä esim. Molexin sivuilta ja katsomaan mitään lupaillaan kiinnityssykleiksi (vinkki: se on samat 30 kiinnityssykliä 8-pin PCI-E lisävirtaliittimelle)...
Tässä on taas vauhdissa idiootit Youtubettajat, joilla ei ole yhtään mitään käryä siitä, mistä he puhuvat. Ollaan kaikkitietävää elektroniikasta, mutta edes datalehtiä ei osata selata. Mutta saapahan paljon klikkejä, kun tekee sensaatiohakuisia juttuja tyhjästä ja laiskat ihmiset levittelee ne sitten ympäri nettiä, kun eivät viitsi edes tarkistaa, että puhuukohan tuo puhuva pää X totta vai ei...
Juu se Molexin liitin on testattu EIA-364-1000 -standardin mukaisesti, jossa sen täytyy kestää vähintään 30 irroitusta ja kiinnitystä ja resistanssi ei saa muuttua yli 20 milliohmia after dat. Mutta tosiaan sen kestävyydestä pitkässä juoksussa ei ole tietoa.

Ite oon 10 vuotta duunissa noita erilaisissa olosuhteissa testanneen voin sanoa, että ihan kevyesti kestää yli 30 irroitusta ja kiinnitystä. Vielä sen jälkeenkin kun niitä on kuritettu lämmössä (>+120°C) ja pakkasessa (jopa -100°C).
Mutta, edellinen pätee vain Molexin Mini Fit JR:eihin . Noi mitä PC:n powereissa ja kaapeleissa yms. käytetään harvemmin varmaan on sitä ns. "aitoa" Molexia. Ainakin ne tuntuu kädessä täysin eilaiselta kuin ne Molexit mitä päivittäin töissä käpistelen. Muovi jota rungoissa käytetään on erilaista, ja veikkaan että sama pätee myös itse liittimeen ja sen pinnoitukseen. Alunperin liitintyyppi on toki Molexin speksaama, mutta tuota liitintyyppiä kun voi valmistaa kuka tahansa, joten laatukin ihan varmasti heittelee laidasta laitaan. Muuthan valmistaja myyvät usein noita 1586041-6, 8 ja 12 -liittiminä koska eivät voi tienkään myydä sitä Mini Fit JR:änä, joka on Molexin oma tuotemerkki.
 
Tässä on taas vauhdissa idiootit Youtubettajat, joilla ei ole yhtään mitään käryä siitä, mistä he puhuvat. Ollaan kaikkitietävää elektroniikasta, mutta edes datalehtiä ei osata selata. Mutta saapahan paljon klikkejä, kun tekee sensaatiohakuisia juttuja tyhjästä ja laiskat ihmiset levittelee ne sitten ympäri nettiä, kun eivät viitsi edes tarkistaa, että puhuukohan tuo puhuva pää X totta vai ei...
Jaskapaskakaks-senttiä on tunnettu siitä et se on oikeesti vähän tyhmä äijä. Tai no ei nyt välttämättä niin tyhmä mut tapana on tehä videoita klikkiotsikoilla ilman et asiaa oikeasti tutkitaan, kunhan saadaan video ekana pihalle ja keskustelua herätettyä. Teki 3080 julkasun nurkilla videon niistä POSCapeista jotka on ytimen takana, muistaakseni väitti faktana sitä et kaatuilut johtuu siitä. Ajeli kanssa 3090 Kingpinillä aika rajuja kellotuksia samalla ku VRM:t oli paljaana, lopuks kanssa rikko sen kortin vielä. Tais olla jotain jonkun emolevyn kanssakin vielä missä burgeroitiin homma ihan pystyyn.

Eikä siinä mitään jos on väärässä, mut en kyl voi sanoa et toi palvelee ketään jos tehdään videoita missä esitetään omia mutuiluja faktoina ja sit ei edes myöhemmin sanota et joo, olin muuten väärässä, sori.
 
Jaskapaskakaks-senttiä on tunnettu siitä et se on oikeesti vähän tyhmä äijä. Tai no ei nyt välttämättä niin tyhmä mut tapana on tehä videoita klikkiotsikoilla ilman et asiaa oikeasti tutkitaan, kunhan saadaan video ekana pihalle ja keskustelua herätettyä. Teki 3080 julkasun nurkilla videon niistä POSCapeista jotka on ytimen takana, muistaakseni väitti faktana sitä et kaatuilut johtuu siitä. Ajeli kanssa 3090 Kingpinillä aika rajuja kellotuksia samalla ku VRM:t oli paljaana, lopuks kanssa rikko sen kortin vielä. Tais olla jotain jonkun emolevyn kanssakin vielä missä burgeroitiin homma ihan pystyyn.

Eikä siinä mitään jos on väärässä, mut en kyl voi sanoa et toi palvelee ketään jos tehdään videoita missä esitetään omia mutuiluja faktoina ja sit ei edes myöhemmin sanota et joo, olin muuten väärässä, sori.

Jep ja eikö tästä uusien PCIe liittimien ”30 irroituskerrasta” ollut kohu jo silloin kun RTX30-sarja julkaistiin
 
Jep ja eikö tästä uusien PCIe liittimien ”30 irroituskerrasta” ollut kohu jo silloin kun RTX30-sarja julkaistiin
Oli. 3080 ja 3090 Founders Editioneissa ainakin oli suht samanlainen liitin josta oli samaa juttua et ei voi irrotella liian monta kertaa. Oiskohan ollu about sama määrä. Ei oo kuitenkaa vielä kuulunu keneltäkään sitä et ois liitin menny paskaks.
 
Jep ja eikö tästä uusien PCIe liittimien ”30 irroituskerrasta” ollut kohu jo silloin kun RTX30-sarja julkaistiin
Ne eivät olleet PCIe-liittimiä vaan NVIDIAn oma kikkare (toki lähes sama fyysisesti mutta ei ihan vaikkei sideband-pinnejä laskettaisi)
 
ottamatta kantaa tuohon 30 kerran liitäntäkulumiseen niin itseäni kiinnostaa enemmän tuo virran jakautuminen splitteriä käytettäessä kun ei ole tarkotus uutta virtalähdettä ostella (jos nyt uutta korttiakaan ostaa, saa nähdä).
esim 3x8 pin oli testissä aika epätasainen jakauma jos 150w per 8pin on maksimi.
onko nykyisillä splittereillä ollut mitään vastaavaa kun en itse ainakaan muista mitään nähneeni aiheesta?

12VHPWR Connector To 3 x 8-Pin Adapter In 450W Test Load:
  • 1 x 8-Pin Connector = 25.34A or 282.4W (88% Increase Over 150W Rating)
  • 1 x 8-Pin Connector = 7.9A or 94.8W (Within 150W Power Rating)
  • 1 x 8-Pin Connector = 6.41 or 76.92W (Within 150W Power Rating)
linkki itse artikkeliin
 
ottamatta kantaa tuohon 30 kerran liitäntäkulumiseen niin itseäni kiinnostaa enemmän tuo virran jakautuminen splitteriä käytettäessä kun ei ole tarkotus uutta virtalähdettä ostella (jos nyt uutta korttiakaan ostaa, saa nähdä).
esim 3x8 pin oli testissä aika epätasainen jakauma jos 150w per 8pin on maksimi.
onko nykyisillä splittereillä ollut mitään vastaavaa kun en itse ainakaan muista mitään nähneeni aiheesta?

12VHPWR Connector To 3 x 8-Pin Adapter In 450W Test Load:
  • 1 x 8-Pin Connector = 25.34A or 282.4W (88% Increase Over 150W Rating)
  • 1 x 8-Pin Connector = 7.9A or 94.8W (Within 150W Power Rating)
  • 1 x 8-Pin Connector = 6.41 or 76.92W (Within 150W Power Rating)
linkki itse artikkeliin

Jos on virtalähteessä modulaariset kaapelit niin paras vaihtoehto on ostaa uusi kaapeli tuolle uudelle liittimelle joka tulee suoraan 2 tai 3x pci-e liittimiin powerin kyljessä niin jää yksi väliliitos pois.
Ainakin Corsairilta saa suoraan ja Cablemod sitten tekee ainakin Corsair, EVGA ja Seasonic / Asus virtalähteille.
 
Jos on virtalähteessä modulaariset kaapelit niin paras vaihtoehto on ostaa uusi kaapeli tuolle uudelle liittimelle joka tulee suoraan 2 tai 3x pci-e liittimiin powerin kyljessä niin jää yksi väliliitos pois.
Ainakin Corsairilta saa suoraan ja Cablemod sitten tekee ainakin Corsair, EVGA ja Seasonic / Asus virtalähteille.
Jos 8 pin on mitotettu 150w niin tuo 2 liittimen käyttäminen vaikuttaa hieman epäilyttävältä... se että tuleeko 4090 mallia varten update mallit kun nuissa adaptereissa lukee spekseissä että 3090:stä varten suunniteltu.
Ainakin EVGA:lla oli näin.
 
Jos 8 pin on mitotettu 150w niin tuo 2 liittimen käyttäminen vaikuttaa hieman epäilyttävältä... se että tuleeko 4090 mallia varten update mallit kun nuissa adaptereissa lukee spekseissä että 3090:stä varten suunniteltu.
Ainakin EVGA:lla oli näin.
Se Corsairin menee käsittääkseni psu:lle kiinni eikä ole ns. adapteri vaan uusi johto. Ja ne lähdöthän on kaksipäiselle pcie 8pin:lle(2x 2x150) eli luulisi olevan ok.

Tuo epätasainen kuorma vähän ihmetyttää. Onko tuo kolmepäinen adapteri jotenkin kustu vai eikö tuossa toimi hyvin yksinkertainen logiikka, että sieltä uudesta liittimestä jaettaisiin vaan ne kuusi 12v-johtoa kolmelle eli 2 per letku?
 
Tuo epätasainen kuorma vähän ihmetyttää. Onko tuo kolmepäinen adapteri jotenkin kustu vai eikö tuossa toimi hyvin yksinkertainen logiikka, että sieltä uudesta liittimestä jaettaisiin vaan ne kuusi 12v-johtoa kolmelle eli 2 per letku?
Piti kaivaa hetki että löysin aiheesta aiemmmin olleen jutun...
EVGA joutu lyömään väli elektroniikkaa adapteriin että saivat sen toimimaan tasaisesti ellen väärin käsittänyt...
EVGA-KINGPIN-POWER-ADAPER-2-850x850.jpg

EVGA-KINGPIN-POWER-ADAPER-1-850x850.jpg





Itse mietin että voi olla kohta fiksumpaa ostaa toi evga adapteri ja kolvata yksi 12 pinninen pois tuosta niin saa laadukkaan adapterin.
 
Piti kaivaa hetki että löysin aiheesta aiemmmin olleen jutun...
EVGA joutu lyömään väli elektroniikkaa adapteriin että saivat sen toimimaan tasaisesti ellen väärin käsittänyt...
EVGA-KINGPIN-POWER-ADAPER-2-850x850.jpg

EVGA-KINGPIN-POWER-ADAPER-1-850x850.jpg





Itse mietin että voi olla kohta fiksumpaa ostaa toi evga adapteri ja kolvata yksi 12 pinninen pois tuosta niin saa laadukkaan adapterin.
NVIDIAn poropietariliitin ei ole yhteensopiva 12VHPWR:n kanssa vaikkei sideband-pinnejä otettaisikaan huomioon. Ei sovi samaan liittimeen.
 
Pff... noh ei kai auta kuin odotella jos tulee päivitetty versio...
EVGAlta ei ole ainakaan tulossa, missasit vissiin uutisen reilu viikko sitten kun yhtiö ilmoitti että eivät tee enää mitään yhteistyötä NVIDIAn kanssa (pl jo julkaistujen näyttisten tuki)
 
NVIDIAn poropietariliitin ei ole yhteensopiva 12VHPWR:n kanssa vaikkei sideband-pinnejä otettaisikaan huomioon. Ei sovi samaan liittimeen.
Kun kerta 40-sarjan FE-kortit käyttää 12VHPWR-liittimiä niin mikäs ongelma tässä nyt on? Toki ei käy 30-sarjan FE-korttiin tuo EVGA:n adapterin liitin.
Ei oo Nvidian liittimet nämä:
24G-P5-4998-KT_XL_11.png
 
EVGAlta ei ole ainakaan tulossa, missasit vissiin uutisen reilu viikko sitten kun yhtiö ilmoitti että eivät tee enää mitään yhteistyötä NVIDIAn kanssa (pl jo julkaistujen näyttisten tuki)
Virtalähteiden valmistus jatkuu ja omasta mielestäni tämä ei koske virtalähteitä ja näiden adaptereita....
Kerta hankala myydä virtalähteitä jos ne ei käy mihinkään
 
Kun kerta 40-sarjan FE-kortit käyttää 12VHPWR-liittimiä niin mikäs ongelma tässä nyt on? Toki ei käy 30-sarjan FE-korttiin tuo EVGA:n adapterin liitin.
Ei oo Nvidian liittimet nämä:
24G-P5-4998-KT_XL_11.png
Jaa toi olikin jo noille, luulin että NVIDIAn 12-pinnisille. Se muuttaa toki kaiken
Virtalähteiden valmistus jatkuu ja omasta mielestäni tämä ei koske virtalähteitä ja näiden adaptereita....
Kerta hankala myydä virtalähteitä jos ne ei käy mihinkään
Siihen on yleensä ratkaisuna uudet mallit 12VHPWR-tuella, näyttisvalmistajat miettii niitä adaptereita. Mutta tässä tosiaan tuli väärinkäsitys kun luulin tuon adapterin olevan 2xNV12pin eikä 2x12VHPWR
 
Jaa toi olikin jo noille, luulin että NVIDIAn 12-pinnisille. Se muuttaa toki kaiken

Siihen on yleensä ratkaisuna uudet mallit 12VHPWR-tuella, näyttisvalmistajat miettii niitä adaptereita. Mutta tässä tosiaan tuli väärinkäsitys kun luulin tuon adapterin olevan 2xNV12pin eikä 2x12VHPWR
Kyllä tässä härdellissä parhaillekkin virheitä sattuu...
Mutta tuo olisi mielenkiintoista kyllä nähdä jossain arvostelussa testattuna onko sillä vaikutusta kaapelien väliseen kuormitukseen... että tasaako tuo kaapelien välisen kuormituksen että yksi kaapeli ei ylikuormitu...

Muistelen että jossain testissä sen yhden 8 pinnisen kautta olisi mennyt yli 250w
 
Tää on Nvidia ketju ja paljon puhutaan 40x0 sarjan pettymyksestä ja aiemman sukupolven ostamisesta (mitä itsekin harkitsen), niin eikö porukkaa kiinnosta AMD:n puoli yhtään? Pidetäänkö Nvidiaa täällä yleisesti ykkösvaihtoehtona? Minua on kiinnostanut nyt 3080-3090 mallit ja niiden hinnanalennukset kovasti, mutta eikö esimerkiksi 6900 XT, 6950 XT tai huippucustom mallin 6800 XT olisi alennuksesta myös aika hyvä ostos? 6900 XT on saanut jopa jollain 800 eurolla varsinkin outleteista (ja tais olla myös hyvä Asus cashback kampanja vasta) ja se on kuitenkin about 3090 RTX tehoinen. Vai arvostaako porukka säteenseurantaa niin paljon, että vain Nvidia kelpaa? Itse todennäköisesti pärjäisin hyvin ilman kyseistä ominaisuutta ja joku 6900 XT 600-700 eurolla olisi jo aika kova. Myös nuo huippu 6800 XT mallit kellottuu samoihin tehoihin.

Pahoittelen jos on offtopiccia puhua AMD:stä.

Itse taidan nyt kuitenkin yrittää jaksaa tuonne AMD:n tulevien uutuuksien julkaisuun ja nähdä mitä markkinat silloin tarjoaa. Ellei tule ihan pirun hyviä tarjouksia ennen sitä. AMD tais vasta taas laskea hintoja lisää.
 
Tää on Nvidia ketju ja paljon puhutaan 40x0 sarjan pettymyksestä ja aiemman sukupolven ostamisesta (mitä itsekin harkitsen), niin eikö porukkaa kiinnosta AMD:n puoli yhtään? Pidetäänkö Nvidiaa täällä yleisesti ykkösvaihtoehtona? Minua on kiinnostanut nyt 3080-3090 mallit ja niiden hinnanalennukset kovasti, mutta eikö esimerkiksi 6900 XT, 6950 XT tai huippucustom mallin 6800 XT olisi alennuksesta myös aika hyvä ostos? 6900 XT on saanut jopa jollain 800 eurolla varsinkin outleteista (ja tais olla myös hyvä Asus cashback kampanja vasta) ja se on kuitenkin about 3090 RTX tehoinen. Vai arvostaako porukka säteenseurantaa niin paljon, että vain Nvidia kelpaa? Itse todennäköisesti pärjäisin hyvin ilman kyseistä ominaisuutta ja joku 6900 XT 600-700 eurolla olisi jo aika kova. Myös nuo huippu 6800 XT mallit kellottuu samoihin tehoihin.

Pahoittelen jos on offtopiccia puhua AMD:stä.

Itse taidan nyt kuitenkin yrittää jaksaa tuonne AMD:n tulevien uutuuksien julkaisuun ja nähdä mitä markkinat silloin tarjoaa. Ellei tule ihan pirun hyviä tarjouksia ennen sitä. AMD tais vasta taas laskea hintoja lisää.

AMD ei taida vieläkään oikein hanskata RT-pelejä?
 
NVidia hanskaa tosiaan RT:n paremmin. Pelit joissa RT:tä ei käytetä pyörii jo muutenkin niin hyvin, ettei kortilla ole enää juuri väliä. NVidialla on myös lähes monopoli AI laskennassa ja muissa hyötysovelluksissa CUDA:n vuoksi. Puhtaaseen pelaamiseen on AMD varmasti ihan toimva valinta.
 
Kannattaa odotella mitä AMD tuo pöytään, aivan varmasti sieltä tulee kova kortti rasteri tehoiltaan, RT tehokin luulisi menevän nyt edes RTX 3080-3090 tasolle, niin pääsee ainakin toteamaan ettei se RT huonoja pelejä paranna.
 
Tää on Nvidia ketju ja paljon puhutaan 40x0 sarjan pettymyksestä ja aiemman sukupolven ostamisesta (mitä itsekin harkitsen), niin eikö porukkaa kiinnosta AMD:n puoli yhtään? Pidetäänkö Nvidiaa täällä yleisesti ykkösvaihtoehtona? Minua on kiinnostanut nyt 3080-3090 mallit ja niiden hinnanalennukset kovasti, mutta eikö esimerkiksi 6900 XT, 6950 XT tai huippucustom mallin 6800 XT olisi alennuksesta myös aika hyvä ostos? 6900 XT on saanut jopa jollain 800 eurolla varsinkin outleteista (ja tais olla myös hyvä Asus cashback kampanja vasta) ja se on kuitenkin about 3090 RTX tehoinen. Vai arvostaako porukka säteenseurantaa niin paljon, että vain Nvidia kelpaa? Itse todennäköisesti pärjäisin hyvin ilman kyseistä ominaisuutta ja joku 6900 XT 600-700 eurolla olisi jo aika kova. Myös nuo huippu 6800 XT mallit kellottuu samoihin tehoihin.

Pahoittelen jos on offtopiccia puhua AMD:stä.

Itse taidan nyt kuitenkin yrittää jaksaa tuonne AMD:n tulevien uutuuksien julkaisuun ja nähdä mitä markkinat silloin tarjoaa. Ellei tule ihan pirun hyviä tarjouksia ennen sitä. AMD tais vasta taas laskea hintoja lisää.
Ehdottomasti täälläkin odottelemassa AMD:n julkaisua tämän 4000-sarjan flopin jälkeen. Toki kiire ei ole päivittää ja aina voi korttisukupolven skipatakin, jos ei kumpikaan leiri miellytä. Paria RT peliä pelannut nykyisellä 3070:lla, eikä ole päässyt ainakaan omalle kaivattujen grafiikkaominaisuuksien listalle.

Itse olen toisaalta hieman naimisissa Nvidian kanssa, kun vuoden 2019 B9 töllö on juuri sitä viimeistä vuosimallia, johon LG ei vaivautunut laittamaan kuin G-sync tuen. (Internetistä löytää joitakin kokemuksia joiden mukaan CRU:lla voisi saada toimimaan, mutta hirveä sählinki lähteä moista koittamaan, jos ei lopulta toimikaan.)
 
Alkaa hinnat vissiin tuleen pikku hiljaa korteille tietoon


Jimms:llä toistaiseksi place holder hinnat

Proshop listannut paljon korttien hintoja

Proshopin listassa tämä pisti silmään
product_16638972986805f308a6bb064af4179b133e253899.png
 
Viimeksi muokattu:
Alkaa hinnat vissiin tuleen pikku hiljaa korteille tietoon

Onko verkkokaupan tuotetiedoissa virhe, vai onko Suprim X power limit huomattavasti pienempi kuin TUF? Suprim virtalähdesuositus 850W ja TUF 1200W...
 
Onko verkkokaupan tuotetiedoissa virhe, vai onko Suprim X power limit huomattavasti pienempi kuin TUF? Suprim virtalähdesuositus 850W ja TUF 1200W...

Hmm, näyttää olevan 850W myös MSI:n omilla sivuilla:

 

Statistiikka

Viestiketjuista
262 733
Viestejä
4 564 154
Jäsenet
75 013
Uusin jäsen
52375

Hinta.fi

Back
Ylös Bottom