- Liittynyt
- 17.10.2016
- Viestejä
- 1 884
Mistä tiedät ettei mikään muu sirkuta? Eikös noiden arvostelut tule vasta huomenna?Onko nuissa muiden valmistajien korteissa erillainen virransyöttö, vai miksi ne ei sirkuta niin paljoa kuin FE?
Follow along with the video below to see how to install our site as a web app on your home screen.
Huomio: This feature may not be available in some browsers.
Mistä tiedät ettei mikään muu sirkuta? Eikös noiden arvostelut tule vasta huomenna?Onko nuissa muiden valmistajien korteissa erillainen virransyöttö, vai miksi ne ei sirkuta niin paljoa kuin FE?
Kyllä täälläkin huolettaa, katsotaan huomiset muiden valmistajien tulokset vielä.Ei täällä vissiin kovin tunnu porukkaa huolettavan tuo kortin sirkuttaminen, muutamaa soraääntä (pun intended) lukuunottamatta? Kuka semmoista oikeasti jaksaa kuunnella?
Onko nuissa muiden valmistajien korteissa erillainen virransyöttö, vai miksi ne ei sirkuta niin paljoa kuin FE?
Tietysti IOTechin testistä...Mistä tiedät ettei mikään muu sirkuta? Eikös noiden arvostelut tule vasta huomenna?
Tämä onnistuu ihan nVidia control panelinkin kautta, joten ei haittaa vaikkei pelistä löydy.Sirkut ei pelota jos pelissä on mahdollista cappia fps.
No mutta kun NDA estää tuon kertomisen vielä.FE arvostelussa olisi voitu mainita myös, kellottuuko FE korkeammalle kuin näytönohjainvalmistajien omat kortit ja myös käykö se lämpimämpänä. Olisi arvokas tieto huomista F5-jumppaa ajatellen.
FE arvostelussa olisi voitu mainita myös, kellottuuko FE korkeammalle kuin näytönohjainvalmistajien omat kortit ja myös käykö se lämpimämpänä. Olisi arvokas tieto huomista F5-jumppaa ajatellen.
Ei oo sama PCB, FE on täysin customi ja saatavilla vaan nVidian lapussa. Coil whine on tietysti jokasella kortilla yksilöllistä, mutta onhan tosta parikin revikkaa sanonu jo et kelat vinkuu. Tuskin kannattaa suurempia johtopäätöksiä vedellä, sillä ihan sama minkä lapun ostat niin mahdollisuus sille on aina.Tietysti IOTechin testistä...
Siellä siis tuumataan että FE sirkuttaa enemmän kuin AIB:t. Mutta eikö noissa AIB:ssä ole sama PCB? Yritän nyt keksiä että onko tuo sirkutus vain testikortin yksilöongelma, vai vaivaako tuo kaikki FE-lappuja.
No se totuus on valitettavasti sitä et 3090 tehot saat aikalailla laskemalla sen n. 10-15% noihin lukuihin lisää, ja tääkin on aika optimistinen laskelma. Monta kertaa tässäkin threadissa käyty asia läpi. Eli 3440x1440 resolla 144fps jää silläkin haaveeks, voin vielä kertoa senkin verran paljastusta et se todennäkösesti jää ens sukupolvessakin haaveen puolelle.
Ensimmäinen 1440p 144hz näyttö tais tulla joskus 2013/2014, siitä lähtien porukka on jokasesta sukupolvesta lähtien kuolannu sitä et jospa tällä kertaa sais näytöstä kaiken irti. Luulis että oltais jo tajuttu ettei se oo mahdollista, koska pelien vaatimukset kasvaa jatkuvasti. Se ei vaan yksinkertasesti oo mahollista paahtaa jokasta uusinta peliä napit kaakossa sillä 144fps lukemalla napit kaakossa, eikä todennäkösesti koskaan tuu olemaankaan. Toisaalta onneks nyt vihdoin tunnutaan olevan siinä pisteessä et se 4k 60fps ja ylikin alkaa olemaan jo täysin mahdollista pelissä kun pelissä, viimeistään sit DLSS avustuksella. Toisaalta nyt kans ne 4k 144hz näytöt on tuloillaan, ja tää koko homma alkaa taas alusta kun aletaan pohtimaan missä vaiheessa saadaan niistä näytöistä kaikki irti. Ja se vastaus on sama siihenkin.
Etkö jaksanut lukea tuota artikkelia? Tuulettimet on kokonaan sammuksissa.Onko kellään osunut silmiin vielä testeistä tietoa että sammuttaako 3080 FE ilman kuormaa tuulettimet kokonaan että sais täysin hiljaiseksi työpöytäkäytössä?
Etkö jaksanut lukea tuota artikkelia? Tuulettimet on kokonaan sammuksissa.
Noh, en voi sanoa etteikö olis epäilyksiä tosta 10gb riittävyydestä ollu. Eihän toi nyt hirveen hyvältä näytä kun jo nykyset pelit koputtelee tota 10gb vramin määrää. Mut eipä toisaalta omaan ostopäätökseen vaikuta, tuplahinnan maksaminen overkill VRAMista ja pienestä suorituskykylisästä on vähän sellanen keissi et mahdoton sitä on perustella itelleen, varsinkin kun sillä säästyneellä rahalla vois päivitellä vaikka mitä muuta kivaa.Tässä pisti omaan silmään aika kovasti esim Doom eternalin kohdalla 13min VRAM.
1080ti pärjää paremmin 11gb Vramin ansiosta, kuin 2080 tai 2080super. Kun tiputtavat asetuksia siten, että VRAM usage jää alle 8gb, 1080ti jää näiden taakse.
Tämä taas kertoo, että 8gb kortit ovat jo nyt selkeästi joissain tapauksissa muistirajoitteisia, joten tuo 10gb VRAM kyllä ei houkuttele 3080 tapauksessa, kuten jo aiemmin aavistelin.
Olin jo melkein valmis F5 maratoniin huomenna, mutta taidampa sittenkin odottaa 3090. Jos sillä sitten pärjäisi taas saman 3-4V, kuten 1080ti:llä.
Noh, en voi sanoa etteikö olis epäilyksiä tosta 10gb riittävyydestä ollu. Eihän toi nyt hirveen hyvältä näytä kun jo nykyset pelit koputtelee tota 10gb vramin määrää. Mut eipä toisaalta omaan ostopäätökseen vaikuta, tuplahinnan maksaminen overkill VRAMista ja pienestä suorituskykylisästä on vähän sellanen keissi et mahdoton sitä on perustella itelleen, varsinkin kun sillä säästyneellä rahalla vois päivitellä vaikka mitä muuta kivaa.
Ei auta kun laitella 3080 tilaukseen ja vaihdella sit tarpeen mukaan Ti/Super malliin kun sellanen tulee sit isommalla VRAMilla. Häviäähän tossa jonkun satasen vrt. venaileminen, mutta mulle ihan yhdentekevä se satanen, mikäli sen Ti/Super mallin tuleminen kestää 3kk tai yli. Eli ellei se päivitetty 3080 tuu sieltä suorana vastauksena AMD:n tarjonnalle, niin vaikee kokea menettävänsä mitään tällä menettelyllä.
Meidät Ultrawide pelaajat unohdetaan yleensä. Tällä 100Hz paneelilla on menty kohta 4 vuotta ja mennään vieläkinNäin UW pelaajana kiitokset tästä!
3440x1440 näyttää pääsääntöisesti olevan 30-40% parempi kuin 2080ti. Joissain peleissä käy alle 30% ja joissain kuten Resident Evil 3:ssa menee 43%.
Ei oo sama PCB, FE on täysin customi ja saatavilla vaan nVidian lapussa. Coil whine on tietysti jokasella kortilla yksilöllistä, mutta onhan tosta parikin revikkaa sanonu jo et kelat vinkuu. Tuskin kannattaa suurempia johtopäätöksiä vedellä, sillä ihan sama minkä lapun ostat niin mahdollisuus sille on aina.
Mahdollinen vinkuminen on ihan yksilöstä kiinni, voi ne huippumallitkin vinkua, vaikka millaiset virransyötöt olisi.
Juurikin näin - ongelmana vain, että huomenna klo 16 alkaa shutup-and...money-frenzy, ja pitäis tietää mihin arpaan rahansa laittaa.Nyt pitää katsella ensiksi millä vinkuuko kaikki FE:t vai vain satunnaisesti. Siritykset ja vingunat ovat sellaisia, mitä meikäläinen ei hirveästi kestä kuunnella. Muuten jäähy vaikuttaa oikein pätevältä (tosin onhan se kulutus aika karmiva).
io-tech pääsi videocardzin listalle! Torille!![]()
![]()
NVIDIA GeForce RTX 3080 Founders Edition Review Roundup - VideoCardz.com
Today NVIDIA lifts the embargo on GeForce RTX 3080 Founders Edition. Reviews of NVIDIA GeForce RTX 3080 Founders Edition For reasons unknown, NVIDIA decided to split the review embargo for Founders Edition (lifting today) and board partners’ card reviews (lifting tomorrow). Today we can only...videocardz.com
Noh, jos laskeskelee et se 3080ti ois sen tonnin lappu, niin vanhan kun myy ja ottaa 100€ takkiin, niin sehän ois sen 1100€ lappu sit käytännössä. 3090 on sen n. 1600€ halvin malli niin ottaishan tossa sen 500€ "häviötä". Toki 3090 jatkais edelleen kuninkaana, mutta jos se tuleva lappu on tosiaan muutakin kun 3080 josta nostettu muisti 20gb, niin luulis siinä olevan pieni parannus suorituskykyynkin. Mikä sit aiheuttaa et se kohtalaisen pieni ero 3080 ja 3090 välillä kapenee entisestään ja sillä 500€ lisäinvestoinnilla saatu hyöty voi pahimmassa tapauksessa olla aika häviävän pieni. Toki plussapuolena ois sit ollu se paras lappu käytössä jo pidempään, jolle voi sit oman arvonsa laskea.Joo näinhän se on. Itse tosin ajattelen, että jos nyt ostan 3080 ja myöhemmin 3080ti tms., niin sama ostaa suoraan 3090 ja hävitä samantien se muutama satku. Ostamalla ensin 3080 ja päivittämällä se ehkä n.1ke maksavaan 3080ti:n myöhemmin tulee about sama kustannus(max 200-300€ vähemmän), kuin suoraan 3090.
Jos tuolla nyt pärjäisi vähän pidempään taas.
Mutta jos julkkarissa tulee joltain 20gb malli.![]()
Yhtä turvallista kun mikä tahansa muu kortti. Arpapeliä se on. Ja toi Asusin paasaaminen on just sitä, markkinointia. Ihan samalla tavalla ne Asuksenkin kortit vinkuu pikasen googletuksen perusteella.Okei, eli olet sitä mieltä että io-techin löydös että FE vinkuu enemmän kuin muut kortit on sattumaa joka johtuu yksilöstä, eikä designista. Tämän perusteella olisi turvallista ostaa se FE
Tämä ei ihan pidä paikkaansa, sillä ainkain joku vuosi sitten ASUS mainosti käyttävänsä erikoisvalmisteisia keloja vinkumisen minimointiin.
Ei vaan mahdu minun järkeen miksi näin yksinkertaiseen asiaan ei kiinnitetä huomiota että tuosta erittäin ikävästä ja ihmisyyttä ja elämää ja universiumia ja sielua ankeuttavasti ilmiöstä päästäisiin kokonaan eroon.
4K testeissä? Kai nuo testit voi ajaa vaikka 720p resolla ja todeta, että 3080 on yhtä nopea kuin 980Ti, mutta mitä järkeä siinä on?Siis missä testeissä 3080 on 2080 Superia +60% nopeampi? Juuri linkittämäni TechPowerUp niin esim. 1440p resoluutiolla kun 3080 on 100% niin 2080S on 70%, eli 3080 on +30% nopeampi kuin 2080S?
Ja tuossa samassa kaaviossa vs 2080Ti niin on +19% nopeampi?
Nuo parhaat perf/W optimit voivat löytyä malliston alemmilta oksilta.
Tarvii odottaa testejä, ärsyttävää markkinointia taas kerran, joku voisi haastaa oikeuteen.
Kuuntele kohta:
(29:57 - 30:00) ja sitten katso tätä:
![]()
Jokaisella on oikeus mielipiteeseensä, mutta 1,9x perf/w + "twice the performance of 2080" niin mulle jää huijattu olo -- vain mielipiteeni.
Huom, RTX 2080 == GTX 1080Ti, joka julkaistiin 3,5v sitten. Eli +47% parannus suorituskykyyn 3,5v jälkeen ei ole mielestäni hyvä.
Se 1.9 x perf/w lienee ihan totta. Mitattu vaan RTX 2080 rasituksessa ja RTX 3080 samalla fps eli tyhjäkäynnillä määrätyssä pelissä. En vain muista missä se Nvidian oma esitys oli, ehkä jollain videolla?Mitä tulee energiatehokkuuteen, niin paras nopealla katsauksella näkemäni vertailu oli Computerbasella. Vertasivat koko pelisetillään 3080 @ 270W vs 2080Ti @ 270W, ja tulos oli että perf/W parannus oli keskimäärin 27%. Paras yksittäinen peli oli Doom Eternal (tässäkin), siinä Ampere parempi 44%. Eli jos nämä ylipäätään yltää lähellekään Nvidian väittämää 1,9x parannusta, niin tosi alas pitää mennä jännitekäppyrällä.
No se totuus on valitettavasti sitä et 3090 tehot saat aikalailla laskemalla sen n. 10-15% noihin lukuihin lisää, ja tääkin on aika optimistinen laskelma. Monta kertaa tässäkin threadissa käyty asia läpi. Eli 3440x1440 resolla 144fps jää silläkin haaveeks, voin vielä kertoa senkin verran paljastusta et se todennäkösesti jää ens sukupolvessakin haaveen puolelle.
Ensimmäinen 1440p 144hz näyttö tais tulla joskus 2013/2014, siitä lähtien porukka on jokasesta sukupolvesta lähtien kuolannu sitä et jospa tällä kertaa sais näytöstä kaiken irti. Luulis että oltais jo tajuttu ettei se oo mahdollista, koska pelien vaatimukset kasvaa jatkuvasti. Se ei vaan yksinkertasesti oo mahollista paahtaa jokasta uusinta peliä napit kaakossa sillä 144fps lukemalla napit kaakossa, eikä todennäkösesti koskaan tuu olemaankaan. Toisaalta onneks nyt vihdoin tunnutaan olevan siinä pisteessä et se 4k 60fps ja ylikin alkaa olemaan jo täysin mahdollista pelissä kun pelissä, viimeistään sit DLSS avustuksella. Toisaalta nyt kans ne 4k 144hz näytöt on tuloillaan, ja tää koko homma alkaa taas alusta kun aletaan pohtimaan missä vaiheessa saadaan niistä näytöistä kaikki irti. Ja se vastaus on sama siihenkin.
Toi on vaan aivan turha metriikka. Ketään ei kiinnosta tulevien tuotteiden energiatehokkuus sellaisessa tilanteessa missä niitä ei koskaan oikeasti käytetä.Se 1.9 x perf/w lienee ihan totta. Mitattu vaan RTX 2080 rasituksessa ja RTX 3080 samalla fps eli tyhjäkäynnillä määrätyssä pelissä. En vain muista missä se Nvidian oma esitys oli, ehkä jollain videolla?
Eli oikeasti sama performance 1.9 x pienemmällä kulutuksella määrätyssä tilanteessa.
https://www.anandtech.com/show/16057/nvidia-announces-the-geforce-rtx-30-series-ampere-for-gaming-starting-with-rtx-3080-rtx-3090 sanoi:The immediate oddity here is that power efficiency is normally measured at a fixed level of power consumption, not a fixed level of performance. With power consumption of a transistor increasing at roughly the cube of the voltage, a “wider” part like Ampere with more functional blocks can clock itself at a much lower frequency to hit the same overall performance as Turing. In essence, this graph is comparing Turing at its worst to Ampere at its best, asking “what would it be like if we downclocked Ampere to be as slow as Turing” rather than “how much faster is Ampere than Turing under the same constraints”. In other words, NVIDIA’s graph is not presenting us with an apples-to-apples performance comparison at a specific power draw.
Se 1.9 x perf/w lienee ihan totta. Mitattu vaan RTX 2080 rasituksessa ja RTX 3080 samalla fps eli tyhjäkäynnillä määrätyssä pelissä. En vain muista missä se Nvidian oma esitys oli, ehkä jollain videolla?
Eli oikeasti sama performance 1.9 x pienemmällä kulutuksella määrätyssä tilanteessa.
Onko kenelläkään kummempaa insider infoa miten nuo 3080 kortit tulevat huomenna myyntiin ? Liekkö jo verkkokaupalla varastossa jemmassa ? Mielelläni viikonloppua varten kävisi lelun hakemassa![]()
Kysytään vielä vihonviimeinen kysymys sirkutuksesta (ja sitten vaikenen iäksi (ehkä (tuskin))): onko mikään muu sivusto iotechin lisäksi raportoinut että FE vinkuu kaikissa tilanteissa rasituksessa, myös matalalla fps:llä?
Eikö nuo gigantin varastosaldot ole keskusvaraston saldoja? Silloinhan ne olisivat koko pohjoismaiden kaikkien giganttien kortit ja kun se laskuri menee ainakin 100+ asti niin sehän olisi suorastaan hälyttävän vähän. Vai olenko ymmärtänyt väärin?Ainakin Gigantilla näkyy monien mallien kohdalla saldona +25 eli eiköhän noita kohtuullisesti ole saatavilla..
Mielestäni et, vaan itse olen myös ymmärtänyt juuri noin.Vai olenko ymmärtänyt väärin?
Nuo parhaat perf/W optimit voivat löytyä malliston alemmilta oksilta.
Haussa ne näyttää 0 mutta jos menet jonkun 3000 sarjan kortin tuotesivulle niin "muut katsoivat myös" tuotekorteissa samojen korttien saldona lukee 25+.Itellä ainakin näyttää kaikille 3080:lle Gigantissa "Ei keskusvarastolla"..?
Muistikuvani on että viime syksynä 2080 tiittistä myytiin satoja muutamassa tunnissa 1050,- hintaan, ja niitä oli kuitenkin ollut saatavilla jo vuoden päivät.Edelleen varmaan 95% pc pelaajista vetää heikommalla raudalla niin tuskin näitä 3080/3090 montaa sataa Suomessa myydään launchissa. Näin mutu tuntumalla![]()
Itellä näkyy siellä vaan jotain omppuluureja ja telkkareita.Haussa ne näyttää 0 mutta jos menet jonkun 3000 sarjan kortin tuotesivulle niin "muut katsoivat myös" tuotekorteissa samojen korttien saldona lukee 25+.
Onko kukaan törmännyt vielä artikkeliin, jossa oltaisiin 3080:stä viritetty jännitekäyrän avulla?
Jokaisessa tuntuu olevan tähän asti vain perinteinen noin +35MHz nosto corelle ja +700MHz muisteille, jolloin kortti hakkaa pahasti power limittiin, mutta kiinnostavaa olisi tietää saako curvella parempia tuloksia.
Veljellä sattuu olemaan asus strix 1080ti, joka vinkuu suht kovasti.Okei, eli olet sitä mieltä että io-techin löydös että FE vinkuu enemmän kuin muut kortit on sattumaa joka johtuu yksilöstä, eikä designista. Tämän perusteella olisi turvallista ostaa se FE
Tämä ei ihan pidä paikkaansa, sillä ainakin joku vuosi sitten ASUS mainosti käyttävänsä erikoisvalmisteisia keloja vinkumisen minimointiin.
Ei vaan mahdu minun järkeen miksi näin yksinkertaiseen asiaan ei kiinnitetä huomiota että tuosta erittäin ikävästä ja ihmisyyttä ja elämää ja universiumia ja sielua ankeuttavasti ilmiöstä päästäisiin kokonaan eroon.
Käytämme välttämättömiä evästeitä, jotta tämä sivusto toimisi, ja valinnaisia evästeitä käyttökokemuksesi parantamiseksi.