Virallinen: AMD vs Intel keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Samoin aika monet näistä debaateista ovat irrelevantteja, kun harva oikeasti tietää miten pelit edes säikeistyvät jatkossa useammalle ytimelle. Ovatko x86-prosessorit kehittyneet mitenkään merkittävällä tavalla sitten Sandy Bridgen? Jos miettii 2004-2011 väliä, niin erot ovat älyttömiä ja 2011-2017 kuluttajapuolella ei tapahtunut ennen tätä vuotta ~mitään merkittävää.

Jos miettii pelkkää pelaamista ja alla on nyt esim. 2600K (mikä kellottuu edes 4.8GHz) ei ole MITÄÄN syytä päivittää prosessoria.
Tämä on toisaallekin postattu mutta laitetaan vielä tännekin:


Eli peleissä ei ole yhtään mitään syytä ostaa Ryzen tai Kahvijärvi tms. prosessoria jos ei koneellaan muuta tee. Mikäli tekee niin sen mukaan sitten haluaako 2 vai 4 ydintä lisää tekee päätöksensä.
 
Trollaaminen on epäsuotavaa väittelyketjussakin. Jos 720p pelitestien merkitys ei aukea, niin kannattaa tutustua niiden taustoihin (kuin et tietäisi). Intel vie yleisesti pelitesteissä nyt ja lähitulevaisuudessa. Uusien GPUiden myötä ero vain kasvaa.

Trollaati trollaati vaan itsellesi. Väitteet 720p pelitestien hyödyllisyydestä perustuvat kahteen oletukseen:

1. Tulevaisuuden pelit käyttävät yhtä huonosti ytimiä kuin nykyiset
2. Tulevaisuudessa näytönohjaimien tehot kasvavat huimasti

Vaihtoehto 1 jää nähtäväksi, vaihtoehto 2 ei tule toteutumaan. Näytönohjaimissa ei ole odotettavissa kovin nopeaa kehitystä koska 14/16nm valmistustekniikoista ei huikeaa parannusta saada seuraaviin kolmeen vuoteen. 28nm:lla mentiin melkein 5 vuotta, se oli poikkeus joka ei tule toistumaan.

Näin ollen 720p pelitestien merkitys on hyvin lähellä olematonta.

No Itanium oli alunperin HPn projekti ja suunniteltu PA-RISCin korvaajaksi jo ennen kuin Intel oli projektissa mukana.

Alpha tapettiin ja MIPS pakotettiin sulautettuihin sitten vasta Intelin tultua projektiin mukaan.

Alpha: Compaq oli ostanut DECn ja ilmeisesti Compaqilla haluttiin säästää ja johto tyhmyyksissään uskoi Intelin lupauksia Itaniumista.

MIPS taas oli muutenkin jo vähän jäänyt Alphasta, Powerista ja PA-RISCistä jälkeen, ja Itanium oli vain lopullinen naula arkkuun, SGI:lle (joka sitä ennen teki järeitä MIPS-pohjaisia koneita) "helppo tie ulos" oli siirtyä Itaniumiin. Vaikka valinta jälkikäteen katsottuna oli selvästi väärä, mikä tahansa muu olisi ollut parempi kuin Itanium.


Se mikä tässä tilanteessa on näppärää on oikeastaan Alphan kosto ARMv8:n muodossa; ARMv8:ssa on selvästi yhtäläisyyksiä Alphaan, ja ARMv8 on ainoa arkkitehtuuri joka nykyään tosissaan haastaa x86sta.

HP:n ja Intelin yhteistyön myötä oli selvää ettei HP kehitä PA-RISC prosessoreita sen kummemmin vaan Itanium tulee ne korvaamaan.

Alphan suhteen olisi hauska tietää totuus, en tiedä vaikka sellainen olisikin saatavilla jostakin. Tuntuu melko omituiselta hylätä hyvä arkkitehtuuri ja laittaa paukut johonkin josta ei tiedetä muuta kuin "Intel sanoo sen olevan nopea". MIPS:n toimet ymmärrän kyllä.

Eli periaatteessa HP:lla oli selvä syy, MIPS:lla perusteltu syy, Alphan suhteen propaganda puri siihen malliin etten ihmettelisi lahjuksia tai vastaavia.

Tuosta ARMv8:n yhtäläisyyksistä Alphaan löytyykin mielenkiintoisia artikkeleita, kiitos vinkistä.
 
Jos miettii pelkkää pelaamista ja alla on nyt esim. 2600K (mikä kellottuu edes 4.8GHz) ei ole MITÄÄN syytä päivittää prosessoria.
Kuinka moni 2600K setti oikeesti kulkee 2400 muistilla. Pitää jo alkaa valikoimaan komponentteja. Kahvijärveä on ajettu "vain" 2666 muisteilla.
 
Kuinka moni 2600K setti oikeesti kulkee 2400 muistilla. Pitää jo alkaa valikoimaan komponentteja. Kahvijärveä on ajettu "vain" 2666 muisteilla.

Jeps, noissa on varmasti 1333MHz ja 1600MHz ylivoimaisesti suosituimmat muistit, joilla ajetaan.
 
Trollaati trollaati vaan itsellesi. Väitteet 720p pelitestien hyödyllisyydestä perustuvat kahteen oletukseen:
HP:n ja Intelin yhteistyön myötä oli selvää ettei HP kehitä PA-RISC prosessoreita sen kummemmin vaan Itanium tulee ne korvaamaan.

Luitko nyt yhtään mitä kirjoitin?

Itanium oli alunperin HPn, EI INTELIN projekti.

Itanium sai vuonna 1989 ALKUNSA suunnitelmana jolla HP korvaa PA-RISCin. Intel ei liittynyt projektiin mitenkään tässä vaiheessa.

HP teki 5 vuotta tutkimusta ihan yksin Itaniumiin liittyen (1989-1994) ja vasta 1994 intel tuli projektiin mukaan.

Suunnitelma korvata PA-RISC Itaniumilla oli siis olemassa jo 5 vuotta ennen kuin Intel tuli projektiin mukaan.


Ja alkuperäisessä muodossaan HPllä se Itanium-projekti oli vähän järkevämpi.
Intelin myötä siihen tungettiin esim. hidas osittainen x86-yhteensopivuustila mukaan
Itanium olisi saatu varmaan myös paria vuotta aiemmin pihalle jos sitä x86-yhteensopivuutta ei olisi siihen ängetty.


Oikeastaan Itanium vaikutti alunperin järkevältä idealta kunnes Pentium Pro, MIPS R10000, Alpha EV6(21264) ja PA-8000 tulivat n. vuonna 1996. Ne osoittivat, että "perinteinen" käskykanta yhdessä rekisterien uudelleenjärjestämisen ja käskyjen uudelleenjärjestämisen kanssa toimii ja antaa hyvän käskytason rinnakkaisuuden, eikä tarvi maagista yksisarvikääntäjää(kuten itanium tarvii), vaan ajaa nopeasti myös huonon kääntäjän tuottamaa koodia.

Siinä vaiheessa vaan kun nämä neljä prosessoria tulivat, kaikkien olisi niiden suorituskyvystä pitänyt tajuta, että Itanium oli harha-askel, ja lopettaa se, tai tehdä siitä pelkkä signaaliprosessori. Mutta sen sijaan (yhden jo aiemmin julistetun lisäksi) kaksi muutakin näistä neljästä julistettiin korvattavaksi Itaniumilla. Koska firmojen johtoportaassa oli porukkaa jotka eivät tietokonearkkitehtuurista ymmärtäneet mitään, ja hype oli kova.
 
EIköhän se muistien todellinen latenssi ole tärkeempi kuin ne hurjat megaherzit.
Olen vuosien varrella testannut ihan kyllästymiseen asti sand / ivy bridge alustojen muistien kellotusta. Joten väitän olevani hyvin perillä :)
2400CL10 DDR3 on kova setti. Kahvijärvellekin pitäisi saada kova setti jotta vertailu olisi oikea.
 
200€ luokassa i5 8400 näyttää suoriutuvan mainiosti. Vielä kun joku laskis framelle hinnan.
Redditillä keskustelu käy kuumana.

Se on vaan, että Intel pakkottaa ostamaan 150€ emolevyn.

Jos on tarpeeksi perverssi, niin punaisessa huoneessaan voi ajella R7 1700:tä 50€ A320:lla - ja systeemi maksaa ihan saman verran.

--

Tilanne kai korjautuu vuodenvaihteessa, mutta AMD-käyttäjillä on nyt paljon enemmän valinnanvaraa ja tuollaisenkin voi koota.

Lisäksi en ymmärrä ihmisiä, jotka ostavat sen halvimman i3:n prosessoriksi ja siihen kalliin Z370-emolevyn. Tuo 200€ i5 8400 olisi oikeasti se järkevä minimiostos ja se kyllä voittaa AMD:n tarjonnan peleissä tällä hetkellä, siitä ei tarvitse väitellä. Ehkä jopa tulevaisuudessa vielä pari vuotta, jos AMD ei saa kellotaajuuksiaan ylös.

edit: ..ja i7-8700 (ei-K) boostaa todella korkealle yhdellä threadillä ja 65W TDP:llä, niin siitä saa viimeistään vuodenvaihteessa paremman diilin.
 
Olen vuosien varrella testannut ihan kyllästymiseen asti sand / ivy bridge alustojen muistien kellotusta. Joten väitän olevani hyvin perillä :)
2400CL10 DDR3 on kova setti. Kahvijärvellekin pitäisi saada kova setti jotta vertailu olisi oikea.

Ja taas Intel on keinotekoisesti rajoittanut muistikertoimen noston pelkästään Z-sarjan emolevyille. AMD:llä rajoitus on ainoastaan niissä kaikkein halvemmissa A320-emolevyissä, jossa on säästetty kaikesta muustakin. Tämä on sitä perseilyä, jota Intel harrastaa ja jo ihan sen takia on mukava kokeilla AMD:tä välillä.

Onneksi, tällä hetkellä ei ole rajoitettu kerroinlukittujen prosessorien muistien kellotusta. Nyt halvimmat Z370-emolevyt ovat sellaista kuraa, että en ostaisi niihin K-mallia ollenkaan, vaan kerroinlukitun prosessorin ja ottaisin ne lisätehot kellottamalla muisteja.
 
Ehkä jopa tulevaisuudessa vielä pari vuotta, jos AMD ei saa kellotaajuuksiaan ylös.

Jos huhuihin on uskomista niin ens vuoden alkupuolella Zen+ myötä pitäisi tulla 10% parannus kelloihin. Siihen päälle jos saadaan vielä IPC parannusta hieman niin ihan hyvältä tulevaisuus näyttää.
Zen2 sitten pitäisi alkaa päästä siihen 5GHz kerhoon kun GF sitä esitteissään ihan mainostaa.
 
Luitko nyt yhtään mitä kirjoitin?

Itanium oli alunperin HPn, EI INTELIN projekti.

Itanium sai vuonna 1989 ALKUNSA suunnitelmana jolla HP korvaa PA-RISCin. Intel ei liittynyt projektiin mitenkään tässä vaiheessa.

HP teki 5 vuotta tutkimusta ihan yksin Itaniumiin liittyen (1989-1994) ja vasta 1994 intel tuli projektiin mukaan.

Suunnitelma korvata PA-RISC Itaniumilla oli siis olemassa jo 5 vuotta ennen kuin Intel tuli projektiin mukaan.

No niinpäs olikin, olisi pitänyt tarkistaa. Muistin Intelin olleen projektissa 1990-luvun puolivälissä ja prosessorin tulleen ulos 2001, joten siitä päättelin projektiin menneen 7 vuotta. Menikin 12 :dead:

Ja alkuperäisessä muodossaan HPllä se Itanium-projekti oli vähän järkevämpi.
Intelin myötä siihen tungettiin esim. hidas osittainen x86-yhteensopivuustila mukaan
Itanium olisi saatu varmaan myös paria vuotta aiemmin pihalle jos sitä x86-yhteensopivuutta ei olisi siihen ängetty.

x86 yhteensopivuustila oli melkoinen floppi. Hyvin vaikea nähdä sille todellista käyttöä ja sehän poistettiin heti kakkosversiossa. Kas vaan, sehän tuli jo 2002. Sitä suuremmalla syyllä hyvä kysymys miksi se piti vuodeksi laittaa. Onneksi 2003 tuli Athlon64.

Oikeastaan Itanium vaikutti alunperin järkevältä idealta kunnes Pentium Pro, MIPS R10000, Alpha EV6(21264) ja PA-8000 tulivat n. vuonna 1996. Ne osoittivat, että "perinteinen" käskykanta yhdessä rekisterien uudelleenjärjestämisen ja käskyjen uudelleenjärjestämisen kanssa toimii ja antaa hyvän käskytason rinnakkaisuuden, eikä tarvi maagista yksisarvikääntäjää(kuten itanium tarvii), vaan ajaa nopeasti myös huonon kääntäjän tuottamaa koodia.

Siinä vaiheessa vaan kun nämä neljä prosessoria tulivat, kaikkien olisi niiden suorituskyvystä pitänyt tajuta, että Itanium oli harha-askel, ja lopettaa se, tai tehdä siitä pelkkä signaaliprosessori. Mutta sen sijaan (yhden jo aiemmin julistetun lisäksi) kaksi muutakin näistä neljästä julistettiin korvattavaksi Itaniumilla. Koska firmojen johtoportaassa oli porukkaa jotka eivät tietokonearkkitehtuurista ymmärtäneet mitään, ja hype oli kova.

Eli Itanium kyllä tiedettiin hitaaksi mutta siitä otettiin se hyöty irti mitä oli saatavilla eli hypetyksen kautta onnistuttiin tappamaan parit paremmat projektit? Kuulostaa uskottavalta.

Jos huhuihin on uskomista niin ens vuoden alkupuolella Zen+ myötä pitäisi tulla 10% parannus kelloihin. Siihen päälle jos saadaan vielä IPC parannusta hieman niin ihan hyvältä tulevaisuus näyttää.
Zen2 sitten pitäisi alkaa päästä siihen 5GHz kerhoon kun GF sitä esitteissään ihan mainostaa.

IPC parannusta odottelen vasta Zen 2:n. AMD:lla on ihan riittävästi projekteja alla ja pieni IPC parannus Zen+:n joka on markkinoilla ehkä vuoden ennen Zen 2:ta ei kuulosta sellaiselta asialta johon kannattaisi panostaa.
 
Ja taas Intel on keinotekoisesti rajoittanut muistikertoimen noston pelkästään Z-sarjan emolevyille. AMD:llä rajoitus on ainoastaan niissä kaikkein halvemmissa A320-emolevyissä, jossa on säästetty kaikesta muustakin. Tämä on sitä perseilyä, jota Intel harrastaa ja jo ihan sen takia on mukava kokeilla AMD:tä välillä.

Onneksi, tällä hetkellä ei ole rajoitettu kerroinlukittujen prosessorien muistien kellotusta. Nyt halvimmat Z370-emolevyt ovat sellaista kuraa, että en ostaisi niihin K-mallia ollenkaan, vaan kerroinlukitun prosessorin ja ottaisin ne lisätehot kellottamalla muisteja.
...
 
Jos huhuihin on uskomista niin ens vuoden alkupuolella Zen+ myötä pitäisi tulla 10% parannus kelloihin. Siihen päälle jos saadaan vielä IPC parannusta hieman niin ihan hyvältä tulevaisuus näyttää.
Zen2 sitten pitäisi alkaa päästä siihen 5GHz kerhoon kun GF sitä esitteissään ihan mainostaa.
Kyllä se on jännää kun jos vaikka kuin jne. On mulla sateenvarjo jos vaikka sataisi taivaalta.

Kun on jotain lihaa luitten päällä niin palataan asiaan.
 
Kyllä se on jännää kun jos vaikka kuin jne. On mulla sateenvarjo jos vaikka sataisi taivaalta.

Kun on jotain lihaa luitten päällä niin palataan asiaan.

Enkä AMD ei toimi kuten Intel ja ei julkaise vuosi toisensa jälkeen samaa prosessoria 7 vuoden ajan.

Taitaa Intelin fanipojilla alkaa totuus valkenemaan nyt miten teitä on kusetettu viimeiset 7 vuotta, johonkinhan se agressio täytyy purkaa. ;)
 
Niin, liekö sitten parempi julkaista uusi prossu 7 vuoden välein vaiko julkaista vuosittain iteratiivisia päivityksiä, riippuu varmaan kuinka hyvin oma päivityssykli menee yhteen näiden julkaisujen kanssa. Nykyinen maisema prossuvalikoiman suhteen on ihan jees, AMD tarjoaa edullisia säikeitä niille jotka tietävät niitä käyttävänsä ja inteli tarjoaa tehoja lopuille, jokaiseen käyttöön löytyy markkinoilta oikea prossu. Ongelmaksi muodostuu se että täysin tarpeettomaan fanitukseen ryhtyvä jengi yrittää väkisin pakottaa väärää työkalua käyttötarkoitukseen "koska kilpailija on katsomatta paskaa".
 

AMD:n RAID-ajurit asentavan XAMP-stäkin koneelle ja pakan konffaus tapahtuu webbiselaimen kautta. Eli käytännössä saat ajureiden kylkiäisenä koneellasi pyörivän web-serverin, PHP:n sun muuta. Sen enempää en jaksanut katsoa, mutta tietoturvasta oli kaveri huolissaan.

Itseäni ainakin harmittaisi löytää PHP-tulkki koneelta. :think: Aika lähellä pahinta painajaista olisi itseasiassa kyseinen skenaario.
 
Kuinka moni 2600K setti oikeesti kulkee 2400 muistilla. Pitää jo alkaa valikoimaan komponentteja. Kahvijärveä on ajettu "vain" 2666 muisteilla.
Päivällä tuon videon vilkaisseena, muistelisin siinä käytetyn 2400 muistikampoja, mutta 1333MHz CL8 asetuksilla. Eli molemmissa kokoonpanoissa ns. natiivikelloilla.

Jos molempiin laitettaisiin suurin piirtein nopeimmat tuetut eli vaikka 2133 CL9 ja 4000 CL18, niin pienellä varauksella uskon, että kahvijärven etumatka jonkin verran kasvaisi. Toki riippuen testattavista softista, mutta tuntuu, että uudemmat alustat (valmistajasta riippumatta) hyötyvät enemmän nopeammasta muistista.
 
Ehkä ennemmin 3200 ja tiukemmat latenssit kuin 4000 ja hitaammat. Tuolla latenssilla kun tuntuu olevan enemmän merkitystä tuon 3200-4000 välillä. 2666 kannattaa jättää hyllyyn.
 
  • Tykkää
Reactions: svk
Enkä AMD ei toimi kuten Intel ja ei julkaise vuosi toisensa jälkeen samaa prosessoria 7 vuoden ajan.

Taitaa Intelin fanipojilla alkaa totuus valkenemaan nyt miten teitä on kusetettu viimeiset 7 vuotta, johonkinhan se agressio täytyy purkaa. ;)
On useammalla foorumilla nähty kun Amd marakatit ovat vetäneet herneen nenään kun i5 8400 pesee peleissä itseään yli puolet kalliimman jumal prossun Ryzen 1800X.
Tässä kieltämättä vähän provon makua. Ei Ryzen huono ole, tarkennuksena.
En fanita Intelin prossuja vaan nopeinta peli prossua. Se on tilanne tällä hetkellä.
Päivällä tuon videon vilkaisseena, muistelisin siinä käytetyn 2400 muistikampoja, mutta 1333MHz CL8 asetuksilla. Eli molemmissa kokoonpanoissa ns. natiivikelloilla.

Jos molempiin laitettaisiin suurin piirtein nopeimmat tuetut eli vaikka 2133 CL9 ja 4000 CL18, niin pienellä varauksella uskon, että kahvijärven etumatka jonkin verran kasvaisi. Toki riippuen testattavista softista, mutta tuntuu, että uudemmat alustat (valmistajasta riippumatta) hyötyvät enemmän nopeammasta muistista.
Juu, kummassakin natiivi kellot. Olisi pitänyt huomata.
Eiköhän tuossa ens kuussa jo tule testattu vanhempia pelejä kuinka nopeampi muisti auttaa kahvijärven osalta.
 
Viimeksi muokattu:
On useammalla foorumilla nähty kun Amd marakatit ovat vetäneet herneen nenään kun i5 8400 pesee peleissä itseään yli puolet kalliimman jumal prossun Ryzen 1800X.
Tässä kieltämättä vähän provon makua. Ei Ryzen huono ole, tarkennuksena.
En fanita Intelin prossuja vaan nopeinta peli prossua. Se on tilanne tällä hetkellä.

Tuo 8400 pesee peleissä myös Intelin 2000 dollarin prosessorin :think: Parempi verrokki kuin 1800X olisi 1600X.
 
Tähän on kyllä todettava, ettet vain olisi sinä, joka et ole noihin taustoihin tutustunut. On nimittäin aika hemmetin moneen kertaan todistettu myös se, että nuo miniresot oikeasti kuvaa tulevaisuutta tulevilla laitteilla/peleillä kunnolla ja päinvastoin jos historiaa tunnetaan, tulee tuo ero vain vähenemään.

Perustan väitteeni omiin käytännön kokemuksiini ja toisaalta lukemattomiin testituloksiin. 99% testeistä tehdään maksimiasetuksilla, johon vain osalla pelaajista on mahdollisuus. Se antaa väärän kuvan CPU:n tehoista, koska GPU:n vaikutus korostuu maksimidetaileilla merkittävästi.

Käytän 1440p resoluutiota peleissä. FPS-peleissä haluan saada frame raten mahdollisimman korkealle. Otetaan esimerkkinä BF1, joka kuvaa hyvin nykypeliä. Pudotan detaileita, kunnes GPU (1070) ei enää ole pullonkaula (eli FPS ei enää nouse). Tämän jälkeen detaileiden pudottaminen ei enää vaikuta oikeastaan mitenkään, koska CPU ei pysy mukana. Frame rate droppien takia päivitin i5 4670K => i7 4790K, jolloin keskimääräinen FPS nousi noin 30 ja nykiminen väheni merkittävästi. Minimi-FPS nousi myös 70=>100. Tuo on huikea ero pelkästään lisäthreadeillä. Vastaava vaikutus näkyy kellotaajuutta nostamalla eikä frame raten kasvulle näytä tulevan loppua.

On turha katsoa 1440p ultra-testejä, joiden mukaan CPU:t omat saman vertaisia. Eivät ne olisi, jos GPU ei olisi jatkuvasti 100% kuormalla! Viisi vuotta sitten oli GTX 680, nyt GTX 1080 Ti. Tässä ajassa on tapahtunut huima kehitys. Viiden vuoden päästä GPU ei ole enää selkeä pullonkaula 1440p/4K resoilla, vaan se on 8700K, 1800X tai mikä ikinä nyt sattuukaan olemaan valittu kokoonpanoon. 720p-testit kertovat, minkälainen potentiaali CPU:lla on. Valitsemalla 720p-testien perusteella paras CPU on todennäköistä, että se pysyy jatkossa paremmin uusien näytönohjainten mukana.

Jos on vähäänkään seurannut tekniikan kehitystä, on huomannut miten GPU-rintamalla asiat etenevät huomattavasti ripeämpään tahtiin. Kukaan ei lesoile viisi vuotta vanhalla GPU:lla, mutta 2600K:lla moni pärjää vielä hyvin. Peli alkavat vähitellen tukea lisäytimiä, mutta GPUiden laskentateho tulee omien arvioideni mukaan kasvamaan nopeammin.
 
Väitteet 720p pelitestien hyödyllisyydestä perustuvat kahteen oletukseen:

1. Tulevaisuuden pelit käyttävät yhtä huonosti ytimiä kuin nykyiset
2. Tulevaisuudessa näytönohjaimien tehot kasvavat huimasti

Vaihtoehto 1 jää nähtäväksi, vaihtoehto 2 ei tule toteutumaan.

Pelit tulevat skaalautumaan paremmin kellotaajuuden kuin ytimien mukaan. Tietyn rajan jälkeen lisäytimet eivät enää vaikuta (laskenta ei rinnakkaistu), mutta kellotaajuuden kasvattaminen parantaa aina suorituskykyä.

Jälkimmäisen väitteen kanssa olen eri mieltä historian perusteella (esim. viimeinen 10 vuotta). Mihin perustat oman väitteesi?
 
Jos nyt hankin 8700K:n olettaen, että siitä riittää seuraavaksi 3-5 vuodeksi prosessori pääosin pelikäyttöön, tulenko pettymään? Hakkaako suoritinkäyttö mahdollisesti lähelle 100% kuten edellisen generaation yksilöillä? Viimeisimmässä setupissa 6600K oli pullonkaulana, mutta onko tilanne muuttunut lisäytimien myötä?
 
rinnakkaisajo windowsissa on edelleenkin purkkaa ja teippiä

eikä tule siitä miksikään muuttumaan ellei ms aloita ytimen kanssa täysin alusta

joten tulevien pelienkin useamman ytimen käyttö tulee olemaan purkkaa ja teippiä, tyyliin ajanpa nyt lehmän ai.tä tuolla toisella ytimellä, joka ei sitä oikeata moniajoa ole eikä siis tule windowssissa olemaankaan
 
On turha katsoa 1440p ultra-testejä, joiden mukaan CPU:t omat saman vertaisia. Eivät ne olisi, jos GPU ei olisi jatkuvasti 100% kuormalla! Viisi vuotta sitten oli GTX 680, nyt GTX 1080 Ti. Tässä ajassa on tapahtunut huima kehitys. Viiden vuoden päästä GPU ei ole enää selkeä pullonkaula 1440p/4K resoilla, vaan se on 8700K, 1800X tai mikä ikinä nyt sattuukaan olemaan valittu kokoonpanoon. 720p-testit kertovat, minkälainen potentiaali CPU:lla on. Valitsemalla 720p-testien perusteella paras CPU on todennäköistä, että se pysyy jatkossa paremmin uusien näytönohjainten mukana.

Jos on vähäänkään seurannut tekniikan kehitystä, on huomannut miten GPU-rintamalla asiat etenevät huomattavasti ripeämpään tahtiin. Kukaan ei lesoile viisi vuotta vanhalla GPU:lla, mutta 2600K:lla moni pärjää vielä hyvin. Peli alkavat vähitellen tukea lisäytimiä, mutta GPUiden laskentateho tulee omien arvioideni mukaan kasvamaan nopeammin.

Vai viiden vuoden päästä GPU ei ole selkeä pullonkaula 4K resolla :D Kyllä nyt tulee niin tuuheaa settiä ettei mitään tolkkua.

Jos olet vähänkään seurannut tekniikan kehitystä, huomaisit kuinka näytönohjaimien kehityksessä on pitkälti otettu löysät pois eikä kehitystä ole juurikaan tapahtunut. Nvidia julkaisi Maxwellin 4 vuotta sitten. Sen jälkeen ei ole tapahtunut juuri muuta kuin päivitys 28nm valmistustekniikasta 16nm valmistustekniikkaan. Maxwellia voisi melkein (ei kuitenkaan ihan) kuvata Nvidian 2500K:ksi, sillä päästiin melko korkealle perustasolle ja sen jälkeen ei ole enää tarjolla taikatemppuja jolla ottaa sormia napsauttamalla kymmenien prosenttien lisäyksiä valmistustekniikan parannusten ulkopuolelta.

Kakista nyt vaan selvästi ulos et i5 8400 on hyvä peli prossuksi.

Minun mielestäni Ryzen on kokonaisuutena parempi peli.

Pelit tulevat skaalautumaan paremmin kellotaajuuden kuin ytimien mukaan. Tietyn rajan jälkeen lisäytimet eivät enää vaikuta (laskenta ei rinnakkaistu), mutta kellotaajuuden kasvattaminen parantaa aina suorituskykyä.

Jälkimmäisen väitteen kanssa olen eri mieltä historian perusteella (esim. viimeinen 10 vuotta). Mihin perustat oman väitteesi?

Riittää kuin pelit alkavat käyttämään paremmin ytimiä ja silloin 720p testien hyödyllisyys lähentelee nollaa. Mantle (johon DirectX 12 ja Vulkan perustuvat) on tässä asiassa todella suuressa roolissa.

Väitteeni perustuu pääasiassa kahteen asiaan:

1. Valmistustekniikassa ei tulla tekemään yhtä suurta harppausta kuin 28nm->14/16nm oli, joka automaattisesti hidastaa kehitystä. Lisäksi valmistustekniset parannukset ovat yhä vaikeampia toteuttaa eikä niillä saada yhtä paljoa hyötyä kuin aikaisemmin.
2. Kuten ylempänä sanoin, näytönohjaimien puolella ollaan päästy tilanteeseen jossa suurta kehitystä ei helposti saa. Riittää kun katselet mitä Nvidia on saanut arkkitehtuurin puolella aikaan 4 vuodessa (Maxwell->Pascal). Ei oikeastaan mitään merkittävää.

Siksi historian perusteella näytönohjaimet eivät tule huikeasti kehittymään lähivuosina.
 
Vai viiden vuoden päästä GPU ei ole selkeä pullonkaula 4K resolla :D Kyllä nyt tulee niin tuuheaa settiä ettei mitään tolkkua.

Jos olet vähänkään seurannut tekniikan kehitystä, huomaisit kuinka näytönohjaimien kehityksessä on pitkälti otettu löysät pois eikä kehitystä ole juurikaan tapahtunut. Nvidia julkaisi Maxwellin 4 vuotta sitten. Sen jälkeen ei ole tapahtunut juuri muuta kuin päivitys 28nm valmistustekniikasta 16nm valmistustekniikkaan. Maxwellia voisi melkein (ei kuitenkaan ihan) kuvata Nvidian 2500K:ksi, sillä päästiin melko korkealle perustasolle ja sen jälkeen ei ole enää tarjolla taikatemppuja jolla ottaa sormia napsauttamalla kymmenien prosenttien lisäyksiä valmistustekniikan parannusten ulkopuolelta.



Minun mielestäni Ryzen on kokonaisuutena parempi peli.



Riittää kuin pelit alkavat käyttämään paremmin ytimiä ja silloin 720p testien hyödyllisyys lähentelee nollaa. Mantle (johon DirectX 12 ja Vulkan perustuvat) on tässä asiassa todella suuressa roolissa.

Väitteeni perustuu pääasiassa kahteen asiaan:

1. Valmistustekniikassa ei tulla tekemään yhtä suurta harppausta kuin 28nm->14/16nm oli, joka automaattisesti hidastaa kehitystä. Lisäksi valmistustekniset parannukset ovat yhä vaikeampia toteuttaa eikä niillä saada yhtä paljoa hyötyä kuin aikaisemmin.
2. Kuten ylempänä sanoin, näytönohjaimien puolella ollaan päästy tilanteeseen jossa suurta kehitystä ei helposti saa. Riittää kun katselet mitä Nvidia on saanut arkkitehtuurin puolella aikaan 4 vuodessa (Maxwell->Pascal). Ei oikeastaan mitään merkittävää.

Siksi historian perusteella näytönohjaimet eivät tule huikeasti kehittymään lähivuosina.

mikään ei hidasta kehitystä yhtä paljon kuin ahneus, jo nyt voitaisiin tehdä 4nm viivalla jos tahtoa löytyisi, mutta eipä löydy

käsittääkseni ja muistaakseni eri tekniikoillla päästäisiin jo koko viivanleveyden rajoittavasta tekijästä eroon, mutta tahtoa tähän ei jostain syystä ole

valoa käyttävä kytkinhän keksittiin jo vuosia sitten
 
Pelit tulevat skaalautumaan paremmin kellotaajuuden kuin ytimien mukaan. Tietyn rajan jälkeen lisäytimet eivät enää vaikuta (laskenta ei rinnakkaistu), mutta kellotaajuuden kasvattaminen parantaa aina suorituskykyä.

Jälkimmäisen väitteen kanssa olen eri mieltä historian perusteella (esim. viimeinen 10 vuotta). Mihin perustat oman väitteesi?

Tämä on pitänyt ennen paikkansa, mutta sekä Intel että AMD huomasivat tuon tien käytännössä käytetyn loppuun ja alkoivat panostaa useampaan ytimeen. Nykyisin (esim. viimeiset 17 vuotta) huomaa että suurin osa peleistä tukee useampaa ydintä ja yllättävän moni peli ei enää toimi kunnolla vain yhden ytimen prosessorilla.

Esim. 6v vanha 2600K prosessori kellottui itselläni 5GHz. Nyt siis JOS sinun hypoteesisi pitäisi paikkansa meillä pitäisi olla jo lähelle tai yli vähintään 7 ehkä 10GHz kellottuvaa 1, maksimissaan 2-ytimen prosessoria pelaamiseen. Eikö totta?

Myös keskusmuistin sekä kovalevytilan tarve ovat kasvaneet, katsoen viimeistä 17 tai edes 10 vuotta varmaankin huomaat että harvempi peli enää tyytyy esim. noin yhden CD:n asennustilaan, eli noin 650-700mb ja useampi peli vaatii myös enemmän kuin 1Gb keskusmuistia.

Samaten kun katsoo direct X vaatimuksia harvempi uusista peleistä enää listaa esim. DX6, 7, 8 tai edes 9 vaan yleensä DX11 tai 12 mitkä tukevat jo paremmin useampaa ydintä.

Mihin perustat oman väitteesi että esim. nestetypellä jäähdytetty 1-ytimen prosessori olisi se graalin malja pelaamista ajatellen? :smoke:
 
Mihin perustat oman väitteesi että esim. nestetypellä jäähdytetty 1-ytimen prosessori olisi se graalin malja pelaamista ajatellen? :smoke:

Sitä en ole väittänyt, etteikö ytimien lisäämisellä olisi mitään vaikutusta. Ytimien lisääminen voi vaikuttaa pelin suorituskykyyn tiettyyn rajaan asti, mutta kellotaajuuden kasvattaminen aina.

Oletetaan, että GPU:n suorituskyky on ääretön, CPU:ssa on ääretön määrä ytimiä ja kellotaajuus 5 GHz. Testipelinä voi toimia mikä vaan. Aloitetaan sillä, että CPU:ssa on vain yksi core käytössä ja sitten uusia coreja otetaan käyttöön yksi kerrallaan. Seurataan, miten keskimääräinen ja 99% persentiili FPS muuttuvat. Ennen pitkää coreja aktivoitaessa tulee eteen tilanne, jossa FPS ei enää kasva (voi käydä jopa päin vastoin). Mitä enemmän coreja saatiin aktivoitua sitä paremmin voidaan ajatella pelin osaavan rinnakkaistaa laskentaa.

Kun tuo corejen maksimi on saavutettu, voidaan silti todeta ylikellottamisen nostavan FPS:ää.

Miksi näin? En ole pelikehittäjä, mutta sovelluskoodin optimointi on tuttua. Jotta pelissä tai missä tahansa reaaliaikasovelluksessa halutaan täysi hyöty moniydinprosessorista, täytyy laskentaa rinnakkaistaa. Jos coreja on käytössä ääretön määrä olisi ideaalista, jos kaikki mahdollinen suoritus rinnakkaistuisi rajatta. Pohjimmiltaan pelissä on kuitenkin "pääluuppi", joka ei rinnakkaistu. Pelin osaongelmia voidaan laskea yksittäin rinnakkain usealla ytimellä, mutta lopulta osatulokset täytyy suorittaa peräkkäin lopputulosta kootessa. Tuon pääluupin suoritusta voidaan silti parantaa CPU:n kellotaajuutta nostamalla ja samalla sillä on suotuisa vaikutus osaongelmien laskentaa.

Yksinkertaisuudessaan tarkoitin sitä, että kellotaajuuden nostolla on reaaliaikasovellukseen aina positiivinen vaikutus. Tämä olettaen, ettei jokin muu komponentti muutu pullonkaulaksi.
 
rinnakkaisajo windowsissa on edelleenkin purkkaa ja teippiä
eikä tule siitä miksikään muuttumaan ellei ms aloita ytimen kanssa täysin alusta
joten tulevien pelienkin useamman ytimen käyttö tulee olemaan purkkaa ja teippiä, tyyliin ajanpa nyt lehmän ai.tä tuolla toisella ytimellä, joka ei sitä oikeata moniajoa ole eikä siis tule windowssissa olemaankaan
Windows ajaa peliä/ softaa juuri niin kuin sen ovat softan/ pelin kehittäjät luoneet. Ei yhtään sen paremmin tai huonommin.
mikään ei hidasta kehitystä yhtä paljon kuin ahneus, jo nyt voitaisiin tehdä 4nm viivalla jos tahtoa löytyisi, mutta eipä löydy
käsittääkseni ja muistaakseni eri tekniikoillla päästäisiin jo koko viivanleveyden rajoittavasta tekijästä eroon, mutta tahtoa tähän ei jostain syystä ole
Pelkkä viivan leveyden muutos sellaisenaan ei tuo yhtään lisätehoja tai kelloja.
Noissa todella pienissä nm on todellakin omat ongelmansa eikä kyse ole tahdosta (esim. vuotovirrat kasvavat rajusti, eli myös esim. "transistorin" tyyppiä pitää myös muuttaa).
 
Windows ajaa peliä/ softaa juuri niin kuin sen ovat softan/ pelin kehittäjät luoneet. Ei yhtään sen paremmin tai huonommin.

OT: Windowsissa on käyttöjärjestelmän tarjoamat threadit, jotka eivät ole sama asia kuin esim. *nix-maailmassa käytetyt POSIX-threadit. Joku Intelin kaveri kyllä tykkää ylistää niitä:
Why Windows Threads Are Better Than POSIX Threads | Intel® Software

Windowsin scheduleri myös vastaa siitä, miten noi threadit menee ajoon, niin pieni pelinkehittäjä voi vaan toivoa, että ne menee oikein. Jopa minä olisin osannut ottaa Bulldozerista enemmän irti, jos olisin pystynyt kontrolloimaan, miten ne threadit jakautuu. Käytännössä pitäisi saada threadit menemään eri moduuleille, jos niitä on vähäinen määrä.
 
Windows ajaa peliä/ softaa juuri niin kuin sen ovat softan/ pelin kehittäjät luoneet. Ei yhtään sen paremmin tai huonommin.
Pelkkä viivan leveyden muutos sellaisenaan ei tuo yhtään lisätehoja tai kelloja.
Noissa todella pienissä nm on todellakin omat ongelmansa eikä kyse ole tahdosta (esim. vuotovirrat kasvavat rajusti, eli myös esim. "transistorin" tyyppiä pitää myös muuttaa).

windows ei pysty todelliseen moniajoon jossa siis yksi tehtävä ajetaan kahdella tai useammalla ytimellä jolloin suorituskyky tai nopeus on kerrannollinen ytimien määrän kanssa

mainitsinkin tuossa valolla toimivan kytkimen
 
Jos olet vähänkään seurannut tekniikan kehitystä, huomaisit kuinka näytönohjaimien kehityksessä on pitkälti otettu löysät pois eikä kehitystä ole juurikaan tapahtunut. Nvidia julkaisi Maxwellin 4 vuotta sitten. Sen jälkeen ei ole tapahtunut juuri muuta kuin päivitys 28nm valmistustekniikasta 16nm valmistustekniikkaan. Maxwellia voisi melkein (ei kuitenkaan ihan) kuvata Nvidian 2500K:ksi, sillä päästiin melko korkealle perustasolle ja sen jälkeen ei ole enää tarjolla taikatemppuja jolla ottaa sormia napsauttamalla kymmenien prosenttien lisäyksiä valmistustekniikan parannusten ulkopuolelta.

2. Kuten ylempänä sanoin, näytönohjaimien puolella ollaan päästy tilanteeseen jossa suurta kehitystä ei helposti saa. Riittää kun katselet mitä Nvidia on saanut arkkitehtuurin puolella aikaan 4 vuodessa (Maxwell->Pascal). Ei oikeastaan mitään merkittävää.
Arkkitehtuurisella tasolla ei varmaan mitään merkittävää, mutta suorituskyky kuitenkin +50% tai 980Ti ja 1080Ti tapauksessa enemmänkin 70-80%. Mun mielestä suht merkittävä parannus (puhumattakaan hyötysuhteesta), kuten oli myös Kepler -> Maxwell, vaikka valmistustekniikka sama 28nm. Tästä eteenpäin saattaa tosin tulla haastavammaksi, kun valmistustekniikka kyntää ja kellot on jo melko huipussa näyttisarkkitehtuureille. Mutta kummsti sitä vaan jostain aina kaivetaan...
 
Pelit tulevat skaalautumaan paremmin kellotaajuuden kuin ytimien mukaan. Tietyn rajan jälkeen lisäytimet eivät enää vaikuta (laskenta ei rinnakkaistu), mutta kellotaajuuden kasvattaminen parantaa aina suorituskykyä.

Entäs kun kellotaajuus katto on jo saavutettu Intelin kohdalla? Niin kyllä se 5GHz on ollut jo monta vuotta se maaginen luku. 2011Q1 julkaistiin 2600K joka tuohon maagiseen lukuun jo ylti. Se huomattiin jo yli vuosikymmen sitten kun oli käynnissä clockwars että se raja tulee vastaan. Taidettiin tuon clockwarsin aikana myös sitä 5GHz hätyytellä jos en väärin muista. Nyt Intelillä ei ole mitään muuta tietä kuin corejen lisääminen. AMD:llä on vielä vähän varaa noissa kelloissa mutta eiköhän se 2019 viimeistään ole AMD:n osalta myös toi kellojen nosto katsottu loppuun.
Clock for clock IPC nosto on toinen millä sitä tehoa saadaan lisää mutta siinäkään ei ole oikein enää mitään kehitystä tapahtunut.
 
Windowsin scheduleri myös vastaa siitä, miten noi threadit menee ajoon, niin pieni pelinkehittäjä voi vaan toivoa, että ne menee oikein.

Jopa minä olisin osannut ottaa Bulldozerista enemmän irti, jos olisin pystynyt kontrolloimaan, miten ne threadit jakautuu. Käytännössä pitäisi saada threadit menemään eri moduuleille, jos niitä on vähäinen määrä.
Windows ei pysty itse säikeisiin vaikuttamaan (esim. siihen miten merkittäviä ne on). Se vain jaa ne mielensä mukaan samanlaisille ytimille.
windows ei pysty todelliseen moniajoon jossa siis yksi tehtävä ajetaan kahdella tai useammalla ytimellä jolloin suorituskyky tai nopeus on kerrannollinen ytimien määrän kanssa
Ei täysin suoraan, vain tiettyyn rajaan asti (kaikkea ei edes voi rinnakkaistaa). Joka tuo olennaisesti koodaajalle lisää työtä. Ja etu on usein mitätön esim. yli 4- pääsäikeen jälkeen.
Esim. DX12: sta eri säikeet määrittelee softan koodaaja.
 
Perustan väitteeni omiin käytännön kokemuksiini ja toisaalta lukemattomiin testituloksiin. 99% testeistä tehdään maksimiasetuksilla, johon vain osalla pelaajista on mahdollisuus. Se antaa väärän kuvan CPU:n tehoista, koska GPU:n vaikutus korostuu maksimidetaileilla merkittävästi.
Voi luoja, te ja teidän käytännön kokemukset. Mä näytän sulle käytännön kokemuksen, otetaa vaikka Phenom II 945 ja Core duo E8400. Näistä jälkimmäinen voitti vaivattomasti kaikki pienen resoluution testit aikoinaan, mutta vain toisella kykenee pelaamaan nykyisin Rise of Tombraideria uudemman näyttiksen kanssa, aika kummallista jos kerran "ero vain kasvaa". Voit tarkistaa asian, mutta älä mene siiihen Youtubevideoon, jossa se vetää jälkimmäisellä vain siperian wildsiä, se kun hyytyy 10 fps alle kun päästää soviet installatioon.

Otanko toisen esimerkin, jossa 955 ja 1100t olivat samoissa lukemissa pelitesteissä ja 1100t otti itseasiassa turpaan pikkuresoilla. Vaan tarvitseeko edes sanoa, kumpi näistä kyntää 35fps RoTR:ssa ja kummalla pääsee 50 fps lukemiin? Mitenkä nykyvehkeet sitten kehtaatko edes väittää että 7700K, joka vetelee +95% käyttöasteella 5 fps (<<5%) enemmän, kun esim. 1700 75% käyttöasteella tai 1800x 65% käyttöasteella, olisi se tulevaisuudessa parempi?

Kannattaa tosiaan katsoa vähän jotain muutakin, kuin sitä vääristynyttä tilastoa. Olisikohan se miten vaikeaa saada IO-techinkin prossussuje pelitesteihin huomiota tuosta käyttöasteesta? :think: Eli jos esim. W3 tekee kuin se tekee, eli käytännössä käyttää raskaasti paria kolmea threadia ja osa pyörii 10-20% nurkilla, niin olisihan tuo aika merkittävä asia ottaa huomioon. Etenkin kun tuosta optimointiongelmasta tulee kerrannaisvaikutuksia tämän "turboamisen" myötä testissä.
 
Sitä en ole väittänyt, etteikö ytimien lisäämisellä olisi mitään vaikutusta. Ytimien lisääminen voi vaikuttaa pelin suorituskykyyn tiettyyn rajaan asti, mutta kellotaajuuden kasvattaminen aina.

Oletetaan, että GPU:n suorituskyky on ääretön, CPU:ssa on ääretön määrä ytimiä ja kellotaajuus 5 GHz. Testipelinä voi toimia mikä vaan. Aloitetaan sillä, että CPU:ssa on vain yksi core käytössä ja sitten uusia coreja otetaan käyttöön yksi kerrallaan. Seurataan, miten keskimääräinen ja 99% persentiili FPS muuttuvat. Ennen pitkää coreja aktivoitaessa tulee eteen tilanne, jossa FPS ei enää kasva (voi käydä jopa päin vastoin). Mitä enemmän coreja saatiin aktivoitua sitä paremmin voidaan ajatella pelin osaavan rinnakkaistaa laskentaa.

Kun tuo corejen maksimi on saavutettu, voidaan silti todeta ylikellottamisen nostavan FPS:ää.

Miksi näin? En ole pelikehittäjä, mutta sovelluskoodin optimointi on tuttua. Jotta pelissä tai missä tahansa reaaliaikasovelluksessa halutaan täysi hyöty moniydinprosessorista, täytyy laskentaa rinnakkaistaa. Jos coreja on käytössä ääretön määrä olisi ideaalista, jos kaikki mahdollinen suoritus rinnakkaistuisi rajatta. Pohjimmiltaan pelissä on kuitenkin "pääluuppi", joka ei rinnakkaistu. Pelin osaongelmia voidaan laskea yksittäin rinnakkain usealla ytimellä, mutta lopulta osatulokset täytyy suorittaa peräkkäin lopputulosta kootessa. Tuon pääluupin suoritusta voidaan silti parantaa CPU:n kellotaajuutta nostamalla ja samalla sillä on suotuisa vaikutus osaongelmien laskentaa.

Yksinkertaisuudessaan tarkoitin sitä, että kellotaajuuden nostolla on reaaliaikasovellukseen aina positiivinen vaikutus. Tämä olettaen, ettei jokin muu komponentti muutu pullonkaulaksi.
Vähän hölmöä teoreettista spekulointia tällainen. Toki nopeammat kellot auttavat, mutta kun mitään merkittävää hyppäystä ei enää tule, ei vaikka viivanleveyttä pienennettäisiin. Ongelmana ei ole enää pelkästään lämmön poisjohtaminen vaan kutistamisen myötä yhä merkittävämmäksi tulevat fysikaaliset epävarmuudet ja signaalivuodot. Nämä ennustavat pikkuhiljaa nykyisen valmistustekniikan lakipistettä.

Toisekseen ei sen sovelluskoodaajan aina tarvitse stressaa kuinka se sovellus rinnakkaistuu. Jo nykyään prosessoreihin tungetaan vaikka minkälaisia data-analytiikasta tuttuja ennustusalgoritmeja, likuhihnojen optimointia, superskaalarius ollut arkipäivää pitkän aikaa yhdistettynä ooo:ihin ja rekisterikikkailuihin. Näillä kaikilla pyritään syöttämään prosessoria mahdollisimman tehokkaasti, jotta sen nopeuspotentiaali saadaan hyötykäyttöön. Tämän ansiosta se toisen prossun 3,5GHz voikin olla nopeampi kuin toisen 4,5GHz, eikä koodaajan tarvitse ymmärtää tästä välttämättä höpöäkään. Riitää kun on uusimmat kääntäjät käytössä.

Mutta lähtemättä paasaamaan enempää, niin kellotaajuuksien katto on aika lailla pian saavutettu ja niin myös isoimmat prosessoreiden sisäiset perusoptimoinnit, minkä takia ainoa tapa jatkossa tuottaa lisää laskentatehoa on kasvattaa rinnakkaisuutta...ja on sitten peleissä päälooppeja tai ei, niin niitä on pakko alkaa myös pilkkoa pienempiin osiin joko itse tai Vulkan/Dx12/tms. avulla tai sitä lisänopeutta ei ole tiedossa.
 
Voi luoja, te ja teidän käytännön kokemukset. Mä näytän sulle käytännön kokemuksen, otetaa vaikka Phenom II 945 ja Core duo E8400. Näistä jälkimmäinen voitti vaivattomasti kaikki pienen resoluution testit aikoinaan, mutta vain toisella kykenee pelaamaan nykyisin Rise of Tombraideria uudemman näyttiksen kanssa, aika kummallista jos kerran "ero vain kasvaa"

Tarkoitatko, että Rise of the Tomb Raider toimisi 720p:llä paremmin C2D E8400 kuin PII 945? Sitä en kyllä usko. Nuo 10 vuotta vanhat testit on tehty peleillä, jotka eivät osanneet hyödyntää neljää ydintä. Itse en uskaltaisi interpoloida testituloksia kuin muutaman vuoden eteenpäin. Pelit tukevat vähitellen useampia ytimiä, mutta tuota kehitystä voi vain arvailla. Nykyisillä peleillä testit kuitenkin osoittavat, että tykeimmissä CPUissa on hyvin reserviä jäljellä tulevaisuuteen, kun uudet GPU-sukupolvet tulevat markkinoille.

Vähän hölmöä teoreettista spekulointia tällainen. Toki nopeammat kellot auttavat, mutta kun mitään merkittävää hyppäystä ei enää tule, ei vaikka viivanleveyttä pienennettäisiin.

36 vuodessa PC:n kellotaajuus on tuhatkertaistettu. Kehitys kellotaajuuden suhteen ei todellakaan pysähdy maagisesti 5 GHziin vuonna 2017. Toki kellotaajuuden kasvu on hidastunut merkittävästi viime vuosina, mutta toisaalta yhteen kellojaksoon saadaan lisättyä enemmän laskentaa. Olisikin korrektimpaa puhua IPC:stä kun pelkästä kellotaajuudesta.
 
mikään ei hidasta kehitystä yhtä paljon kuin ahneus, jo nyt voitaisiin tehdä 4nm viivalla jos tahtoa löytyisi, mutta eipä löydy

käsittääkseni ja muistaakseni eri tekniikoillla päästäisiin jo koko viivanleveyden rajoittavasta tekijästä eroon, mutta tahtoa tähän ei jostain syystä ole

valoa käyttävä kytkinhän keksittiin jo vuosia sitten

Mikään ongelma ei olisi valmistaa selvästi nykyistä nopeampaa prosessoria. Ongelmat alkavat siinä vaiheessa kun sitä prosessoria pitäisi valmistaa kohtuullisella hinnalla muutama miljoona kappaletta.

Taloudellisesti ei mitään järkeä tehdä muutaman kappaleen supertuotetta koska silloin markkinat alkaisivat odottamaan millon se saapuu massamarkkinoille.

Arkkitehtuurisella tasolla ei varmaan mitään merkittävää, mutta suorituskyky kuitenkin +50% tai 980Ti ja 1080Ti tapauksessa enemmänkin 70-80%. Mun mielestä suht merkittävä parannus (puhumattakaan hyötysuhteesta), kuten oli myös Kepler -> Maxwell, vaikka valmistustekniikka sama 28nm. Tästä eteenpäin saattaa tosin tulla haastavammaksi, kun valmistustekniikka kyntää ja kellot on jo melko huipussa näyttisarkkitehtuureille. Mutta kummsti sitä vaan jostain aina kaivetaan...

980Ti vuoden 2011 valmistustekniikka ja 1080Ti vuoden 2016 valmistustekniikka. Siihen nähden hypyssä ei ollut mitään ihmeellistä.

36 vuodessa PC:n kellotaajuus on tuhatkertaistettu. Kehitys kellotaajuuden suhteen ei todellakaan pysähdy maagisesti 5 GHziin vuonna 2017. Toki kellotaajuuden kasvu on hidastunut merkittävästi viime vuosina, mutta toisaalta yhteen kellojaksoon saadaan lisättyä enemmän laskentaa. Olisikin korrektimpaa puhua IPC:stä kun pelkästä kellotaajuudesta.

Kellotaajuus ei maagisesti pysähdy 5 GHz:n, silti sitä on aina vaan vaikeampaa ja vaikeampaa nostaa. Tuhatkertaistunut, joo. Valitettavasti prosessorin kellotaajuuden tuhatkertaistaminen megahertsista gigahertsiin on noin tuhat kertaa helpompaa kuin sen nosto gigahertsista edes 10 gigahertsiin...

Kellotaajuus ei merkittävästi kasva eikä myöskään IPC yhden ytimen osalta. Jälkimmäinen siksi että käytännössä kaikki vähänkään helpommat keinot on jo käytetty. Ainoa tapa lisätä CPU-tehoa merkittävästi on rinnakkaisuus.
 
Viimeksi muokattu:
windows ei pysty todelliseen moniajoon jossa siis yksi tehtävä ajetaan kahdella tai useammalla ytimellä jolloin suorituskyky tai nopeus on kerrannollinen ytimien määrän kanssa

mainitsinkin tuossa valolla toimivan kytkimen

Mikään käyttis ei kykene toimimaan kristallipallona ja ajamaan koodia, jos se ei tee toisistaan riippumattomia asioita. Peleissä se itse ydin, joka lopulta on se rajoittava tekijä on esimerkiksi asia, jota on mahdotonta täysin säikeistää, koska sen toiminta on lähinnä rajoitetun satunnaisia polkuja, joissa tapahtuu toisistaan riippuvia peräkkäisiä asioita.


Asioilla, joista ei ole edullisia massatuotettavia käytännön sovellutuksia olemassa ei juurikaan ole iloa.
 
Mikään käyttis ei kykene toimimaan kristallipallona ja ajamaan koodia, jos se ei tee toisistaan riippumattomia asioita. Peleissä se itse ydin, joka lopulta on se rajoittava tekijä on esimerkiksi asia, jota on mahdotonta täysin säikeistää, koska sen toiminta on lähinnä rajoitetun satunnaisia polkuja, joissa tapahtuu toisistaan riippuvia peräkkäisiä asioita.


Asioilla, joista ei ole edullisia massatuotettavia käytännön sovellutuksia olemassa ei juurikaan ole iloa.

eli koska windows ei pysty siihen niin sitä ei voi olla olemassa
 
Kellotaajuus ei merkittävästi kasva eikä myöskään IPC yhden ytimen osalta. Jälkimmäinen siksi että käytännössä kaikki vähänkään helpommat keinot on jo käytetty. Ainoa tapa lisätä CPU-tehoa merkittävästi on rinnakkaisuus.

Uskomatonta, että jollain voi olla näin lyhytnäköinen näkemys. IPC on kasvanut generaatiosta toiseen ja loppua ei näy. Rinnakkaisuus ei todellakaan ole ainoa tie. Tuon kommenttisi voisi melkein kehystää seinälle ja naureskella sille vielä vanhainkodissa.
 
Intelillä on hiukan toi IPC puoli junnannu paikallaan viimeset pari sukupolvea. AMD ainoastaan saanut nostettua sitä verrattuna edelliseen sukupolveen.
 
36 vuodessa PC:n kellotaajuus on tuhatkertaistettu. Kehitys kellotaajuuden suhteen ei todellakaan pysähdy maagisesti 5 GHziin vuonna 2017. Toki kellotaajuuden kasvu on hidastunut merkittävästi viime vuosina, mutta toisaalta yhteen kellojaksoon saadaan lisättyä enemmän laskentaa. Olisikin korrektimpaa puhua IPC:stä kun pelkästä kellotaajuudesta.
Mielestäni niin IPC kuin kellotaajuuskaan eivät yksin kerro suorituskyvystä, vaan kyse on niiden yhdistelmästä. Kellotaajuutta on helppo nostaa IPC:n kustannuksella ja toisaalta IPC:tä voi nostaa, jos tingitään kellotaajuudesta. Oletan, että puhut IPC:n kohdalla yhden säikeen suorituskyvystä, koska siinä käytössä IPC-termiä käytetään. Viime vuosina on kyllä vaikuttanut siltä, että kellotaajuuden nosto on helpompaa kuin IPC:n (paitsi AMD:n tapauksessa, koska AMD:n vanhat prosessorit olivat IPC:n osalta niin kehnoja).
 
Uskomatonta, että jollain voi olla näin lyhytnäköinen näkemys. IPC on kasvanut generaatiosta toiseen ja loppua ei näy. Rinnakkaisuus ei todellakaan ole ainoa tie. Tuon kommenttisi voisi melkein kehystää seinälle ja naureskella sille vielä vanhainkodissa.

Eihän se nyt ainoa tie tietysti ole mutta jos nyt mietitään prosessoreita joiden mukana tulee cooleri niin kutakuinkin yleinen kellotaajuus näillä (olemme varmaan samaa mieltä että puhumme ns. suurille massoille tehdyistä prosessoreista ja tietokoneista nyt) on tuollaista 4GHz tai alle luokkaa.

Ne mistä sinä vänkäsit, pelit, tehdään luonnollisesti toimiviksi näille kuluttajaluokan prosessoreille.

Nyt, ei tarvitse olla järin suuri näkemys että ymmärtää että:
1) ilmalla tehtävä jäähdytys alkaa olla niillä rajoilla ettei se näissä prosessoreiden mukana tulevissa coolereissa pysty tehokkaampaa (ja enemmän lämpöä tuottavaa) kellotaajuutta jäähdyttämään.
2) pienemmät prosessit, niistä puhutaan mutta kehitys väkisinkin hidastuu. En väitä etteikö esim. 1nm prosessilla tulevaisuudessa saada pienempään tilaan paljon tavaraa.. ..mutta tällä hetkellä PC:t millä pelataan alkavat olla aika pieni osa myyntiä. Sekä Intel että AMD keskittyvät myös kannettaviin, toimisto(valmis)koneisiin, varmasti myös kehitystä kännyköiden prosessoreilla jne. tehdään.
3) On fakta että nestetyppi/kuivajää/custom vesijäähy & kompressori jne. menetelmillä saadaan lisää kellotaajuutta nostettua. On myöskin fakta että tälläisiä ei käsittääkseni järkevään ns. suuremmille massoille tehtäviin prosessoreihin AMD:n tai Intelin puolelta ole oikeastaan tehty sekä takuun kanssa myyty.

Voisitko nyt kertoa faktoja miten yhä korkeampi prosessorin kellotaajuus voidaan saavuttaa miettien näitä faktoja? Prosessorien hinnat eivät voi tietenkään nousta liikaa tai ne eivät enää ole ns. suurille massoille mahdollista hankkia. Siksi paketti missä tulee mukana kompressoria ja Intelin/AMD:n avulla luvattua 5v takuuta sekä esim. 7GHz kelloilla käyvää prosessoria kohtuulliseen muutaman sadan euron (tai edes suurehkoon 500 euron/dollarin) hintaan tulla aivan heti näkemään. En näkisi myöskään ns. "gigantti konepaketteja" noin 1000€ hintaan missä olisi tälläisiä jäähdytys mentelmiä, prosessoria valmiiksi suurilla kelloilla ja tehokasta näytönohjainta. Olen kuitenkin nähnyt reippaasti alle 500€ pelikonsoleita, jopa ns. uusimpia Playstation/X-Box versioita.

Jos jotain tuotetta myytäisiin sen elinaikana esim. vain 10 000kpl ei se olisi enää soveltuva massatuotantoon, sitä varten ei kannattaisi rakentaa tehtaita jne. koska sen hinta nousisi järjettömiin miettien useiden vuosien kehityksen jne.

Miten siis sinusta päästään tulevaisuudessa tuollaiseen tulokseen että ilman ytimien lisäämistä kellotaajuudet kasvavat ja tavallinen koululainen jolle vanhemmat ostavat sen noin 1000€ pelikoneen tulee saamaan iloisena jouluyllätyksenään 7GHz+ kelloilla käyvän Geforce 2780TI näytönohjaimella ja 512GB muistilla sekä 16k näytöllä varustetun koneensa?
 

Statistiikka

Viestiketjuista
259 456
Viestejä
4 512 723
Jäsenet
74 372
Uusin jäsen
Akeboy78

Hinta.fi

Back
Ylös Bottom