Reuters: AMD voitti Intelin ja Broadcomin PlayStation 6 -kisassa

  • Keskustelun aloittaja Keskustelun aloittaja Kaotik
  • Aloitettu Aloitettu

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 206
Reutersin mukaan AMD tulee valmistamaan Sonyn PlayStation 6 -konsolin järjestelmäpiirin. Vuonna 2022 ratkenneessa kilvassa olivat lisäksi mukana ainakin Broadcom ja Intel, joista jälkimmäinen selvisi mukana aivan maalisuoralle asti. Reutersin mukaan AMD vei lopulta kisassa voiton suostumalla Inteliä kohtuullisempaan katteeseen.

Osallisista yhtiöstä vain Intel on antanut aiheen tiimoilta lausunnon:
"We strongly disagree with this characterization but are not going to comment about any current or potential customer conversations. We have a very healthy customer pipeline across both our product and foundry business, and we are squarely focused on innovating to meet their needs.

Lähde: https://www.reuters.com/technology/how-intel-lost-sony-playstation-business-2024-09-16/
 
Enpä tiennyt että noissa on kilpailua, olen luullut että AMD on päätynyt tekemään ekat AMD pohjaiset Xboxin ja Playstationin, ja sen jälkeen jatkamaan oletuksena.
 
Enpä tiennyt että noissa on kilpailua, olen luullut että AMD on päätynyt tekemään ekat AMD pohjaiset Xboxin ja Playstationin, ja sen jälkeen jatkamaan oletuksena.

Ekaan xboxiin piti alun perin tulla prossuksi AMDn Duron (K7n halpamalli) mutta Intel teki microsoftille jonkun erikoistarjouksen Pentium 3sta. nVidia oli jo aloittanut tämän K7-piirisarjankin kehittämisenkin, kun näyttis ja siihen integroitu pohjoissiltapiiri tuli nvidialta.

On nuo kai aina joka sukupolvessa kilpailutettu, mutta sen jälkeen kun AMD osti ATIn, se on ollut käytännössä ainoa toimittaja joka pystynyt tarjoamaan sekä hyvän näyttiksen että hyvän CPUn, joten se on voittanut aika monta konsolidiiliä putkeen.

ARMin aseman vahvistuessa tosin nVidia vahvistuu CPU-puolella ja ottaa AMDtä kiinni, ja Intel taas pikku hiljaa ottaa AMDtä kiinni näyttispuolella.
 
Enpä tiennyt että noissa on kilpailua, olen luullut että AMD on päätynyt tekemään ekat AMD pohjaiset Xboxin ja Playstationin, ja sen jälkeen jatkamaan oletuksena.
Ensimmäisessä Xboxissa oli 733MHz Pentium 3 ja nVidian grafiikkapiiri (233 MHz Nvidia GeForce 3-based NV2A GPU).
Seuraavassa (Xbox360) oli kolmeytiminen PowerPC -prosessori.
AMD tuli mukaan kuvioihin vasta Xbox Onen myötä.

Pleikkaripuolella AMD tuli vasta PS4:ssa.
 
@demu

Niin viittasin ekoihin, joiden piirit olivat AMD:n. Jos olisin viitannut ensimmäisiin Xboxiin ja Playstationiin, niin silloin olisin kirjoittanut "että AMD on päätynyt tekemään ekat Xboxit ja Playstationit, ja sen jälkeen jatkamaan oletuksena"
 
Onhan tuo ylivoimaisesti helpoin ratkaisu. Pelikehittäjät varmasti tyytyväsä', kun ei tule niin radikaaleja muutoksia. ARM siirtymä varmasti tulee ehkä PS7, mutta sitten luulisi Sonyn tekevän ihan oman piirin, miksi tossa tilanteessa maksaisi turhaan toisen valmistajan katteet.
 
Pelien taaksepäin yhteensopivuuden kannalta ongelmia lienee vähiten, kun pysyy AMD-AMD puolella.
 
Onhan se pakko kilpailuttaa ettei AMD voi sanella hintoja. Eri asia sitten miten tosissaan ne on olleet vaihtamassa ja miten paljon parempi Intelin diilin olisi pitänyt olla että vaihto olisi tapahtunut.
 
Voisivat jo vuotaa speksejä että mistä sovittu/tavoitteena yms.
 
"We strongly disagree with this characterization but are not going to comment about any current or potential customer conversations. We have a very healthy customer pipeline across both our product and foundry business, and we are squarely focused on innovating to meet their needs.
Hmm, Intelin osake romahti viime kuukausina melkein 60%, prossuissa ongelmia ja Qualcomm harkitsee tämän nakkikioskin ostamista (osia siitä), niin tuskinpa minäkään Sonyn CEO:na olisin Inteliä valinnut tällä hetkellä tulevaksi vuosiksi eteenpäin.
 
Näkisin kyllä hienona asiana jos konsoleilla olisi eri rauta alla, olispahan jotain muuta markkinoitavaa eikä pelkästään yksinoikeuspelejä. Optimointi vaikeutuu mutta ehkä se ohjaa tekemään fiksuja valintoja noin geneerisesti kun ei voi kaikkea tehdä yhdelle raudalle hardkoodattuna; nykyäänhän pelit tahtoo valua ennemmin tai myöhemmin kuitenkin muille alustoille niin ne porttauseffortit saattaisi hyötyä kanssa.

Tosin XBOX olisi järkevämpi laite tehdä irtiottoja koska markkinaosuus on pienempi ja erilaisuus antaisi järkevämmän syyn laitteen olemassaoloon ylipäätään. Intelillä olisi tarjota CPU tehoa ja mielenkiintoinen GPU-arkkitehtuuri jossa löytyy (luokassaan) enemmin mm. säteenseurantatehoa kuin AMD:n tarjonnassa toistaiseksi ja AI-pohjainen skaalain jota AMD on jahkaillut niin pitkään että Sony päätti tehdä oman Pro konsoliinsa.

Digital Foundryn Rich sanoikin osuvasti että Sony on se joka ajaa AMD:n GPU-osaston kehitystä eteenpäin kun firma itse ei näytä oikein muuten liikkuvan. Tälläsessä tilanteessa Intel voisi hyvinkin iskeä omilla vähän edistyneemmillä ratkaisuilla onnistuneesti konsolimarkkinoille puhaltaen henkeä voimattoman XBOXin ruumiiseen.

Mutta ehkä se on maailmantila mihin ei ikinä päästä.
 
Onhan tuo ylivoimaisesti helpoin ratkaisu. Pelikehittäjät varmasti tyytyväsä', kun ei tule niin radikaaleja muutoksia. ARM siirtymä varmasti tulee ehkä PS7, mutta sitten luulisi Sonyn tekevän ihan oman piirin, miksi tossa tilanteessa maksaisi turhaan toisen valmistajan katteet.
Vaikea kuvitella että sony polkaisee kilpailukykyisen arm piirin muutamassa vuodessa tyhjistä, tulisi varmaan paljon kalliimmaksi kuin amdn katteet ja epäonnistuminen sekä emulaatio on ongelma.
 
Vaikea kuvitella että sony polkaisee kilpailukykyisen arm piirin muutamassa vuodessa tyhjistä, tulisi varmaan paljon kalliimmaksi kuin amdn katteet ja epäonnistuminen sekä emulaatio on ongelma.
Puhumattakaan siitä että kyseisessä firmassa ei ole yhtään osaamista grafiikkapuolen piirisuunnittelusta. Edellisen kerran siellä tehtiin mitään töitä tuolla tasolla oli PS2:n kehityksessä 90 luvun puolella. Lisensoitavissa olevia grafiikkayksiköitä taas ei realistisesti ole muita kuin AMD:n tarjonta. Saavutettava hyöty siitä että päätetään ostaa ARM ytimet jostain ja sit AMD:n näyttisblokit toisesta osoitteesta, samalla ottaen kaikki piirisuunnittelun riskit omalle kontolle, ei liene kovin massiivinen.
 
Digital Foundryn Rich sanoikin osuvasti että Sony on se joka ajaa AMD:n GPU-osaston kehitystä eteenpäin kun firma itse ei näytä oikein muuten liikkuvan. Tälläsessä tilanteessa Intel voisi hyvinkin iskeä omilla vähän edistyneemmillä ratkaisuilla onnistuneesti konsolimarkkinoille puhaltaen henkeä voimattoman XBOXin ruumiiseen.
Richillä varmaan olisi tähän joku lähdekin tarjota, toistaiseksi ei ole mitään viitteitä että mikään ominaisuus AMD:n GPUissa olisi siellä Sonyn vuoksi.
Esimerkiksi PS5:hän oli jo julkaisussaan vanhentunut (viittä vajaa RDNA2, täysi olisi ollut saatavilla samaan aikatauluun). PS5 Pron RT-toteutus on uusi, mutta mikään siinäkään ei viittaa siihen että toteutus olisi se mikä se on Sonyn vuoksi. Jos se on jotain mitä RDNA4ssä ei tule olemaan niin sitten voidaan palata asiaan mutta tuskin.gif

Kuulostaa siltä että Rich on vetänyt vaan mutkia suoriksi koska Sony tuo paljon rahaa AMDn kassaan
 
Richillä varmaan olisi tähän joku lähdekin tarjota, toistaiseksi ei ole mitään viitteitä että mikään ominaisuus AMD:n GPUissa olisi siellä Sonyn vuoksi.
Esimerkiksi PS5:hän oli jo julkaisussaan vanhentunut (viittä vajaa RDNA2, täysi olisi ollut saatavilla samaan aikatauluun). PS5 Pron RT-toteutus on uusi, mutta mikään siinäkään ei viittaa siihen että toteutus olisi se mikä se on Sonyn vuoksi. Jos se on jotain mitä RDNA4ssä ei tule olemaan niin sitten voidaan palata asiaan mutta tuskin.gif

Kuulostaa siltä että Rich on vetänyt vaan mutkia suoriksi koska Sony tuo paljon rahaa AMDn kassaan
Ehkä tässä viitataan siihen että Nvidia toi DLSS kauan sitten ja sen jälkeen on Intel tuonut laadultaan AMDta paremman skaalaimen markkinoille. Sitten PS5 Pro oma skaalain vaikuttaa myös paremmalta kuin FSR 3.

Toki tässä nyt on AMD myös lupaillut AI pohjaisen FSR 4 skaalaimen, joka ei ollut tiedossa kun tuota DF nauhoitusta mihin viitataan tehtiin.

Eli puhuta raudasta vaan softapuolesta.

Eikös argumentti ollut AMD puolustajilta että DLSS ei vaadi mitään erikoista rautaa, vaan se voitaisiin tuoda mille vaan suht modernille näyttikselle? Kuitenkin Intelin toteutuksesta on geneerinen versio ja intel-spesifi versio, jolloin jälkimmäinen on parempi. Syystä tai toisesta AMD ei ole tuonut AI pohjaista ratkaisua markkinoille, vaikka se on tärkeä ominaisuus nykyään.
 
Richillä varmaan olisi tähän joku lähdekin tarjota, toistaiseksi ei ole mitään viitteitä että mikään ominaisuus AMD:n GPUissa olisi siellä Sonyn vuoksi.
Varmaan käyttää lähteenä PS5-pro:n pääarkkitehtia.

Interestingly, PS5 Pro Lead System Architect Mark Cerny told CNET that Sony drove the development of these advanced ray tracing features at AMD.

PS5 Pro uses the new advanced ray tracing feature sets that AMD created as the next step in their roadmap architecture But if you look around, there are no other AMD GPUs that use it yet. We motivated the development, and I'm very happy we did so -- the response from the developers has been extraordinarily great.


Luulen että jos tuo väite olisi täysi vale niin AMD olisi älähtänyt jo aika isosti tuosta asiasta.

Toki jos seuraavat AMD GPU:t on yhtä lollerskates-kamaa mitä tähänkin asti RT:n osalta niin sittenhän tuo "we motivated" väite tarkoittaa vain että motivoivat AMD:n tekemään heille kunnon RT toteutuksen vaikka itse AMD käyttääkin GPU piireissään sitä hevosen veriripulia mitä tähänkin asti.
 
Varmaan käyttää lähteenä PS5-pro:n pääarkkitehtia.


Luulen että jos tuo väite olisi täysi vale niin AMD olisi älähtänyt jo aika isosti tuosta asiasta.

Toki jos seuraavat AMD GPU:t on yhtä lollerskates-kamaa mitä tähänkin asti RT:n osalta niin sittenhän tuo "we motivated" väite tarkoittaa vain että motivoivat AMD:n tekemään heille kunnon RT toteutuksen vaikka itse AMD käyttääkin GPU piireissään sitä hevosen veriripulia mitä tähänkin asti.
Varmasti myös motivoivat omalta osaltaan, mutta kannattaa muistaa että kyse on PR-puheista noissa tilaisuuksissa eikä se tarkoita, etteikö samat ominaisuudet olisi tullut riippumatta Sonystä. Kaikki semi-custom kumppanit luonnollisesti motivoivat piirien suunnittelijaa ja kertovat mitä toivovat näkevänsä, mutten silti sanoisi että Sony tai mikään muukaan semi-custom kumppani "ajaisi AMD:n GPU-kehitystä eikä firma muuten liiku".
Asiaan saataneen lisää selvyyttä kun RDNA4 GPU:t julkaistaan ja saadaan parempi kuva siitä missä mennään ja missä PS5 Pro menee suhteessa siihen.

(myöhäisedit: rautalanka: asiakas kertoo millaisia asioita haluaisi, amd arpoo onko toteutettavissa ja kertoo millaisia IP-blokkeja heidän roadmappinsa tarjoaa haluttuun ajankohtaan. siten toiveet voivat vaikuttaa siihen mitä tulee, mutta loppuviimein AMD toteuttaa omaa roadmappiaan. Hyvät ja toteutettavissa olevat toiveet taatusti täytetään.)
Ehkä tässä viitataan siihen että Nvidia toi DLSS kauan sitten ja sen jälkeen on Intel tuonut laadultaan AMDta paremman skaalaimen markkinoille. Sitten PS5 Pro oma skaalain vaikuttaa myös paremmalta kuin FSR 3.
Niin tekee mitä? Meillä on tähän asti PSSR:stä käsittääkseni tasan CNETin kommentit, jotka puhuvat sen puolesta että se olisi spatiaalinen skaalain (kuten vaikka FSR1 oli), jos kerran toimii kaikissa peleissä.
Sonyn trailerissa tosin sanottiin tuosta poikkeavasti että olisi vain PS5 Pro Enhanced peleissä, mikä voisi antaa tilaa temporaaliskaalaimellekin, mutta ei sekään kerro vielä laadusta mitään. Ei se tekoälyn mainostaminen ole mikään taikanappi.
FSR3-vertailu on sikälikin erikoista, ettei PSSR:ssä ole frame generationia mikä oli nimenomaan FSR3:n pointti, skaalausosa on sama kuin FSR2:ssa (+NativeAA-tila päälle)

Toki tässä nyt on AMD myös lupaillut AI pohjaisen FSR 4 skaalaimen, joka ei ollut tiedossa kun tuota DF nauhoitusta mihin viitataan tehtiin.
Ei se tekoäly ole mikään taikanappi mikä tekee teknologiasta x paremman kuin y:n jossa ei ole hyödynnetty tekoälyä, se on vain yksi osa palapeliä.

Eikös argumentti ollut AMD puolustajilta että DLSS ei vaadi mitään erikoista rautaa, vaan se voitaisiin tuoda mille vaan suht modernille näyttikselle? Kuitenkin Intelin toteutuksesta on geneerinen versio ja intel-spesifi versio, jolloin jälkimmäinen on parempi. Syystä tai toisesta AMD ei ole tuonut AI pohjaista ratkaisua markkinoille, vaikka se on tärkeä ominaisuus nykyään.
Ihan siitä syystä että se vie aikaa ja oli tärkeämpää saada jotain nopeasti markkinoille. AI-versiota FSR:stä on kuitenkin kehitetty jo melkein vuoden päivät. Tekoäly ei myöskään vaadi mitään erikoista rautaa, ainut kysymysmerkki on se suorituskyky ilman sopivaa erikoisrautaa mutta niin kauan kun ei saada samaa teknologiaa testattavaksi kiihdytyksillä ja ilman, on mahdotonta sanoa kuinka merkittävästä erosta siinä olisi kyse.
FSR1-3 ei vaadi erikoista rautaa, FSR4:stä ei vielä tiedetä mitä vaatii.
 
Viimeksi muokattu:
skaalausosa on sama kuin FSR2:ssa
Ei se kyllä ole. Kun peli päivitetään hyödyntämään uusinta FSR3 versiota, niin myös skaalain tuottaa parempia tuloksia. Avoimen lähdekoodin takia voit jopa itse käydä katsomassa että algoritmi ei ole sama, vaan sitä on kehitetty eteenpäin.

FSR 3.1 Upscaler reduces ghosting, improves convergence speed and reduces flickering.
 
Ei se kyllä ole. Kun peli päivitetään hyödyntämään uusinta FSR3 versiota, niin myös skaalain tuottaa parempia tuloksia. Avoimen lähdekoodin takia voit jopa itse käydä katsomassa että algoritmi ei ole sama, vaan sitä on kehitetty eteenpäin.
Tuo on 3.1:n uudistus, 3.0 julkaisussa ainut uudistus vrt sen hetkinen FSR2 oli NativeAA-tila (ja se framegen kilkkeineen)
edit: olisi pitänyt olla tarkempi versiosta mitä tarkoitin
 
Tuo on 3.1:n uudistus, 3.0 julkaisussa ainut uudistus vrt sen hetkinen FSR2 oli NativeAA-tila (ja se framegen kilkkeineen)
edit: olisi pitänyt olla tarkempi versiosta mitä tarkoitin
Okei, laitathan jatkossa viesteihisi täydet versionumerot, niin ei pääse tapahtumaan väärinymmärryksiä. Eli esimerkiksi ”FSR3.0.4”, tai mikä github release nyt onkaan mihin viittaat.

edit: ja kyllähän ekasta fsr2 versiosta skaalain parantui ekaan fsr3 versioon. Huomattavasti jopa.
 
Viimeksi muokattu:
Okei, laitathan jatkossa viesteihisi täydet versionumerot, niin ei pääse tapahtumaan väärinymmärryksiä. Eli esimerkiksi ”FSR3.0.4”, tai mikä github release nyt onkaan mihin viittaat.

edit: ja kyllähän ekasta fsr2 versiosta skaalain parantui ekaan fsr3 versioon. Huomattavasti jopa.
Kyllä, ekasta ekaan parantui. FSR3:n julkaisun hetkisestä (olikohan tuo viimeinen 2.2.2 siis) kuten lainaamassasi viestissä sanoin ei.
 
Varmasti myös motivoivat omalta osaltaan, mutta kannattaa muistaa että kyse on PR-puheista noissa tilaisuuksissa eikä se tarkoita, etteikö samat ominaisuudet olisi tullut riippumatta Sonystä. Kaikki semi-custom kumppanit luonnollisesti motivoivat piirien suunnittelijaa ja kertovat mitä toivovat näkevänsä, mutten silti sanoisi että Sony tai mikään muukaan semi-custom kumppani "ajaisi AMD:n GPU-kehitystä eikä firma muuten liiku".
Asiaan saataneen lisää selvyyttä kun RDNA4 GPU:t julkaistaan ja saadaan parempi kuva siitä missä mennään ja missä PS5 Pro menee suhteessa siihen.

(myöhäisedit: rautalanka: asiakas kertoo millaisia asioita haluaisi, amd arpoo onko toteutettavissa ja kertoo millaisia IP-blokkeja heidän roadmappinsa tarjoaa haluttuun ajankohtaan. siten toiveet voivat vaikuttaa siihen mitä tulee, mutta loppuviimein AMD toteuttaa omaa roadmappiaan. Hyvät ja toteutettavissa olevat toiveet taatusti täytetään.)

Niin tekee mitä? Meillä on tähän asti PSSR:stä käsittääkseni tasan CNETin kommentit, jotka puhuvat sen puolesta että se olisi spatiaalinen skaalain (kuten vaikka FSR1 oli), jos kerran toimii kaikissa peleissä.
Sonyn trailerissa tosin sanottiin tuosta poikkeavasti että olisi vain PS5 Pro Enhanced peleissä, mikä voisi antaa tilaa temporaaliskaalaimellekin, mutta ei sekään kerro vielä laadusta mitään. Ei se tekoälyn mainostaminen ole mikään taikanappi.
FSR3-vertailu on sikälikin erikoista, ettei PSSR:ssä ole frame generationia mikä oli nimenomaan FSR3:n pointti, skaalausosa on sama kuin FSR2:ssa (+NativeAA-tila päälle)


Ei se tekoäly ole mikään taikanappi mikä tekee teknologiasta x paremman kuin y:n jossa ei ole hyödynnetty tekoälyä, se on vain yksi osa palapeliä.


Ihan siitä syystä että se vie aikaa ja oli tärkeämpää saada jotain nopeasti markkinoille. AI-versiota FSR:stä on kuitenkin kehitetty jo melkein vuoden päivät. Tekoäly ei myöskään vaadi mitään erikoista rautaa, ainut kysymysmerkki on se suorituskyky ilman sopivaa erikoisrautaa mutta niin kauan kun ei saada samaa teknologiaa testattavaksi kiihdytyksillä ja ilman, on mahdotonta sanoa kuinka merkittävästä erosta siinä olisi kyse.
FSR1-3 ei vaadi erikoista rautaa, FSR4:stä ei vielä tiedetä mitä vaatii.
PSSR laatuarviointi perustuu DF videoon jossa se oli parempi kuin FSR perustuen Sonyn toimittamaan hyvälaatuiseen videoon. Testatuissa peleissä oli varmasti temporaalinen komponentti.

FSR parempaa versioita olis voinut kehittää jo 4 vuotta ainakin. AMD ei ole konkurssin partaalla joten ns. oma moka että resurssit on ohjattu muualle. Siis nykyinen FSR ja "AI" versio voidaan kehittää rinnakkain. En arvostele menetelmää, onko AI vai ei, vaan lopputulos ratkaisee. Tässä vertailussa AMD on huonoin, nvidia paras ja intel siinä välissä. Sonyn version lopullinen tuomio sitten myöhemmin, mutta ensivaikutelma on että voittaa kaikki FSR versiot.
 
Vaikea kuvitella että sony polkaisee kilpailukykyisen arm piirin muutamassa vuodessa tyhjistä, tulisi varmaan paljon kalliimmaksi kuin amdn katteet ja epäonnistuminen sekä emulaatio on ongelma.
No PS7 on kai todella kaukana, niin pelkkää arvailua. Paljon ehtii tapahtua ennen. Sekulaatio perustui ARM pöhinään ja siihen, että yritykset ovat päätyneet paljon kehittämään piirejä itselle. Tosin tuon GPU osan näin itsekkin ongelmallisena. Tyitysti jos AMD tai joku muu pystyy toimittamaan ja tinkimään katteista tarpeeksi, niin ei toki kannata sitten omaa piiriä kehittää. ARM vaan tuntuisi jotenkin loogikselta Sonyn PS historiaa katsottuna.
 
Vaikea kuvitella että sony polkaisee kilpailukykyisen arm piirin muutamassa vuodessa tyhjistä, tulisi varmaan paljon kalliimmaksi kuin amdn katteet ja epäonnistuminen sekä emulaatio on ongelma.

ARMilta voi lisensoida valmiin ytimen, ei tarvisi kehittää omaa ydintä.

Ja x86n softaemulaation saisi binäärikäännöksellä riittävän nopeaksi jos vaan lisäisi prossulle x86-yhteensopivan muistin konsistenttiusmoodin (kuten Apple on tehnyt)


Toki näiden yhdistelmä voi olla ehkä ongelma, sellaista ARM-ydintä jossa tämä x86-emulaatiomoodi on ei tällä hetkellä voi lisensoida valmiina, Apple ei omiaan lisensoi ulos eivätkä muut tällaisia tietääkseni tällä hetkellä tee.
 
ARMilta voi lisensoida valmiin ytimen, ei tarvisi kehittää omaa ydintä.

Ja x86n softaemulaation saisi binäärikäännöksellä riittävän nopeaksi jos vaan lisäisi prossulle x86-yhteensopivan muistin konsistenttiusmoodin (kuten Apple on tehnyt)


Toki näiden yhdistelmä voi olla ehkä ongelma, sellaista ARM-ydintä jossa tämä x86-emulaatiomoodi on ei tällä hetkellä voi lisensoida valmiina, Apple ei omiaan lisensoi ulos eivätkä muut tällaisia tietääkseni tällä hetkellä tee.
Olisiko vaan helpompi ajaa kääntäjällä koodit arm-binääreiksi? Voi olla vähän epäoptimaalista jos siellä on jotain x86-asmia seassa, mutta onko sitä oikeasti niin paljon, että on parmepi suunnitella prossu eri lailla vs. tehdä koodimuutokset muutamiin satoihin peleihin, vai paljonko tuota merkityksellistä pelikirjastoa nyt sitten on?

Vielä kun uusi prossu olisi 5v tuoreempaa kamaa monta ”viivanleveyttä” uudemmalla prosessilla, niin aika paljon saa olla overheadiakin epäoptimaalisessa binäärissä ja silti pyörii riittävästi?
 
Olisiko vaan helpompi ajaa kääntäjällä koodit arm-binääreiksi? Voi olla vähän epäoptimaalista jos siellä on jotain x86-asmia seassa, mutta onko sitä oikeasti niin paljon, että on parmepi suunnitella prossu eri lailla vs. tehdä koodimuutokset muutamiin satoihin peleihin, vai paljonko tuota merkityksellistä pelikirjastoa nyt sitten on?

Vielä kun uusi prossu olisi 5v tuoreempaa kamaa monta ”viivanleveyttä” uudemmalla prosessilla, niin aika paljon saa olla overheadiakin epäoptimaalisessa binäärissä ja silti pyörii riittävästi?
Tao jos vain pysyy yhteensopivassa prossussa, niin ei tule ongelmia ja kaikilla on helpompaa.. Niinkuin nytkin päätettiin tehdä..

Eiköhän tuonkin pleikkarin heikoin lenkki ole se näyttis.. Noissa konsoleissa on prossun + näyttiksen tdp hyvinkin rajallinen ja valmistustekniikan kehitys hidastuu kokoajan. Lisäksi näyttis ja prossu ei saa viedä kauhean isoa piipalaa, kun konsolien on oltava halpoja. Toivottavasti SONY on kyennyt kehittämään RT puolta, kun AMD:llä homma ei ole oikein onnistunut ja tilanne on nyt surkea..
 
Tao jos vain pysyy yhteensopivassa prossussa, niin ei tule ongelmia ja kaikilla on helpompaa.. Niinkuin nytkin päätettiin tehdä..

Eiköhän tuonkin pleikkarin heikoin lenkki ole se näyttis.. Noissa konsoleissa on prossun + näyttiksen tdp hyvinkin rajallinen ja valmistustekniikan kehitys hidastuu kokoajan. Lisäksi näyttis ja prossu ei saa viedä kauhean isoa piipalaa, kun konsolien on oltava halpoja. Toivottavasti SONY on kyennyt kehittämään RT puolta, kun AMD:llä homma ei ole oikein onnistunut ja tilanne on nyt surkea..

Eiköhän siellä ole ihan AMDn "standardia" säteenjäljitysrautaa, mitä tulee ulos saman sukupolven PC-näyttiksissäkin.

Mutta toki se muutaman vuoden päästä tuleva arkkitehtuuri voi olla selvästi parempi kuin nykyinen.
 
Eiköhän siellä ole ihan AMDn "standardia" säteenjäljitysrautaa, mitä tulee ulos saman sukupolven PC-näyttiksissäkin.

Mutta toki se muutaman vuoden päästä tuleva arkkitehtuuri voi olla selvästi parempi kuin nykyinen.
Jos SONY on ollut vahvasti kehittämässä ,niin siellä voi olla lohkoja, joita AMD ei saa käyttää muualla.
 
Jos SONY on ollut vahvasti kehittämässä ,niin siellä voi olla lohkoja, joita AMD ei saa käyttää muualla.
Tuskin on ollut. Ei sonyllä ole sen tason osaamista. Sony on edellisen kerran tehnyt matalan tason piirisuunnittelua 90-luvulla.
 
Tuskin on ollut. Ei sonyllä ole sen tason osaamista. Sony on edellisen kerran tehnyt matalan tason piirisuunnittelua 90-luvulla.
RT on senverran uusi palikka, jotta sinne voi hyvinkin olla tuoreita, hyviä ideoita, edelleen. Eikä siihen tarvita matalan tason piirisuunnittelua, sen voi ulkoistaa..
Sony on perinteisesti pitänyt ylitiukasti IP:stä kiinni..

Lisäksi on tietysti kuvanparannusmenetelmät, joihin voi sinnekin olla uusia, hyviä ideoita. Niille on erittäin suuri tarve konsoleissa ja läppäreissä ainankin ja ihan kaikkialla, jos haluaa 4K tai suuremmilla resoilla leikkiä ja paremmilla virkistystaajuuksilla..
 
Eikä siihen tarvita matalan tason piirisuunnittelua, sen voi ulkoistaa..
Nyt vissiin se on kuitenkin tarkoitus integroida osaksi rdna:n laskentayksiköitä? Se vaatisi aika hurjaa matalan tason osaamista.
Kenelle ajattelit että sony ulkoistaa amd:n laskentayksiköiden jatkojalostamisen?

Lisäksi on tietysti kuvanparannusmenetelmät, joihin voi sinnekin olla uusia, hyviä ideoita.
Niin voi olla. Tuo ei kuitenkaan liity mitenkään siihen mitä kommentoin. Vai meinaatko että sinne koodataan jotain fixed function skaalainblokkeja? Oon ymmärtäny että neuroverkot on siinä se ns. juttu ja ne kannattaa toteuttaa osaksi gpu arkkitehtuuria isojen synergiaetujen takia.
 
Ihanhyvin sen matalantason suunnittelun voi ulkoistaa esim AMD:lle. Se ei kuitenkaan tarkoita, että jos sinne tulee uudella tavalla toimivia osia, joita ei AMD:n tarjoamissa palikolissa ollut, jotta AMD saisi käyttää niitä esim vuosiin missään muissa tuotteissaan. Se on selvää, jotta noissa firmojen välisissä sopimuksissa on kaikenlaisia rajotteita.. Voi olla, että AMD:llä on lusikka myös MS:n tai Nintendon konsolisopissa. Ei sony varmasti sitä pysty estämään, vaikka varmasti haluaisi, mutta jos se tuo soppaan omaa suunnittelua, niin sen käyttö voidaan kyllä rajata..

Ei RT tai joku kuvanparantelu ole mitään matalantason piirisuunnittelujuttuja, vaan nippu korkeamman tason ideoita ja sitten niitä toteuttavia yksiköitä (jotka voi suunnitella muut).
 
RT on senverran uusi palikka, jotta sinne voi hyvinkin olla tuoreita, hyviä ideoita, edelleen. Eikä siihen tarvita matalan tason piirisuunnittelua, sen voi ulkoistaa..
Sony on perinteisesti pitänyt ylitiukasti IP:stä kiinni..

Lisäksi on tietysti kuvanparannusmenetelmät, joihin voi sinnekin olla uusia, hyviä ideoita. Niille on erittäin suuri tarve konsoleissa ja läppäreissä ainankin ja ihan kaikkialla, jos haluaa 4K tai suuremmilla resoilla leikkiä ja paremmilla virkistystaajuuksilla..
Kyllä Sony sinne omaan piiriinsä omia IP-blokkejaan saa ja muidenkin firmojen kuten tähänkin asti on saanut, ihan kuten kaikki muutkin semi-customasiakkaat saavat ja ovat pistäneet.
Se on kuitenkin ihan eri asia kuin että AMD lähtisi sitomaan omaa IP:tään millään tasolla Sonyn tai kenenkään muun kilpailijan IP:een.
 
mutta jos se tuo soppaan omaa suunnittelua, niin sen käyttö voidaan kyllä rajata..
Millaisesta suunnittelusta on esimerkissäsi kyse? Siitä mitä amd tekee omiin tuotteisiinsa?

Ei RT tai joku kuvanparantelu ole mitään matalantason piirisuunnittelujuttuja, vaan nippu korkeamman tason ideoita ja sitten niitä toteuttavia yksiköitä (jotka voi suunnitella muut).
Selvä. :kahvi:
Ymmärrät varmaan että ne pitää integroida ihan helvetin syvälle muuhun arkkitehtuuriin ja hommassa ei ole tippaakaan järkeä ilman matalan tason suunnitteluosaamista. Ne hyvät ideat kuitenkin vaatii että aidosti ymmärtää arkkitehtuurin rajoitteet, matalalla tasolla. Ne RT yksiköt on siellä laskentaytimissä kiinni tavoilla minkä suunnitteleminen ulkopuolisena tahona on käytännössä mahdotonta.

realistisesti homma vois mennä silleen että sony sanoo että haluaa n% lisää rt tehoa ja sit amd keksii sille hinnan ja toteutuksen.
 
No PS7 on kai todella kaukana, niin pelkkää arvailua. Paljon ehtii tapahtua ennen. Sekulaatio perustui ARM pöhinään ja siihen, että yritykset ovat päätyneet paljon kehittämään piirejä itselle. Tosin tuon GPU osan näin itsekkin ongelmallisena. Tyitysti jos AMD tai joku muu pystyy toimittamaan ja tinkimään katteista tarpeeksi, niin ei toki kannata sitten omaa piiriä kehittää. ARM vaan tuntuisi jotenkin loogikselta Sonyn PS historiaa katsottuna.

Marginaali on hinta AMD:n kantamasta riskistä. Joko AMD on pitänyt riskiä pienempänä kuin Intel taikka riskin jako on erilainen.
 
Juu Esim Sony voi pistää sinne IP blokkeja ja rajoittaa AMD:n yleistä käyttöoikeutta niihin, vaikka AMD tekee matalan tason piiri toteutuksen ja niiden ympäämisen omiien blokkiensa sekaan.

Eli kyseessä voi olla AMD:n GPU, jossa on osia, jotka hoitaa esim RT:n toteutusta /kuvanparannusta s.e. lopputulos on nopeampi ja AMD ei pääse käyttämään niitä muissa tuotteissan tai tulee rajut sakot...

Ei nyt kannata hirttäytyä tuohon "matalan tason" toteutukseen, koska sillä ei ole välttämättä patentoidun tai sovitun IP:n kanssa mitään tekemistä.
Ja RT tai osa siitä voi olla melkoisenkin erillinen palikka, sen ei tarvitse olla "syvälle integroitu", kun AMD:n nykyinen RT toteutus on valitettavasti melkoisen surkea..
 
Juu Esim Sony voi pistää sinne IP blokkeja ja rajoittaa AMD:n yleistä käyttöoikeutta niihin, vaikka AMD tekee matalan tason piiri toteutuksen ja niiden ympäämisen omiien blokkiensa sekaan.

Eli kyseessä voi olla AMD:n GPU, jossa on osia, jotka hoitaa esim RT:n toteutusta /kuvanparannusta s.e. lopputulos on nopeampi ja AMD ei pääse käyttämään niitä muissa tuotteissan tai tulee rajut sakot...

Käytännössä ei voi tehdä näyttiksen sisälle.

Se koko näyttis on kokonaisuus eikä sieltä voi tuosta noin vaihtaa palasia. Kaikki pitää suunnitella toimimaan yhteen, ja AMD on sen suunnitellut toimimaan yhteen.

Ajatus siitä, että täysin ulkopuolinen firma pystyisi sieltä tietyt osat korvaamaan nopeammilla, ilman mitään kokemusta tämän asian tekevän raudan aiemmasta suunnittelusta, on vaan todella typerä.

Ei nyt kannata hirttäytyä tuohon "matalan tason" toteutukseen, koska sillä ei ole välttämättä patentoidun tai sovitun IP:n kanssa mitään tekemistä.
Ja RT tai osa siitä voi olla melkoisenkin erillinen palikka, sen ei tarvitse olla "syvälle integroitu", kun AMD:n nykyinen RT toteutus on valitettavasti melkoisen surkea..

Ei todellakaan voi olla järkevästi "erillinen palikka". Ihan samoja shader-ytimiä ja ihan samoja teksturointiyksiköitä käytetään aina renderöintitavasta riippumatta, ja jos alettaisiin tekemään täysin erillistä säteenjäljitys-GPUta joka olisi erillään normaali-GPUsta, nämä pitäisi tuplata.

Säteenjäljitysyksiköt == törmäystarkastusyksiköt. Sekä nVidialla lisäksi puunläpikäyntirauta.

Siihen, että saadaan valmis kuva rendattua säteenjäljityksellä, tarvii paljon muutakin rautaa kuin pelkät törmäystarkastusyksiköt, mutta sen kaiken muun raudan voi jakaa rasteroinnin kanssa, että niille ei normaalissa GPUssa tarvi omia dedikoituja yksiköitään.


Nyky-GPUiden sisällä oleva rauta koostuu lähinnä seuraavista osista
1) rasterointispesifinen erikoisrauta(ROPit, kolmioiden alustus)
2) säteenjäljitysspesifinen erikoisrauta(törmäystarkastusyksiköt, nvidialla lisäksi puunläpikäyntirauta)
3) molemmille yhteinen erikoisrauta (lähinnä TMUt)
4) shader-prossut, ajaa ohjelmoitavaa koodia, laskee mitä tahansa. Tämä on se selvästi suurin osa.
5) muu, 3d-grafiikkaan liittymätön kama (videonpurku, videonpakkaus, 2d-kiihdytys jne)
6) IO-puoli


Käytännössä Sony voi speksata AMDlle, että Sonyn versioihin RDNA5sta tjsp tulee esim. suurempia tai pienempiä välimuisteja, ja kuinka paljon shader-prossuja ja kuinka paljon ROPeja sinne tulee. Lisäksi Sony voi esittää AMDlle toiveita, että AMD parantaa suorituskykyä nimenomaan joissain tietyissä yksiköissä tai tilanteissa, mutta kun AMD näiden toiveiden perusteella parantaa tiettyjen yksiköiden nopeutta, Sony ei oikein voi vaatia että muut kuin he itse eivät saa nauttia näistä parannuksista, AMD ei todennäköisesti halua tehdä sonylle täysin erillistä näyttisarkkitehtuuria, eikä ainakaan halua sitoutua siihen, että se ei saa tehdä normaaleihin GPUihin tiettyjä parannuksia koska ne "omistaa" Sony.
 
Viimeksi muokattu:
Juu Esim Sony voi pistää sinne IP blokkeja ja rajoittaa AMD:n yleistä käyttöoikeutta niihin, vaikka AMD tekee matalan tason piiri toteutuksen ja niiden ympäämisen omiien blokkiensa sekaan.
Vaan miten se sony edes suunnittelee ne, ilman osaamista?

Ja RT tai osa siitä voi olla melkoisenkin erillinen palikka, sen ei tarvitse olla "syvälle integroitu"
Sen täytyy olla syvälle integroitu, sillä se käyttää gpu:n laskentayksiköitä hyödykseen tehdessään suurimman osan laskutoimituksistaan. Jos se ei olisi syvälle integroitu, niin suuri osa (kenties 90%, hkultala osannee arvata paremmin) gpu:sta tulisi duplikoida sitä sun erillistä rt yksikköä varten.
 
Esim juurikin esimerkiksi tuo puun läpikäynti voi olla melkoisen löysästi kytketty muuhun. Samoin kuvanparannukseen käytetty laskenta voidaan tehdä siten, että vaativin osa tehdään erillisraudalla, joka ei ole mitenkään syvälle integroitu muuhun GPU:hun.

Molemmat on senverran uusia asioita, jotta parempia ratkaisuja voi vieläkin tulla. Ja se on melkoisen varmaa, jotta Sonyn kaltainen firma ei sellaista sopimusta tee, jonka takia sen ideoita voi siitävain vuotaa kilpailijoille.. (Ainankaan ilman lesenssointia suolaiseen hintaan).. AMD:nkin kannattaa nimi pistää paperiin, vaikka se ei saisikaan kaikke sitten käyttöönsä. Diili on kuitenkin todella iso ja takaa mm. sen, että peleistä suunnitellaan sen GPUiden kanssa hyvin yhteensopivia versioita, jos konsolien myynti ei jostain tuntemattomasta syystä lopahda..

Siitä ei ole myöskään käsittääkseni tarkkoja tietoja, mitenpitkään SONY ja AMD ovat tulevaa piiriä suunnitelleet yhdessä. Pidemmällä aikajänteellä myös peruslohkoihin voi tulla muutoksia. SONYllä on kuitenkin paljon AMD:tä enemmän ammattitaitoa talossa tietämään sen, mikä AMD:n näyttösissä kusee pelikäytössä ja mihin asioihin pitäisi panostaa, nimenomaan tuossa konsoliversiossa.. Toki sitä SONY ei varmasti voi patentoida itselleen, jos se ehdottaa jotain pientä viilausta AMD:n johonkin yksikköön ja AMD sen tekee.
 
Samoin kuvanparannukseen käytetty laskenta voidaan tehdä siten, että vaativin osa tehdään erillisraudalla, joka ei ole mitenkään syvälle integroitu muuhun GPU:hun.
Mitä tällä nyt spesifisti tarkoitat? Oletko tutustunut siihen miten nykyiset kuvanparannusalgoritmit toimivat ja millaisia laskentavaatimuksia niillä on?

Esim juurikin esimerkiksi tuo puun läpikäynti voi olla melkoisen löysästi kytketty muuhun.
Se on todella syvällä siellä arkkitehtuurissa. Tuo on sen takia, koska puulle syötetään (käytännössä)geometriadataa ja sille on jo olemassa tehokkaat pipelinet siellä gpu:n sisällä. Lisäksi kun osuma saadaan, niin mikään viive tuhoaisi suorituskyvyn täysin.

Molemmat on senverran uusia asioita, jotta parempia ratkaisuja voi vieläkin tulla.
Ne paremmat ratkaisut vaan vaatisi sitä matalan tason piirisuunnittelutaitoa. Siis sitä mitä sonyllä ei ole.

SONYllä on kuitenkin paljon AMD:tä enemmän ammattitaitoa talossa tietämään sen, mikä AMD:n näyttösissä kusee pelikäytössä ja mihin asioihin pitäisi panostaa, nimenomaan tuossa konsoliversiossa.
Osaavat varmasti arvata juu että tämmönen määrä amd:n teksturointiyksiköitä olisi hyvä ja niin edelleen.
 
Esim juurikin esimerkiksi tuo puun läpikäynti voi olla melkoisen löysästi kytketty muuhun.

Sen puun läpikäynnin nimenomaan pitää olla tiukasti integroitu niihin törmäystarkastusyksiköihin koska puun läpikäynti syöttää törmäystarkastusyksiköille (hyvin suuren määrän) dataa sisään ja reagoi (mahdollisimman nopeasti) siihen, mitä törmäystarkastukset palauttavat vastauksi.

Ainoa, minkä voisi erotella omaksi yksikökseen ilman nopeita väyliä muualle olisi BVH-puunrakennus, mutta siihen ilmeisesti ei ole toistaiseksi haluttu dedikoitua rautaa tehdä koska halutaan tehdä se softalla, lähinnä koska
1) puunrakennusalgoritmit kehittyvät ja softaratkaisun voi päivittää jälkikäteen, rautaratkaisua ei
2) pelit voivat tehdä omia puunrakennusoptimointejaan esim. sen suhteen, mikä geometria on staattista, mikä muuttuvaa.

Joten tähän asti tämä on sekä AMDn että nVidian näyttiksissä tehty softalla näyttiksen shader-ytimillä.

Mutta periaatteessa "oma" BVH-puunrakennusrautayksikkö olisi mahdollinen lisäys.

Samoin kuvanparannukseen käytetty laskenta voidaan tehdä siten, että vaativin osa tehdään erillisraudalla, joka ei ole mitenkään syvälle integroitu muuhun GPU:hun.

Ainakin jotkut DLSS-versioista ovat hyödyntäneet toiminnassaan normaalimappeja ja/tai syvyysmappeja, joita ei lopullisessa kuvadatassa ole, että DLSSn ainakin joidenkin versioiden on tarvinnut päästä käsiksi sinne melko syvälle näyttiksen sisäisiin tietorakenteisiin.

Molemmat on senverran uusia asioita, jotta parempia ratkaisuja voi vieläkin tulla.

... ja se, että "parempia ratkaisuita voi tulla" on nimenomaan argumentti sen puolesta, että niihin ei tehdä mitään erikoisrautaa vaan ne tehdään softalla näyttiksen shader-prossuilla (kuten ne PS5lla tehdään)

Siitä ei ole myöskään käsittääkseni tarkkoja tietoja, mitenpitkään SONY ja AMD ovat tulevaa piiriä suunnitelleet yhdessä. Pidemmällä aikajänteellä myös peruslohkoihin voi tulla muutoksia. SONYllä on kuitenkin paljon AMD:tä enemmän ammattitaitoa talossa tietämään sen, mikä AMD:n näyttösissä kusee pelikäytössä ja mihin asioihin pitäisi panostaa, nimenomaan tuossa konsoliversiossa..

Höpöhöpö. AMD tuntee arkkitehtuurinsa paljon Sonyä paremmin, ja AMD tuntee myös ne tulossa olevat arkkitehtuurinsa, siinä missä Sony tuntee hyvin vain AMDn markkinoilla olevat ja vanhat arkkitehtuurit.
 
Viimeksi muokattu:
Pelien taaksepäin yhteensopivuuden kannalta ongelmia lienee vähiten, kun pysyy AMD-AMD puolella.
Onneksi pysyy SOCin valmistaja samana, muutoin tosiaan romuttuisi taaksepäin yhteensopivuus kokonaan, vai olisikohan toimivuus enää pelikohtaista, mikäli SOC tulisikin seuraavaan pleikkariin/Xboxiin Inteliltä? Toisaalta käytetyt rajapinnat myöskin muuttuisivat.

Vihdoinkin myös konsoleilla toimivat (ainakin lähes) ongelmitta myös edellisen sukupolven pelit, joka on oikeasti todella iso juttu.
 
Onneksi pysyy SOCin valmistaja samana, muutoin tosiaan romuttuisi taaksepäin yhteensopivuus kokonaan, vai olisikohan toimivuus enää pelikohtaista, mikäli SOC tulisikin seuraavaan pleikkariin/Xboxiin Inteliltä? Toisaalta käytetyt rajapinnat myöskin muuttuisivat.

Vihdoinkin myös konsoleilla toimivat (ainakin lähes) ongelmitta myös edellisen sukupolven pelit, joka on oikeasti todella iso juttu.
Vaikka intel olisi tehnyt ps6 piirin, niin ymmärtääkseni pitäisi olla yhteensopivuus vanhojen pelien kanssa, koska x86.

Ps3 perustui muistaakseni johonkin cell arkkitehtuuriin, tms joka oli hyvin erilainen ps2 ja ps4 piirien kanssa ja siksi ei ole yhteensopivuutta eteen eikän taakse päin.
 
Vaikka intel olisi tehnyt ps6 piirin, niin ymmärtääkseni pitäisi olla yhteensopivuus vanhojen pelien kanssa, koska x86.

Ps3 perustui muistaakseni johonkin cell arkkitehtuuriin, tms joka oli hyvin erilainen ps2 ja ps4 piirien kanssa ja siksi ei ole yhteensopivuutta eteen eikän taakse päin.

Ennen PS4sta kaikki Playstationit oli melko erikoista rautaa

PS1

Alkuperäinen playstation oli 32-bittisellä MIPS R3000-prossulla, jonka lisäksi siinä oli geometrian laskemiseksi prossuun lisätty oman oma SIMD-vektori-yksikkö (GTE) joka tuli viitisen vuotta Intelin SSE:tä aiemmin ja nelisen vuotta AMDn 3dnow:ta aiemmin. Lisäksi siinä oli (Toshiban kehittämä) 3D-kiihdytin, muutama vuosi ennen kuin 3D-kiihdyttimet yleistyivät PC-maailmassa.

PS2

PS2ssa pysyi sama MIPS-käskykanta-arkkitehtuuri, mutta CPU päivittyi selvästi kehittyneempään ja nopeampaan R5900-malliin. Vektoriyksiköt vaihtui selvästi järeämpiin ja vähän kummallisempiin.

3D-graffapiiri oli myös hyvin eksoottinen, siinä oli framepuskuria varten pieni määrä hyvin nopeaa eDRAMia ja pikseliyksiköitä oli todella paljon.

Käytännössä PS2 oli aikaansa nähden hyvin nopea sekä raa'assa pikselien piirrossa että geometrian käsittelyssä, eli piirsi (muihin aikalaisiinsa nähden) sekä paljon pikseleitä että paljon kolmioita hyvin nopeasti.

Valitettavasti vaan teksturointikyvyt olivat melko rajoittuneet ja suorituskyky putosi nopeasti mitä tekstuuri-intensiivisemmäksi mentiin; Siinä missä monissa muissa 3D-kiihdyttimissä jokaisessa pikseliliukuhihnassa oli 1-2 erillistä teksturointiyksikköä, että jokaiseen pikseliin sai 1-2 tekstuuria "ilmaiseksi", yhdenkin tekstuurin käyttäminen PS2lla heti puolitti pikselinpiirtonopeuden, tosin sen puolituksen jälkeenkin sitä nopeutta oli jäljellä aika paljon.

Mutta myös tekstuurien koossa taisi olla jotain melko pahoja rajoitteita, että suuria kauniita tekstuureita ei vaan muistiin mahtunut.

Lisäksi kaiken tehon ottaminen irti siitä ei myöskään ollut helppoa.

PS2ssa oli myös "IO-prosessori" (IOP) joka oli tismalleen sama kuin PS1n CPU, joten PS1-pelit pyörivät sillä, vaikka itse pääprosessorin vektoripuoli oli vaihtunut erilaiseen, tosin jossain PS2n myöhemmässä slim-mallissa tämä vaihtui PPC-pohjaiseen IO-prossun joka ei ajanut PS1n pelejä, ja PS1-pelien yhteensopivuus huononi (kun ne piti ajaa pääprossulla emuloiden sen kanssa epäyhteensopivia vektorikäskyjä)

PS3

PS3ssa vaihdettiin sitten pois MIPSistä, IBM:n Celliin.

Cell oli IBMn moniydinpiiri, jossa samalla piirillä oli sekä PowerPC-pohjainen CPU(PPE) että monta omaa käskykantaansa ajavaa liukuluku-vektori-DSPtä, joita kutsuttiin nimellä "SPE". Jokaisella SPE:llä oli oma muistinsa eikä suoraa pääsyä keskusmuistiin.

Cellistä piti PS3een alun perin tulla kaksi eri piirimallia:

* CPU- ja geometriapiiri, jossa yksi CPU-ydin(PPE) ja 8 SPE-ydintä geometrianlaskentaan, fysiikan laskentaan yms.
* Pikselipiiri, jossa 4-6 SPEtä(jotka olisivat toimineet pikseli-shader-prossuina) sekä 3d-graffan vaatima erikoisrauta (ROPit, TMUt jne).

Valitettavasti tuota Cell-pohjaista pikselipiiriä ei saatu toimimaan tarvittavalla nopeudella tai projektin aikatauluissa, joten se peruttiin, ja paniikissa ostettiin nVidialta geforce 7, josta vaan vaihdettiin väylä, että sen sai PCn sijasta kiinni Celliin. Ja laite tuli ulos geforce8 jälkeen, tuo näyttis oli "edellistä sukupolvea" ja vanhentunut jo konsolin tullessa markkinoille.

Lopputuloksena oli kokonaisuus, jossa oli paljon geometriavääntöä, joka oli hankala ohjelmoida, mutta jossa pikselipään ominaisuudet oli heikohkoja.


Ja tuo Cellin CPU-prossuydin(PPE) oli käytännössä sama ydin kuin mitä xBox 360ssä oli 3kpl, IBM onnistui myymään saman ytimen molemmille aivan kuten AMD on sen jälkeen onnistunut myymään samaa ydintä molemmille.
 
Viimeksi muokattu:
Ensimmäistä kertaa kuulen että Cellistä Sony ois yrittäny vääntää toista Cell versiota rinnalle pelkästään grafiikkaan kun yksikin oli hyvin arvokas laittaa levylle. Oliko siihen jotain lähdettä?
Aikaisemmat prototyypeillä huhujen mukaan yrittivät sitä ideaa pelkästään yhdellä Cellillä vääntää myös grafiikkaa niin ois kiva kuulla tästäkin versiostakin (linuxissahan Celliin löytyy alkutason OpenGL ajuritkin eli sillä voi ajaa grafiikkaa yhä tavallaan). Sen lisänä voin sanoa että Sony 2018 kokeiliut yhä kehittää Celliä.
IBM teki U rack servereitä pari mallistoa ja Toshiba teki kiihdytin kortteja Cellistä kuten videon enkoodaamiseen ja pari kolmannen osapuolen korttia tuli ulos.


CEB-1000 kun on vanhin tunnettu kuvista jossa oli Quadro FX 3400, josta päivittivät GeForce 6800 Ultraan myöhemmässä Prototyypissä ja sen jälkeen vasta 7800 GTX:ään josta vielä oli pari vaihtoehtoa kunnes vakiintui customi mutta piirii joka yhä käyttää PCIE väylää (x4 Super Companion Chip kautta) oleva GPU.

Lähde: Template:Prototype models - PS3 Developer wiki


Itsekin sitä mieltä PS3 kohdalla loppu "konsoli" raudan teko ja nykyään ollut vain tylsiä x86 rautaa.

 
Viimeksi muokattu:
Ensimmäisessä Xboxissa oli 733MHz Pentium 3 ja nVidian grafiikkapiiri (233 MHz Nvidia GeForce 3-based NV2A GPU).
Seuraavassa (Xbox360) oli kolmeytiminen PowerPC -prosessori.
AMD tuli mukaan kuvioihin vasta Xbox Onen myötä.

Pleikkaripuolella AMD tuli vasta PS4:ssa.
Xboxissa on Mobile Celeron 733 jota jostain syystä myytiin Pentium III:na konsolin spekseissä.

 
Ensimmäistä kertaa kuulen että Cellistä Sony ois yrittäny vääntää toista Cell versiota rinnalle pelkästään grafiikkaan kun yksikin oli hyvin arvokas laittaa levylle. Oliko siihen jotain lähdettä?

Yritin löytää, mutta en pikaisesti löytänyt.

Ongelma on se, että tästä suunnitelmasta on 20 vuotta aikaa, graffapiirin ostaminen nvidialta julkistettiiin joulukuussa 2004 joten kaikki materiaali täytyy olla tätä vanhempaa koska tuo suunnitelma kuopattiin viimeistään joulukuussa 2004.

Ja sitten kun yrittää kaivella hyvin vanhoja (ennen vuotta 2005 olevia) artikkeleita Cellistä, aina tulee 404 kun artikkelit on jo poistuneet netistä. 2005 vuodelta on paljon artikkeleita, kun silloin se lopulta valmiiksi tullut piiri julkaistiin, tässä pitäisi mennä kaeummaksi, pre-julkaisu-esityksiin.

Muistan kuitenkin noita korkean tason kaaviokuvia tästä cell-pohjaisesta graffapiiristä katselleeni tuolloin >20 vuotta sitten, en vaan enää muista tarkasti oliko niissä 4 vai 6 SPE:tä.
 
Viimeksi muokattu:
Kyllä se paikkansa pitää että piti olla Cell GPU, ei ollut riittävän tehokas oli kehittäjien mukaan syy miksi oli lopulta pakko vaihtaa toiseen (NVIDIAn piiriin)
Asiasta löytyy useita lausuntoja eri kehittäjiltä
 

Uusimmat viestit

Statistiikka

Viestiketjut
253 984
Viestejä
4 417 854
Jäsenet
73 255
Uusin jäsen
Vepe21

Hinta.fi

Back
Ylös Bottom