Virallinen: NVIDIA vs AMD (vs Intel) keskustelu- ja väittelyketju

  • Keskustelun aloittaja Keskustelun aloittaja Sampsa
  • Aloitettu Aloitettu
Jotain sijoittajille tarkoitettua huuhaata.
Nvidia on tehnyt kannettaviin niin kauan kuin muistan näytönohjaimia.
Siistyminen tarkoittaa että vähennetään toisesta toiseen joko osittain tai täysin.
Ihan samoja piirejähän nvidia myy läppäreihin ja pelikortteihin. Sijoittajadatasta näkee, että osassa markkinoista läppärimyynti ohittanut erilliset gpu:t. Nvidian kannalta kun on seurannut tilannetta niin läppärimyynti on ollut isommassa nousussa kuin erillisten näyttökorttien myynti. Jos huhuttu mediatek+nvidia arm win11 piiri pitää paikkansa niin nvidia saa jalansijaa entistä enemmän ensi vuonna läppäripuolella.
 
Öh, en mä ole mistään katteista tinkimisestä halunnut keskustella. Se on jo keskustelu niin moneen kertaan ettei siitä keskustelusta saa mitään uutta irti.

Esitin oman mielipiteen, en faktan siitä, että jos olisin amd:n housuissa niin mihin laittaisin prioriteetit. Mielipiteistä saa olla ihan vapaasti eri mieltä, mutta yritin silti omani perustella.

No joo, olet varmaan ihan oikeassa. Ymmärsin vähän väärin mitä tarkoitit... varmaan tosiaan kannattaa panostaa enemmän läppäripuolelle kuin erillisnäyttiksiin, vaikka niissä todennäköisesti onkin suht. paljon yhteistä.
 
Arvatkaapas mikä on tänä vuonna Taiwanissa erikoisin asu
S98GzMyJm7P5xwioZvaQG7-970-80.jpg.webp
 
APU jutuista jatkoa hieman. Apple julkaisi eilen m4 max soc:in läppäreihin missä 546GB/s muistikaistaa. Tuohon päälle asiallisenkokoiset cachet ja pitäisi teoriassa olla mahdollista ottaa melko hyvää suorituskykyä irti. Mitä lie saisi amd apu:sta irti vastaavalla muistikaistalla+isolla cachella? Bonuksena tuollaisessa apu:ssa ei tarvi pallotella dataa päämuisti-gpu muisti välillä pcie:n yli dataa ladatessa tai jos algoritmi haluaa koskea dataan sekä cpu:lla että gpu:lla(video ja kuva editointi). Huomionarvoista tuossa m4 max:ssa suorituskyyvn lisäksi maksimi ja idle virrankulutus jotka ovat maltilliset.

 
Viimeksi muokattu:
Kuulostaa kyllä siltä, ettei AMD:llä ole juuri mitään menetettävää vaikka lähtisivät erillisnäyttispuolella hintasotaan nVidian kanssa.

Eipä ne nykyisillä taikka tulevilla tuotteilla, se mitä niistä tiedetään kyllä mitään voi voittaa hintakilpailulla. Se mitä AMD:n tarttis nyt tehdä on selvästi parempi tuote, eli ns. rysenit.

Se voisi olla jopa mahdollista jos lähtisivät agressiivisesti panostamaan RT:n josta sanonut jo vuosia sitten että rasteroinnin kehitys pitäisi laittaa naftaliiniin ja kaikki paukut RT:n kehitykseen.
Ja jos foliopipoa vedetään syvempään päähän niin ehkä tämä on se mitä AMD on tekemässä ja syy sille miksi piirejä peruttiin seuraavan genin kohdalla ja RDNA4 jälkeen tulevat sirut sitten räjäyttää pankin.
Todennäköisesti tuo on vain toiveajattelua mutta on täysin selvää että rasterointia ja RT:tä rinnakkain kehittämisessä ei ole pitkässä juoksussa järkeä.

Onko jotain oikeaa tietoa väitteitä tukemaan?

Kyllä noi strix halot alkaa olla suht järeitä APU siruja mutta muistikaista niissä todennäköisesti kinnaa.

 
Eipä ne nykyisillä taikka tulevilla tuotteilla, se mitä niistä tiedetään kyllä mitään voi voittaa hintakilpailulla. Se mitä AMD:n tarttis nyt tehdä on selvästi parempi tuote, eli ns. rysenit.

Se voisi olla jopa mahdollista jos lähtisivät agressiivisesti panostamaan RT:n josta sanonut jo vuosia sitten että rasteroinnin kehitys pitäisi laittaa naftaliiniin ja kaikki paukut RT:n kehitykseen.
Ja jos foliopipoa vedetään syvempään päähän niin ehkä tämä on se mitä AMD on tekemässä ja syy sille miksi piirejä peruttiin seuraavan genin kohdalla ja RDNA4 jälkeen tulevat sirut sitten räjäyttää pankin.
Todennäköisesti tuo on vain toiveajattelua mutta on täysin selvää että rasterointia ja RT:tä rinnakkain kehittämisessä ei ole pitkässä juoksussa järkeä.

En jaksa uskoa että AMD pystyy enää tekemään absoluuttisesti parempaa tuotetta kuin nVidia, kun kyseisellä puljulla on nykyisin käytännössä loputtomasti massia.

Korkeintaan AMD pystyisi parantamaan säteenseurannan surkeaa nykytilaa kohtalaiseksi ja sitten kilpailemaan hinta/tehosuhteella keskitason korteissa. Jos se ei riitä, ja kuluttajat menisi silti nVidian brändin vetäminä vihreän leirin tuotteisiin, maksoi mitä maksoi, niin sitten AMD:n kuluttajabisnes on menetetty tapaus. :hmm:
 
Joskus kyllä kuullut että nvidiaa ei kiinnosta pelaajat, nvidia ei tee hyviä tuotteita, nvidia lopettaa pelikorttien tekemisen jne. Riippuen mitä uskoo niin ehkä siellä on amd:lle vielä rako tai ehkä osa jutuista ei vain pidäkkään paikkaansa.

tsmc jatkaa hintojen nostamista. Ihanaa...
 
Joskus kyllä kuullut että nvidiaa ei kiinnosta pelaajat, nvidia ei tee hyviä tuotteita, nvidia lopettaa pelikorttien tekemisen jne. Riippuen mitä uskoo niin ehkä siellä on amd:lle vielä rako tai ehkä osa jutuista ei vain pidäkkään paikkaansa.

tsmc jatkaa hintojen nostamista. Ihanaa...

Niin, varmaankin AMD:n paras toivo kuluttajamarkkinoiden suhteen on että nVidiaa ei kiinnosta lähteä mukaan hintasotaan vaan mieluummin myyvät hieman vähemmän huonon katteen midrangekortteja... kuitenkin iso osa kuluttajista ostaa joka tapauksessa nVidian kortin hinta/laatusuhteesta välittämättä, niin se ei välttämättä edes olisi huono juttu nVidian voittojenkaan suhteen. :hmm:
 
Niin, varmaankin AMD:n paras toivo kuluttajamarkkinoiden suhteen on että nVidiaa ei kiinnosta lähteä mukaan hintasotaan vaan mieluummin myyvät hieman vähemmän huonon katteen midrangekortteja... kuitenkin iso osa kuluttajista ostaa joka tapauksessa nVidian kortin hinta/laatusuhteesta välittämättä, niin se ei välttämättä edes olisi huono juttu nVidian voittojenkaan suhteen. :hmm:
Ei osta. Se suurin osa ostaa tasan sen kortin joka siinä alennuksessa olleessa markettimikrossa sattuu sisällä olemaan ostohetkellä. Unohdat sen, että täällä pyörivä porukka joka tietää tietotekniikan edustaa pientä vähemmistöä. Suurin osa kuluttajista katsoo vain hintaa ja jos myyjä vastaa pelikelpoisuuteen kyllä, niin sillä mennään oli koneen sisällä mitä tahansa
 
En jaksa uskoa että AMD pystyy enää tekemään absoluuttisesti parempaa tuotetta kuin nVidia, kun kyseisellä puljulla on nykyisin käytännössä loputtomasti massia.

Korkeintaan AMD pystyisi parantamaan säteenseurannan surkeaa nykytilaa kohtalaiseksi ja sitten kilpailemaan hinta/tehosuhteella keskitason korteissa. Jos se ei riitä, ja kuluttajat menisi silti nVidian brändin vetäminä vihreän leirin tuotteisiin, maksoi mitä maksoi, niin sitten AMD:n kuluttajabisnes on menetetty tapaus. :hmm:

No siis nyt aletaan elämään sellaisessa tietynlaisessa murrosvaiheessa tuon RT:n kanssa että siinä olisi mahiksia iskulle. Uskon että monelle riittäisi nykyistä huonompikin rasterointi teho jos RT suorituskyky olisi massiivisesti parempi ja tarkoitan siis massiivisesti. Nythän tilanne on se että ainoastaan 4090 tarjoaa edes välttävää RT suorituskykyä ja tässä saadaan vielä pari sukupolvea ainakin ootella että se välttävä suorituskyky valuisi tällä menolla myös sinne keskiluokkaan. Pari geniä tarkoittaa siis jotain 5v.

Mielestäni tää RT kehitys on ollut hitaampaa mitä ajattelin sen olevan silloin kun tää alkoi 6v sitten.

Ehkä se hitaus on tulosta siitä että joudutaan kehittämään 2 eri tekniikkaa vaikka osin voidaankin samoja palikoita käyttää kumpaankin niin perinteiseen rasterointiin sekä RT:n, mutta kyllä tuolla RT puolella on raudan suhteen varmasti vielä paljon kehitettävää ja tilaa jopa uusille innovaatioille. Aina joskus tulee keksintöjä jotka tulee mullistamaan kyseistä alaa ja sellaisia ei viime vuosina taikka vuosikymmeninä ole oikein tainnut AMD:n suunnalta tulla GPU puolelle, joten olisikohan kohta sen aika että arpaonni suosisi AMD:tä?

Ja silloin kun keksitään jotain mullistavaa niin siinä ei oikein auta vaikka kilpailijalla on massia äärettömästi koska on patenttisuojat ja toisekseen vastaavanlaisen innovaation kehittäminen ottaa väkisin aikaa vaikka olisi miten paljon massia ellei se kilpailia suostu lisenssoimaan tuotetta.

Otetaan nyt vaikka tää RT niin kyllä se vaikuttaa siltä että tuli AMD:lle aika puskista ja ovat vähintään yhden genin jäljessä ellei peräti kaksi. Itsellä sellainen fiilis että AMD:n RT toteutus on ollut vähän sellainen "Nyt on pojat pakko saada jotakii ulos" eli hätäratkaisu eikä mikään pidemmän kehitystyön tulos.
 
Jospa sieltä olisi tulossa arkkitehtuuri jolla AMD pääsisi lähemmäs Nvidian RT suorituskykyä.
Merkittävästi parempaa säteenseurantasuorituskykyä lupaavat virallisesti.
In addition to a strong increase in gaming performance, RDNA 4 delivers significantly higher ray tracing performance and adds new AI capabilities
 
Eipä ne nykyisillä taikka tulevilla tuotteilla, se mitä niistä tiedetään kyllä mitään voi voittaa hintakilpailulla. Se mitä AMD:n tarttis nyt tehdä on selvästi parempi tuote, eli ns. rysenit.

Se voisi olla jopa mahdollista jos lähtisivät agressiivisesti panostamaan RT:n josta sanonut jo vuosia sitten että rasteroinnin kehitys pitäisi laittaa naftaliiniin ja kaikki paukut RT:n kehitykseen.

Niiden piirien pinta-alasta äärimmäisen pieni osa on rasterointispesifistä rautaa (ROPit, kolmionalustus).

Suurin osa siitä piiristä on joko
* Shader-prossuja (käytetään sekä rasteroinnissa, säteenjäljityksessä että geneerisessä rinnakkaislaskennassa)
* Teksturointiyksiköitä (käytetään sekä rasteroinnissa että säteenjäljityksessä, mutta melko hyödyttömiä geneerisessä rinnakkaislaskennassa)
* Muistiohjaimia, väyliä ja välimuisteja (tarvii että piiri ylipäätään toimii mihinkään)
* Muita kiihdyttimiä (videonpakkaus-/purkurauta, 2D-VGA-ydin jne - kaikkeen muuhun)

Ja jos foliopipoa vedetään syvempään päähän niin ehkä tämä on se mitä AMD on tekemässä ja syy sille miksi piirejä peruttiin seuraavan genin kohdalla ja RDNA4 jälkeen tulevat sirut sitten räjäyttää pankin.
Todennäköisesti tuo on vain toiveajattelua mutta on täysin selvää että rasterointia ja RT:tä rinnakkain kehittämisessä ei ole pitkässä juoksussa järkeä.

Ei, ei todellakaan ole täysin selvää, vaan mutuilua, joka perustuu melko virheelliseen käsitykseen siitä, miten näyttikset toimivat ja millaisia osia niissä on.

Vaikka säteenjäljitys on tulossa, maailmassa tulee kymmenien vuosien ajan olevan vielä rasteroinnilla toimivia pelejä, joiden pitää myös pyöriä järkevällä suorituskyvyllä, ja se, että sinne näyttispiirille laitetaan pieni määrä ROPeja ja pieni määrä fixed function-kolmionalustusrautaa niitä varten, ei maksa juuri mitään.

Ja kun ne sinne tulee, niitä edelleen pitää käytännössä vielä vähän kehittää, jotta saa ne toimimaan esim. uusien piirien sisäisten väylärajapintojen yms. kanssa että ne voi tunkea sinne uudelle piirille, vaikka siihen kehitykseen käytettävät resurssit voikin pudottaa paljon pienemmiksi.

Ja halutaan myös, että niitä vanhoja rasterointia käyttäviä pelejä voidaan paremmin pelata vielä halvemmilla, pienemmillä ja vähävirtaisemmilla näyttiksillä, suuremmilla resoluutiolla.

Siinä olet oikeassa, että säteenjäljitys pitää priorisoida rasteroinnin edelle, mutta sitä rasterointipuolen kehitystä ei voi täysin lopettaa - ja se ei ole muutenkaan mikään puoli vaan pikemminkin kymmenesosa kuin puolikas.

Kun kehitetään parempia shader-prossuja, siitä hyötyy sekä säteenjäljitys että rasterointi.
Kun kehitetään parempia TMU:ita, siitä hyötyy sekä säteenjäljitys että rasterointi.

- mutta joskus siihen ROPiin tai kolmionalustusrautaan pitää tehdä pientä viilausta, vaikka tuotekehityksen pääpaino olisi muualla.

Kyllä noi strix halot alkaa olla suht järeitä APU siruja mutta muistikaista niissä todennäköisesti kinnaa.


Verrattuna aiempiin APUihin, tuossa on tuplasti leveämpi muistikaista ja ilmeisesti myös paljon enemmän näyttiksen käytössä olevaa välimuistia, joten efektiivisesti kaistaa on yli tuplasti aiempia APUja enemmän.

Ja säteenjäljitys ei myöskään ole samalla tavalla kaistariippuvaista kuin rasterointi (tosin sille muistin viive on sitten merkittävämmässä asemassa)
 
Kertokaa minulle, kun en ymmärrä.

4080 Super vs. 7900XTX. 7900 löytyy avatussa paketissa uuden takuulla esim. Amazonista reiluun 800€, ja käytännössä puhutaan samantehoisista korteista.

4080 löytyy ostoilmoituksia, 850€ hinnalla myydään päivässä myös non-superit ilman kuitteja.

Joo, 4080 vie vähemmän sähköä samoihin tehoihin. Ei kai tämä kaikkea tätä selitä?
 
Kertokaa minulle, kun en ymmärrä.

4080 Super vs. 7900XTX. 7900 löytyy avatussa paketissa uuden takuulla esim. Amazonista reiluun 800€, ja käytännössä puhutaan samantehoisista korteista.

4080 löytyy ostoilmoituksia, 850€ hinnalla myydään päivässä myös non-superit ilman kuitteja.

Joo, 4080 vie vähemmän sähköä samoihin tehoihin. Ei kai tämä kaikkea tätä selitä?
Säteenseuranta(rtcore), tensoriytimillä AI kiihdytys. Perinteinen rasteri ei ole koko tarina kaikille.
 
Uusista korteista tällähetkellä maailmanlaajuinen myynti on luokkaa Nvidia 90%/10% Amd.
Näyttökuva 2024-09-29 1232351.png

Eli Amd ei kelpaa ostajille edes isommalla muistilla ja paremmalla teho/hintasuhteella.
Jos tilanne jatkuu yhtä surkeana niin ei ainakaan pelien kehittäjät panosta enempää AMD korttien yhteensopivuuteen jne.
 
Kertokaa minulle, kun en ymmärrä.

4080 Super vs. 7900XTX. 7900 löytyy avatussa paketissa uuden takuulla esim. Amazonista reiluun 800€, ja käytännössä puhutaan samantehoisista korteista.

4080 löytyy ostoilmoituksia, 850€ hinnalla myydään päivässä myös non-superit ilman kuitteja.

Joo, 4080 vie vähemmän sähköä samoihin tehoihin. Ei kai tämä kaikkea tätä selitä?
Ainakin Hardware Unboxed käyttää noissa suorituskyky/hinta -arvioinneissa 10%:n nvidia-lisää, eli rasterisaatiossa AMD:n tulisi olla 10% tehokkaampi, että sama hinta on perusteltu. DLSS, hyötyohjelmien paljon parempi tuki, jotain lisäominaisuuksia mitä AMD:lla ei ole (vaikka AMD:lla onkin jotain mitä nvidialla taas ei).
 
Tässähän sitä. Ei vaan siltikään mielestäni kerro koko tarinaa. Puhutaan 25% hintaerosta, erikoinen on tilanne.
Toinen puoli asiaa usein kuviteltu ja ehkä joissain tilanteissa todellinen softapuolen etu. Mielikuvat ajureiden vakaudesta, dlss + säteenseurantabuffereiden käsittely dlss algoritmilla, studio ajurit + davinci resolve/photoshop/... tai ylipäänsä markkinointiviestin läpimeno.

Jossain määrin voi 4080:sta mennä myös ai työkäyttöön jos ei ole tarvetta/rahaa laittaa 4090:sta. Lokaalien kielimallen ajo, fine tuning, ai r&d, data science jutut jne.
 
Viimeksi muokattu:
Tässähän sitä. Ei vaan siltikään mielestäni kerro koko tarinaa. Puhutaan 25% hintaerosta, erikoinen on tilanne.

Nvidialla aina vähän kalliimmat kortit. Osin perusteltua, eli parempi säteenseuranta ja enemmän ominaisuuksia eli FPS kannalta merkittävin on DLSS. Tuohon kannattaa perehtyä ennen ostoa. AMD:n vastaava on FSR.

Mulla oli 7900 XTX NITRO+, mutta vaihdoin 4080 kun 4k tarvii mehuja lisää, ja DLSS sitä mehua antaa sen tarvittavan määrän. Eli siis raskaimmat pelit jää ilman DLSS/FSR 4k:na sinne 60fps joka ei hifistille ole kivaa. Jos mulla ois edelleen QHD-resoluutiona, ottaisin AMD:n kortin.
 
Tässähän sitä. Ei vaan siltikään mielestäni kerro koko tarinaa. Puhutaan 25% hintaerosta, erikoinen on tilanne.
Täytyy myös muistaa, että käytettyjen markkinoilla Nvidian korteilla on enemmän kysyntää, sillä niiden käyttöaiheet ovat suuremmat Nvidian ollessa vahvassa asemassa AI-puolella. Näin ollen kortit (oletettavasti) säilyttävät arvonsa paremmin käytettyinä.

Vaikka kortti maksaisi 25% enemmän, mutta sen arvo putoaa hitaammin, niin yhtäkkiä tuo lisähinta ei tunnukaan niin erikoiselta.

Tämäkin on monelle merkittävä tekijä ostopäätöksen syntymisessä.
 
Täytyy myös muistaa, että käytettyjen markkinoilla Nvidian korteilla on enemmän kysyntää, sillä niiden käyttöaiheet ovat suuremmat Nvidian ollessa vahvassa asemassa AI-puolella. Näin ollen kortit (oletettavasti) säilyttävät arvonsa paremmin käytettyinä.

Vaikka kortti maksaisi 25% enemmän, mutta sen arvo putoaa hitaammin, niin yhtäkkiä tuo lisähinta ei tunnukaan niin erikoiselta.

Tämäkin on monelle merkittävä tekijä ostopäätöksen syntymisessä.
Ehdottomasti. Ehkä mulla on sit jotenkin vinoutunut kulma tähän, enkä ehkä näe etenkään RT osalta koko tarinaa.

tuossa esim. RT poissa käytöstä, nykyhinnoin en ymmärrä kuka maksaa lopulta kuitenkin tuhnuksi jäävästä 4080:sta tuon preemion?

Tai siis moni maksaa, ei siinä. Kovin suurta mustaa pekkaa en näe käteen jäävän kummallakaan vaihtoehdolla. Itse taidan katsoa tuon 800€ pintaan maksavan 7900XTX kanssa mihin kortti taipuu vesijäähdytyksellä ja ns. virrankulutuksesta välittämättä. Kun katsoo markkinaa missä 3080 vaihtaa edelleen 400€ nurkilla omistajaa vilkkaasti, on vaikea nähdä 7900XTX käsiin jäävän ihan hetkeen :P
 
Verrattuna aiempiin APUihin, tuossa on tuplasti leveämpi muistikaista ja ilmeisesti myös paljon enemmän näyttiksen käytössä olevaa välimuistia, joten efektiivisesti kaistaa on yli tuplasti aiempia APUja enemmän.

Ja säteenjäljitys ei myöskään ole samalla tavalla kaistariippuvaista kuin rasterointi (tosin sille muistin viive on sitten merkittävämmässä asemassa)

RT:tä aika turha sotkea tähän kun ei teho yksinkertaisesti tule riittämään sen pyörittämiseen.

Hardware Unboxed juuri perehtynyt varsin kattavasti asiaan. Lyhyesti, varsin vähän on edelleen pelejä joissa RT oikeasti tuo lisäarvoa. Silloin kun sitä lisäarvoa tulee niin se vaatii näyttikseltä myös paljon joten keskisarjan lapuilla jää homma piippuun.
Kun dGPU puolella tilanne on edelleen surkea niin ihan turha haaveilla että APU olisi jokin pelastus.
 
Ehdottomasti. Ehkä mulla on sit jotenkin vinoutunut kulma tähän, enkä ehkä näe etenkään RT osalta koko tarinaa.

tuossa esim. RT poissa käytöstä, nykyhinnoin en ymmärrä kuka maksaa lopulta kuitenkin tuhnuksi jäävästä 4080:sta tuon preemion?

Tai siis moni maksaa, ei siinä. Kovin suurta mustaa pekkaa en näe käteen jäävän kummallakaan vaihtoehdolla. Itse taidan katsoa tuon 800€ pintaan maksavan 7900XTX kanssa mihin kortti taipuu vesijäähdytyksellä ja ns. virrankulutuksesta välittämättä. Kun katsoo markkinaa missä 3080 vaihtaa edelleen 400€ nurkilla omistajaa vilkkaasti, on vaikea nähdä 7900XTX käsiin jäävän ihan hetkeen :P

Lienee käy pidemmän päälle niin, että pelikehittäjät preferoivat säteenseurantaefektejä valo/varjot/heijastukset/gi koska (purkka)rasteriratkaisut ovat kalliita kehittäjä ja artistiajan suhteen. Pelidevauksen kustannukset ovat karanneet käsistä, irtisanomisia vasemmalla ja oikealla. Vaikkapa ue5:ssa peruskuvanlaatu on softa säteenseurantaa ja siihen saa laatua lisää hw säteenseurannalla.

rdna4:en huhutaan olevan rasterissa hitaampi kuin nykyinen amd:n lippulaivan . Pääpaino amd:llakin säteenseurantakyvyn parantamisessa ja ai ominaisuuksien lisäämisessä niin softassa kuin raudassa. Hinta/laadussa rasterisuorituskyvyn on huhuttu paranevan paljon rdna4:ssa. FSR:n seuraava versio käyttää ai:ta(vrt. dlss)

lisa su:n sanoin lainauksessa. "strong increase in gaming performance" viitannee hintaluokkaan missä rdna4 julkaistaan eikä siihen, että kisattaisiin 4090/5090:en kanssa.
In addition to a strong increase in gaming performance, RDNA 4 delivers significantly higher ray tracing performance, and adds new AI capabilities. We are on track to launch the first RDNA 4 GPUs in early 2025."
 
Viimeksi muokattu:
Amd irtisanoo 4% työntekijöistä
In a statement given to Wccftech, an AMD spokesperson confirmed the layoffs. According to AMD, the layoffs are "a part of aligning our resources with our largest growth opportunities." They are part of "a number of targeted steps that will unfortunately result in reducing our global workforce by approximately 4%." AMD added that it is "committed to treating impacted employees with respect and helping them through this transition."
 
Liittyy epäsuorasti nVidian bisneksiin, niin laitan siksi tänne. Ilmeisesti on epäilyjä ettei AI:n skaalautuminen jatku, vaan nykymenetelmin se lähestyy raja-arvoa. Tästä voinee tulla ongelmia kaavaillulle AI-bisnekselle, mutta aika näyttää miten käy. :hmm:

For years now, many AI industry watchers have looked at the quickly growing capabilities of new AI models and mused about exponential performance increases continuing well into the future. Recently, though, some of that AI "scaling law" optimism has been replaced by fears that we may already be hitting a plateau in the capabilities of large language models trained with standard methods.

A weekend report from The Information effectively summarized how these fears are manifesting amid a number of insiders at OpenAI. Unnamed OpenAI researchers told The Information that Orion, the company's codename for its next full-fledged model release, is showing a smaller performance jump than the one seen between GPT-3 and GPT-4 in recent years. On certain tasks, in fact, the upcoming model "isn't reliably better than its predecessor," according to unnamed OpenAI researchers cited in the piece.

 
Liittyy epäsuorasti nVidian bisneksiin, niin laitan siksi tänne. Ilmeisesti on epäilyjä ettei AI:n skaalautuminen jatku, vaan nykymenetelmin se lähestyy raja-arvoa. Tästä voinee tulla ongelmia kaavaillulle AI-bisnekselle, mutta aika näyttää miten käy. :hmm:



Varmaan enemmän liittyy LLM kehityksen umpikujaan. Sillä on joku raja niiden sanojen peräkkäin ennustamisella. Pitäisi alkaa keksimään ns. "oikea" AI joka ajattelee itse eikä vain ennusta mikä olisi hyvä sana seuraavaksi että lauseesta tulee uskottava.
 
Varmaan enemmän liittyy LLM kehityksen umpikujaan. Sillä on joku raja niiden sanojen peräkkäin ennustamisella. Pitäisi alkaa keksimään ns. "oikea" AI joka ajattelee itse eikä vain ennusta mikä olisi hyvä sana seuraavaksi että lauseesta tulee uskottava.

Se ja tietty ennenpitkää päädytään siihen, ettei opetusdataa voi enää merkittävästi kasvattaa.

Toinen pieni uhkapilvi on tämä:

“We want to be absolutely the best place to run Nvidia,” said Dave Brown, vice-president of compute and networking services at AWS. “But at the same time we think it’s healthy to have an alternative.” Amazon said ‘Inferentia,’ another of its lines of specialist AI chips, is already 40 percent cheaper to run for generating responses from AI models.

Tuo on vielä käytännössä olematon osuus markkinoista, eikä Amazon ole yksin. Muutkin isot it-jätit ovat kehittämässä omaa AI rautaa. Nvidia taatusti pysyy markkinoiden isoimpana gorillana. Markkinaosuus ei vain tule olemaan 90% täältä ikuisuuteen.
 
Allaoleva on hyvä, jos haluaa pohtia mitä umpikujia AI:ssa on ja miten niitä voidaan ratkoa. Niin pitkä podcasti, että mahdoton summaroida tarkasti Eikä kyllä ehkä ole oikea ketjukaan tän pohtimiseen. TLDR, lyhyellä tähtäimellä stoppia ei tule, polku eteenpäin olemassa. Spekuloida voi koska ihminen oppii niin ai voi monessa taskissa myös oppia saavuttaen ihmisen(oppimisen mekanismit) tai mennä ylikin ihmisen kyvyistä. On mekanismeja joiden avulla voidaan kiertää datan laatu ja määrärajotteita. On myös mahdollista, että keksitään parempia algoritmeja. Ei ole mitään isoa syytä vaipua nyt uskomaan, että ai kehitys on tullut juuri nyt tiensä päähän. On mahdollista myös, että on taskeja missä AI ei saavuta ihmistä. ns. mixed bag, kaikki asiat eivät ole samanlaisia ja yhtä opittavissa.



AMD:lla yli puolet tuloksesta konesalia. Client cpu+gaming oleellisesti pienempi kuin konesali. Jos AI-konesali katoaa niin ei ole yksin nvidia ongelmissa.
 
Viimeksi muokattu:
Tässä suunnitellut ensi vuodelle näytönohjainhankintaa ja sen myötä mahdollisesti myös VR-laseja ajo(/lento)simulaattoreille.

Vaikeaa on valinta. Muistin rajat paukkuvat nopeasti vastaan Nvidian kanssa, mutta ainakin tällä hetkellä softa on ylivoimainen. Esim. iRacing ei tue AMD:n korteilla useampien ruutujen samanaikaista renderöintiä (kuten Nvidian SPS) ja se laskee todella reilusti suorituskykyä sekä VR:llä että triple-screen setupilla Nvidiaan verrattuna.

Jos kuitenkin keskiluokan korteissa haluaa pysyä, niin tuntuisi todella väärältä ostaa vuonna 2025 12Gb korttia varsinkin VR:ää varten, jos tuo huhuttu 5070 tulee tosiaan olemaan vain 12 gigan VRAM:lla.
8800 XT kiinnostaisi muuten todella paljon, mutta yleinen mielipide ainakin iRacingin puolella tuntuu olevan, että VR:ään siirtyessä kannattaa vain pysytellä kiltisti vihreiden leirissä.

Voihan se toki olla, että Nvidia lopulta julkaisee jonkun isomman muistin variantin 5070:sta, joka ei aivan maltaita maksa, mutta epäilen tuota vahvasti.
 
Tässä suunnitellut ensi vuodelle näytönohjainhankintaa ja sen myötä mahdollisesti myös VR-laseja ajo(/lento)simulaattoreille.

Vaikeaa on valinta. Muistin rajat paukkuvat nopeasti vastaan Nvidian kanssa, mutta ainakin tällä hetkellä softa on ylivoimainen. Esim. iRacing ei tue AMD:n korteilla useampien ruutujen samanaikaista renderöintiä (kuten Nvidian SPS) ja se laskee todella reilusti suorituskykyä sekä VR:llä että triple-screen setupilla Nvidiaan verrattuna.

Jos kuitenkin keskiluokan korteissa haluaa pysyä, niin tuntuisi todella väärältä ostaa vuonna 2025 12Gb korttia varsinkin VR:ää varten, jos tuo huhuttu 5070 tulee tosiaan olemaan vain 12 gigan VRAM:lla.
8800 XT kiinnostaisi muuten todella paljon, mutta yleinen mielipide ainakin iRacingin puolella tuntuu olevan, että VR:ään siirtyessä kannattaa vain pysytellä kiltisti vihreiden leirissä.

Voihan se toki olla, että Nvidia lopulta julkaisee jonkun isomman muistin variantin 5070:sta, joka ei aivan maltaita maksa, mutta epäilen tuota vahvasti.
Huhun mukaan Rtx 5070 ti mallissa 16gb vramia.

Toki se on kalliimpi kuin Rtx 5070 tai Amd Rx 8800 xt.

Itselläni samankaltainen tilanne enkä suostu enää alle 16gb vramin korttia ostamaan ja sekin taitaa olla joissain tapauksissa liian vähän mutta aion odottaa ensi vuoden alkuun kun varmaan CES messuilla tammikuun 7-10 päivien tienoilla julkaistaan useimmat noista näytönohjaimista ja sitten voi miettiä enemmän.
 
Huhun mukaan Rtx 5070 ti mallissa 16gb vramia.

Toki se on kalliimpi kuin Rtx 5070 tai Amd Rx 8800 xt.

Itselläni samankaltainen tilanne enkä suostu enää alle 16gb vramin korttia ostamaan ja sekin taitaa olla joissain tapauksissa liian vähän mutta aion odottaa ensi vuoden alkuun kun varmaan CES messuilla tammikuun 7-10 päivien tienoilla julkaistaan useimmat noista näytönohjaimista ja sitten voi miettiä enemmän.
5070 Ti:ssa varmaankin se 16GB VRAM, mutta pahoin pelkään, että hinta selvästi lähempänä tonnia kuin viittäsataa :D

Mutta joo, turha tässä spekuloida sen enempää ennen kuin saadaan tietää mihin ne hinnat ja speksit virallisesti asettuvat.
 
Alkaisi olla päivitys ajankohtainen kun ei oikein 6800 XT enää jaksa 4K resoluutiolla. Ei vaan tunnu olevan mitään järkevää korttia mihin päivittää.
2019 vuodesta asti ollut 16GB muistia korteissa niin ei kyllä mitenkään voi päivittää 12GB muistilla olevaan 5070:aan jos nuo huhutut speksit pitää paikkaansa.

Mielellään saisi olla jo enemmän muistia kortissa ja näyttää siltä että 5080 on myös vain 16GB? Toivottavasti ei pidä paikkaansa, muuten taitaa olla 5090 ainut järkevä päivitys.
 
Kyl noi 8 gt kortit käy suosituimpiin peleihin, eli: minecraft, fortnite, lol, dota2, cs2 jne. Toki silti toivoisi että minimi nousisi 5060 sinne edes 10 gt...
 
Kyl noi 8 gt kortit käy suosituimpiin peleihin, eli: minecraft, fortnite, lol, dota2, cs2 jne. Toki silti toivoisi että minimi nousisi 5060 sinne edes 10 gt...
Juu kyllä se 8 gt vramia on ok, jos kyseessä alle 200 euron hintainen näytönohjain jolla pelataan full hd resolla budjettikoneella esimerkkisi pelejä, mutta sitten kun näytönohjaimen hinta lähenee ja jopa ylittää 300 euroa niin on se 8 gigatavua liian vähän vramia alemman keskiluokan näytönohjaimesta.

Vramin määrä siitä hauska että sitä ei huomaa ennen kuin se loppuu.

Itselläni läppärissä Rtx 2080 90w versiossa 8 gigaa vramia ja full hd resolla toistaiseksi riittänyt niissä peleissä mitä sillä pelannut, tosin kun tulee tarve uudelle peliläppärille niin saa nähdä onko silloin saatavilla 1000-1300 eurolla 1440p-1600p näytöllä ja enemmän kuin 8 gigaa oleva näytönohjaimella.

Pöytäkoneessa Rtx 4070 12 gigatavua vramia on kyllä 4k resolla ja VR peluussa jo tiukkaa ja ehdoton minimi seuraavassa näytönohjaimessa on 16 gigatavua vramia, voisi miettiä jos "halvalla" saisi ensi vuoden alussa 7900 xt/7900 xtx joissa vram ei ainakaan tule heti vastaan, tosin ikävä vain että Amd ajurit VR peleissä vähän niin ja näin mutta täytyy miettiä kun uudet mallit tulevat ja millä hintaan vanhojen mallit tippuvat.
 
Kyllä on surkeaa vramien määrät, taas.
Nvidia ei halua antaa liikaa, ettei niillä halvimmilla pelata kuin vuoden tai 2.
Kyl noi 8 gt kortit käy suosituimpiin peleihin, eli: minecraft, fortnite, lol, dota2, cs2 jne. Toki silti toivoisi että minimi nousisi 5060 sinne edes 10 gt...
Niihin käy 7-vuotta wanha korttikin.
 
Juu kyllä se 8 gt vramia on ok, jos kyseessä alle 200 euron hintainen näytönohjain jolla pelataan full hd resolla budjettikoneella esimerkkisi pelejä, mutta sitten kun näytönohjaimen hinta lähenee ja jopa ylittää 300 euroa niin on se 8 gigatavua liian vähän vramia alemman keskiluokan näytönohjaimesta.

Vramin määrä siitä hauska että sitä ei huomaa ennen kuin se loppuu.

Itselläni läppärissä Rtx 2080 90w versiossa 8 gigaa vramia ja full hd resolla toistaiseksi riittänyt niissä peleissä mitä sillä pelannut, tosin kun tulee tarve uudelle peliläppärille niin saa nähdä onko silloin saatavilla 1000-1300 eurolla 1440p-1600p näytöllä ja enemmän kuin 8 gigaa oleva näytönohjaimella.

Pöytäkoneessa Rtx 4070 12 gigatavua vramia on kyllä 4k resolla ja VR peluussa jo tiukkaa ja ehdoton minimi seuraavassa näytönohjaimessa on 16 gigatavua vramia, voisi miettiä jos "halvalla" saisi ensi vuoden alussa 7900 xt/7900 xtx joissa vram ei ainakaan tule heti vastaan, tosin ikävä vain että Amd ajurit VR peleissä vähän niin ja näin mutta täytyy miettiä kun uudet mallit tulevat ja millä hintaan vanhojen mallit tippuvat.

Nvidia ei halua antaa liikaa, ettei niillä halvimmilla pelata kuin vuoden tai 2.

Niihin käy 7-vuotta wanha korttikin.
Kyllä noita kilpailullisia pelejä halutaan pelata korkealla fps ja 1080p resolla esim, sopii hyvin teinille esim joku 5060 kone siihen. En ymmärrä miten 7 vuotta vanhat näytönohjaimet tähän liittyy.

Kyllä mäkin haluaisin lisää vramia jokaiseen hintakategoriaan Nvidialta, mutta heillä on käytännössä monopoli ja eivät tee hyväntekeväisyyttä, niin realiteetti on 5060 8 gt.
 

Statistiikka

Viestiketjuista
261 776
Viestejä
4 538 926
Jäsenet
74 877
Uusin jäsen
xRiksa

Hinta.fi

Back
Ylös Bottom