Robotit ja tekoäly vie työpaikat

Liittynyt
10.02.2021
Viestejä
163
Tällä hetkellä tekoälyn puolella kehityksen kärjessä menevät ne jotka hallitsevat valtavaa määrää koulutusdataa, eli Google, Microsoft, Amazon, Facebook jne.. On toki mahdollista, että jenkit salassa kehittäisivät jotain "keihäänkerkeä" jota kukaan muu ei ole keksinyt, mutta hyvin epätodennäköistä.
Sotilaspuolella kiinnostaa enemmän autonomisuus, parveilu ym., jotka toki voivat hyödyntää tekoälyä, mutta ei samanlaista kuten LLM:en tapauksessa.
NSA:lla luulisi olevan eniten dataa. Eikä sillä luulisi olevan ongelmia päästä käsiksi kaikkiin näiden suurten amerikkalaisten yhtiöiden dataan. Googlelta, Facebookilta vaan voi pyytää sitä. Sitten vaan uusi Manhattan projekti pystyyn. Kyllä ne siihen pystyisi jos haluaisivat, mutta ei niiden tarvi, kun Google, Amazon jne. hoitaa niiden puolesta.
 
Liittynyt
02.02.2024
Viestejä
844
siis kannattaa poistaa semmonen työ missä ihminen ei oikeastaan "käytännössä tehnyt mitään"
eli heikäläiset jotka istuu toimistossa ja selaa word ja excel dokumentteja ja niiden sisältöä

lopulta tekoäly käy läpi ne dokumentit
sitten tekoäly on mukana Microsoft Teams keskustelussa reaaliaikaisen tekoälyvideokuvan ja tekoälypuheen kera ja keskustelee asioista joista joskus toimistossa istunut ihminen keskusteli

toimistotyöntekijän palkka? oisko ainakin 2500 eur / kk jos on joku viranomainen
tekoälyn palkka? sähkölaskun verran

eli pointtini on että tuollaiseen työhön ei tarvita robottia vaan pelkästään tekoäly
jos työhön tarvitaan humanoidi robotti niin ihminen on vielä pitkän aikaa halvempi kuin robotti joka oikeesti pystyy jotain tekemään
 
Liittynyt
10.03.2017
Viestejä
1 014
En tiedä onko tää nyt se "pää" AI-ketju, mutta Microsoft AI:n TJ vetää aika vahvasti. Hänen mielestään on olemassa sosiaalinen sopimus, että tekstit, kuvat ja videot voi vaan varastaa.
ko. pätkä on 14min kohdalla.
Kaipä tässä on sitten häneltä lupa torrentoida jokainen Microsoft, MS Game studiosin ja Xboxin tuote. "harmaata aluetta" lol.
 

B12

Liittynyt
25.10.2016
Viestejä
3 798
sitten tekoäly on mukana Microsoft Teams keskustelussa reaaliaikaisen tekoälyvideokuvan ja tekoälypuheen kera ja keskustelee asioista joista joskus toimistossa istunut ihminen keskusteli
Tehokkainta olisi, jos eri osapuolten tekoälyt keskustelevat keskenään ilman ihmisiä. Tuntien palaveri menisi sekunneissa ja virheettömät päätökset. Jatkotoimenpiteet tapahtuisivat myös sekunneissa.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Goldman Sachsilla saavat tällä hetkellä noin 20% teholisän koodereille AI:n avulla. GS lienee haastava ympäristö käyttää AI:ta, kun bisnes on raskaasti säännelty. Jos 20% tänään lisätehoa missä ollaan 5v päästä? 10v päästä 1 kooderi tekee viiden ai avustamattoman ihmisen työt?

Goldman’s generative AI coding assistant, Microsoft’s GitHub Copilot, is the firm’s most scaled-out use of AI so far. Argenti said it is giving developers about a 20% increase in efficiency. The company is also in earlier stages of rolling out an AI tool that translates documents into other languages and an application that summarizes proprietary research to provide insights to advisers.
Kaikenlaista mistä voisi tulla ongelma otettu huomioon
Critically, the internal platform also allows Goldman to fine-tune the models with its own internal data in a safe way and that complies with regulations. Argenti said controls are embedded to ensure that models aren’t serving up data to employees who shouldn’t have access to it, for example.
The need to safeguard data, remain compliant with existing data regulations and prepare for any new AI regulations are key factors that help determine the speed with which financial services adopt AI, said Gartner’s Dekate. Financial services is one of the most regulated ecosystems, he added.
 
Viimeksi muokattu:
Liittynyt
30.10.2020
Viestejä
253
Alkanut oikein kunnolla ärsyttämään youtubessa nuo tekoälyn avulla luodut videot.

Ennen tätä touhua youtubessa olevat dokumenttipätkät oli pitkälti tosi hyviä, mutta nyt joutuu hirveästi selaamaan läpi, että ei rupea katsomaan mitään tekoälyn tuottamaa roskaa, jos yrittää mistään aiheesta löytää kiinnostavaa dokkarityylistä katsottavaa.
 
Liittynyt
17.10.2016
Viestejä
4 003
Alkanut oikein kunnolla ärsyttämään youtubessa nuo tekoälyn avulla luodut videot.

Ennen tätä touhua youtubessa olevat dokumenttipätkät oli pitkälti tosi hyviä, mutta nyt joutuu hirveästi selaamaan läpi, että ei rupea katsomaan mitään tekoälyn tuottamaa roskaa, jos yrittää mistään aiheesta löytää kiinnostavaa dokkarityylistä katsottavaa.
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
 
Liittynyt
19.10.2016
Viestejä
944
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
Ja sitten kun tuota tekoälyn generoimaa höttöä käytetään tulevien tekoälymallien kouluttamiseen niin se järkevä ihmisten tuottama informaatio häviää niistä vähitellen kokonaan. Jos ongelmaan ei löydy ratkaisua niin voin vain kuvitella minkälaista sontaa LLM:t suoltaa parin vuoden päästä.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Ja sitten kun tuota tekoälyn generoimaa höttöä käytetään tulevien tekoälymallien kouluttamiseen niin se järkevä ihmisten tuottama informaatio häviää niistä vähitellen kokonaan. Jos ongelmaan ei löydy ratkaisua niin voin vain kuvitella minkälaista sontaa LLM:t suoltaa parin vuoden päästä.
Eiköhän tuo mene niin, että openai, microsoft, apple, google jne. isot tahot kouluttavat mallinsa nimenomaan laadukkaalla datalla ja joutuvat myös lisensoimaan datan. Ei ole mikään pakko ottaa huonoa dataa/koko internettiä mukaan opetusdataan. Malleja myös hienosäädetään opettamalla yritys/domainkohtaisella datalla + rag:lla sisään dataa reaaliajassa.

Dataongelma lienee olemassa jo kirjoissa. On hyviä kirjoja ja ei niin hyviä kirjoja ihmisen kirjoittamana. Vastuu jää lukijalle joka valitsee lukemansa.

 
Liittynyt
07.07.2019
Viestejä
1 453
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
 
Liittynyt
05.09.2020
Viestejä
1 460
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
Millä laitteistolla noita pystyy käyttämään? A6000 48 gigan muistilla hyytyy jo 13B malliin jos ei tee kvantisointia.
 
Liittynyt
17.10.2016
Viestejä
5 703
Eiköhän tuo mene niin, että openai, microsoft, apple, google jne. isot tahot kouluttavat mallinsa nimenomaan laadukkaalla datalla ja joutuvat myös lisensoimaan datan. Ei ole mikään pakko ottaa huonoa dataa/koko internettiä mukaan opetusdataan. Malleja myös hienosäädetään opettamalla yritys/domainkohtaisella datalla + rag:lla sisään dataa reaaliajassa.

Dataongelma lienee olemassa jo kirjoissa. On hyviä kirjoja ja ei niin hyviä kirjoja ihmisen kirjoittamana. Vastuu jää lukijalle joka valitsee lukemansa.

Nuo isot tahot varmaan vähän katsovatkin millä datalla mallejaan kouluttavat mutta samaan aikaan jotkut tee-se-itse-propelihatut työntävät nettiin esimerkiksi selkeästi jollain AI:lla generoituja nettisivuja jotka rankkaantuvat hakutuloksissa korkealle mutta sisältö on silkkaa paskaa + kauhea kasa mainoksia (eli ilmeisesti yritetään vaan kalastella klikkauksia hakukoneista ja saada mainoksilla tuloja). Tuon tyyppisiä täysin arvottomia sivuja on ruvennut nyt viimeisen vuoden aikana tulemaan yhtä kiihtyvällä tahdilla lisää ja lisää esim googlen hakutuloksiin. Tai sitten sivuilla on jotain "vähän sinnepäin" -ohjeita johonkin asiaan mutta ohjeet ovat virheellisiä tai jopa vaarallisia. Kyllähän noita itse vielä osaa väistellä kohtalaisen hyvin mutta noiden määrä kun lisääntyy koko ajan niin kohta sitä oikeaa asiaa ei enää löydä tuolta roskan joukosta.
 
Liittynyt
17.10.2016
Viestejä
1 250
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
Itse asiassa huomio on kääntymässä pienempiin malleihin. On huomattu että isompi ei välttämättä ole parempi, vaan koulutusdatan laatu ratkaisee.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Millä laitteistolla noita pystyy käyttämään? A6000 48 gigan muistilla hyytyy jo 13B malliin jos ei tee kvantisointia.
Konesali gpu:lla missä on nopealla yhteydellä linkattu useampia laskentayksiköitä yhteen muistiavaruuteen. Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat. Toki nvlinkista huolimatta optimaalista olisi ettei turhaan liikutella dataa piirien välillä.

NVL72 näyttää tältä(72 gpu:ta linkattu yhteen nvlink:lla)


8gpu härveli tän näköinen. Tuossakin kaikki gpu:t kytketty toisiinsa nvlinkin avulla.

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4.
GPT4:en on huhuttu olevan noin 1.7 biljoonaa parametria. Edellinen GPT versio oli jossain 100-200 miljoonan parametrin välissä ja gpt4 10x isompi.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Nuo isot tahot varmaan vähän katsovatkin millä datalla mallejaan kouluttavat mutta samaan aikaan jotkut tee-se-itse-propelihatut työntävät nettiin esimerkiksi selkeästi jollain AI:lla generoituja nettisivuja jotka rankkaantuvat hakutuloksissa korkealle mutta sisältö on silkkaa paskaa + kauhea kasa mainoksia (eli ilmeisesti yritetään vaan kalastella klikkauksia hakukoneista ja saada mainoksilla tuloja). Tuon tyyppisiä täysin arvottomia sivuja on ruvennut nyt viimeisen vuoden aikana tulemaan yhtä kiihtyvällä tahdilla lisää ja lisää esim googlen hakutuloksiin. Tai sitten sivuilla on jotain "vähän sinnepäin" -ohjeita johonkin asiaan mutta ohjeet ovat virheellisiä tai jopa vaarallisia. Kyllähän noita itse vielä osaa väistellä kohtalaisen hyvin mutta noiden määrä kun lisääntyy koko ajan niin kohta sitä oikeaa asiaa ei enää löydä tuolta roskan joukosta.
En mä oikein usko, että tämä eroaa mitenkään esim. vanhanajan kirjastosta/kirjakaupasta tai videovuokraamosta. Aina on ollut huonoa sisältöä ja hyvää sisältöä. Tai toisella tapaa sanoen voi lukea seiskaa tai wallstreet journalia. Tarvii pitää lähteet mielessä, jos haluaa saada laatusisältöä.
 
Liittynyt
17.10.2016
Viestejä
5 703
En mä oikein usko, että tämä eroaa mitenkään esim. vanhanajan kirjastosta/kirjakaupasta tai videovuokraamosta. Aina on ollut huonoa sisältöä ja hyvää sisältöä. Tai toisella tapaa sanoen voi lukea seiskaa tai wallstreet journalia. Tarvii pitää lähteet mielessä, jos haluaa saada laatusisältöä.
Juu, mutta kirjastossa tai kirjakaupassa sentään voi kävellä suoraan sinne tietokirjallisuusosastolle ja ohittaa hömppä/roskaosastot. Nykyään tuntuu hakukoneiden tulokset olevan verrattavissa siihen että tietokirjojen hyllyyn joku on tunkenut seiskaa, akuankkaa, vessapaperia ja pornolehtiä. Vielä muutama vuosi sitten tilanne sentään oli suunnilleen sellainen että joku olisi vahingossa palauttanut jallun tai akuankan tietokirjojen hyllyyn, eli suurin osa hakutuloksista oli edes sitä mitä haki. Nykyään sitä hakemaansa asiaa saa välillä etsiä oikein urakalla ja kikkailla hakutermien kanssa välillä oikein urakalla että saa edes osan AI-generoidusta kurasta sun muusta roskasta lakaistua pois.

No, ehkä nuo tekoälyt jossain vaiheessa paranevat, tällä hetkellä ei kyllä pätkääkään vakuuta esim Office-tuotteiden "tekoälyapurit" (tosin, eipä ne esim excelin aiemmatkaan aivopierut vakuuttaneet) jotka ehdottelevat jotain aivan asiaan liittymätöntä. Toki itsekin joskus käytän ChatGPT:tä tai Geminiä ihan menestyksekkäästi mutta kyllä ne vielä hourivat aika paljon.
 
Liittynyt
05.09.2020
Viestejä
1 460
Konesali gpu:lla missä on nopealla yhteydellä linkattu useampia laskentayksiköitä yhteen muistiavaruuteen. Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat. Toki nvlinkista huolimatta optimaalista olisi ettei turhaan liikutella dataa piirien välillä.

NVL72 näyttää tältä(72 gpu:ta linkattu yhteen nvlink:lla)


8gpu härveli tän näköinen. Tuossakin kaikki gpu:t kytketty toisiinsa nvlinkin avulla.



GPT4:en on huhuttu olevan noin 1.7 biljoonaa parametria. Edellinen GPT versio oli jossain 100-200 miljoonan parametrin välissä ja gpt4 10x isompi.
Halpaa hupia.
 
Liittynyt
02.02.2024
Viestejä
844
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
google search on ollut kelvoton jo jonkin aikaa
 
Liittynyt
10.07.2017
Viestejä
2 248
Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat.
Mitkähän vaikutukset on toteutuessaan tekoälyn kehitykselle?
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Mitkähän vaikutukset on toteutuessaan tekoälyn kehitykselle?
Tuskin vaikuttaa mitenkään kävi niin tai näin. Ei taida ranska eikä laajemmin edes EU olla edelläkävijöitä AI:n kanssa. Firmat openai, microsoft, perplexity, google, meta jne. ajaa ai:ta eteenpäin.
 
Liittynyt
10.07.2017
Viestejä
2 248
Firmat openai, microsoft, perplexity, google, meta jne. ajaa ai:ta eteenpäin.
Ahaa, en tiennytkään että heillä on omia laskentapiirejä noihin AI-asioihin. Sittenpä asiassa ei olekaan ongelmaa. :thumbsup:

Jotenkin oletin, että NVIDIA on ns. De Facto toimittaja noihin AI-kykeneviin piireihin ja ajattelin että pahimmassa tapauksessa NVIDIA:n pilkkominen johtaisi noiden laskentapiirien tuotannon notkahdukseen, kun ei olisikaan enää markkinajohtajan ja ison jätin resursseja kehitystyöhön.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Ahaa, en tiennytkään että heillä on omia laskentapiirejä noihin AI-asioihin. Sittenpä asiassa ei olekaan ongelmaa. :thumbsup:

Ajattelin että pahimmassa tapauksessa NVIDIA:n pilkkominen johtaisi noiden laskentapiirien tuotannon notkahdukseen, kun ei olisikaan enää markkinajohtajan ja ison jätin resursseja kehitystyöhön.
Worst case nvidian kannalta on, että tulee sakkomaksua ja käsketään avaamaan cuda-rajapintaa + cuda lisenssiä(sallitaan 3rdparty toteutukset cuda rajapinnan alle). Ei nvidiaa olla pilkkomassa. Rautapuolella kilpailijoita joka nurkalla google, amd, intel, meta, microsoft, tesla, startupit kuten tenstorrent, groq jne. Ei ole mitään järkisyitä edes vaatia nvidian pilkkomista ja miten nvidia edes pilkottaisiin?

Tässä haisee, että ranskalaiset on ranskalaisia ennemmin kuin, että olisi jotain oikeaa rikkomusta olemassa. AMD/intel tms. kannalta ei ole järkeä alkaa tekemään cuda-toteutusta. Ennemmin käyttää sen ajan siihen, että tekee omalle raudalle optimaalisen ajurin pytorchin ja muiden frameworkkien alle.

 
Viimeksi muokattu:
Liittynyt
10.07.2017
Viestejä
2 248
Ei nvidiaa olla pilkkomassa. Rautapuolella kilpailijoita joka nurkalla google, amd, intel, meta, microsoft, tesla, startupit kuten tenstorrent, groq jne. Ei ole mitään järkisyitä edes vaatia nvidian pilkkomista ja miten nvidia edes pilkottaisiin?
Samalla tavalla kuin muitakin monopoliyrityksiä.
Standard Oil – Wikipedia
Standard Oil oli yhdysvaltalainen öljy-yhtiö 1800-luvulta, joka oli aikoinaan maailman suurin öljy-yhtiö. Yhtiön omisti Rockefellerien perhe. Yhtiön perusti John D. Rockefeller kumppaneineen. Se hallitsi lähes yksinään öljyntuotantoa, jalostusta, myyntiä ja jakelua Yhdysvalloissa.[1]

Yhtiö pilkottiin 43 osaan 15. toukokuuta 1911, kun Yhdysvaltain korkein oikeus totesi sillä olevan monopoliasema öljymarkkinoilla. Kyseisellä hetkellä Standard Oil piti hallussaan 64 % öljynjalostuksesta Yhdysvalloissa.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 259
Samalla tavalla kuin muitakin monopoliyrityksiä.
Standard Oil – Wikipedia
Tässä on sellainen käytänön ongelma että nvidiassa ei AI:n kannalta oikein ole mitään pilkottavaa. Kilpailijoita on ja kilpailijoilta löytyy nvidiaa vastaava pino missä kiihdytin, cpu, verkko ja ajurit tarjolla. Kilpailijoiden ongelma on siinä, että ne vähättelivät AI markkinaa ja ovat nyt yhden generaation tuotteissa perässä nvidiaa. AMD sai nvidian hopperin kiinni mi300x:lla ja samaan aikaan nvidia sai blackwellin tuotantoon. Intel yrittää myydä omaa gaudi2/3:sta hinta-edellä. isot talot amazon, meta, microsoft tekee myös omia rautoja. Tähän päälle ne startupit kuten tenstorrent ja groq.

imho. on vaikea väittää nvidiaa monopoliksi. Nvidian etu on se, että olivat ensimmäisenä markkinalla ja muut on yhden rautageneraation myöhässä.

Jos haluaa sanoa, että nvidia on pilkottava niin pitäisi sitten kertoa millaisiin konkreettisiin osiin nvidia pilkotaan ja pitäisikö kilpailijat myös pilkkoa samalla tavalla jos esimerkiksi sama yritys ei saisi tehdä sekä cpu että gpu ratkaisua.
 
Viimeksi muokattu:
Toggle Sidebar

Statistiikka

Viestiketjut
245 871
Viestejä
4 295 237
Jäsenet
71 729
Uusin jäsen
piip

Hinta.fi

Ylös Bottom