Robotit ja tekoäly vie työpaikat

Liittynyt
10.02.2021
Viestejä
163
Tällä hetkellä tekoälyn puolella kehityksen kärjessä menevät ne jotka hallitsevat valtavaa määrää koulutusdataa, eli Google, Microsoft, Amazon, Facebook jne.. On toki mahdollista, että jenkit salassa kehittäisivät jotain "keihäänkerkeä" jota kukaan muu ei ole keksinyt, mutta hyvin epätodennäköistä.
Sotilaspuolella kiinnostaa enemmän autonomisuus, parveilu ym., jotka toki voivat hyödyntää tekoälyä, mutta ei samanlaista kuten LLM:en tapauksessa.
NSA:lla luulisi olevan eniten dataa. Eikä sillä luulisi olevan ongelmia päästä käsiksi kaikkiin näiden suurten amerikkalaisten yhtiöiden dataan. Googlelta, Facebookilta vaan voi pyytää sitä. Sitten vaan uusi Manhattan projekti pystyyn. Kyllä ne siihen pystyisi jos haluaisivat, mutta ei niiden tarvi, kun Google, Amazon jne. hoitaa niiden puolesta.
 
Liittynyt
02.02.2024
Viestejä
833
siis kannattaa poistaa semmonen työ missä ihminen ei oikeastaan "käytännössä tehnyt mitään"
eli heikäläiset jotka istuu toimistossa ja selaa word ja excel dokumentteja ja niiden sisältöä

lopulta tekoäly käy läpi ne dokumentit
sitten tekoäly on mukana Microsoft Teams keskustelussa reaaliaikaisen tekoälyvideokuvan ja tekoälypuheen kera ja keskustelee asioista joista joskus toimistossa istunut ihminen keskusteli

toimistotyöntekijän palkka? oisko ainakin 2500 eur / kk jos on joku viranomainen
tekoälyn palkka? sähkölaskun verran

eli pointtini on että tuollaiseen työhön ei tarvita robottia vaan pelkästään tekoäly
jos työhön tarvitaan humanoidi robotti niin ihminen on vielä pitkän aikaa halvempi kuin robotti joka oikeesti pystyy jotain tekemään
 
Liittynyt
10.03.2017
Viestejä
1 014
En tiedä onko tää nyt se "pää" AI-ketju, mutta Microsoft AI:n TJ vetää aika vahvasti. Hänen mielestään on olemassa sosiaalinen sopimus, että tekstit, kuvat ja videot voi vaan varastaa.
ko. pätkä on 14min kohdalla.
Kaipä tässä on sitten häneltä lupa torrentoida jokainen Microsoft, MS Game studiosin ja Xboxin tuote. "harmaata aluetta" lol.
 

B12

Liittynyt
25.10.2016
Viestejä
3 797
sitten tekoäly on mukana Microsoft Teams keskustelussa reaaliaikaisen tekoälyvideokuvan ja tekoälypuheen kera ja keskustelee asioista joista joskus toimistossa istunut ihminen keskusteli
Tehokkainta olisi, jos eri osapuolten tekoälyt keskustelevat keskenään ilman ihmisiä. Tuntien palaveri menisi sekunneissa ja virheettömät päätökset. Jatkotoimenpiteet tapahtuisivat myös sekunneissa.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 255
Goldman Sachsilla saavat tällä hetkellä noin 20% teholisän koodereille AI:n avulla. GS lienee haastava ympäristö käyttää AI:ta, kun bisnes on raskaasti säännelty. Jos 20% tänään lisätehoa missä ollaan 5v päästä? 10v päästä 1 kooderi tekee viiden ai avustamattoman ihmisen työt?

Goldman’s generative AI coding assistant, Microsoft’s GitHub Copilot, is the firm’s most scaled-out use of AI so far. Argenti said it is giving developers about a 20% increase in efficiency. The company is also in earlier stages of rolling out an AI tool that translates documents into other languages and an application that summarizes proprietary research to provide insights to advisers.
Kaikenlaista mistä voisi tulla ongelma otettu huomioon
Critically, the internal platform also allows Goldman to fine-tune the models with its own internal data in a safe way and that complies with regulations. Argenti said controls are embedded to ensure that models aren’t serving up data to employees who shouldn’t have access to it, for example.
The need to safeguard data, remain compliant with existing data regulations and prepare for any new AI regulations are key factors that help determine the speed with which financial services adopt AI, said Gartner’s Dekate. Financial services is one of the most regulated ecosystems, he added.
 
Viimeksi muokattu:
Liittynyt
30.10.2020
Viestejä
253
Alkanut oikein kunnolla ärsyttämään youtubessa nuo tekoälyn avulla luodut videot.

Ennen tätä touhua youtubessa olevat dokumenttipätkät oli pitkälti tosi hyviä, mutta nyt joutuu hirveästi selaamaan läpi, että ei rupea katsomaan mitään tekoälyn tuottamaa roskaa, jos yrittää mistään aiheesta löytää kiinnostavaa dokkarityylistä katsottavaa.
 
Liittynyt
17.10.2016
Viestejä
3 999
Alkanut oikein kunnolla ärsyttämään youtubessa nuo tekoälyn avulla luodut videot.

Ennen tätä touhua youtubessa olevat dokumenttipätkät oli pitkälti tosi hyviä, mutta nyt joutuu hirveästi selaamaan läpi, että ei rupea katsomaan mitään tekoälyn tuottamaa roskaa, jos yrittää mistään aiheesta löytää kiinnostavaa dokkarityylistä katsottavaa.
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
 
Liittynyt
19.10.2016
Viestejä
944
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
Ja sitten kun tuota tekoälyn generoimaa höttöä käytetään tulevien tekoälymallien kouluttamiseen niin se järkevä ihmisten tuottama informaatio häviää niistä vähitellen kokonaan. Jos ongelmaan ei löydy ratkaisua niin voin vain kuvitella minkälaista sontaa LLM:t suoltaa parin vuoden päästä.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 255
Ja sitten kun tuota tekoälyn generoimaa höttöä käytetään tulevien tekoälymallien kouluttamiseen niin se järkevä ihmisten tuottama informaatio häviää niistä vähitellen kokonaan. Jos ongelmaan ei löydy ratkaisua niin voin vain kuvitella minkälaista sontaa LLM:t suoltaa parin vuoden päästä.
Eiköhän tuo mene niin, että openai, microsoft, apple, google jne. isot tahot kouluttavat mallinsa nimenomaan laadukkaalla datalla ja joutuvat myös lisensoimaan datan. Ei ole mikään pakko ottaa huonoa dataa/koko internettiä mukaan opetusdataan. Malleja myös hienosäädetään opettamalla yritys/domainkohtaisella datalla + rag:lla sisään dataa reaaliajassa.

Dataongelma lienee olemassa jo kirjoissa. On hyviä kirjoja ja ei niin hyviä kirjoja ihmisen kirjoittamana. Vastuu jää lukijalle joka valitsee lukemansa.

 
Liittynyt
07.07.2019
Viestejä
1 453
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
 
Liittynyt
05.09.2020
Viestejä
1 459
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
Millä laitteistolla noita pystyy käyttämään? A6000 48 gigan muistilla hyytyy jo 13B malliin jos ei tee kvantisointia.
 
Liittynyt
17.10.2016
Viestejä
5 702
Eiköhän tuo mene niin, että openai, microsoft, apple, google jne. isot tahot kouluttavat mallinsa nimenomaan laadukkaalla datalla ja joutuvat myös lisensoimaan datan. Ei ole mikään pakko ottaa huonoa dataa/koko internettiä mukaan opetusdataan. Malleja myös hienosäädetään opettamalla yritys/domainkohtaisella datalla + rag:lla sisään dataa reaaliajassa.

Dataongelma lienee olemassa jo kirjoissa. On hyviä kirjoja ja ei niin hyviä kirjoja ihmisen kirjoittamana. Vastuu jää lukijalle joka valitsee lukemansa.

Nuo isot tahot varmaan vähän katsovatkin millä datalla mallejaan kouluttavat mutta samaan aikaan jotkut tee-se-itse-propelihatut työntävät nettiin esimerkiksi selkeästi jollain AI:lla generoituja nettisivuja jotka rankkaantuvat hakutuloksissa korkealle mutta sisältö on silkkaa paskaa + kauhea kasa mainoksia (eli ilmeisesti yritetään vaan kalastella klikkauksia hakukoneista ja saada mainoksilla tuloja). Tuon tyyppisiä täysin arvottomia sivuja on ruvennut nyt viimeisen vuoden aikana tulemaan yhtä kiihtyvällä tahdilla lisää ja lisää esim googlen hakutuloksiin. Tai sitten sivuilla on jotain "vähän sinnepäin" -ohjeita johonkin asiaan mutta ohjeet ovat virheellisiä tai jopa vaarallisia. Kyllähän noita itse vielä osaa väistellä kohtalaisen hyvin mutta noiden määrä kun lisääntyy koko ajan niin kohta sitä oikeaa asiaa ei enää löydä tuolta roskan joukosta.
 
Liittynyt
17.10.2016
Viestejä
1 250
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
Itse asiassa huomio on kääntymässä pienempiin malleihin. On huomattu että isompi ei välttämättä ole parempi, vaan koulutusdatan laatu ratkaisee.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 255
Millä laitteistolla noita pystyy käyttämään? A6000 48 gigan muistilla hyytyy jo 13B malliin jos ei tee kvantisointia.
Konesali gpu:lla missä on nopealla yhteydellä linkattu useampia laskentayksiköitä yhteen muistiavaruuteen. Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat. Toki nvlinkista huolimatta optimaalista olisi ettei turhaan liikutella dataa piirien välillä.

NVL72 näyttää tältä(72 gpu:ta linkattu yhteen nvlink:lla)


8gpu härveli tän näköinen. Tuossakin kaikki gpu:t kytketty toisiinsa nvlinkin avulla.

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4.
GPT4:en on huhuttu olevan noin 1.7 biljoonaa parametria. Edellinen GPT versio oli jossain 100-200 miljoonan parametrin välissä ja gpt4 10x isompi.
 

finWeazel

Chief Karpfen - ruoKalan C&R
Liittynyt
15.12.2019
Viestejä
8 255
Nuo isot tahot varmaan vähän katsovatkin millä datalla mallejaan kouluttavat mutta samaan aikaan jotkut tee-se-itse-propelihatut työntävät nettiin esimerkiksi selkeästi jollain AI:lla generoituja nettisivuja jotka rankkaantuvat hakutuloksissa korkealle mutta sisältö on silkkaa paskaa + kauhea kasa mainoksia (eli ilmeisesti yritetään vaan kalastella klikkauksia hakukoneista ja saada mainoksilla tuloja). Tuon tyyppisiä täysin arvottomia sivuja on ruvennut nyt viimeisen vuoden aikana tulemaan yhtä kiihtyvällä tahdilla lisää ja lisää esim googlen hakutuloksiin. Tai sitten sivuilla on jotain "vähän sinnepäin" -ohjeita johonkin asiaan mutta ohjeet ovat virheellisiä tai jopa vaarallisia. Kyllähän noita itse vielä osaa väistellä kohtalaisen hyvin mutta noiden määrä kun lisääntyy koko ajan niin kohta sitä oikeaa asiaa ei enää löydä tuolta roskan joukosta.
En mä oikein usko, että tämä eroaa mitenkään esim. vanhanajan kirjastosta/kirjakaupasta tai videovuokraamosta. Aina on ollut huonoa sisältöä ja hyvää sisältöä. Tai toisella tapaa sanoen voi lukea seiskaa tai wallstreet journalia. Tarvii pitää lähteet mielessä, jos haluaa saada laatusisältöä.
 
Liittynyt
17.10.2016
Viestejä
5 702
En mä oikein usko, että tämä eroaa mitenkään esim. vanhanajan kirjastosta/kirjakaupasta tai videovuokraamosta. Aina on ollut huonoa sisältöä ja hyvää sisältöä. Tai toisella tapaa sanoen voi lukea seiskaa tai wallstreet journalia. Tarvii pitää lähteet mielessä, jos haluaa saada laatusisältöä.
Juu, mutta kirjastossa tai kirjakaupassa sentään voi kävellä suoraan sinne tietokirjallisuusosastolle ja ohittaa hömppä/roskaosastot. Nykyään tuntuu hakukoneiden tulokset olevan verrattavissa siihen että tietokirjojen hyllyyn joku on tunkenut seiskaa, akuankkaa, vessapaperia ja pornolehtiä. Vielä muutama vuosi sitten tilanne sentään oli suunnilleen sellainen että joku olisi vahingossa palauttanut jallun tai akuankan tietokirjojen hyllyyn, eli suurin osa hakutuloksista oli edes sitä mitä haki. Nykyään sitä hakemaansa asiaa saa välillä etsiä oikein urakalla ja kikkailla hakutermien kanssa välillä oikein urakalla että saa edes osan AI-generoidusta kurasta sun muusta roskasta lakaistua pois.

No, ehkä nuo tekoälyt jossain vaiheessa paranevat, tällä hetkellä ei kyllä pätkääkään vakuuta esim Office-tuotteiden "tekoälyapurit" (tosin, eipä ne esim excelin aiemmatkaan aivopierut vakuuttaneet) jotka ehdottelevat jotain aivan asiaan liittymätöntä. Toki itsekin joskus käytän ChatGPT:tä tai Geminiä ihan menestyksekkäästi mutta kyllä ne vielä hourivat aika paljon.
 
Toggle Sidebar

Statistiikka

Viestiketjut
245 683
Viestejä
4 289 128
Jäsenet
71 712
Uusin jäsen
eonosity1

Hinta.fi

Ylös Bottom