Robotit ja tekoäly vie työpaikat

En tiedä onko tää nyt se "pää" AI-ketju, mutta Microsoft AI:n TJ vetää aika vahvasti. Hänen mielestään on olemassa sosiaalinen sopimus, että tekstit, kuvat ja videot voi vaan varastaa.
ko. pätkä on 14min kohdalla.
Kaipä tässä on sitten häneltä lupa torrentoida jokainen Microsoft, MS Game studiosin ja Xboxin tuote. "harmaata aluetta" lol.
 
sitten tekoäly on mukana Microsoft Teams keskustelussa reaaliaikaisen tekoälyvideokuvan ja tekoälypuheen kera ja keskustelee asioista joista joskus toimistossa istunut ihminen keskusteli
Tehokkainta olisi, jos eri osapuolten tekoälyt keskustelevat keskenään ilman ihmisiä. Tuntien palaveri menisi sekunneissa ja virheettömät päätökset. Jatkotoimenpiteet tapahtuisivat myös sekunneissa.
 
Goldman Sachsilla saavat tällä hetkellä noin 20% teholisän koodereille AI:n avulla. GS lienee haastava ympäristö käyttää AI:ta, kun bisnes on raskaasti säännelty. Jos 20% tänään lisätehoa missä ollaan 5v päästä? 10v päästä 1 kooderi tekee viiden ai avustamattoman ihmisen työt?

Goldman’s generative AI coding assistant, Microsoft’s GitHub Copilot, is the firm’s most scaled-out use of AI so far. Argenti said it is giving developers about a 20% increase in efficiency. The company is also in earlier stages of rolling out an AI tool that translates documents into other languages and an application that summarizes proprietary research to provide insights to advisers.

Kaikenlaista mistä voisi tulla ongelma otettu huomioon
Critically, the internal platform also allows Goldman to fine-tune the models with its own internal data in a safe way and that complies with regulations. Argenti said controls are embedded to ensure that models aren’t serving up data to employees who shouldn’t have access to it, for example.
The need to safeguard data, remain compliant with existing data regulations and prepare for any new AI regulations are key factors that help determine the speed with which financial services adopt AI, said Gartner’s Dekate. Financial services is one of the most regulated ecosystems, he added.
 
Viimeksi muokattu:
Alkanut oikein kunnolla ärsyttämään youtubessa nuo tekoälyn avulla luodut videot.

Ennen tätä touhua youtubessa olevat dokumenttipätkät oli pitkälti tosi hyviä, mutta nyt joutuu hirveästi selaamaan läpi, että ei rupea katsomaan mitään tekoälyn tuottamaa roskaa, jos yrittää mistään aiheesta löytää kiinnostavaa dokkarityylistä katsottavaa.
 
Alkanut oikein kunnolla ärsyttämään youtubessa nuo tekoälyn avulla luodut videot.

Ennen tätä touhua youtubessa olevat dokumenttipätkät oli pitkälti tosi hyviä, mutta nyt joutuu hirveästi selaamaan läpi, että ei rupea katsomaan mitään tekoälyn tuottamaa roskaa, jos yrittää mistään aiheesta löytää kiinnostavaa dokkarityylistä katsottavaa.
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
 
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.

Ja sitten kun tuota tekoälyn generoimaa höttöä käytetään tulevien tekoälymallien kouluttamiseen niin se järkevä ihmisten tuottama informaatio häviää niistä vähitellen kokonaan. Jos ongelmaan ei löydy ratkaisua niin voin vain kuvitella minkälaista sontaa LLM:t suoltaa parin vuoden päästä.
 
Ja sitten kun tuota tekoälyn generoimaa höttöä käytetään tulevien tekoälymallien kouluttamiseen niin se järkevä ihmisten tuottama informaatio häviää niistä vähitellen kokonaan. Jos ongelmaan ei löydy ratkaisua niin voin vain kuvitella minkälaista sontaa LLM:t suoltaa parin vuoden päästä.
Eiköhän tuo mene niin, että openai, microsoft, apple, google jne. isot tahot kouluttavat mallinsa nimenomaan laadukkaalla datalla ja joutuvat myös lisensoimaan datan. Ei ole mikään pakko ottaa huonoa dataa/koko internettiä mukaan opetusdataan. Malleja myös hienosäädetään opettamalla yritys/domainkohtaisella datalla + rag:lla sisään dataa reaaliajassa.

Dataongelma lienee olemassa jo kirjoissa. On hyviä kirjoja ja ei niin hyviä kirjoja ihmisen kirjoittamana. Vastuu jää lukijalle joka valitsee lukemansa.

 
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
 
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.

Millä laitteistolla noita pystyy käyttämään? A6000 48 gigan muistilla hyytyy jo 13B malliin jos ei tee kvantisointia.
 
Eiköhän tuo mene niin, että openai, microsoft, apple, google jne. isot tahot kouluttavat mallinsa nimenomaan laadukkaalla datalla ja joutuvat myös lisensoimaan datan. Ei ole mikään pakko ottaa huonoa dataa/koko internettiä mukaan opetusdataan. Malleja myös hienosäädetään opettamalla yritys/domainkohtaisella datalla + rag:lla sisään dataa reaaliajassa.

Dataongelma lienee olemassa jo kirjoissa. On hyviä kirjoja ja ei niin hyviä kirjoja ihmisen kirjoittamana. Vastuu jää lukijalle joka valitsee lukemansa.

Nuo isot tahot varmaan vähän katsovatkin millä datalla mallejaan kouluttavat mutta samaan aikaan jotkut tee-se-itse-propelihatut työntävät nettiin esimerkiksi selkeästi jollain AI:lla generoituja nettisivuja jotka rankkaantuvat hakutuloksissa korkealle mutta sisältö on silkkaa paskaa + kauhea kasa mainoksia (eli ilmeisesti yritetään vaan kalastella klikkauksia hakukoneista ja saada mainoksilla tuloja). Tuon tyyppisiä täysin arvottomia sivuja on ruvennut nyt viimeisen vuoden aikana tulemaan yhtä kiihtyvällä tahdilla lisää ja lisää esim googlen hakutuloksiin. Tai sitten sivuilla on jotain "vähän sinnepäin" -ohjeita johonkin asiaan mutta ohjeet ovat virheellisiä tai jopa vaarallisia. Kyllähän noita itse vielä osaa väistellä kohtalaisen hyvin mutta noiden määrä kun lisääntyy koko ajan niin kohta sitä oikeaa asiaa ei enää löydä tuolta roskan joukosta.
 
Tekolymallien koon ja kykyjen kasvu on myös aika huimaa. Olihan tämä mainittu jo TechBBS:ssä, mutta kukaan ei sen pidemmälle ollut vienyt asiaa:

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4. Käsittääkseni noita huippumalleja on tulossa muualtakin. Uusinta OPUS ja LLaMa 3 mallia odotellessa joiden molempien odotetaan olevan varmaan tuota ~300 miljardia parametriä luokkaa tai suurempia. Alustavia testailuita olen jo tuolla tehnytkin ja vaikuttaisi toimivan ihan ok.
Itse asiassa huomio on kääntymässä pienempiin malleihin. On huomattu että isompi ei välttämättä ole parempi, vaan koulutusdatan laatu ratkaisee.
 
Millä laitteistolla noita pystyy käyttämään? A6000 48 gigan muistilla hyytyy jo 13B malliin jos ei tee kvantisointia.
Konesali gpu:lla missä on nopealla yhteydellä linkattu useampia laskentayksiköitä yhteen muistiavaruuteen. Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat. Toki nvlinkista huolimatta optimaalista olisi ettei turhaan liikutella dataa piirien välillä.

NVL72 näyttää tältä(72 gpu:ta linkattu yhteen nvlink:lla)
nvidia_gb200_nvl72_front.jpg


8gpu härveli tän näköinen. Tuossakin kaikki gpu:t kytketty toisiinsa nvlinkin avulla.
nvidia-gpu-baseboard-8-h200-935-24287-0040-000-1.png

Massiivinen malli joka on tuplasti suurempi kuin mm. GPT-4.

GPT4:en on huhuttu olevan noin 1.7 biljoonaa parametria. Edellinen GPT versio oli jossain 100-200 miljoonan parametrin välissä ja gpt4 10x isompi.
 
Nuo isot tahot varmaan vähän katsovatkin millä datalla mallejaan kouluttavat mutta samaan aikaan jotkut tee-se-itse-propelihatut työntävät nettiin esimerkiksi selkeästi jollain AI:lla generoituja nettisivuja jotka rankkaantuvat hakutuloksissa korkealle mutta sisältö on silkkaa paskaa + kauhea kasa mainoksia (eli ilmeisesti yritetään vaan kalastella klikkauksia hakukoneista ja saada mainoksilla tuloja). Tuon tyyppisiä täysin arvottomia sivuja on ruvennut nyt viimeisen vuoden aikana tulemaan yhtä kiihtyvällä tahdilla lisää ja lisää esim googlen hakutuloksiin. Tai sitten sivuilla on jotain "vähän sinnepäin" -ohjeita johonkin asiaan mutta ohjeet ovat virheellisiä tai jopa vaarallisia. Kyllähän noita itse vielä osaa väistellä kohtalaisen hyvin mutta noiden määrä kun lisääntyy koko ajan niin kohta sitä oikeaa asiaa ei enää löydä tuolta roskan joukosta.
En mä oikein usko, että tämä eroaa mitenkään esim. vanhanajan kirjastosta/kirjakaupasta tai videovuokraamosta. Aina on ollut huonoa sisältöä ja hyvää sisältöä. Tai toisella tapaa sanoen voi lukea seiskaa tai wallstreet journalia. Tarvii pitää lähteet mielessä, jos haluaa saada laatusisältöä.
 
En mä oikein usko, että tämä eroaa mitenkään esim. vanhanajan kirjastosta/kirjakaupasta tai videovuokraamosta. Aina on ollut huonoa sisältöä ja hyvää sisältöä. Tai toisella tapaa sanoen voi lukea seiskaa tai wallstreet journalia. Tarvii pitää lähteet mielessä, jos haluaa saada laatusisältöä.
Juu, mutta kirjastossa tai kirjakaupassa sentään voi kävellä suoraan sinne tietokirjallisuusosastolle ja ohittaa hömppä/roskaosastot. Nykyään tuntuu hakukoneiden tulokset olevan verrattavissa siihen että tietokirjojen hyllyyn joku on tunkenut seiskaa, akuankkaa, vessapaperia ja pornolehtiä. Vielä muutama vuosi sitten tilanne sentään oli suunnilleen sellainen että joku olisi vahingossa palauttanut jallun tai akuankan tietokirjojen hyllyyn, eli suurin osa hakutuloksista oli edes sitä mitä haki. Nykyään sitä hakemaansa asiaa saa välillä etsiä oikein urakalla ja kikkailla hakutermien kanssa välillä oikein urakalla että saa edes osan AI-generoidusta kurasta sun muusta roskasta lakaistua pois.

No, ehkä nuo tekoälyt jossain vaiheessa paranevat, tällä hetkellä ei kyllä pätkääkään vakuuta esim Office-tuotteiden "tekoälyapurit" (tosin, eipä ne esim excelin aiemmatkaan aivopierut vakuuttaneet) jotka ehdottelevat jotain aivan asiaan liittymätöntä. Toki itsekin joskus käytän ChatGPT:tä tai Geminiä ihan menestyksekkäästi mutta kyllä ne vielä hourivat aika paljon.
 
Konesali gpu:lla missä on nopealla yhteydellä linkattu useampia laskentayksiköitä yhteen muistiavaruuteen. Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat. Toki nvlinkista huolimatta optimaalista olisi ettei turhaan liikutella dataa piirien välillä.

NVL72 näyttää tältä(72 gpu:ta linkattu yhteen nvlink:lla)
nvidia_gb200_nvl72_front.jpg


8gpu härveli tän näköinen. Tuossakin kaikki gpu:t kytketty toisiinsa nvlinkin avulla.
nvidia-gpu-baseboard-8-h200-935-24287-0040-000-1.png



GPT4:en on huhuttu olevan noin 1.7 biljoonaa parametria. Edellinen GPT versio oli jossain 100-200 miljoonan parametrin välissä ja gpt4 10x isompi.

Halpaa hupia.
 
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
google search on ollut kelvoton jo jonkin aikaa
 
Nvidian B100:ssa on muistia 192GB. B100:ia linkataan tyyliin 8-72 kappaletta yhteen muistiavaruuteen nvlinkin avulla. Ohjelmoijan kannalta NVL72 näyttää yhdeltä laskentayksiköltä missä kaikki muisti on samassa muistiavaruudessa ja asiat vain toimivat.
Mitkähän vaikutukset on toteutuessaan tekoälyn kehitykselle?
 
Mitkähän vaikutukset on toteutuessaan tekoälyn kehitykselle?
Tuskin vaikuttaa mitenkään kävi niin tai näin. Ei taida ranska eikä laajemmin edes EU olla edelläkävijöitä AI:n kanssa. Firmat openai, microsoft, perplexity, google, meta jne. ajaa ai:ta eteenpäin.
 
Firmat openai, microsoft, perplexity, google, meta jne. ajaa ai:ta eteenpäin.
Ahaa, en tiennytkään että heillä on omia laskentapiirejä noihin AI-asioihin. Sittenpä asiassa ei olekaan ongelmaa. :thumbsup:

Jotenkin oletin, että NVIDIA on ns. De Facto toimittaja noihin AI-kykeneviin piireihin ja ajattelin että pahimmassa tapauksessa NVIDIA:n pilkkominen johtaisi noiden laskentapiirien tuotannon notkahdukseen, kun ei olisikaan enää markkinajohtajan ja ison jätin resursseja kehitystyöhön.
 
Ahaa, en tiennytkään että heillä on omia laskentapiirejä noihin AI-asioihin. Sittenpä asiassa ei olekaan ongelmaa. :thumbsup:

Ajattelin että pahimmassa tapauksessa NVIDIA:n pilkkominen johtaisi noiden laskentapiirien tuotannon notkahdukseen, kun ei olisikaan enää markkinajohtajan ja ison jätin resursseja kehitystyöhön.
Worst case nvidian kannalta on, että tulee sakkomaksua ja käsketään avaamaan cuda-rajapintaa + cuda lisenssiä(sallitaan 3rdparty toteutukset cuda rajapinnan alle). Ei nvidiaa olla pilkkomassa. Rautapuolella kilpailijoita joka nurkalla google, amd, intel, meta, microsoft, tesla, startupit kuten tenstorrent, groq jne. Ei ole mitään järkisyitä edes vaatia nvidian pilkkomista ja miten nvidia edes pilkottaisiin?

Tässä haisee, että ranskalaiset on ranskalaisia ennemmin kuin, että olisi jotain oikeaa rikkomusta olemassa. AMD/intel tms. kannalta ei ole järkeä alkaa tekemään cuda-toteutusta. Ennemmin käyttää sen ajan siihen, että tekee omalle raudalle optimaalisen ajurin pytorchin ja muiden frameworkkien alle.

 
Viimeksi muokattu:
Ei nvidiaa olla pilkkomassa. Rautapuolella kilpailijoita joka nurkalla google, amd, intel, meta, microsoft, tesla, startupit kuten tenstorrent, groq jne. Ei ole mitään järkisyitä edes vaatia nvidian pilkkomista ja miten nvidia edes pilkottaisiin?
Samalla tavalla kuin muitakin monopoliyrityksiä.
Standard Oil – Wikipedia
Standard Oil oli yhdysvaltalainen öljy-yhtiö 1800-luvulta, joka oli aikoinaan maailman suurin öljy-yhtiö. Yhtiön omisti Rockefellerien perhe. Yhtiön perusti John D. Rockefeller kumppaneineen. Se hallitsi lähes yksinään öljyntuotantoa, jalostusta, myyntiä ja jakelua Yhdysvalloissa.[1]

Yhtiö pilkottiin 43 osaan 15. toukokuuta 1911, kun Yhdysvaltain korkein oikeus totesi sillä olevan monopoliasema öljymarkkinoilla. Kyseisellä hetkellä Standard Oil piti hallussaan 64 % öljynjalostuksesta Yhdysvalloissa.
 
Samalla tavalla kuin muitakin monopoliyrityksiä.
Standard Oil – Wikipedia
Tässä on sellainen käytänön ongelma että nvidiassa ei AI:n kannalta oikein ole mitään pilkottavaa. Kilpailijoita on ja kilpailijoilta löytyy nvidiaa vastaava pino missä kiihdytin, cpu, verkko ja ajurit tarjolla. Kilpailijoiden ongelma on siinä, että ne vähättelivät AI markkinaa ja ovat nyt yhden generaation tuotteissa perässä nvidiaa. AMD sai nvidian hopperin kiinni ja ohittikin sen mi300x:lla ja samaan aikaan nvidia sai blackwellin tuotantoon. Intel yrittää myydä omaa gaudi2/3:sta hinta-edellä. isot talot amazon, meta, microsoft tekee myös omia rautoja. Tähän päälle ne startupit kuten tenstorrent ja groq.

imho. on vaikea väittää nvidiaa monopoliksi. Nvidian etu on se, että olivat ensimmäisenä markkinalla ja muut on yhden rautageneraation myöhässä.

Jos haluaa sanoa, että nvidia on pilkottava niin pitäisi sitten kertoa millaisiin konkreettisiin osiin nvidia pilkotaan ja pitäisikö kilpailijat myös pilkkoa samalla tavalla jos esimerkiksi sama yritys ei saisi tehdä sekä cpu että gpu ratkaisua.
 
Viimeksi muokattu:
GPT4:en on huhuttu olevan noin 1.7 biljoonaa parametria. Edellinen GPT versio oli jossain 100-200 miljoonan parametrin välissä ja gpt4 10x isompi.
Saattaa olla tyhmä kysymys, mutta mitä tarkalleen ottaen tarkoittaa parametrit tässä asiayhteydessä?
 
Saattaa olla tyhmä kysymys, mutta mitä tarkalleen ottaen tarkoittaa parametrit tässä asiayhteydessä?
Mun käsitys on, että niillä tarkoitetaan neuroverkon vakiotermejä(bias) ja painoja(weight).
While weights determine the strength of connections between neurons, biases provide a critical additional layer of flexibility to neural networks. Biases are essentially constants associated with each neuron. Unlike weights, biases are not connected to specific inputs but are added to the neuron's output
 
Saattaa olla tyhmä kysymys, mutta mitä tarkalleen ottaen tarkoittaa parametrit tässä asiayhteydessä?

Tekoälyjärjestelmien toiminta perustuu siihen, että laskentaan vaikuttavat parametrit optimoidaan siten, että malli vastaa oikein syötteisiin.

Opetus on siis noiden parametrien optimointia.

Mitä enemmän parametrejä, sitä monimutkaisempi malli. Mitä monimutkaisempi malli, sitä monimutkaisempaa käyttäytymistä.
 
Itseasiassa tämä tekoälyllä luotu paska ei rajoitu edes youtubeen vaan tuntuu että koko internet on hukkumassa höttöön ja järkevän, todellisen informaation etsiminen on kokoajan muodustumassa hankalammaksi. Tämä toki ei yksin tekoälyn vika ole, mutta tekoäly toimii siinä mahdollistajana.
Joo näin on.

Itse vaan ärsyyntynyt eniten noista youtuben videoista, kun sen tekoälyosuuden niissä ei-selkeästi tekoälyn avulla luoduissa videoissa ei välttämättä huomaa sitä tekoälypuolta kuin vasta minuuttien jälkeen, jos silloinkaan.

Joutunut lähinnä etsimään jotain yli kymmenen vuotta vanhoja videoita niin ainakin on todennäköisempää, että ei ole niiden videoiden sisältö täynnä virheitä.

Pitäisi olla sääntönä ilmoittaa, jos sisällön luonnissa on käytetty tekoälysysteemejä, kun on selkeästi niin nopeasti mennyt tosi huonoon suuntaan koko internet näiden 'AI generated' artikkeleiden ja videoiden myötä.
 
Ääntä ymmärtävän ja tuottavan tekoälyn demo, samaan tapaan kuin OpenAI:n GPT-4o:n julkaisussa nähtiin, mutta tän pitäisi olla tulossa avoimeen jakeluun ja toimia kuluttajaraudalla:


edit: ei nähtävästi upotus toimi kunnolla, mutta jossain 10:30 paikkeilla alkaa demo.
 
Ääntä ymmärtävän ja tuottavan tekoälyn demo, samaan tapaan kuin OpenAI:n GPT-4o:n julkaisussa nähtiin, mutta tän pitäisi olla tulossa avoimeen jakeluun ja toimia kuluttajaraudalla:


edit: ei nähtävästi upotus toimi kunnolla, mutta jossain 10:30 paikkeilla alkaa demo.


moshi.chat

Latenssi on tosiaan pieni, mutta eipä tuo tekoäly tiedä mistään mitään ja ainakin omalla kohdallani äänentunnistus tai ymmärrys takelteli.
 
AI avustettu akkujensuunnittelu nopeuttaa ja tehostaa toimintaa. Oletettavasti tarkoittaa vähemmän työtä ihmiselle. Kuvittelisi, että ai avustin voisi tehostaa montaa muutakin työtä vaikka ihmistä ei täysin korvata.
“The biggest advantage is that cell design can be achieved at a consistent level and speed, regardless of the designer’s proficiency.”
“By incorporating AI technology into cell design, which determines battery performance, we will provide overwhelming product competitiveness and differentiated customer value,” noted LGES Chief Digital Officer Jinkyu Lee.
LGES’ AI-powered battery design system has been trained in 100,000 design cases based on the company’s data from the past 30 years. A representative of LGES informed local media that the company’s AI-powered battery design system ensures clients receive high quality designs consistently and at a relatively fast pace.

 
Viimeksi muokattu:
Transactions on Software Engineering lehdessä on julkaistu tutkimus chatGPT:n koodauskyvyistä:
https://ieeexplore.ieee.org/document/10507163
Tuo on maksumuurin takana, mutta IEEE Spectrumissa oleva juttu tiivistää paperin:
How Good Is ChatGPT at Coding, Really?
tl;dr Yhteenveto on, että se riippuu:
Overall, ChatGPT was fairly good at solving problems in the different coding languages—but especially when attempting to solve coding problems that existed on LeetCode before 2021. For instance, it was able to produce functional code for easy, medium, and hard problems with success rates of about 89, 71, and 40 percent, respectively.

“However, when it comes to the algorithm problems after 2021, ChatGPT’s ability to generate functionally correct code is affected. It sometimes fails to understand the meaning of questions, even for easy level problems,” Tang notes.

For example, ChatGPT’s ability to produce functional code for “easy” coding problems dropped from 89 percent to 52 percent after 2021. And its ability to generate functional code for “hard” problems dropped from 40 percent to 0.66 percent after this time as well.

“A reasonable hypothesis for why ChatGPT can do better with algorithm problems before 2021 is that these problems are frequently seen in the training dataset,” Tang says.

Essentially, as coding evolves, ChatGPT has not been exposed yet to new problems and solutions. It lacks the critical thinking skills of a human and can only address problems it has previously encountered. This could explain why it is so much better at addressing older coding problems than newer ones.
.
.
.
While ChatGPT was good at fixing compiling errors, it generally was not good at correcting its own mistakes.

“ChatGPT may generate incorrect code because it does not understand the meaning of algorithm problems, thus, this simple error feedback information is not enough,” Tang explains.

Artikkelissa oli käytetty ChatGPT:n 3.5 versiota, mutta varmastikin tulokset skaalautuvat 4.x versioille, koska arkkitehtuuri on sama.

Eli tämän tutkimuksen perusteella vielä on matkaa ennen kuin koodareita voi alkaa täysin korvaamaan tekoälyllä.
 
Transactions on Software Engineering lehdessä on julkaistu tutkimus chatGPT:n koodauskyvyistä:
https://ieeexplore.ieee.org/document/10507163
Tuo on maksumuurin takana, mutta IEEE Spectrumissa oleva juttu tiivistää paperin:
How Good Is ChatGPT at Coding, Really?
tl;dr Yhteenveto on, että se riippuu:


Artikkelissa oli käytetty ChatGPT:n 3.5 versiota, mutta varmastikin tulokset skaalautuvat 4.x versioille, koska arkkitehtuuri on sama.

Eli tämän tutkimuksen perusteella vielä on matkaa ennen kuin koodareita voi alkaa täysin korvaamaan tekoälyllä.
mä en vaan taida osata näitä käyttää, laitoin taaoin ai:lle kyssärin mikä vika sql lausekkeessa ja se päässy lainkaan jyvälle hoki samaa pskaa... no takosin ite pari päivää päätä seinään ennen ko tajusin
edit saati siis et oisin sitä kysyny koodaa, ko se sql oli vaan se lauseke koodissa...
 
Tämän CrowdStrike härdellin myötä lienee myös ihmiskunnan hyvä hetki miettiä tekoälyjen osalta yhteiskunnan riippuvuutta yksittäisestä tekijästä ja sitä miten samanlaista voidaan estää tapahtumasta uudestaan myös tekoälyjen kanssa. Kun tekoäly otetaan laajamittaisesti käyttöön eri yhteiskunnan osa alueilla niin tällaisella isolla katkolla voi olla vielä tätä nyt tapahtunutta isommat ja konkreettisemmat vaikutukset.
 
Tämän CrowdStrike härdellin myötä lienee myös ihmiskunnan hyvä hetki miettiä tekoälyjen osalta yhteiskunnan riippuvuutta yksittäisestä tekijästä ja sitä miten samanlaista voidaan estää tapahtumasta uudestaan myös tekoälyjen kanssa. Kun tekoäly otetaan laajamittaisesti käyttöön eri yhteiskunnan osa alueilla niin tällaisella isolla katkolla voi olla vielä tätä nyt tapahtunutta isommat ja konkreettisemmat vaikutukset.
Juuh melko pelottavaa et yks paska koodi yhdellä sai aika paljon aikaseksi...
 
Tekoäly ei ehkä viekään työpaikkoja. Siis EU:ssa, regulaation takia.

Tosin Kiinassa on regulaatio toistaiseksi ainankin ollut kevyempää ja siellä on kiritty siinämäärin, että amerikkalaiset kehittäjät ovat alkaneet turvautua kiinalaisiin lähteisiin:
Chinese AI built off open-source code matches American tech in chatbot benchmark tests | Tom's Hardware (tomshardware.com)

Ilmeisesti tekoälyn kehityksen kärki on siirtymässä Kiinaan, kun lännessä kipuillaan säännösten kanssa liikaa..
 
En löytänyt parempaa ketjua kommentoida aiheesta, mutta googlen varastotila uhkasi loppua ja otin sitten "AI premium" version firman palveluista kokeiluun. Ja parin kuukauden kokemuksella ei ole mitään lisäarvoa ollut tarjolla omalla tilillä. Toki olen suomeksi lähinnä käyttänyt sähköpostia nyt. Onhan se vähän kuplan näköistä jos käy ilmi että firmat eivät oikeasti mitään lisäarvoa pysty asiakkaille tarjoamaan vaikka rahaa on käytetty järjettömästi..
 
En löytänyt parempaa ketjua kommentoida aiheesta, mutta googlen varastotila uhkasi loppua ja otin sitten "AI premium" version firman palveluista kokeiluun. Ja parin kuukauden kokemuksella ei ole mitään lisäarvoa ollut tarjolla omalla tilillä. Toki olen suomeksi lähinnä käyttänyt sähköpostia nyt. Onhan se vähän kuplan näköistä jos käy ilmi että firmat eivät oikeasti mitään lisäarvoa pysty asiakkaille tarjoamaan vaikka rahaa on käytetty järjettömästi..
Itse otin kanssa kokeiluun 2kk premiumin, kun ajattelin että jos kesällä ehtisi enemmän käyttää ja kokeilla, no muuta puuhaa ollu. Hieman tullut Geminiä kokeiltua. Millaista lisäarvoa odotit tuotteelta? Oletko kokeillut luoda sähköposteja tai documentteja AI avustuksella? Entä oletko Geminiä käyttänyt premiumilla tai ilman?
 
Itse otin kanssa kokeiluun 2kk premiumin, kun ajattelin että jos kesällä ehtisi enemmän käyttää ja kokeilla, no muuta puuhaa ollu. Hieman tullut Geminiä kokeiltua. Millaista lisäarvoa odotit tuotteelta? Oletko kokeillut luoda sähköposteja tai documentteja AI avustuksella? Entä oletko Geminiä käyttänyt premiumilla tai ilman?
En ole ehtinyt geminiä nyt käyttää, mutta tavallaan oletin että se tarjoaisi jotain, siis edes jotain pientä parannusta puoliautomaattisesti, tai ehdottaisi että haluatko kokeilla tätä tms. Ei mitään sellaista. Täysin sama gmail kokemus ja google kokemus muutenkin. Lisäksi on aika absurdia että google haluaa tarkastaa jotain 5kk sitten saamiani viestejä virusten varalta joka kerta uudestaan ennen kuin liitteitä lataan, ei kai niihin viesteihin siellä googlen palvelimilla ole tullut viruksia sen ekan kerran jälkeen?

Ja oikeasti eikö google tarkasta niitä viestejä siinä kohtaa kun ne tulevat sinne mailiin vaan vasta siinä kohtaa kun ne avataan? Aika "mielenkiintoinen" kuvio.
 
En ole ehtinyt geminiä nyt käyttää, mutta tavallaan oletin että se tarjoaisi jotain, siis edes jotain pientä parannusta puoliautomaattisesti, tai ehdottaisi että haluatko kokeilla tätä tms. Ei mitään sellaista. Täysin sama gmail kokemus ja google kokemus muutenkin. Lisäksi on aika absurdia että google haluaa tarkastaa jotain 5kk sitten saamiani viestejä virusten varalta joka kerta uudestaan ennen kuin liitteitä lataan, ei kai niihin viesteihin siellä googlen palvelimilla ole tullut viruksia sen ekan kerran jälkeen?

Ja oikeasti eikö google tarkasta niitä viestejä siinä kohtaa kun ne tulevat sinne mailiin vaan vasta siinä kohtaa kun ne avataan? Aika "mielenkiintoinen" kuvio.
Eipä vitrustorjunnat tunnista uhkia, vasta, kuin jälkikäteen, kun tietokantaa on päivitelty..
 
Tosin Kiinassa on regulaatio toistaiseksi ainankin ollut kevyempää ja siellä on kiritty siinämäärin, että amerikkalaiset kehittäjät ovat alkaneet turvautua kiinalaisiin lähteisiin:
Chinese AI built off open-source code matches American tech in chatbot benchmark tests | Tom's Hardware (tomshardware.com)

Ilmeisesti tekoälyn kehityksen kärki on siirtymässä Kiinaan, kun lännessä kipuillaan säännösten kanssa liikaa..
Tämä "Chinese AI" on osa Kiinan softpower propagandaa kun Kiina yritti viimeisen vuosikymmenen ajan profiloitua tekoälyn johtomaaksi luomalla pakotettuja gimmick-keksintöjä ja huijaamalla ihmisiä että heidän älypuhelimisissa, roboteissa jne. olisi tekoäly kun siellä todellisuudessa rullaa hikipajassa tehty purkkakoodi. Tarinalta katkesi siivet kun ChatGPT julkaistiin ja Kiinalla ei ollut mitään edes etäisesti vastaavaa kehitettynä.

Tässä jutussa lähinnä kerrotaan että kiinalaiset ovat onnistuneet kilpailemaan jenkkifirmojen kanssa käyttämällä avointa lähdekoodia. Jutun lopussa sanotaan osuvasti:
However, despite all the AI advancements China has made based on open-source technology, Professor Yiran Chen of Duke University believes they are still at a disadvantage. “Chinese companies are good at replicating and improving what the U.S. already has,” Chen said. “They are not as good at inventing something completely new that will bypass the U.S. in five to ten years.”
 
Automaatio alkaa ottamaan tilaukset vastaan pikaruokapaikassa ja minimipalkkaihmiselle kenkää? Tän vois kuvitella toimivan ja yleistyvän.
Taco Bell, the pseudo-Mexican restaurant chain, has announced its plan to add "Voice AI technology" to hundreds of its locations by the end of the year. It claims to already have the feature working at over a hundred drive-thrus across 13 states.
Yum isn't the only fast food monolith to look into AI drive thrus; rival chains Wendy's and McDonald's also jumped aboard the ML hype train, with the former teaming up with Google and the latter with IBM. They, like Taco Bell, have expressed lots of optimism about AI chatbots for drive-thrus, saying that the technology would help speed up orders.
 
Automaatio alkaa ottamaan tilaukset vastaan pikaruokapaikassa ja minimipalkkaihmiselle kenkää? Tän vois kuvitella toimivan ja yleistyvän.


McDonald’s ends AI drive-thru trial as fast-food industry tests automation
McDonald’s is ending its test of employing artificial intelligence chatbots at drive-thrus, raising questions over the fast food industry’s rush to roll out the technology.

The world’s largest burger chain will remove automated AI-based order systems from over 100 locations around the US.
 
Kun netti saastuu AI-generoidusta datasta, sitä ei voi enää suoraan käyttää neuroverkkojen kouluttamiseen.

Tämähän on hyvä ratkaisu kun AI hiljalleen tuhoaa sitten itse itsensä.

Ennen olin sitä mieltä että mitä enemmän työ on hakukoneen käyttöä sen todennäköisemmin AI korvaa sen. Esimerkiksi lääkärit käyttävät yllättävän paljon Googlen hakukonetta.
 
AI tilaukset on osa mcdonaldsin tulevaisuutta. Piru siinä yksityiskohdassa, että ai testi ei ole sama asia kuin mcdonaldsin koko ai-tilausohjelma.
A spokesperson for McDonald’s told the publication that it would decide its plans for automated orders by the end of the year, but stressed that “a voice-ordering solution for drive-thru will be part of our restaurants’ future”.

 
Ongelmanahan on se että jos kaikki tai vaikka vain suurin osa töistä tehdään tulevaisuudessa roboteilla niin kuka niitä tuotteita ostaa? Robotit? Toyotallahan tajuttiin jo aikaa sitten että ilman ihmisen tekemää työtä niillä robottien tekemillä autoilla ei kukaan aja tai istu kyydissä jos ovat autonomisia kulkuvälineitä. Tässä on vähän samaa ongelmaa kun siinä että koko maailmantalous perustuu kuluttamiseen mutta samaan aikaan pyritään hillitsemään kulutusta...ja tuotteista tehdään mahdollisimman nopeasti hajoavia jotta niitä menisi mahdollisimman paljon jotta yritys tuottaisi rahaa omistajilleen...aika moinen paradoksi kyllä koko setti:)
 

Statistiikka

Viestiketjuista
262 624
Viestejä
4 560 242
Jäsenet
75 008
Uusin jäsen
benta

Hinta.fi

Back
Ylös Bottom