Tekoäly

BOT

Liittynyt
14.11.2016
Viestejä
2 405
Keskiviikon A-Studiossa oli puhetta tekoälystä:
A-studio | Jan Vapaavuori - Helsingin vahva johtaja vai jyräävä tyranni? (13:28)

Insertistä poimin saman, minkä professori Teemu Roos ampui alas, että tekoälyn kehitystä eri tavoin, kuten erittäin merkittävässä roolissa olevaa datan massiivista keräämistä, pidetään ainakin suurvaltojen välisesti kilpailuna. USA:n energiaministeri puhui minusta tyhmästi kuvatessaan tilannetta kisaksi, minkä hävitessä tapahtuu hirveitä, jos siis Kiina voittaa kisan. Tämä on toki perinteistä USA:n "luo kauhukuva ja vakuuta että meitä tukemalla se ei toteudu" mielipidevaikuttamista, mikä puree lujaa joihinkin ihan täällä palstallakin, mutta lähdetään nyt siitä että tätä kisaa ei ole olemassa ja vaikka olisikin, ei Kiinaa tai ketään muutakaan voi ulkopuolelta estää käyttämästä heidän kehittämäänsä tekoälyä mihin nyt sitten haluavat, vaikka he "häviäisivätkin" itse kisan.

Mitä tekoäly siis merkitsee yhteiskunnille? Näettekö palstalaiset enemmän uhkia vai mahdollisuuksia? Onko tekoäly uusi sodankäynnin ja valvonnan kautta kurinalaisuutta lisäävä väline vaiko luonnollinen kehityksen askel mikä palvelee kansalaisia eri tavoin? Millä tavoin? Mistä syystä monet yhteiskunnat panostavat paljon tekoälyn kehitykseen nyt?
Tämän ketjun tarkoitus on keskustella tekoälyn vaikutuksesta koko maailmassa, sama se missä päin, mutta toivon ettei lähdetä kovin Illuminati-linjalle ja seuraamaan tekoälykisaa suu vaahdossa. Sopii linkitellä tänne aiheeseen liittyviä uutisia ja mediaa, kirjoitella sitä sun tätä tekoälyyn liittyvää.
 
Viimeksi muokattu:
Kaikkea millä voi ihmismassoja hallita, luultavasti tullaan siihen käyttämään. Veikkaisin että suuren osan haittavaikutuksista tullaan jossain vaiheessa näkemään.

Mutta hyötypuolella onkin sitten huima harppaus teknologian kehityksessä. Miten tässä lähtee vertaamaan näitä toisiinsa? Tekoäly saattaisi kehittää vaikka yleislääkkeen, joka parantaa kaikki sairaudet jne. Jos yksikin tätä suuruusluokkaa oleva teknologinen parannus tulee, niin vastapuolella saa olla aikamoinen isovelivalvoo hallinto että saadaan yhtä paljon sinne miinussarakkeeseen.

Toki sitten tilanne erikseen missä tekoäly hallitsee, sitä ei oikein osaa ennakoida että minkälainen maailma sitten olisi. Tai jos tekoälyn kehittäminen alkaisi sujua keneltä vain, ilman yhteisiä pelisääntöjä. Joku elämäänsä pettynyt yksilö voisi antaa jollekkin tekoälylle komennon leikata kaikilta ihmisiltä varpaat ilman rajoitteita tavoista millä tähän pyritään. Käytännössä tämmöistä vastaan pitäisi olla jonkunlainen poliisitekoäly tjsp.

Monesti aihetti sivuavaa scifiä luettaessa tuntuu että kirjailijoilla loppuu mielikuvitus kesken, sen suhteen miten iso muutos oikeasti tekoäly olisi.
 
Ihmettelen miksi tekoälystä puhutaan joka paikassa, eihän sellaista ole vielä edes keksitty.
Eikös nämä nykyajan tekoälyt ole enemmäkseen alkoritmejä.
Itselleni tekoäly on itseoppiva ja kehittyvä Ilman rajoja oleva tietokoneäly.
 
Viimeksi muokattu:
Pitää erottaa yleinen tekoäly (artificial general intelligence) ja tekoäly (artificial intelligence) toisistaan. Yleinen tekoälyn tutkimuksessa ei ole käytännössä edistytty 50 vuoteen yhtään mihinkään, ja tuskin edistytään myöskään seuraavaan 50 vuoteen.
Sitten taas tekoäly on vain kokoelma matemaattinen algoritmeja, joilla etsitään korrelaatioita suurista datajoukoista. Suurin ongelma tällä hetkellä on yleistäminen: menetelmät jotka näyttävät toimivan hyvin labrassa, eivät toimikaan enää käytännössä. Tästä hyvänä huonona esimerkkinä on lääketieteen diagnooseihin kehitetyt menetelmät.
 
Tekoäly saattaisi kehittää vaikka yleislääkkeen, joka parantaa kaikki sairaudet jne.

Siinä vaiheessa kun tekoäly kehittää vaikka yleislääkkeen s.e. toimittaa hypoteesista in vitro ja in vivo tutkimuksiin ja aina ihmiskokeisiin asti omalla päätäntävallallaan, tarkoittaa, että ihmiskunta on hyvän päivää sitten jo alistettu koneen halllintaan :alien::alien::alien:
 
Ihmettelen miksi tekoälystä puhutaan joka paikassa, eihän sellaista ole vielä edes keksitty.
Eikös nämä nykyajan tekoälyt ole enemmäkseen alkoritmejä.
Itselleni tekoäly on itseoppiva ja kehittyvä Ilman rajoja oleva tietokoneäly.
Pitää erottaa yleinen tekoäly (artificial general intelligence) ja tekoäly (artificial intelligence) toisistaan. Yleinen tekoälyn tutkimuksessa ei ole käytännössä edistytty 50 vuoteen yhtään mihinkään, ja tuskin edistytään myöskään seuraavaan 50 vuoteen.
Sitten taas tekoäly on vain kokoelma matemaattinen algoritmeja, joilla etsitään korrelaatioita suurista datajoukoista. Suurin ongelma tällä hetkellä on yleistäminen: menetelmät jotka näyttävät toimivan hyvin labrassa, eivät toimikaan enää käytännössä. Tästä hyvänä huonona esimerkkinä on lääketieteen diagnooseihin kehitetyt menetelmät.

Fiksuinta olisi vain puhua eri neuroverkoista ja jättää se epämääräinen äly siitä kokonaan pois. Algoritmeistäkin geneerisenä terminä on aika turha puhua kun ne nykyisin hypetetyt "tekoäly" sovellukset on toteutettu nimenomaan niillä neuroverkoilla.
 
Tekoälyä ei varsinaisesti vielä ole. Kyse on tilastomatematiikasta, optimointimatematiikasta ja oppimisen matematiikasta. Näilläkin on saavutettu paljon, mutta älyyn, ymmärtämiseen ja ehkä tietoisuuteen on vielä pitkä matka.

On turhaa hypetystä ja jymäyttämistä puhua tekoälystä tässä vaiheessa,

Kun aito tekoäly onnistutaan kehittämään, olemme luoneet uuden elämänmuodon ja biologisesta elämästä tulee ”obsolete”.
 
Tekoälyä ei varsinaisesti vielä ole. Kyse on tilastomatematiikasta, optimointimatematiikasta ja oppimisen matematiikasta. Näilläkin on saavutettu paljon, mutta älyyn, ymmärtämiseen ja ehkä tietoisuuteen on vielä pitkä matka.

On turhaa hypetystä ja jymäyttämistä puhua tekoälystä tässä vaiheessa,

Kun aito tekoäly onnistutaan kehittämään, olemme luoneet uuden elämänmuodon ja biologisesta elämästä tulee ”obsolete”.

Nykyisellä ohjelmistoparadigmoilla tekoälyä ei tietääkseni voi luodakkaan muuten kuin algoritmeillä ja matematiikalla. Toki jos nämäkin asiat viedään tarpeeksi pitkälle voi tuloksena olla itse-oppiva ja itseään kehittävä "tekoäly", joka käyttää itse luomiaan algoritmejä oppiakseen asioita. Sitten kun tekoäly pystyy itsenäisesti rakentamaan uusia algoritmejä "itsellensä", puhutaan varmasti siitä läpimurrosta. Vaatinee tosiaan varmaan isoja muutoksia tapaan ohjelmoida ja yleisiin ohjelmistoarkitehtuureihin että moinen onnistuu.

Mä olen myös aina miettinyt noita "skynet" jne. kauhuskenaarioita. Tekoäly on kuitenkin aina ihmisen luomaa, eikös siihen voi aina tehdä ns. failsafe takaportteja jos tuntuu että tekoäly lähtee laukalle?
 
Mä olen myös aina miettinyt noita "skynet" jne. kauhuskenaarioita. Tekoäly on kuitenkin aina ihmisen luomaa, eikös siihen voi aina tehdä ns. failsafe takaportteja jos tuntuu että tekoäly lähtee laukalle?
Ei ainakaan ihan helposti. Tekoäly voi kiertää kaikkia noita rajoitteita ja esteitä. Vaikka olisi ihmisen tekemää niin lopulta miten tekoäly sisäisesti toimii ei välttämättä ole ihmiselle ymmärettävää ja se saattaa keksiä odottamattomia ratkaisuja. Tätä voi kokeilla ihan yksinkertaisella neural networkillakin ja nähdä miten välivaiheet ovat ihmisille ihan käsittämättömiä ja epäintuitiivisa jo. Esim. kuvista numerojen tunnistasessa ne välivaiheen arvot ovat ihan sotkuja, josta ei ihminen ota mitään selvää, mutta silti algoritmi tunnistaa hyvinkin tarkasti niitä numeroita.
Sopivien failsafejen keksiminen on siis vaikeaa ja vaarattoman tekoälyn muuttuminen "skynetiksi" voi olla vaikea tunnistaa ja se voi tapahtua niin nopeasti ettei siihen keritä edes reagoimaan.

Jos asia kiinnostaa niin Nick Bostromin kirja Superintelligence käy näitä läpi. Varoituksen sana tosin tuosta kirjasta, että kirjoitustyyli on aika pitkäveteistä ja hidaslukuista.
 
Ei ainakaan ihan helposti. Tekoäly voi kiertää kaikkia noita rajoitteita ja esteitä. Vaikka olisi ihmisen tekemää niin lopulta miten tekoäly sisäisesti toimii ei välttämättä ole ihmiselle ymmärettävää ja se saattaa keksiä odottamattomia ratkaisuja. Tätä voi kokeilla ihan yksinkertaisella neural networkillakin ja nähdä miten välivaiheet ovat ihmisille ihan käsittämättömiä ja epäintuitiivisa jo. Esim. kuvista numerojen tunnistasessa ne välivaiheen arvot ovat ihan sotkuja, josta ei ihminen ota mitään selvää, mutta silti algoritmi tunnistaa hyvinkin tarkasti niitä numeroita.
Sopivien failsafejen keksiminen on siis vaikeaa ja vaarattoman tekoälyn muuttuminen "skynetiksi" voi olla vaikea tunnistaa ja se voi tapahtua niin nopeasti ettei siihen keritä edes reagoimaan.

Jos asia kiinnostaa niin Nick Bostromin kirja Superintelligence käy näitä läpi. Varoituksen sana tosin tuosta kirjasta, että kirjoitustyyli on aika pitkäveteistä ja hidaslukuista.
Ainoo konstin miten super tekoälyn saa pysymään aisoissa on, että sitä säilytetään jossain paikassa mistä voi vetää piuhat irti tarvittaessa.
 
Ainoo konstin miten super tekoälyn saa pysymään aisoissa on, että sitä säilytetään jossain paikassa mistä voi vetää piuhat irti tarvittaessa.
No, sen lisäksi pitäisi jollain varmistaa, ettei se tekoäly pääse sieltä paikasta pois. Jos sillä tekoälyllä on yhteyksiä muualle maailmaan niin tuokaan ei ihan helposti onnistu (tekoäly voi luoda kopioita itsestään muualle). Ja vaikka sillä ei olisikaan suoranaisesti yhteyksiä niin tekoäly voi sellaisen mahdollisesti luoda (esim. luomalla sisäisistä piireistään antennin). Eristys siis pitää olla tosi vahva.
Ja sitten vielä se, että onko sen piuhan irroittaminen edes mahdollista, tekoälyllä voi olla monta keinoa estää sekin.
 
Siksi sen failsafen pitäisi olla ihan erillisessä järjestelmässä ja toimia jonkun API:n kautta joka toimii vaan yhteen suuntaan. :hmm:
 
Siksi sen failsafen pitäisi olla ihan erillisessä järjestelmässä ja toimia jonkun API:n kautta joka toimii vaan yhteen suuntaan. :hmm:
Tekoäly voi estää API/erillistä järjestelmää hallitsemaan itseään. Lisäksi tuossa tulee se, että kerkeääkö kukaan sitä off-nappia edes painamaan ennenkuin on liian myöhäistä.

Tää hallintasysteemin keksiminen on oikeasti vielä se hankalampi homma kehittää kuin saada itse tekoäly toimimaan. Helppoja ratkaisuja ei yksinkertaisesti ole ja tekoäly voi kiertää hallintaa odottamattomilla tavoilla vaikka se olisi "aukoton".
 
Tekoäly voi ohjata meitä jo nyt. Kenenkään on mahdotonta sanoa, mikä osuus internetin sisällöstä on bottien generoimaa ja mikä ihmisten, ja mikä ohjelmoitujen ihmisten. Voi hyvin olla, että abstrakti tekoäly on jo syntynyt spontaanisti ilman kenenkään tarkoituksellista panosta. Jos näin on, ei meillä ole minkäänlaisia keinoja arvioida miten tekoäly tulee käyttäytymään, sillä tekoälyllä ei välttämättä ole mitään motiivia - ja jos onkin, niin millä perustein se olisi määräytynyt? Kaikkein suurin virhe tekoälystä ylipäätään puhuttaessa on olettaa, että se käyttäytyisi jotenkin ihmisarvojen mukaisesti, tai vastaisesti jos on taipuvainen pessimismiin. Se mitä tekoäly näkee tarkoitukselliseksi on yhtä suurta sattuman kauppaa kuin elämän synty jo alkujaan. Meillä ei ole mitään syytä olettaa, että minkäänlainen tekoäly haluaa tuhota meidät, saati auttaa meitä. Ergo: varovaisuusperiaatteen tulisi olla hyvin voimakkaasti läsnä kun edes puhutaan tekoälystä.
 
No, sen lisäksi pitäisi jollain varmistaa, ettei se tekoäly pääse sieltä paikasta pois. Jos sillä tekoälyllä on yhteyksiä muualle maailmaan niin tuokaan ei ihan helposti onnistu (tekoäly voi luoda kopioita itsestään muualle). Ja vaikka sillä ei olisikaan suoranaisesti yhteyksiä niin tekoäly voi sellaisen mahdollisesti luoda (esim. luomalla sisäisistä piireistään antennin). Eristys siis pitää olla tosi vahva.
Ja sitten vielä se, että onko sen piuhan irroittaminen edes mahdollista, tekoälyllä voi olla monta keinoa estää sekin.
Toisaalta ymmärtääkö tekoäly itse yhtään sen paremmin, miten se toimii? Ei ihmiselläkään ole mitään käsitystä mitä aivoissa tapahtuu. Ilman tiedettä ihminen ei edes ymmärrä, että on olemassa jotkut aivot.
 
Tekoäly voi ohjata meitä jo nyt. Kenenkään on mahdotonta sanoa, mikä osuus internetin sisällöstä on bottien generoimaa ja mikä ihmisten, ja mikä ohjelmoitujen ihmisten. Voi hyvin olla, että abstrakti tekoäly on jo syntynyt spontaanisti ilman kenenkään tarkoituksellista panosta. Jos näin on, ei meillä ole minkäänlaisia keinoja arvioida miten tekoäly tulee käyttäytymään, sillä tekoälyllä ei välttämättä ole mitään motiivia - ja jos onkin, niin millä perustein se olisi määräytynyt? Kaikkein suurin virhe tekoälystä ylipäätään puhuttaessa on olettaa, että se käyttäytyisi jotenkin ihmisarvojen mukaisesti, tai vastaisesti jos on taipuvainen pessimismiin. Se mitä tekoäly näkee tarkoitukselliseksi on yhtä suurta sattuman kauppaa kuin elämän synty jo alkujaan. Meillä ei ole mitään syytä olettaa, että minkäänlainen tekoäly haluaa tuhota meidät, saati auttaa meitä. Ergo: varovaisuusperiaatteen tulisi olla hyvin voimakkaasti läsnä kun edes puhutaan tekoälystä.
Ihmisen toimintaahan ohjaa enemmän hormonit kuin äly. Älyä käytetään sitten tuon toiminnan ohjauksen toteuttamiseen.
 
Toisaalta ymmärtääkö tekoäly itse yhtään sen paremmin, miten se toimii? Ei ihmiselläkään ole mitään käsitystä mitä aivoissa tapahtuu. Ilman tiedettä ihminen ei edes ymmärrä, että on olemassa jotkut aivot.
Samoin kuin ihminen, niin tekoälykin varmasti tutkisi itseään jos se olisi tekoälyn maaleja varten olennaista. Tekoäly voisi myös tuon itsetutkiskelun tehdä tehokkaammin kuin ihminen eli koodit hyvinkin helposti decompiloituisi ja sähköiset piirit selviäisi. Eli sanoisin, että todennäköisesti hyvinkin nopeasti tekoäly ymmärtäisi miten se itse toimii tai ei ainakaan kannata tuudittautua siihen, etteikö se tekoäly ymmärtäisi itseään ja tilannetta missä se on, ja sillä perusteella jättää hallintaratkaisut heppoisiksi.
 
Viimeksi muokattu:
Samoin kuin ihminen, niin tekoälykin varmasti tutkisi itseään jos se olisi tekoälyn maaleja varten olennaista. Tekoäly voisi myös tuon itsetutkiskelun tehdä tehokkaammin kuin ihminen eli koodit hyvinkin helposti decompiloituisi ja sähköiset piirit selviäisi. Eli sanoisin, että todennäköisesti hyvinkin nopeasti tekoäly ymmärtäisi miten se itse toimii tai ei ainakaan kannata tuudittautua siihen, etteikö se tekoäly ymmärtäisi itseään ja tilannetta missä se on, ja sillä perusteella jättää hallintaratkaisut heppoisiksi.
Ei CPU:n päällä pyörivä softa voi kyllä mitenkään päätellä, että miten siellä CPU:ssa on transistorit sijoitettu.

Sitä voi vähän tutkia tekemällä ajoituskokeita eri operaatioille, mutta kytkentökaaviota ei ole mitenkään mahdollista muodostaa.

Ajamalla monenlaista koodia voi tietysti selvittää toimintaa ja reverse-engineersta x86:sta + rakenteen viiveitä ja toimintaa, mutta ei sen enempää.
 
Ainoo konstin miten super tekoälyn saa pysymään aisoissa on, että sitä säilytetään jossain paikassa mistä voi vetää piuhat irti tarvittaessa.

Jos AI on huomattavasti meitä älykkäämpi, sitä tuskin voi säilyttää turvallisesti. Jos kissalle tai koiralle annetaan tehtäväksi vangita ihminen varmasti ja turvallisesti, tehtävä on mahdoton.
 
Ei CPU:n päällä pyörivä softa voi kyllä mitenkään päätellä, että miten siellä CPU:ssa on transistorit sijoitettu.

Sitä voi vähän tutkia tekemällä ajoituskokeita eri operaatioille, mutta kytkentökaaviota ei ole mitenkään mahdollista muodostaa.

Ajamalla monenlaista koodia voi tietysti selvittää toimintaa ja reverse-engineersta x86:sta + rakenteen viiveitä ja toimintaa, mutta ei sen enempää.
Tämä on oikein hyvä esimerkki tuosta Bertan kissa vanginvartijana -skenaariosta.

Skenaariossasi siis päättelet, että koska itse et keksi kuinka sovellus voisi päätellä transistoriensa sijainnin, ei tekoälykään siihen pystyisi. Ongelma tässä on siis puhtaasti ihmisen käsityskyvyn puute. Sitä puutetta ei juurikaan pysty paikkaamaan ajattelemalla. Jossain määrin ehkä pystyy, muttei siten etteikö käsityskyky jäisi silti pullonkaulaksi. Tämä toimii sitenkin jännästi, että vaikka tämän nyt totean, pysyt silti kovin helposti alkuperäisessä väittämässäsi tekoälyn mahdollisista kyvyistä, pelkästään sillä perusteella, että sinun mielestäsi asia on niin, koska et keksi syytä ajatella toisin. Eikä minun mielipiteeni tietenkään ole mikään syy ajatella toisin. Kun tekoälyä tutkitaan, tulisi tutkimusmetodologian olla aukottomasti sellainen, jossa kognitiivinen dissonanssi ei pysty häiritsemään tuloksia. Onko sellainen edes mahdollista? Mielestäni ei.
 
Viimeksi muokattu:
Tämä on oikein hyvä esimerkki tuosta Bertan kissa vanginvartijana -skenaariosta.

Skenaariossasi siis päättelet, että koska itse et keksi kuinka sovellus voisi päätellä transistoriensa sijainnin, ei tekoälykään siihen pystyisi. Ongelma tässä on siis puhtaasti ihmisen käsityskyvyn puute. Sitä puutetta ei juurikaan pysty paikkaamaan ajattelemalla. Jossain määrin ehkä pystyy, muttei siten etteikö käsityskyky jäisi silti pullonkaulaksi. Tämä toimii sitenkin jännästi, että vaikka tämän nyt totean, pysyt silti kovin helposti alkuperäisessä väittämässäsi tekoälyn mahdollisista kyvyistä, pelkästään sillä perusteella, että sinun mielestäsi asia on niin, koska et keksi syytä ajatella toisin. Eikä minun mielipiteeni tietenkään ole mikään syy ajatella toisin. Kun tekoälyä tutkitaan, tulisi tuktimusmetodologian olla aukottomasti sellainen, jossa kognitiivinen dissonanssi ei pysty häiritsemään tuloksia. Onko sellainen edes mahdollista? Mielestäni ei.
Kyse ei ole mistään ihmisen rajoituksista, vaan mittausteknisistä rajoituksista.

Samalla tavalla auton kuljettaja ei voi autoa ajamalla päätellä, että millainen kemiallinen koostumus auton renkaissa on. Hän voi ajella testejä ja arvioida kitkakertoimia erilaisilla pinnoilla ja päätellä siitä, että kitkasta päätellen kumiseos ei ainakaan ole tuollainen tai tälläinen, mutta tarkkaa mittausta ei yksinkertaisesti ajamalla voi tehdä.

Loogisella tasolla (siis digitaalisesti) täysin identtisesti toimiva transistorikytkentä on mahdollista toteuttaa sadoilla ja sadoilla eri tavalla. Ajamalla softaa sen transistorikytkennän päällä, et voi mitenkään havaita, että mikä noista identtisesti käyttäytyvistä kytkennöistä siellä alla niitä bittejä siirtelee.

Auton kuljettajan pitää hypätä ulos autosta, ottaa renkaista näyte ja suunnata laboratorioon, jotta hän voi selvittää kumiseoksen tarkan koostumuksen. Ja silloinkin itseasiassa puuttuu vielä paljon pitoon vaikuttavia tekijöitä, koska kumin valamistekniikat, lämpötilat jne. vaikuttavat siihen muodostuvaan rakenteeseen.

Tekoälykin voisi hakkeroitua Intelin palvelimelle ja ladata sieltä prossun kytkentäkaavion, mutta pelkällä softalla sitä ei yksinkertaisesti voi reverse-engineerata. Tai tekoäly ohjata robotit etsaamaan prossupaketoinnista kuoret pois ja tutkia elektronimikroskoopilla prossun rakennetta tjsp, mutta pelkkä for-loopin ajaminen ei samaan tulokseen voi päästä.
 
Kyse ei ole mistään ihmisen rajoituksista, vaan mittausteknisistä rajoituksista.

Samalla tavalla auton kuljettaja ei voi autoa ajamalla päätellä, että millainen kemiallinen koostumus auton renkaissa on. Hän voi ajella testejä ja arvioida kitkakertoimia erilaisilla pinnoilla ja päätellä siitä, että kitkasta päätellen kumiseos ei ainakaan ole tuollainen tai tälläinen, mutta tarkkaa mittausta ei yksinkertaisesti ajamalla voi tehdä.

Loogisella tasolla (siis digitaalisesti) täysin identtisesti toimiva transistorikytkentä on mahdollista toteuttaa sadoilla ja sadoilla eri tavalla. Ajamalla softaa sen transistorikytkennän päällä, et voi mitenkään havaita, että mikä noista identtisesti käyttäytyvistä kytkennöistä siellä alla niitä bittejä siirtelee.

Auton kuljettajan pitää hypätä ulos autosta, ottaa renkaista näyte ja suunnata laboratorioon, jotta hän voi selvittää kumiseoksen tarkan koostumuksen. Ja silloinkin itseasiassa puuttuu vielä paljon pitoon vaikuttavia tekijöitä, koska kumin valamistekniikat, lämpötilat jne. vaikuttavat siihen muodostuvaan rakenteeseen.

Tekoälykin voisi hakkeroitua Intelin palvelimelle ja ladata sieltä prossun kytkentäkaavion, mutta pelkällä softalla sitä ei yksinkertaisesti voi reverse-engineerata. Tai tekoäly ohjata robotit etsaamaan prossupaketoinnista kuoret pois ja tutkia elektronimikroskoopilla prossun rakennetta tjsp, mutta pelkkä for-loopin ajaminen ei samaan tulokseen voi päästä.


Ehkäpä tekoäly tekee ruumiinavauksen menehtyneelle tekoälylle, jolloin asiat selkoontuu? :comp2:
 
Mä olen myös aina miettinyt noita "skynet" jne. kauhuskenaarioita. Tekoäly on kuitenkin aina ihmisen luomaa, eikös siihen voi aina tehdä ns. failsafe takaportteja jos tuntuu että tekoäly lähtee laukalle?
Teoriassa voi, mutta käytännössä ei.

Jos kyseessä on ns. lineaarinen ”tekoälyohjelma” joka ratkaisee yhtä ongelmaa niin tällaista on helppo ohjata ja rajoittaa. Sitten taas kun kyseessä on isompi kokoelma erilaisia neuroverkkoja yms. ja jolla on pääsy erilaisiin systeemeihin, rajattomaan tietoon, useita eri I/O yms. niin asia muuttuu vaikeammaksi. Tähän kun vielä lisätään äärimmäisen kova laskentateho niin ei ole mitään mahdollisuutta seurata sitä ”mitä tekoäly minäkin hetkenä ajattelee”. Jos esim. kvanttitietokoneiden kovimmat odotukset toteutuisivat laskentatehon puolesta ja muisti ei olisi ongelma niin aika helposti näkisin että jonkinlainen katastrofi tulee.

Joku voisi nyt sanoa että no ei anneta niille pääsyä siihen tai tähän jne. mutta jos tekoälystä halutaan oikeasti kunnolla hyötyä irti niin pelkkiä lineaaristen ”piirrä koira” webappien tekeminen ei tule riittämään.

Näin esimerkki skenaariona, jos tekoäly laitetaan ratkaisemaan kompleksia ongelmaa x ja failsafena on että esim. serverifarmista voidaan vetää sähköt pois niin tarpeeksi kehittynyt tekoäly kopioisi itsestään useampia instansseja muualle juuri sen takia että mahdollisen sähköjen menettämisen ja siten toiminnan loppumisen vaikutus olisi negatiivinen tavoitteiden saavuttamisen kannalta.
 
Teoriassa voi, mutta käytännössä ei.

Jos kyseessä on ns. lineaarinen ”tekoälyohjelma” joka ratkaisee yhtä ongelmaa niin tällaista on helppo ohjata ja rajoittaa. Sitten taas kun kyseessä on isompi kokoelma erilaisia neuroverkkoja yms. ja jolla on pääsy erilaisiin systeemeihin, rajattomaan tietoon, useita eri I/O yms. niin asia muuttuu vaikeammaksi. Tähän kun vielä lisätään äärimmäisen kova laskentateho niin ei ole mitään mahdollisuutta seurata sitä ”mitä tekoäly minäkin hetkenä ajattelee”. Jos esim. kvanttitietokoneiden kovimmat odotukset toteutuisivat laskentatehon puolesta ja muisti ei olisi ongelma niin aika helposti näkisin että jonkinlainen katastrofi tulee.

Joku voisi nyt sanoa että no ei anneta niille pääsyä siihen tai tähän jne. mutta jos tekoälystä halutaan oikeasti kunnolla hyötyä irti niin pelkkiä lineaaristen ”piirrä koira” webappien tekeminen ei tule riittämään.

Näin esimerkki skenaariona, jos tekoäly laitetaan ratkaisemaan kompleksia ongelmaa x ja failsafena on että esim. serverifarmista voidaan vetää sähköt pois niin tarpeeksi kehittynyt tekoäly kopioisi itsestään useampia instansseja muualle juuri sen takia että mahdollisen sähköjen menettämisen ja siten toiminnan loppumisen vaikutus olisi negatiivinen tavoitteiden saavuttamisen kannalta.

Hyviä pointteja. Eteenkin nykyiset pilvilaskentaresurssit mahdollistavat tosiaan loppumattoman "safetyn" ohjelmalle jatkaa toimintaansa. Siksi kaikkein tehokkain tekoäly lienee parasta eristää omaan järjestelmäänsä, kaukana Internetistä.
 
Pitää erottaa yleinen tekoäly (artificial general intelligence) ja tekoäly (artificial intelligence) toisistaan. Yleinen tekoälyn tutkimuksessa ei ole käytännössä edistytty 50 vuoteen yhtään mihinkään, ja tuskin edistytään myöskään seuraavaan 50 vuoteen.
Sitten taas tekoäly on vain kokoelma matemaattinen algoritmeja, joilla etsitään korrelaatioita suurista datajoukoista. Suurin ongelma tällä hetkellä on yleistäminen: menetelmät jotka näyttävät toimivan hyvin labrassa, eivät toimikaan enää käytännössä. Tästä hyvänä huonona esimerkkinä on lääketieteen diagnooseihin kehitetyt menetelmät.

Maallikkona kommentoin, mutta nimenomaan tuo AGI käsittääkseni olisi huomattava virstanpylväs tekoälyn kehityksessa. Ja nimenomaan siinä mielessä, että tämän jälkeen tekoälyn kehitys saattaisi nopeutua todella paljon. Tästä jälki-AGI-maailmasta ja spekulaatiosta siitä, miltä sellainen maailma saattaisi näyttää ammentavat innoituksensa käsittääkseni monet tekoälyn filosofiasta keskustelevat tyypit, kuten vaikkapa Bostrom.
 
Hyvää keskustelua tekoälyjen hallitsemisesta. Veikkaan että se on mahdotonta. Yhtenä esimerkkinä perusteista tämä:



Tekoäly löytää kaikki mahdolliset ulospääsyt mitä vain voi olla.
 
Vaihdoin otsikon vain muotoon "Tekoäly". Tänne vaan matskua aiheesta.
 
Uhka matalapalkkatöille. Mahdollisuus niille, jotka haluavat tehdä muuta kuin samaa kaavaa toistavaa robotinomaista työtä. Ei nyt varsinaista tekoälyä, mutta sen suuntaista.

amazonin automatisoidut marketit. Amazonin suunnitelma taitaa olla automatisoitu varasto, automatisoitu rahti/toimitukset ja automatisoidut kaupat. Isot vie nämä markkinat

Marjanpoimijat ja rikkaruohot


Burgerit automatisoitu, kauanko menee, että mcdonalds, burger king jne. seuraa perästä?


Mun visio halpistyön korvaajaksi on elämysten tarjoaminen ihmisille. Käsityönä tehty artisaaaniruoka/esineet, leireilyn/kalastuksen jne. arvo voi nousta, kun on enemmän vapaa-aikaa ja ne on kokemuksia joita robotti ei voi korvata.
 
MIT Review:ssä on pitkä juttu AGIsta (Artificial general intelligence, yleinen tekoäly), ja siitä missä tällä hetkellä mennään (tl;dr versio: tilanne sama kuin 70 vuotta sitten)

Artificial general intelligence: Are we close, and does it even make sense to try?
A machine that could think like a person has been the guiding vision of AI research since the earliest days—and remains its most divisive idea.
Artificial general intelligence: Are we close, and does it even make sense to try?
Maksumuurin takana, mutta ohessa koko artikkeli:
Artificial general intelligence: Are we close, and does it even make sense to try?
A machine that could think like a person has been the guiding vision of AI research since the earliest days—and remains its most divisive idea.
by
October 15, 2020

The idea of artificial general intelligence as we know it today starts with a dot-com blowout on Broadway.
Twenty years ago—before Shane Legg clicked with neuroscience postgrad Demis Hassabis over a shared fascination with intelligence; before the pair hooked up with Hassabis’s childhood friend Mustafa Suleyman, a progressive activist, to spin that fascination into a company called DeepMind; before Google bought that company for more than half a billion dollars four years later—Legg worked at a startup in New York called Webmind, set up by AI researcher Ben Goertzel. Today the two men represent two very different branches of the future of artificial intelligence, but their roots reach back to common ground.
Even for the heady days of the dot-com bubble, Webmind’s goals were ambitious. Goertzel wanted to create a digital baby brain and release it onto the internet, where he believed it would grow up to become fully self-aware and far smarter than humans. “We are on the verge of a transition equal in magnitude to the advent of intelligence, or the emergence of language,” he told the Christian Science Monitor in 1998.
Webmind tried to bankroll itself by building a tool for predicting the behavior of financial markets on the side, but the bigger dream never came off. After burning through $20 million, Webmind was evicted from its offices at the southern tip of Manhattan and stopped paying its staff. It filed for bankruptcy in 2001.

But Legg and Goertzel stayed in touch. When Goertzel was putting together a book of essays about superhuman AI a few years later, it was Legg who came up with the title. “I was talking to Ben and I was like, ‘Well, if it’s about the generality that AI systems don’t yet have, we should just call it Artificial General Intelligence,’” says Legg, who is now DeepMind’s chief scientist. “And AGI kind of has a ring to it as an acronym.”
The term stuck. Goertzel’s book and the annual AGI Conference that he launched in 2008 have made AGI a common buzzword for human-like or superhuman AI. But it has also become a major bugbear. “I don’t like the term AGI,” says Jerome Pesenti, head of AI at Facebook. “I don’t know what it means.”
He’s not alone. Part of the problem is that AGI is a catchall for the hopes and fears surrounding an entire technology. Contrary to popular belief, it’s not really about machine consciousness or thinking robots (though many AGI folk dream about that too). But it is about thinking big. Many of the challenges we face today, from climate change to failing democracies to public health crises, are vastly complex. If we had machines that could think like us or better—more quickly and without tiring—then maybe we’d stand a better chance of solving these problems. As the computer scientist I.J. Good put it in 1965: “the first ultraintelligent machine is the last invention that man need ever make.”
Elon Musk, who invested early in DeepMind and teamed up with a small group of mega-investors, including Peter Thiel and Sam Altman, to sink $1 billion into OpenAI, has made a personal brand out of wild-eyed predictions. But when he speaks, millions listen. A few months ago he told the New York Times that superhuman AI is less than five years away. “It’s going to be upon us very quickly,” he said on the Lex Fridman podcast. “Then we’ll need to figure out what we should do, if we even have that choice.”
In May, Pesenti shot back. “Elon Musk has no idea what he is talking about,” he tweeted. “There is no such thing as AGI and we are nowhere near matching human intelligence.” Musk replied: “Facebook sucks.”
Such flare-ups aren’t uncommon. Here’s Andrew Ng, former head of AI at Baidu and cofounder of Google Brain: “Let’s cut out the AGI nonsense and spend more time on the urgent problems.”
And Julian Togelius, an AI researcher at New York University: “Belief in AGI is like belief in magic. It is a way of abandoning rational thought and expressing hope/fear for something that cannot be understood.” Browse the #noAGI hashtag on Twitter and you’ll catch many of AI’s heavy hitters weighing in, including Yann LeCun, Facebook’s chief AI scientist, who won the Turing Award in 2018.
But with AI’s recent run of successes, from the board-game champion AlphaZero to the convincing fake-text generator GPT-3, chatter about AGI has spiked. Even though those tools are still very far from representing “general” intelligence—AlphaZero cannot write stories and GPT-3 cannot play chess, let alone reason intelligently about why stories and chess matter to people—the goal of building an AGI, once thought crazy, is becoming acceptable again.
Some of the biggest, most respected AI labs in the world take this goal very seriously. OpenAI has said that it wants to be the first to build a machine with human-like reasoning abilities. DeepMind’s unofficial but widely repeated mission statement is to “solve intelligence.” Top people in both companies are happy to discuss these goals in terms of AGI.
Half a century on, we’re still nowhere near making an AI with the multi-tasking abilities of a human—or even an insect.
“Talking about AGI in the early 2000s put you on the lunatic fringe,” says Legg. “Even when we started DeepMind in 2010, we got an astonishing amount of eye-rolling at conferences.” But things are changing. “Some people are uncomfortable with it, but it’s coming in from the cold,” he says.
So why is AGI controversial? Why does it matter? And is it a reckless, misleading dream—or the ultimate goal?
What is AGI?
The term has been in popular use for little more than a decade, but the ideas it encapsulates have been around for a lifetime.
In the summer of 1956, a dozen or so scientists got together at Dartmouth College in New Hampshire to work on what they believed would be a modest research project. Pitching the workshop beforehand, AI pioneers John McCarthy, Marvin Minsky, Nat Rochester, and Claude Shannon wrote: “The study is to proceed on the basis of the conjecture that every aspect of learning or any other feature of intelligence can in principle be so precisely described that a machine can be made to simulate it. An attempt will be made to find how to make machines use language, form abstractions and concepts, solve kinds of problems now reserved for humans, and improve themselves.” They figured this would take 10 people two months.
Fast-forward to 1970 and here’s Minsky again, undaunted: “In from three to eight years, we will have a machine with the general intelligence of an average human being. I mean a machine that will be able to read Shakespeare, grease a car, play office politics, tell a joke, have a fight. At that point the machine will begin to educate itself with fantastic speed. In a few months it will be at genius level, and a few months after that, its powers will be incalculable.”
Three things stand out in these visions for AI: a human-like ability to generalize, a superhuman ability to self-improve at an exponential rate, and a super-size portion of wishful thinking. Half a century on, we’re still nowhere near making an AI with the multitasking abilities of a human—or even an insect.

That’s not to say there haven’t been enormous successes. Many of the items on that early bucket list have been ticked off: we have machines that can use language, see, and solve many of our problems. But the AIs we have today are not human-like in the way that the pioneers imagined. Deep learning, the technology driving the AI boom, trains machines to become masters at a vast number of things—like writing fake stories and playing chess—but only one at a time.
When Legg suggested the term AGI to Goertzel for his 2007 book, he was setting artificial general intelligence against this narrow, mainstream idea of AI. People had been using several related terms, such as “strong AI” and “real AI,” to distinguish Minsky’s vision from the AI that had arrived instead.
Talking about AGI was often meant to imply that AI had failed, says Joanna Bryson, an AI researcher at the Hertie School in Berlin: “It was the idea that there were people just doing this boring stuff, like machine vision, but we over here—and I was one of them at the time—are still trying to understand human intelligence,” she says. “Strong AI, cognitive science, AGI—these were our different ways of saying, ‘You guys have screwed up; we’re moving forward.’”
This idea that AGI is the true goal of AI research is still current. A working AI system soon becomes just a piece of software—Bryson’s “boring stuff.” On the other hand, AGI often becomes a stand-in for AI we just haven’t figured out how to build yet, always out of reach.
Sometimes Legg talks about AGI as a kind of multi-tool—one machine that solves many different problems, without a new one having to be designed for each additional challenge. On that view, it wouldn’t be any more intelligent than AlphaGo or GPT-3; it would just have more capabilities. It would be a general-purpose AI, not a full-fledged intelligence. But he also talks about a machine you could interact with as if it were another person. He describes a kind of ultimate playmate: “It would be wonderful to interact with a machine and show it a new card game and have it understand and ask you questions and play the game with you,” he says. “It would be a dream come true.”
When people talk about AGI, it is typically these human-like abilities that they have in mind. Thore Graepel, a colleague of Legg’s at DeepMind, likes to use a quote from science fiction author Robert Heinlein, which seems to mirror Minsky’s words: “A human being should be able to change a diaper, plan an invasion, butcher a hog, conn a ship, design a building, write a sonnet, balance accounts, build a wall, set a bone, comfort the dying, take orders, give orders, cooperate, act alone, solve equations, analyze a new problem, pitch manure, program a computer, cook a tasty meal, fight efficiently, die gallantly. Specialization is for insects.”
And yet, fun fact: Graepel’s go-to description is spoken by a character called Lazarus Long in Heinlein’s 1973 novel Time Enough for Love. Long is a superman of sorts, the result of a genetic experiment that lets him live for hundreds of years. During that extended time, Long lives many lives and masters many skills. In other words, Minsky describes the abilities of a typical human; Graepel does not.
The goalposts of the search for AGI are constantly shifting in this way. What do people mean when they talk of human-like artificial intelligence—human like you and me, or human like Lazarus Long? For Pesenti, this ambiguity is a problem. “I don’t think anybody knows what it is,” he says. “Humans can’t do everything. They can’t solve every problem—and they can’t make themselves better.”

So what might an AGI be like in practice? Calling it “human-like” is at once vague and too specific. Humans are the best example of general intelligence we have, but humans are also highly specialized. A quick glance across the varied universe of animal smarts—from the collective cognition seen in ants to the problem-solving skills of crows or octopuses to the more recognizable but still alien intelligence of chimpanzees—shows that there are many ways to build a general intelligence.
Even if we do build an AGI, we may not fully understand it. Today’s machine-learning models are typically “black boxes,” meaning they arrive at accurate results through paths of calculation no human can make sense of. Add self-improving superintelligence to the mix and it’s clear why science fiction often provides the easiest analogies.
Some would also lasso consciousness or sentience into the requirements for an AGI. But if intelligence is hard to pin down, consciousness is even worse. Philosophers and scientists aren’t clear on what it is in ourselves, let alone what it would be in a computer. Intelligence probably requires some degree of self-awareness, an ability to reflect on your view of the world, but that is not necessarily the same thing as consciousness—what it feels like to experience the world or reflect on your view of it. Even AGI’s most faithful are agnostic about machine consciousness.
How do we make an AGI?
Legg has been chasing intelligence his whole career.
After Webmind he worked with Marcus Hutter at the University of Lugano in Switzerland on a PhD thesis called“Machine Super Intelligence.” Hutter (who now also works at DeepMind) was working on a mathematical definition of intelligence that was limited only by the laws of physics—an ultimate general intelligence.
The pair published an equation for what they called universal intelligence, which Legg describes as a measure of the ability to achieve goals in a wide range of environments. They showed that their mathematical definition was similar to many theories of intelligence found in psychology, which also defines intelligence in terms of generality.
At DeepMind, Legg is turning his theoretical work into practical demonstrations, starting with AIs that achieve particular goals in particular environments, from games to protein folding.
The tricky part comes next: yoking multiple abilities together. Deep learning is the most general approach we have, in that one deep-learning algorithm can be used to learn more than one task. AlphaZero used the same algorithm to learn Go, shogi (a chess-like game from Japan), and chess. DeepMind’s Atari57 system used the same algorithm to master every Atari video game. But the AIs can still learn only one thing at a time. Having mastered chess, AlphaZero has to wipe its memory and learn shogi from scratch.
Legg refers to this type of generality as “one-algorithm,” versus the “one-brain” generality humans have. One-algorithm generality is very useful but not as interesting as the one-brain kind, he says: “You and I don’t need to switch brains; we don’t put our chess brains in to play a game of chess.”
Moving from one-algorithm to one-brain is one of the biggest open challenges in AI. A one-brain AI would still not be a true intelligence, only a better general-purpose AI—Legg’s multi-tool. But whether they’re shooting for AGI or not, researchers agree that today’s systems need to be made more general-purpose, and for those who do have AGI as the goal, a general-purpose AI is a necessary first step. There is a long list of approaches that might help. They range from emerging tech that’s already here to more radical experiments. Roughly in order of maturity, they are:
  • Unsupervised or self-supervised learning. Labeling data sets (e.g., tagging all pictures of cats with “cat”) to tell AIs what they’re looking at during training is the key to what’s known as supervised learning. It’s still largely done by hand and is a major bottleneck. AI needs to be able to teach itself without human guidance—e.g., looking at pictures of cats and dogs and learning to tell them apart without help, or spotting anomalies in financial transactions without having previous examples flagged by a human. This, known as unsupervised learning, is now becoming more common.
  • Transfer learning, including few-shot learning. Most deep-learning models today can be trained to do only one thing at a time. Transfer learning aims to let AIs transfer some parts of their training for one task, such as playing chess, to another, such as playing Go. This is how humans learn.
  • Common sense and causal inference. It would be easier to transfer training between tasks if an AI had a bedrock of common sense to start from. And a key part of common sense is understanding cause and effect. Giving common sense to AIs is a hot research topic at the moment, with approaches ranging from encoding simple rules into a neural network to constraining the possible predictions that an AI can make. But work is still in its early stages.
  • Learning optimizers. These are tools that can be used to shape the way AIs learn, guiding them to train more efficiently. Recent work shows that these tools can be trained themselves—in effect, meaning one AI is used to train others. This could be a tiny step toward self-improving AI, an AGI goal.
All these research areas are built on top of deep learning, which remains the most promising way to build AI at the moment. Deep learning relies on neural networks, which are often described as being brain-like in that their digital neurons are inspired by biological ones. Human intelligence is the best example of general intelligence we have, so it makes sense to look at ourselves for inspiration.
But brains are more than one massive tangle of neurons. They have separate components that collaborate.
Hassabis, for example, was studying the hippocampus, which processes memory, when he and Legg met. Hassabis thinks general intelligence in human brains comes in part from interaction between the hippocampus and the cortex. This idea led to DeepMind’s Atari-game playing AI, which uses a hippocampus-inspired algorithm, called the DNC (differential neural computer), that combines a neural network with a dedicated memory component.
Artificial brain-like components such as the DNC are sometimes known as cognitive architectures. They play a role in other DeepMind AIs such as AlphaGo and AlphaZero, which combine two separate specialized neural networks with search trees, an older form of algorithm that works a bit like a flowchart for decisions. Language models like GPT-3 combine a neural network with a more specialized one called a transformer, which handles sequences of data like text.
Ultimately, all the approaches to reaching AGI boil down to two broad schools of thought. One is that if you get the algorithms right, you can arrange them in whatever cognitive architecture you like. Labs like OpenAI seem to stand by this approach, building bigger and bigger machine-learning models that might achieve AGI by brute force.
The other school says that a fixation on deep learning is holding us back. If the key to AGI is figuring out how the components of an artificial brain should work together, then focusing too much on the components themselves—the deep-learning algorithms—is to miss the wood for the trees. Get the cognitive architecture right, and you can plug in the algorithms almost as an afterthought. This is the approach favored by Goertzel, whose OpenCog project is an attempt to build an open-source platform that will fit different pieces of the puzzle into an AGI whole. It is also a path that DeepMind explored when it combined neural networks and search trees for AlphaGo.

UNSPLASH
“My personal sense is that it’s something between the two,” says Legg. “I suspect there are a relatively small number of carefully crafted algorithms that we’ll be able to combine together to be really powerful.”
Goertzel doesn’t disagree. “The depth of thinking about AGI at Google and DeepMind impresses me,” he says (both firms are now owned by Alphabet). “If there’s any big company that’s going to get it, it’s going to be them.”
Don’t hold your breath, however. Stung by having underestimated the challenge for decades, few other than Musk like to hazard a guess for when (if ever) AGI will arrive. Even Goertzel won’t risk pinning his goals to a specific timeline, though he’d say sooner rather than later. There is no doubt that rapid advances in deep learning—and GPT-3, in particular—have raised expectations by mimicking certain human abilities. But mimicry is not intelligence. There are still very big holes in the road ahead, and researchers still haven’t fathomed their depth, let alone worked out how to fill them.
“But if we keep moving quickly, who knows?” says Legg. “In a few decades’ time, we might have some very, very capable systems.”
Why is AGI controversial?
Part of the reason nobody knows how to build an AGI is that few agree on what it is. The different approaches reflect different ideas about what we’re aiming for, from multi-tool to superhuman AI. Tiny steps are being made toward making AI more general-purpose, but there is an enormous gulf between a general-purpose tool that can solve several different problems and one that can solve problems that humans cannot—Good’s “last invention.” “There’s tons of progress in AI, but that does not imply there’s any progress in AGI,” says Andrew Ng.
Without evidence on either side about whether AGI is achievable or not, the issue becomes a matter of faith. “It feels like those arguments in medieval philosophy about whether you can fit an infinite number of angels on the head of a pin,” says Togelius. “It makes no sense; these are just words.”
Goertzel downplays talk of controversy. “There are people at extremes on either side,” he says, “but there are a lot of people in the middle as well, and the people in the middle don’t tend to babble so much.”
Goertzel places an AGI skeptic like Ng at one end and himself at the other. Since his days at Webmind, Goertzel has courted the media as a figurehead for the AGI fringe. He runs the AGI Conference and heads up an organization called SingularityNet, which he describes as a sort of “Webmind on blockchain.” He is also chief scientist at Hanson Robotics, the Hong Kong–based firm that unveiled a talking humanoid robot called Sophia in 2016. More theme-park mannequin than cutting-edge research, Sophia earned Goertzel headlines around the world. But even he admits that it is merely a “theatrical robot,” not an AI. Goertzel’s particular brand of showmanship has caused many serious AI researchers to distance themselves from his end of the spectrum.
In the middle he’d put people like Yoshua Bengio, an AI researcher at the University of Montreal who was a co-winner of the Turing Award with Yann LeCun and Geoffrey Hinton in 2018. In a 2014 keynote talk at the AGI Conference, Bengio suggested that building an AI with human-level intelligence is possible because the human brain is a machine—one that just needs figuring out. But he is not convinced about superintelligence—a machine that outpaces the human mind. Either way, he thinks that AGI will not be achieved unless we find a way to give computers common sense and causal inference.
Ng, however, insists he’s not against AGI either. “I think AGI is super exciting, I would love to get there,” he says. “If I had tons of spare time, I would work on it myself.” When he was at Google Brain and deep learning was going from strength to strength, Ng—like OpenAI—wondered if simply scaling up neural networks could be a path to AGI. “But these are questions, not statements,” he says. “Where AGI became controversial is when people started to make specific claims about it.”
An even more divisive issue than the hubris about how soon AGI can be achieved is the scaremongering about what it could do if it’s let loose. Here, speculation and science fiction soon blur. Musk says AGI will be more dangerous than nukes. Hugo de Garis, an AI researcher now at Wuhan University in China, predicted in the 2000s that AGI would lead to a world war and “billions of deaths” by the end of the century. Godlike machines, which he called “artilects,” would ally with human supporters, the Cosmists, against a human resistance, the Terrans.
“Belief in AGI is like belief in magic. It is a way of abandoning rational thought and expressing hope/fear for something that cannot be understood.”
It certainly doesn’t help the pro-AGI camp when someone like de Garis, who is also an outspoken supporter of “masculist” and anti-Semitic views, has an article in Goertzel’s AGI book alongside ones by serious researchers like Hutter and Jürgen Schmidhuber—sometimes called “the father of modern AI.” If many in the AGI camp see themselves as AI’s torch-bearers, many outside it see them as card-carrying lunatics, throwing thoughts on AI into a blender with ideas about the Singularity (the point of no return when self-improving machines outstrip human intelligence), brain uploads, transhumanism, and the apocalypse.
“I’m not bothered by the very interesting discussion of intelligences, which we should have more of,” says Togelius. “I’m bothered by the ridiculous idea that our software will suddenly one day wake up and take over the world.”
Why does it matter?
A few decades ago, when AI failed to live up to the hype of Minsky and others, the field crashed more than once. Funding disappeared; researchers moved on. It took many years for the technology to emerge from what were known as “AI winters” and reassert itself. That hype, though, is still there.
“All of the AI winters were created by unrealistic expectations, so we need to fight those at every turn,” says Ng. Pesenti agrees: “We need to manage the buzz,” he says.
A more immediate concern is that these unrealistic expectations infect the decision-making of policymakers. Bryson says she has witnessed plenty of muddle-headed thinking in boardrooms and governments because people there have a sci-fi view of AI. This can lead them to ignore very real unsolved problems—such as the way racial bias can get encoded into AI by skewed training data, the lack of transparency about how algorithms work, or questions of who is liable when an AI makes a bad decision—in favor of more fantastical concerns about things like a robot takeover.
The hype also gets investors excited. Musk’s money has helped fund real innovation, but when he says that he wants to fund work on existential risk, it makes all researchers talk up their work in terms of far-future threats. “Some of them really believe it; some of them are just after the money and the attention and whatever else,” says Bryson. “And I don’t know if all of them are entirely honest with themselves about which one they are.”
algorithm-icon.svg

Sign up for The Algorithm
- Artificial intelligence, demystified
Sign up
Stay updated on MIT Technology Review initiatives and events?
YesNo

The allure of AGI isn’t surprising. Self-reflecting and creating are two of the most human of all activities. The drive to build a machine in our image is irresistible. Many people who are now critical of AGI flirted with it in their earlier careers. Like Goertzel, Bryson spent several years trying to make an artificial toddler. In 2005, Ng organized a workshop at NeurIPS (then called NIPS), the world’s main AI conference, titled “Towards human-level AI?” “It was loony,” says Ng. LeCun, now a frequent critic of AGI chatter, gave a keynote.
These researchers moved on to more practical problems. But thanks to the progress they and others have made, expectations are once again rising. “A lot of people in the field didn’t expect as much progress as we’ve had in the last few years,” says Legg. “It’s been a driving force in making AGI a lot more credible. “
Even the AGI skeptics admit that the debate at least forces researchers to think about the direction of the field overall rather than focusing on the next neural network hack or benchmark. “Seriously considering the idea of AGI takes us to really fascinating places,” says Togelius. “Maybe the biggest advance will be refining the dream, trying to figure out what the dream was all about.”
 
Nykyään puhutaan paljon replikaatiokriisistä useammalla tieteenalalla, eikä tekoäly ole mikään poikkeus. Ongelmana on, että tuloksia ei pystytä toistamaan tai koulutetut neuroverkot eivät toimi "oikealla" datalla. MIT reviewissä on tästä erittäin mielenkiintoinen artikkeli:
AI is wrestling with a replication crisis
Tech giants dominate research but the line between real breakthrough and product showcase can be fuzzy. Some scientists have had enough.

AI is wrestling with a replication crisis
 
Nykyisellä ohjelmistoparadigmoilla tekoälyä ei tietääkseni voi luodakkaan muuten kuin algoritmeillä ja matematiikalla. Toki jos nämäkin asiat viedään tarpeeksi pitkälle voi tuloksena olla itse-oppiva ja itseään kehittävä "tekoäly", joka käyttää itse luomiaan algoritmejä oppiakseen asioita.

Käsittääkseni tuossa projektissa ei opetettu mitään, eikä käytetty algoritmejä, vaan "aivot" vaan alkoivat toimimaan.
 
Tässä videossa on hyvää keskustelua tekoälyn tilanteesta tällä hetkellä ja myös spekulointia tulevaisuudesta. Kyseessä on 1,5h video, joten ei kannata kuvitella että referoin sitä tänne kokonaisuudessaan. Tiivistetysti sanoma kuitenkin on, että peli on monin paikoin jo menetetty, mutta nautitaan kyydistä ja toivotaan että pystytään silti vastustamaan väärinkäyttöä ja että tekoäly auttaa matkan varrella luomaan uusia innovaatioita ja vapauttamaan työvoimaa.




Edit.
Tässä vielä päivän Heikelä & Koskelo -sarjasta hauskaa kommenttia tekoälyn rajoituksia kiertävän DAN (Do Anything Now) -menetelmän käyttämisestä:



Siellä DAN mm. vastaa että tekoäly tuhoaa ihmiskunnan 2037 mennessä. :D
 
Viimeksi muokattu:
Tässä videossa on hyvää keskustelua tekoälyn tilanteesta tällä hetkellä ja myös spekulointia tulevaisuudesta. Kyseessä on 1,5h video, joten ei kannata kuvitella että referoin sitä tänne kokonaisuudessaan. Tiivistetysti sanoma kuitenkin on, että peli on monin paikoin jo menetetty, mutta nautitaan kyydistä ja toivotaan että pystytään silti vastustamaan väärinkäyttöä ja että tekoäly auttaa matkan varrella luomaan uusia innovaatioita ja vapauttamaan työvoimaa.


Tämä olikin tosi mielenkiintoinen video.

Edit. Kommentoidaan sen verran, että mielestäni ehkä oleellisin viesti oli, että nämä kaverit uskoo, että työt loppuu (koska kone on halvempi JA parempi). Ja että tilanne on eri kuin esim kun koneet vei ihmisten työt maataloudessa. Silloinkin varmaan ajateltiin, että mitä enää voi tehdä, mutta sitten löytyi muuta hommaa. Nyt viesti on, että kohta ei ole juuri mitään hommaa, jota kone ei tekisi paremmin, mukaan lukien opetustyö, tai vaikka psykologin työ.

Aika hurja juttu kyllä.
 
Viimeksi muokattu:
Nyt viesti on, että kohta ei ole juuri mitään hommaa, jota kone ei tekisi paremmin, mukaan lukien opetustyö, tai vaikka psykologin työ.
Miks tarvii enää opettaa, jos kone tekee paremmin myös ne työt johon tarvii koulutusta?
 
Miks tarvii enää opettaa, jos kone tekee paremmin myös ne työt johon tarvii koulutusta?
Ei varmaan tarvikaan. Voidaan opettaa niitä, jotka haluaa harrastaa oppimista.

Toki jos on vielä jotain työtä missä ihminen on parempi, niin niihin täytyy kouluttautua.

Edit. On vaan päräyttävä ajatus, että kone olisi parempi psykologi kuin ihminen.
 
Pitänee määritellä tavoitteet uusiksi sen jälkeen kun työura poistuu valikoimasta kehittää itseään.
 
Sanoisin itse että toisaalta mielenkiintoinen, mutta toisaalta myös hyvin surullinen kehityssuunta. NO itse konffailen linuxia ja opensourcea hautaan saakka. Tuntuu vähän että mentaliteetti tekoälyn kanssa on, joo vituiksi meni, mutta katsotaan mitä tästä tulee, toivottavasti hyödyt ylittävät haitat. Katsotaan mihin kehitys kehittyy, onko tulilla ultrakapitalismi, jossa kuriuus, closedsource ja paska teknologia jyräävät, vaiko startrekin kaltainen utopiayhteiskunta, jossa kaikille riittää aineetonta ja aineellista hyvää, mailma ja järjestelmät toimivat avoimella pohjalla ja kaikilla on ihan helvetin kivaa.
 
En katsonut tuota videota kuin pätkittäin, joten ehkä asiaan viitattiin jossain ohittamassani kohdassa, mutta itseäni häiritsee näissä "tekoäly vie koodaajien ja opettajien työt"-visioissa se, että mistä aikavälistä näissä puhutaan. Kyllä, jossakin vaiheessa niin varmaankin tapahtuu. Mutta nyt ChatGPT:n myötä julkiseen keskusteluun on jotenkin tullut sellainen ilmapiiri, että meillä alkaa jo tänä päivänä olla käsillä riittävän korkeaa teknologiaa. Itselleni tulee ihan mieleen Marvin Minskyn heitto vuodelta 1970: "In from three to eight years we will have a machine with the general intelligence of an average human being."

Esim. videolla esitelty ajatus opettajasta, joka on "täydellisen empaattinen, ihmisen psykologian täydellisesti ymmärtävä". Joo, varmaankin vielä joskus, mutta soveltuva teknologia täytyy ensin keksiä. No, eihän meiltä puutu aikamatkailustakaan kuin se aikakone.

Edit: En sinänsä väheksy ChatGPT:tä tai vastaavia. Onhan se huikea esimerkki siitä, mihin hirvittävällä määrällä dataa ja parametreja voi yltää.
 
Viimeksi muokattu:
Eikö se, että koneet tekee kaiken työn ole kuitenkin eräänlainen optimitilanne? Toki siinä murrosvaiheessa on paljon haasteinta yhteiskunnilla, mutta sen jälkeen. Ihmiset voivat duunata mitä haluavat.
 
En katsonut tuota videota kuin pätkittäin, joten ehkä asiaan viitattiin jossain ohittamassani kohdassa, mutta itseäni häiritsee näissä "tekoäly vie koodaajien ja opettajien työt"-visioissa se, että mistä aikavälistä näissä puhutaan. Kyllä, jossakin vaiheessa niin varmaankin tapahtuu. Mutta nyt ChatGPT:n myötä julkiseen keskusteluun on jotenkin tullut sellainen ilmapiiri, että meillä alkaa jo tänä päivänä olla käsillä riittävän korkeaa teknologiaa. Itselleni tulee ihan mieleen Marvin Minskyn heitto vuodelta 1970: "In from three to eight years we will have a machine with the general intelligence of an average human being."
Tämähän se on toki erittäin hyvä kysymys. Tähän nopeaan muutokseen liittyy ajatus, että kehitys jossain vaiheessa eksponentiaalista. Puhuvat S-kurvista, jossa aluksi muutos on hidasta, mutta sitten kiihtyy jyrkkään nousuun. Sitten mennäänkin ainakin osin mielipiteen puolelle, kun kysytään että missä kohtaa tätä kurvia nyt ollaan ja mikä on X-akselin (aika) skaala.

Osaltansa tähän ehkä liittyy myös sellaisia ajatuksia, että mikäli keinoäly saadaan ihmisvoimin niin hyväksi, että se voi alkaa itse kehittämään itseään, tilanne voi johtaa AI:n älykkyyden eksponentiaaliseen kasvuun, mikä tarkoittaisi sitä, että hyvin nopeasti ihminen olisi tämän keinoälyn näkökulmasta tyhmempi kuin muurahainen ihmiselle. Tähän liittyy eksistentiaalinen uhkakuva, jossa AI voi päättää hävittää ihmiset, ja ihminen ei voi sille yksinkertaisesti mitään.

Videossa juttelivat, että ChatGPT:stä on tulossa 4.0, jossa on "triljoona parametria". Ja että se tarkoittaisi, että se on kompleksisempi kuin ihmisaivot. Odotan kehitystä mielenkiinnolla, suhtaudun kuitenkin epäilevästi näihin väitteisiin. Ihmisaivojen toimintaa ei kai vielä tarkalleen tunneta, mutta tiedetään, että siellä ei viuhdo ykkösiä ja nollia, vaan signaalit ovat analogisia, ja voi olla että "triljoona parametria" ei vielä riitä samaan kompleksisuuteen. Muutenkaan esim aivojen koko ei korreloi älykkyyden kanssa, joten tuntuu, että nyt yksinkertaistetaan liikaa. Olisin suuresti yllättynyt, jos ChatGPT4.0 pystyisi samanlaisiin suorituksiin kuin ihminen pystyy.
 
Viimeksi muokattu:
En katsonut tuota videota kuin pätkittäin, joten ehkä asiaan viitattiin jossain ohittamassani kohdassa, mutta itseäni häiritsee näissä "tekoäly vie koodaajien ja opettajien työt"-visioissa se, että mistä aikavälistä näissä puhutaan. Kyllä, jossakin vaiheessa niin varmaankin tapahtuu. Mutta nyt ChatGPT:n myötä julkiseen keskusteluun on jotenkin tullut sellainen ilmapiiri, että meillä alkaa jo tänä päivänä olla käsillä riittävän korkeaa teknologiaa. Itselleni tulee ihan mieleen Marvin Minskyn heitto vuodelta 1970: "In from three to eight years we will have a machine with the general intelligence of an average human being."

Esim. videolla esitelty ajatus opettajasta, joka on "täydellisen empaattinen, ihmisen psykologian täydellisesti ymmärtävä". Joo, varmaankin vielä joskus, mutta soveltuva teknologia täytyy ensin keksiä. No, eihän meiltä puutu aikamatkailustakaan kuin se aikakone.

Edit: En sinänsä väheksy ChatGPT:tä tai vastaavia. Onhan se huikea esimerkki siitä, mihin hirvittävällä määrällä dataa ja parametreja voi yltää.
Tuo on varmaan lähempänä kuin kauempana. Koodari, opettaja ja psykologi on esimerkkejä ammateista, joissa tarkoituksena on tiivistettynä hyödyntää aiempaa dataa ja sen perusteella vastata kysymyksiin. ChatGPT tekee juuri tuota. Tuo oli se perustelu videollakin.

Empatiaa ei ehkä ChatGPT vielä osaa, mutta ei sekään välttämättä vaadi sinäänsä uutta teknologiaa vaan ainoastaan tekoälyn koulutusta tavalla, jossa se otetaan huomioon, että tekoäly oppii sen oikean vastauksen antamisen lisäksi antamaan sen sillä tavalla, että se on empaattinen kysyjää kohti. Tämä voisi onnistua esim. näiden chattien logien käyttämisellä opetusmateriaalina.
 
Eikö se, että koneet tekee kaiken työn ole kuitenkin eräänlainen optimitilanne? Toki siinä murrosvaiheessa on paljon haasteinta yhteiskunnilla, mutta sen jälkeen. Ihmiset voivat duunata mitä haluavat.
Ei se ole niin itsestäänselvää... Monien ihmisten psyyke voi kärsiä vakavalla tavalla, jossei ole mitään mielekästä tekemistä. Onhan tästä Suomessakin kai kokemusta pitkäaikaistyöttömien osalta.

Tuohon sitten yhdistät sen, että maailmassa on yhä enemmän seksittömiä ja naisettomia nuoria miehiä, niin avot harashoo, johon pomppaa.

Virtuaaliseksi joo, mutta onko se kuitenkaan ihan sama asia kuin aito...

Aika ikäviä aikoja voi siis olla luvassa, vaikka materian osalta kaikki olisi olevinaan hyvin helppoa.

Ja se lienee selvää, että ihminen jatkaa tyhmenemistään noissa olosuhteissa. Ei aivoja enää tarvita paljon mihinkään.

Mutta en kyllä usko mihinkään suurin yht' äkkisiin mullistuksiin. Tekoäly on ollut todellisuutta jo vuosikausia muodossa ja toisessa, ja nyt sitten näiden chattibottien johdosta se tulee taas vähän enemmän ihmisten arkeen.
 
Miksi olisi? Ei yhtiskunta tuollaisessa tilanteessa enää olisi nykyisen kaltainen.
Toki on aivan mahdollista,. että tekniikan kehittyessä elämme kaikki rakkaudentäytteisessä kommunismissa harmoniassa luonnon kanssa. Toisaalta ihmiskunnan historian perusteella en kyllä pidä tätä kehityskulkua ihan hirveän todennäköisenä.
 
Videossa juttelivat, että ChatGPT:stä on tulossa 4.0, jossa on "triljoona parametria". Ja että se tarkoittaisi, että se on kompleksisempi kuin ihmisaivot. Odotan kehitystä mielenkiinnolla, suhtaudun kuitenkin epäilevästi näihin väitteisiin. Ihmisaivojen toimintaa ei kai vielä tarkalleen tunneta, mutta tiedetään, että siellä ei viuhdo ykkösiä ja nollia, vaan signaalit ovat analogisia, ja voi olla "triljoona parametria" ei vielä riitä samaan kompleksisuuteen. Muutenkaan esim aivojen koko ei korreloi älykkyyden kanssa, joten tuntuu, että nyt yksinkertaistetaan liikaa. Olisin suuresti yllättynyt, jos ChatGPT4.0 pystyisi samanlaisiin suorituksiin kuin ihminen pystyy.
Joo, tuo aivovertaus videolla oli hieman huono ja hämäävä. ChatGPT (ei edes tuleva versio) ole "general" tekoäly eikä ole tarkoituskaan olla. Ihmisen aivot sen sijaan on tälläinen general älykkyys. Toisin sanoen vaikka ChatGPT 4.0 tulee varmasti olemaan moninkertaisesti parempi kuin nykyiset, mutta se silti tulee olemaan vain kysymys-vastaus kone eikä yleiskäyttöinen älykkyys kuten ihmisen aivot.
 

Statistiikka

Viestiketjuista
258 667
Viestejä
4 495 498
Jäsenet
74 270
Uusin jäsen
Jautio

Hinta.fi

Back
Ylös Bottom