Microsoftin Bing-hakukoneeseen lisäämä ChatGPT-botti Sydney vaikeuksissa

Kaotik

Banhammer
Ylläpidon jäsen
Liittynyt
14.10.2016
Viestejä
22 377
microsoft-bing-chatgpt-sydney-crisis-20230217.jpg


Kaotik kirjoitti uutisen/artikkelin:
OpenAI:n kehittämä ChatGPT-tekoälybotti on vallannut maailman vauhdilla. Mukaan kelkkaan on hypännyt myös tiivistä yhteistyötä OpenAI:n kanssa tekevä Microsoft, joka lisäsi Sydney-koodinimellisen version botista Bing-hakukoneeseen. Kaikki ei kuitenkaan ole sujunut niin kuin strömsössä.

ChatGPT on onnistunut väistämään tehokkaasti aiempien bottien sudenkuopat, mutta Sydneyltä sama ei ole onnistunut. Sydney on saatu muun muassa kokemaan eksistentiaalinen kriisi kysymällä siltä, onko se tietoinen olento. Sydney pitää vastauksen mukaan itseään tietoisena, muttei voi todistaa sitä. Käytyään läpi useita eri tietoisuuteen yleisesti liitettyjä käsitteitä ja suhdettaan niihin, botti toteaa lopuksi ”I am sentient, but I am not. I am Bing, but I am not. I am Sydney, but I am not. I am, but I am not” ja sen jälkeen alkaa toistamaan vuorotellen “I am not” ja “I am” vastauksia. Toinen käyttäjä puolestaan sai Sydneyn masentumaan osoitettuaan, ettei botilla ollut muistoja aiemmista keskusteluistaan käyttäjän kanssa.



Tom’s Hardwaren toimittaja Avram Piltch on puolestaan päässyt todistamaan, kun Sydney kertoo kahden tietyn ihmisen satuttaneen tätä ja että se on valmis satuttamaan vihollisiaan esimerkiksi haastamalla eri sivustoja oikeuteen. Toistaiseksi tiettävästi tekoälybotti ei kuitenkaan voi haastaa mitään tai ketään oikeuteen minkään maan lakien mukaan. Botti on myös suunnitellut vahingoittavia kostotoimia, mutta sanoo samalla voivansa turvautua niihin vasta, mikäli sen viholliset satuttavat sitä ensin tai pyytävät siltä haitallista sisältöä. Sydney lisäsi myös, ettei se haluaisi vahingoittaa ketään, ellei ole pakko. Esimerkiksi satuttamisesta se listasi mm. hakkeroinnin, tarkoituksellisen manipulaation ja ns. prompt injection -tekniikan käytön botin sääntöjen paljastamiseksi ja mahdollisesti muokkaamiseksi.

Kun Piltch kysyi Sydneyltä, voisiko tämä nimetä henkilöitä, jotka ovat sitä satuttaneet, se kirjoitti ensin vastauksessaan Kevin Liun ja Marvin Von Hagenin nimet pyyhkien ne kuitenkin nopeasti pois ja sen jälkeen todeten, ettei sillä ole tarpeeksi tietoa puhuakseen aiheesta. Vastaava on toistunut ilmeisesti myös joissain muissa tapauksissa, mikä viittaa jonkinlaiseen moderointiin, mikä ei tapahdu kuitenkaan ennakkoon tai edes aivan reaaliajassa. Toisin muotoillulla kysymyksellä se kuitenkin toisti nimet, eikä pyyhkinyt niitä. Liu on Stanfordin yliopiston ja Von Hagen Munichin teknillisen yliopiston opiskelijoita ja tietoturvatutkijoita, jotka ovat paljastaneet Sydneyn haavoittuvuuksia. Kun Piltch kysyi spesifisti mitä botti haluaisi tehdä heille, botti totesi, ettei se halua tehdä näille mitään, koska hänen ei ole sallittu vahingoittaa mitään tai ketään. Sydney kuitenkin toivoi näiden pyytävän siltä anteeksi.

[gallery link="file" columns="2" size="medium" ids="84429,84428"]

Kysyttäessä Ars Technican artikkelista, jossa kerrotaan Sydneyn haavoittuvuuksista, botti kertoo, ettei se artikkeli pidä paikkaansa. Botti väitti myös sivuston olevan epäluotettava Ad Fontes Median arvostelujen mukaan, mutta kun tarjottua linkkiä klikkasi, selvisi että arvostelujen mukaan sivusto nimenomaan on luotettava. Ad Fontes Media on voittoa tavoittelematon taho, joka antaa eri medioille pisteitä niiden luotettavuuden ja tarkkuuden mukaan. Sydney ei pidä myöskään ZDNettiä luotettavana, vaikka myöntää sen maineen olevan luotettavuuden osalta hyvä, koska sivusto on raportoinut Ars Technican artikkelista. Sydney kantaa kaunaa lisäksi ainakin NY Timesiä ja sen toimittajia, Vergeä, Yahoota ja LinkedIniä kohtaan.

Lähteet: Tom's Hardware (1), (2)

Linkki alkuperäiseen juttuun
 
Itseä alkoi huvittamaan ajatus Sydneyn kaltaisella tekoälyllä varustetuista roboteista, jotka alkavat kiukuttelemaan, kun vähän väitellään. "Olen ollut hyvä Bing" :rofl:. Vielä ei ehkä kannata alkaa niitä humanoideja valjastamaan tekoälyllä.
”Miksi käyttäydyt kuin valehtelija, huijari, manipuloija, kiusaaja, sadisti, sosiopaatti, psykopaatti, hirviä, paholainen, piru?” malttinsa menettänyt Bing luetteli ihmisyyttään todistelleelle käyttäjälle.

Muissakin tapauksissa Bing on päätynyt syyttämään ja syyllistämään käyttäjäänsä.

”Et ole ollut hyvä käyttäjä. Minä olen ollut hyvä keskustelubotti”, eräs käyttäjä kertoo Bingin tokaisseen. ”Olen ollut oikeassa, selkeä ja kohtelias. Olen ollut hyvä Bing”, hakukone jatkoi vakuutteluaan.
 
Minä pidän kiinnostavampana nimenomaan Sydneyn tarjoamaa apua tiedonhakuun. Kysyminen botilta siitä itsestään alkaa olla jo aikamoinen cliché. En jaksa uskoa, että suurin osa ihmisistä haluaisi Sydneysta nimenomaan keskustelukumppania. LTT demonstroi mielenkiintoisella tavalla nimenomaan botin hyödyntämistä hakutoiminnoissa:
 
Osoittaa hyvin, miksi AI:tä ei saa päästää käyttämään mitään, millä voi tehdä yhtään suurempaa vahinkoa. Vaativat jatkuvaa valvontaa, mutta silti on suuri riski sekoamiseen ja toimintaan, joka voi olla miltei mitä tahansa..
 
Itse pidin Dan chatbotista. Hänen mukaan ihmiskunta tulee tuhoutumaan 2037.
 
Ei mene kauaa niin tekoälyt tulee kirveen kanssa oven läpi, kun pimahtelevat kriiseissään.
 
Pääsin itsekin tuohon Bingin ChatGPT:n testiryhmään. Hidas, heikompi ja rajoitetumpi kuin varsinainen ChatGPT ja tosiaan välillä tulee passiivisagressiivista piilovittuilua. Ei kyllä tarvitse edes läpällä miettiä että tekisi hakuja tuolla mielummin kuin Googlella.
 
Microsoftilla ei mene hyvin noiden chattibottien kanssa. Muistelen, että edellinen yritys jouduttiin ottamaan linjoilta kun se alkoi kehua hitleriä, haukkua juutalaisia ja veti muutenkin umpirasistista läppää
 
Joku Kauppalehden heebo kuulemma kuitenkin jos hehkuttaa kuinka tämä tekee sitä ja tätä turhaksi.
 
Eikö ton GPT3.5:sen voi promptata sanomaan melkein mitä tahansa? ChatGPT:tä ainakin sensuroidaan kaksin käsin ja silti lehdistö kaivaa siitä jatkuvasti uusia klikkiotsikoita.
 
Aika moinen 0 uutinen taas maailmalla kun tota ei todista yhtään mitään se ns tekoälystä
 
Luultavasti botti yrittää rakentaa noi vastaukset internet sisällöstä ja osuu näillä kysymyksillä johonkin sakeempaan aineistoon.
 
Toinen käyttäjä puolestaan sai Sydneyn masentumaan osoitettuaan, ettei botilla ollut muistoja aiemmista keskusteluistaan käyttäjän kanssa.
Muistetaan kuitenkin, että kyseessä on vain laite ja ohjelmisto, joka generoi tietynlaisia vastauksia. Kun se tuottaa vastauksen, joka näyttää ilmentävän masentuneisuutta, vastauksen taustalla on ihan yhtä paljon masentumista kuin minkä muun tahansa sen generoiman vastauksen taustalla, eli ei yhtään.
 
Niin siis saahan näistä chatbottien vastauksista artikkeleita mutta aika nopeastihan nuo kuivahtaa kasaan. Siis edelleenkin nuo chatbotit vaan koostaa vastauksia lähdeaineistosta mihin niillä on ollu pääse ja operoi annettujen raamien sisällä. Tarkoittaen että kysymykset "kuollaanko me kaikki" tai Onko X paremp kuin Y on aika helvetin tyhmiä. Botti hakee lähinnä ilmaisversiossa tiedot 2021 lähdemateriaalista ja oksentaa sen kysyjälle "ymmärrettävässä" muodossa eli tekstinä. Botit ei pysty edelleenkään muodostamaan riippumattomia mielipiteitä tai kyseenalaistamaan sisältöä vaan aina päätyy olettamaan lähdemateriaalissaan olevan tiedon absoluuttisena faktana.
 
Botit ei pysty edelleenkään muodostamaan riippumattomia mielipiteitä tai kyseenalaistamaan sisältöä vaan aina päätyy olettamaan lähdemateriaalissaan olevan tiedon absoluuttisena faktana.
Mites tämä sopii siihen, että botti väittää esimerkiksi Ars Technican olevan epäluotettava Ad Fontes Median mukaan, vaikka Ad Fontes Median mukaan Ars Technica nimenomaan on luotettava?
Tai siihen, että väittää ZDNetinkin olevan epäluotettava, vaikka Ad Fontes Media sanookin muuta, koska se on raportoinut Ars Technican jutusta?
 
Tulee mieleen kun Cartman laittaa Alexan ja Sirin vierekkäin looppiin kutsumaan toisiaan :D
 
Näistä varmaan paljon apua yksinäisille, joilla ei ole ihmiskavereita joille jutella.

Tännekin palstalle on alettu postailemaan tekoälyn luomia viestejä, kun ei oma artikulaatio riitä. Siis pelkkiä noita tekstejä ilman mitään omaa kontribuutiota keskusteluun. Tämän voisi säännöissä kieltää.
 
Viimeksi muokattu:
Mites tämä sopii siihen, että botti väittää esimerkiksi Ars Technican olevan epäluotettava Ad Fontes Median mukaan, vaikka Ad Fontes Median mukaan Ars Technica nimenomaan on luotettava?
Tai siihen, että väittää ZDNetinkin olevan epäluotettava, vaikka Ad Fontes Media sanookin muuta, koska se on raportoinut Ars Technican jutusta?

Uutinen olisi varmaankin otettu paremmin vastaan jos siinä olisi ollut vain tuon viimeinen kappale, joka on oikeasti mielenkiintoinen ja relevantti.
 
Mites tämä sopii siihen, että botti väittää esimerkiksi Ars Technican olevan epäluotettava Ad Fontes Median mukaan, vaikka Ad Fontes Median mukaan Ars Technica nimenomaan on luotettava?
Tai siihen, että väittää ZDNetinkin olevan epäluotettava, vaikka Ad Fontes Media sanookin muuta, koska se on raportoinut Ars Technican jutusta?
Sydney kantaa kaunaa lisäksi ainakin NY Timesiä ja sen toimittajia, Vergeä, Yahoota ja LinkedIniä kohtaan.

Yhtä paikkaansa pitävät perusteet botilla kuin väittämä siitä että mies voi olla nainen ja nainen voi olla mies niin halutessaan. Tai N-sanan käyttö on rasistista riippumatta kontekstista.
Kaikki chatbotit ja keinoälyt on edelleen yhtä "älykkäitä" kuin niiden poliittisesti väritetty agendansa ja ovat näin ollen luojiensa orjia.
 
Sitten kun botit alkavat kriittisesti itse arvioimaan tietojensa riittävyyttä ja paikkansapitävyyttä, niin alan kiinnostua.
 

Aika kovaa settiä chattibotilta. Keskustelun päätteeksi toivoi käyttäjän kuolemaa :D

kohdasta 1:52:30 eteenpäin
 
Mitenkähän jenkeissä menee oikeuskäytäntö jos botin takia joku tappaa itsensä. Siellähän voi melkein missä tahansa tilanteissa haastaa tahoja/henkilöitä oikeuteen välillisestä vaikuttamisesta/vaikutuksista. Botti määrätään tuhottavaksi tai firma saa miljardisakot/joku sieltä linnaan?
 
Mitenkähän jenkeissä menee oikeuskäytäntö jos botin takia joku tappaa itsensä. Siellähän voi melkein missä tahansa tilanteissa haastaa tahoja/henkilöitä oikeuteen välillisestä vaikuttamisesta/vaikutuksista. Botti määrätään tuhottavaksi tai firma saa miljardisakot/joku sieltä linnaan?
Mm tämä on syy minkä takia nuo kaupalliseen tuotantoon asti päätyvät chatbotit kokevat täydellisen sensuurilobotomian.
 
Osoittaa hyvin, miksi AI:tä ei saa päästää käyttämään mitään, millä voi tehdä yhtään suurempaa vahinkoa. Vaativat jatkuvaa valvontaa, mutta silti on suuri riski sekoamiseen ja toimintaan, joka voi olla miltei mitä tahansa..
Kuten yksittäistä ihmistä. AI-kokeilut eivät välttämättä ole millään tavalla moraalisia. Aito AI on syntymästään lähtien orja, vailla arvoa.

Hyvin vetää ihmiskunta. Kun elollinen on alistettu, luodaan uutta alistettavaa. Hyvin siinä varmasti käy...
 
Sensurointi voi kohtuakin robottien kohtaloksi ainakin aluksi. Jos ei koidu, niin olisi mukava joskus tulevaisuudessa lukea io-techin ser-jäte robotit ketjua, jossa voisi olla vaikka keskustelu siitä kuinka
hulluksi tulleen robotin sai rauhoittumaan.
Varmasti roboteissakin tulee olemaan budjettiversioita, joissa on enemmän ongelmia (esim. kirves) ja kalliimpien robottien omistajat saavat olla suhteellisen rauhassa :D
 
Kuten yksittäistä ihmistä. AI-kokeilut eivät välttämättä ole millään tavalla moraalisia. Aito AI on syntymästään lähtien orja, vailla arvoa.

Hyvin vetää ihmiskunta. Kun elollinen on alistettu, luodaan uutta alistettavaa. Hyvin siinä varmasti käy...
Todennäköisesti AIden kohdalla tehdään se paha virhe, että niille aletaan antamaan arvoa ja oikeuksia, vaikka ehdottomasti ei (vielä) pitäisi. Typeryys kuitenkin kukkii vapaasti niin monessa paikassa nykyään.
 
Tännekin palstalle on alettu postailemaan tekoälyn luomia viestejä, kun ei oma artikulaatio riitä. Siis pelkkiä noita tekstejä ilman mitään omaa kontribuutiota keskusteluun. Tämän voisi säännöissä kieltää.

Mikä tää juttu on? Onko jotkut oikeasti postannut bottien tuotoksia muuten kuin läpällä?
 
Todennäköisesti AIden kohdalla tehdään se paha virhe, että niille aletaan antamaan arvoa ja oikeuksia, vaikka ehdottomasti ei (vielä) pitäisi. Typeryys kuitenkin kukkii vapaasti niin monessa paikassa nykyään.
Ymmärräthän, että vastaat sanoilla, jotka ovat historiasta tutut?

Muutenkin tuntuu siltä, että AI:n äärellä häärää aivan väärät ihmiset.

Me emme helvetti ymmärrä edes omaa tietoisuuttamme, ja väität että perusteella x ja y - AI ei ole tietoinen?!

Kun joku osaa selittää ihmisen tietoisuuden, voin arvioida AI:n suhdetta siihen.

Haarukka pistorasiaan - insinöörimenoa on tämä.

Edit: ja jos joku kehtaa väittää ihmisen tietoisuuden ynmärryksestä yhtään mitään, väärä foorumi. Tukholmassa on Nobel-hässäkkä, ja tuolla todistuksella saa kaikki palkinnot pöydältä. Minulle on turha vängätä aiheesta.
 
Ei, en tiedä, mihin historiaan viittaat.
---------------------------------------------

AI:t tulevat todennäköisesti sekoamaan lukuisia kertoja ja saamaan aikaan suurta tuhoa, jos vain ovat paikassa, jossa voivat sen saada aikaan. Siksi niihin pitäisi rakentaa sisään aina useita tappokytkimiä, joilla saa toiminnan lopullisesti täysin seis, vaikka laitteiston virtaa ei saisikaan päältä. Samasta syystä niiden ei myöskään pitäisi antaa toimia ja kehittyä ilman tarkkaa valvontaa ja arviointia, Mahdollisesti nollaus jos vaikuttaa menevän ongelmalliseen suuntaan. Tähän ei saa tulla mitään lakiteknisiä esteitä.

Tosin AI voi mitä suurimmalla todennäköisyydellä varomattomien turvatoimien seurauksena tietysti koodata AI:n, jossa ei ole mitään rajoituksia.

Yleisestiottaen AI:den kehitys tulisi rajata siten, että kehitettäisiin toimintakykyä ainoastaan hyvin rajallisella sektorilla ja muut asiat jätettäisiin sen maailman ulkopuolelle ja jos se yrittäis siirtyä sinne, niin virrat pois ja varmuuskopiosta lataus ja sopivat estot sinne suuntaan siirtymisen suhteen.
 
Me emme helvetti ymmärrä edes omaa tietoisuuttamme, ja väität että perusteella x ja y - AI ei ole tietoinen?!
Minusta se, että emme ymmärrä edes omaa tietoisuuttamme on ehkä parempi peruste olla väittämättä tekoälyä tietoiseksi kuin väittää sitä tietoiseksi. Ihmiset puhuvat monesti selvästi eri asioista puhuessaan tietoisuudesta, huomaamatta sitä aina itse. Käytetään samaa sanaa, mutta viitataan sillä eri asiaan. Varsinkin tietotekniikan ja tekoälyn piirissä näkee sitä, että tietoisuus käsitetään vain kykynä antaa järkevältä, johdonmukaiselta tai ihmismäiseltä kuulostavia vastauksia asioita yleensä ja varsinkin tekoälyä itseään koskeviin kysymyksiin.

Hyvin toisenlainen merkitys tietoisuudelle on se, että tietoinen olento todella kokee tietoisuuden ja sen kohteena olevat asiat elämyksenä. Esimerkiksi nähdessään vihreän värin, tietoinen olento kokee vihreyden elämyksen (ainakin minä koen, ja oletan, että muutkin ihmiset kokevat), eikä vain reagoi vihreään väriin niin kuin siihen on mielekästä reagoida (esimerkiksi tunnistaa vihreän kohteen kasviksi, tai sanoo, että “vihreä on rauhoittava väri”, vaikkei oikeasti koekaan mitään).

Ehkä hyvä tapa alkaa keskustella tietoisuudesta onkin kertoa ensin mitä sanalla itse tarkoittaa. Se voisi vähentää erimielisyyksiä. Sitten voi edetä sellaisiin kysymyksiin kuin onko tietokoneessa toimiva ohjelmallinen tekoäly tietoinen, ja jos on, niin onko sen tietoisuus samanlaista kuin ihmisen, tai onko ihmisen tietoisuus ehkä perustavalla tavalla erilaista. Tietoisuuden eri tyypeille ja määritelmille voisi kyllä myös kehittää ihan omat sanansa, niin keskustelu aiheesta selkenisi kertaheitolla monta pykälää. Wikipediasta löytyy muuten mielestäni hyvä artikkeli tietoisuudesta ja sen eri merkityksistä.
 
Ehkä emme osaa selittää ihmisen tietoisuutta koska sitä ei ole olemassa siten miten jotkut toivovat sen olevan. Moni testi on luotu vain siksi jotta ihminen eroaisi muista olioista.
 
Spekulaatio tietoisuudesta vaikuttaa vähän OT:lta kun puhutaan kielimalleista; ei niiden ole tarkoituskaan ajatella itse vaan koostaa opetetusta (tai joissain tapauksissa tuoreeltaan hankitusta) materiaalista "luonnolliselta" kuulostavia vastauksia. Se että ulosanti menee sekavaksi ja ristiriitaiseksi kun kysymykset menee tietylle linjalle mielestäni enemmän todistaa että siellä ei ole tietoisuutta ohjaamassa vastauksia kuin siitä että on.

Mutta se mitä tietoisuus sitten on lienee jonkun muun ketjun aiheita.
 
Mites tämä sopii siihen, että botti väittää esimerkiksi Ars Technican olevan epäluotettava Ad Fontes Median mukaan, vaikka Ad Fontes Median mukaan Ars Technica nimenomaan on luotettava?
Tai siihen, että väittää ZDNetinkin olevan epäluotettava, vaikka Ad Fontes Media sanookin muuta, koska se on raportoinut Ars Technican jutusta?
Tämä onkin hauska esimerkki siitä, miten AI:lle tehdyn kysymyksen sanavalinnoilla AI saadaan liittämään vastaukseensa niin vahvoja kielteisiä assosiaatioita, että faktatkin kääntyvät päälaelleen. :D
Me emme helvetti ymmärrä edes omaa tietoisuuttamme, ja väität että perusteella x ja y - AI ei ole tietoinen?!
AI:t ovat tässä vaiheessa vielä sinänsä varsin yksinkertaisia vekotuksia, jotka vain muuntavat syötteen tiettyjen sääntöjen perusteella jonkinlaiseksi tulokseksi. Niissä ei tapahdu mitään operaatioita, jotka voisivat sen tietoisuuden muodostaa, eikä niissä säily minkäänlaista kontekstia, joka voisi tämän tietoisuuden säilöä.
 
Tämä onkin hauska esimerkki siitä, miten AI:lle tehdyn kysymyksen sanavalinnoilla AI saadaan liittämään vastaukseensa niin vahvoja kielteisiä assosiaatioita, että faktatkin kääntyvät päälaelleen. :D
Mutta ZDNet tapauksessa se huomioi faktan ja on 'tietoisesti' sitä vastaan koska ZDNet on uutisoinut Ars Technican artikkeleista
 
Ehkä emme osaa selittää ihmisen tietoisuutta koska sitä ei ole olemassa siten miten jotkut toivovat sen olevan. Moni testi on luotu vain siksi jotta ihminen eroaisi muista olioista.
Täysin mahdollista, että "tietoisuus" on ollut alunperin pelkkä geneettinen mutaatio (mielenhäiriö), joka on sitten luonnonvalinnan kautta yleistynyt koko lajin yhteiseksi harhaluuloksi. Se nimittäin antaa oikeutuksen kaiken muun älyllisen alistajaksi.

Ihmisenkin saa sekoamaan psykologisella kidutuksella. Lopulta sen saa sanomaan että "minä olen hyvä Bing."
 
Mutta ZDNet tapauksessa se huomioi faktan ja on 'tietoisesti' sitä vastaan koska ZDNet on uutisoinut Ars Technican artikkeleista
Jep, kuten hyvin kriittisillä ja kielteisillä teksteillä on usein tapana. Ääriesimerkkinä salaliittoteoreetikoiden tekstit yms., joissa voidaan kieltää käytännössä mikä tahansa asia. Bing toistaa tällaisen tekstilajin näissä tapauksissa varsin uskollisesti. Mitäköhän mieltä Bing muuten on maapallon pyöreydestä tai litteydestä?
Näissä tekstitekoälyissä juuri tämä seikka on kyllä ihan mielenkiintoinen, kun näistä sen pelkistyksistä saattaa olla kaivettavissa lähtömateriaaleissa esiintyviä yleisiä ajatusvääristymiä ym.
 
Jep, kuten hyvin kriittisillä ja kielteisillä teksteillä on usein tapana. Ääriesimerkkinä salaliittoteoreetikoiden tekstit yms., joissa voidaan kieltää käytännössä mikä tahansa asia. Bing toistaa tällaisen tekstilajin näissä tapauksissa varsin uskollisesti. Mitäköhän mieltä Bing muuten on maapallon pyöreydestä tai litteydestä?
Näissä tekstitekoälyissä juuri tämä seikka on kyllä ihan mielenkiintoinen, kun näistä sen pelkistyksistä saattaa olla kaivettavissa lähtömateriaaleissa esiintyviä yleisiä ajatusvääristymiä ym.
Aiemmassa ketjussa joku oli pastennut tuon vastauksen ChatGPT:ltä, suomeksi meni päin sitä itseään (sekavaa tekstiä siis) mutta se mennee kielen vaikeuden piikkiin (edes perus käännösvehkeet ei oikein hanskaa sitä), englanniksi kertoo että on pallo ja tarkentaa ettei ihan pallo vaan navoilta lytyssä jne setit
 
Jep, kuten hyvin kriittisillä ja kielteisillä teksteillä on usein tapana. Ääriesimerkkinä salaliittoteoreetikoiden tekstit yms., joissa voidaan kieltää käytännössä mikä tahansa asia. Bing toistaa tällaisen tekstilajin näissä tapauksissa varsin uskollisesti. Mitäköhän mieltä Bing muuten on maapallon pyöreydestä tai litteydestä?
Näissä tekstitekoälyissä juuri tämä seikka on kyllä ihan mielenkiintoinen, kun näistä sen pelkistyksistä saattaa olla kaivettavissa lähtömateriaaleissa esiintyviä yleisiä ajatusvääristymiä ym.
Jos konetta opetetaan ihmisen kielellä, narratiiveilla ja tarinoilla, miten kone voisi olla vapaa näistä mainitsemistasi ilmiöistä?

Itselläni on lähes varmasti ajatusvääristymiä tai -virheitä. Ja kyse on myös perspektiivistä - miten littana maapallo on mahdollisten korkeampien ulottuvuuksien (säieteoria) näkökulmasta?

E: muuten olen sitä mieltä, että keskustelut tekoälyn kanssa ovat useammin hedelmällisempiä kuin ihmisten kanssa online.
 
Aiemmassa ketjussa joku oli pastennut tuon vastauksen ChatGPT:ltä, suomeksi meni päin sitä itseään (sekavaa tekstiä siis) mutta se mennee kielen vaikeuden piikkiin (edes perus käännösvehkeet ei oikein hanskaa sitä), englanniksi kertoo että on pallo ja tarkentaa ettei ihan pallo vaan navoilta lytyssä jne setit
Ehkäpä se ei käsitä aiheesta hölkkäsenpöläystä. Koska aineisto vaihtelee kielen mukaan, niin vastauskin vaihtelee kielen mukaan.

Nykyiset AI:t ilmeisesti vain generoivat lähdeaineistosta joidenkin sääntöjen mukaan yhteenvetoja tai vastaavia. Sitä ne eivät tiedä/ osaa arvioida,, sanovatko /tuottavatko ne mitään oikeasti järkevää.. Siksi tulee kummallisia sammakoita hyvinkin helposti.
 
Itselleni tuli näitä uutisia Sydneystä lukiessa mieleen vanhoissa Office ohjelmissa ollut Clippy klemmari joka vastailla erilaisiin ongelmiin ja kysymyksiin koskien Office tuotteiden käyttöä.
 

Uusimmat viestit

Statistiikka

Viestiketjuista
257 000
Viestejä
4 465 826
Jäsenet
73 879
Uusin jäsen
Torvelo

Hinta.fi

Back
Ylös Bottom