OpenAI ottanut kantaa tekoälymallien tekijänoikeuskeskusteluun

Onks tästä boldatusta kohdasta jotain numeroita jossain vai oliko fiilispohjainen mutuheitto?

Sehän oli avattu jo tuossa uutisessa, mihin tämä koko keskustelu liittyy. Eli kun esim. ChatGPT:n tietokanta on koottu laittomasti, niin tämän tietokannan pohjalta ChatGPT:n antamat vastaukset rikkovat myös lakia. Kuten muussakin elämässä, jos varastaa polkupyörän, niin kyllä se polkupyörän myyminen eteenpäin on myös laitonta, vaikka sitä pyörää vähän tuunaisi.

Lisäksi AI:llä tuotetu deepfake videot ja audiot ovat rikollisia, mikäli kohde ei ole antanut tähän suostumustaan.
 
Sehän oli avattu jo tuossa uutisessa, mihin tämä koko keskustelu liittyy. Eli kun esim. ChatGPT:n tietokanta on koottu laittomasti, niin tämän tietokannan pohjalta ChatGPT:n antamat vastaukset rikkovat myös lakia. Kuten muussakin elämässä, jos varastaa polkupyörän, niin kyllä se polkupyörän myyminen eteenpäin on myös laitonta, vaikka sitä pyörää vähän tuunaisi.

Lisäksi AI:llä tuotetu deepfake videot ja audiot ovat rikollisia, mikäli kohde ei ole antanut tähän suostumustaan.
Jaa selvä, tulkintasi mukaan siis kaikki niillä tuotettu sisältö on rikollista kamaa. Ajattelin, että tarkoitit että osa ei ole, kun käytit termiä "pääsääntöisesti".
 
Eipä tässä mitään ongelmaa ole. Todetaan vain, että tekijänoikeudet ei päde opetusmateriaaliin ja vastuu julkaisuista on aina ihmisellä. Joten jos käyttää AI työkalua, niin tarkistaa ennen julkaisua netistä / muualta, ettei ole tekijänoikeuden alaista mukana. Jos on, niin maksaa ihan itse ne mahdolliset sakot /lisenssit, jos ei ole fair use tapaus.
Eli käytät ai työkaluja koodin kirjoittamiseen -> koodisi on nyt julkaistava mahdollisten lisenssien mukaisesti yleisölle? Jos opetusdatassa on vaikka gpl lisenssien alaista materiaalia siis.
 
Elä viitsi naurattaa! AI sovellutuksista on ihan mieletöntä apua datan analysoimisessa, muokkauksessa ja luomisessa. Käytännössä siis tullaan välttämättä tarvitsemaan, kun ovat senverran käteviä virityksiä (ihan esimerkkinä nyt vaikka sairaanhoidon tulevaisuus).

Tietenkin myös AI sovellutuksiakin voidaan käyttää väärin, mutta niin voidaan miltei mitä tahansa, eikä kieltoja ole juuri tullut.
Joo, kiitos ei. Ei todellakaan kiinnosta saada esim. väärää lääkitystä väärällä annoksella vain siksi, että koulutusdatassa on ollut jonkun nettijeesuksen omat näkemykset siitä millä lääkkeillä ja annostuksella vaivaani pitää hoitaa.
 
Joo, kiitos ei. Ei todellakaan kiinnosta saada esim. väärää lääkitystä väärällä annoksella vain siksi, että koulutusdatassa on ollut jonkun nettijeesuksen omat näkemykset siitä millä lääkkeillä ja annostuksella vaivaani pitää hoitaa.
Voi kai sen mallin vähän paremmalla datalla kuin Suomi24 keskusteluilla treenata. Esim lääketieteellisellä aineistolla.
 
Voi kai sen mallin vähän paremmalla kuin Suomi24 keskusteluilla treenata. Esim lääketieteellisellä aineistolla.
Tottakai, mutta jos ne mallit ovat niin laajoja kuin väitetään, niin on hyvin epätodennäköistä, että kukaan on okeasti tarkistanut, että siellä ei ole kaikenlaista paskaa joukossa. Noilla generatiivisilla tekoälyilä on tapana hallusinoida muutenkin eli antaa vastauksia jotka eivät pidä paikkaansa, joten lähtödatan puutteet eivät ainakaan paranna sitä. Ei paljon lohduta jos se osuu oikeaan 10 000 kertaa ja antaa sitten sinulle hoito-ohjeet joilla voi mennä henki.

Se vaarallisin asia on, että jos tuollaiseen aletaan luottaa, niin kukaan ei tarkista enää kunnolla mitä vastauksia se antaa, joten vaarallisella lopputuloksella on suuret mahdollisuudet mennä läpi

Ja mitä siihen lääketieteelliseen materiaaliin tulee, niin lääkäreillähän on koko ajan kärhämää siitä miten jotain tauteja pitäisi oikeasti hoitaa. Kenen ohjeistuksella se tekoäly päättää homman hoitaa vai yhdisteleekö se nohevasti useampaa metodia ja saa aikaan tuloksen joka voi viedä hengen?
 
Ei paljon lohduta jos se osuu oikeaan 10 000 kertaa ja antaa sitten sinulle hoito-ohjeet joilla voi mennä henki.
Lohduttaa, jos ihmislekuri ryssisi yhtä pahasti kaksi kertaa useammin. Täydellistä vähäisempikin tulos voi olla edistystä aiempaan.

Se vaarallisin asia on, että jos tuollaiseen aletaan luottaa, niin kukaan ei tarkista enää kunnolla mitä vastauksia se antaa, joten vaarallisella lopputuloksella on suuret mahdollisuudet mennä läpi
Eiköhän tuollainen tekoälymalli luonnollisestikin tulisi aluksi lääkärin työkaluksi. Lääkäri sitten käy läpi diagnoosit, joita tekoäly sille annetun potilashistorian pohjalta ehdottaa.

Jos lääkärin toimimisesta osana kokonaisuutta koskaan luovuttaisiin niin se varmaan tapahtuisi vähitellen sitä mukaa kun alkaisi näyttää siltä, että tekoäly tekee riittävän hyvää työtä.

Lääketieteen ala on konservatiivinen kehityksessään ja pelko siitä että siellä yhtäkkiä tehtäisiin joku uhkarohkea hyppy tekoälyn yksin määrittämiin diagnooseihin ja hoitoihin tuntuu hyvin naiviilta.
 
Lohduttaa, jos ihmislekuri ryssisi yhtä pahasti kaksi kertaa useammin. Täydellistä vähäisempikin tulos voi olla edistystä aiempaan.


Eiköhän tuollainen tekoälymalli luonnollisestikin tulisi aluksi lääkärin työkaluksi. Lääkäri sitten käy läpi diagnoosit, joita tekoäly sille annetun potilashistorian pohjalta ehdottaa.

Jos lääkärin toimimisesta osana kokonaisuutta koskaan luovuttaisiin niin se varmaan tapahtuisi vähitellen sitä mukaa kun alkaisi näyttää siltä, että tekoäly tekee riittävän hyvää työtä.

Lääketieteen ala on konservatiivinen kehityksessään ja pelko siitä että siellä yhtäkkiä tehtäisiin joku uhkarohkea hyppy tekoälyn yksin määrittämiin diagnooseihin ja hoitoihin tuntuu hyvin naiviilta.
Lääketieteessä on pakko olla konservatiivinen, koska siellä pelataan ihmisen terveydellä ja hengellä. Viimeksi kun näin ei tehty, kyse taisi olla mengelen ihmiskokeista natsien tappoleirillä
 
Luitko mihin vastasit? Minä en ollut kieltämässä näitä lääketieteen yms. sovelluksia. Sanoin että ne ovat hyödyllisiä.

Tarkoitin näitä palveluita, kuten esim. ChatGPT ja kaltaiset, sekä nämä jotka luovat kuvia ja videoita. Näiden koko olemassaolo perustuu rikollisin keinoin kerätylle datalla ja niiden tuotokset ovat pääsääntöisesti rikollista kamaa. Yhtenä esimerkkinä deepfake-videot.
Olen kuullut sellaisesta työkalusta jolla onnistuu äärimmäisen hyvin mm. Asiakirjaväärennökset, petokset, rahanpesu, historian vääristely, ihmiskauppa, taideteoksien ja kirjallisuuden kopioiminen ja niin edelleen. Ja se työkalu on edelleen pääsääntöisesti laillinen, vaikka sen käyttöä on rajoitettu, osassa maissa enemmän ja osassa vähemmän. Kyseessä on kynä. Väittäisin myös, että suurin osa kyseisen työkalun tuotoksista on ihan laillista vaikka poikkeuksia aina mahtuu sekaan.

Palataksenin itse uutiseen, tässä täytyy muistaa, että AI aineistoja koulutetaan muun muassa kaupalliseen, avoimeen ja julkiseen käyttöön, sisäiseen ja/tai julkisuudelta salaiseen käyttöön. EU on jo ottanut itse kantaa oheisen kaltaiseen itse käyttöön. Nyt uutisessa on käsitykseni mukaan kyse vain kaupalliseen tarkoitukseen koulutetun aineiston käytöstä ja keruusta. Ei itse työkalun käytöstä.

Mm. Valtiolliset tahot ja suuryritykset varmasti taustalla hakevat ja kouluttavat omia eri tekoälymallejaan välittämättä tekijänoikeuksista. Tällaisen aineiston, jonka käyttöä ja sen rajoituksia mielestäni olisi paljon tärkeämpi valvoa (mahdotonta?) ja rajoittaa, kuin julkisesti, vaikkakin maksullisesti käytettävissä olevia. Tämä ihan siitä syystä, että väärinkäytön ja sen seuraamukset ovat potentiaalisesti paljon vaarallisempia, eikä esimerkiksi yksilöillä tai tahoilla olisi edes mahdollista tarkistaa onko heidän oikeuksia loukattu.
 
Lääketieteessä on pakko olla konservatiivinen, koska siellä pelataan ihmisen terveydellä ja hengellä. Viimeksi kun näin ei tehty, kyse taisi olla mengelen ihmiskokeista natsien tappoleirillä
Eli ymmärrät että siellä osataan toimia varovaisesti ja vastuullisesti esim. lääkkeiden, veitsien ja röntgensäteilyn kanssa, mutta et halua että tekoälyä otetaan työkaluksi, koska sitten annettaisiinkin asioiden mennä päin persettä syystä x?
 
Eli ymmärrät että siellä osataan toimia varovaisesti ja vastuullisesti esim. lääkkeiden, veitsien ja röntgensäteilyn kanssa, mutta et halua että tekoälyä otetaan työkaluksi, koska sitten annettaisiinkin asioiden mennä päin persettä syystä x?
Sillä tekoälyllä ei minusta ole mitään tekemistä lääketieteen puolella niin kauan kuin se ei pysty itse tarkistamaan, että sen tuottama materiaali perustuu faktoihin. Ja minun käsittääkseni yksikään tämänhetkisistä generatiivisista tekoälyistä ei pysty varmistamaan sitä faktapohjaisuutta. Ihan siksi, että ne on rakennettu tuottamaan materiaalia eikä pysymään faktoissa
 
Joo, kiitos ei. Ei todellakaan kiinnosta saada esim. väärää lääkitystä väärällä annoksella vain siksi, että koulutusdatassa on ollut jonkun nettijeesuksen omat näkemykset siitä millä lääkkeillä ja annostuksella vaivaani pitää hoitaa.
Ihmiset ne vaste huolimattomia ovatkin, eivät jouda käymään sitä sairaushistoriaa edes läpi. joten kiitos kyllä!
 
Sillä tekoälyllä ei minusta ole mitään tekemistä lääketieteen puolella niin kauan kuin se ei pysty itse tarkistamaan, että sen tuottama materiaali perustuu faktoihin. Ja minun käsittääkseni yksikään tämänhetkisistä generatiivisista tekoälyistä ei pysty varmistamaan sitä faktapohjaisuutta. Ihan siksi, että ne on rakennettu tuottamaan materiaalia eikä pysymään faktoissa
IBM:n watson tuon tekee, mutta se ei ymmärtääkseni ole LLM malli. Osaa myös kertoa todennäköisyydet sille että onko kuinka varma suosittamistaan asioista, linkata viittaamansa artikkelit ja niin edelleen.

Nykyiset LLM mallit on IMO paska idea diagnoosien keksimiseen.
 
Ihmiset ne vaste huolimattomia ovatkin, eivät jouda käymään sitä sairaushistoriaa edes läpi. joten kiitos kyllä!
Jep, ihan samanlailla ne lääkärit soveltaa ja goolettelee sekä arvailee asioissa.
Erityisesti diagnooseissa.
Eri asia sitten leikkaukset ja niissähän on käytetty jo vuosia erilaisia robotteja ym.
 
Sillä tekoälyllä ei minusta ole mitään tekemistä lääketieteen puolella niin kauan kuin se ei pysty itse tarkistamaan, että sen tuottama materiaali perustuu faktoihin. Ja minun käsittääkseni yksikään tämänhetkisistä generatiivisista tekoälyistä ei pysty varmistamaan sitä faktapohjaisuutta. Ihan siksi, että ne on rakennettu tuottamaan materiaalia eikä pysymään faktoissa
Ok. Itse tykkään ajatella todennäköisyyksien kautta, mikä on myös lääketieteessä yleinen käytäntö.

Jos mut viedään kriittisessä tilassa sairaalaan ja on vahvaa kliinistä näyttöä, että tilanteessani epätäydellinenkin tekoäly parantaa selviämismahdollisuuksiani (vaikkapa lukemalla hypoteettisen pitkän potilashistoriani nopeammin kuin yksikään ihminen kykenisi ja osaa siitä nopeasti päätellä mikä hätänä ja mikä hoito auttaisi) niin toivon että sitä käytetään minun kohdallani.

Aivan sama onko kyseessä LLM vai jokin muun tyyppinen tekoälymalli, jos on vahva näyttö että todennäköisyys selvitä sen avittamana on 95% kummalla tahansa ja ilman niitä olisi 70%.
 
Ok. Itse tykkään ajatella todennäköisyyksien kautta, mikä on myös lääketieteessä yleinen käytäntö.

Jos mut viedään kriittisessä tilassa sairaalaan ja on vahvaa kliinistä näyttöä, että tilanteessani epätäydellinenkin tekoäly parantaa selviämismahdollisuuksiani (vaikkapa lukemalla hypoteettisen pitkän potilashistoriani nopeammin kuin yksikään ihminen kykenisi ja osaa siitä nopeasti päätellä mikä hätänä ja mikä hoito auttaisi) niin toivon että sitä käytetään minun kohdallani.

Aivan sama onko kyseessä LLM vai jokin muun tyyppinen tekoälymalli, jos on vahva näyttö että todennäköisyys selvitä sen avittamana on 95% kummalla tahansa ja ilman niitä olisi 70%.
Apotti ei ole tekoäly, mutta kun katsoo millä tavalla jo se sekoilee uutisten mukaan (vääriä lääkityksiä yms.), niin en halua sinne mitään monimutkaisempaa. Lääketiede ei ole paikka jossa kokeillaan tekoälyä. Se on paikka jonne se viedään vasta kun se on taatusti kypsynyt riittävästi. Ei tarvitse olla suuri guru arvatakseen, että muutaman vuoden sisään nähdään ensimmäiset tapaukset joissa tekoäly tappoi ihmisen tunaroinnillaan. Tai no onhan niitä jo ollut noiden itseajavien autojen kanssa.
 
Lääketiede ei ole paikka jossa kokeillaan tekoälyä.
Tottakai on. Siellä kokeillaan myrkkyjä ja elimien leikkelyäkin ja vaikutus on nettopositiivinen vaikka jonkin verran lääkkeisiin ja leikkauksiin ihmisiä kuoleekin, niin kokeissa kuin tutkimusvaiheen jälkeisessä yleisessä käytössäkin. Kokeilut vaan täytyy tehdä tiukkojen sääntöjen puitteissa.
 
Apotti ei ole tekoäly, mutta kun katsoo millä tavalla jo se sekoilee uutisten mukaan (vääriä lääkityksiä yms.), niin en halua sinne mitään monimutkaisempaa. Lääketiede ei ole paikka jossa kokeillaan tekoälyä. Se on paikka jonne se viedään vasta kun se on taatusti kypsynyt riittävästi. Ei tarvitse olla suuri guru arvatakseen, että muutaman vuoden sisään nähdään ensimmäiset tapaukset joissa tekoäly tappoi ihmisen tunaroinnillaan. Tai no onhan niitä jo ollut noiden itseajavien autojen kanssa.
Eiköhän ihmiset (lääkärit ja hoitajat) tapa ja tule tappamaan potilaita virheillään nyt ja tulevaisuusdessa huomattavasti ensmmän kuin AI. AI käytetään monissa tapauksissa juuri sen takia, että se vähentää virheiden mahdollisuutta. Ja siksi noi nykyään onki avustajia, ei niitä käytetä ainoana diagnoosina, vaan avustajan. Apotti ei ole tekoäly eikö liity asiaan millään tavalla. Apotisaa kyse on järjestelmän vaikea selkoisuudesta ja vaikea käyttöisyydestä mistä ongelmat johtuu. AI olisi juuri tarkoitus helpottaa käyttöä, ei korvata lääkäriä.
 
Teknokiimaisilta unohtuu aina reaaliteetit. Teknokiimaiset menevät aina vain teknologia edellä ja kiihottuvat uudesta teknologiasta niin paljon, että sitä halutaan edistää ihan vain teknologian vuoksi, välittämättä paskaakaan haitoista mitä se aiheuttaa.

Miettikääpä esim. kännyköitä. Se lähti alkuun hyvästä keksinnöstä, mahdollisuudesta kommunikoida muiden kanssa lähes missä tahansa. Mutta mitä tuolle kävi kun mentiin teknokiima edellä? Ihmiset, varsinkin lapset ja nuoret ovat liimautuneet noihin koneisiin kiinni katselemaan kaikenmaailman paskavideoita ja tällä on jo nyt aiheutettu pysyviä vahinkoja lapsille ja nuorille. Mutta ei kai sillä väliä kun tämä teknopaska oli tärkeämpää kuin se, mitä se aiheuttaa.
 
AI käytetään monissa tapauksissa juuri sen takia, että se vähentää virheiden mahdollisuutta.
Onko sulla heittää jotain esimerkkejä? Oletan että LLM malleista puhutaan, kun ne ovat uutisen aiheena.

Yleiselle ai-kiimalle löytynee joku oma ketjunsa.
 
Onko sulla heittää jotain esimerkkejä? Oletan että LLM malleista puhutaan, kun ne ovat uutisen aiheena.

Yleiselle ai-kiimalle löytynee joku oma ketjunsa.
Mm yleisesti AI käytöstä. Ei kukaan ole puhunut että screippaamalla suomi24 pelastetaan potilaat.
Ei tämä ole mitään kiimaa. Kaukana siitä.
 
Miettikääpä esim. kännyköitä. Se lähti alkuun hyvästä keksinnöstä, mahdollisuudesta kommunikoida muiden kanssa lähes missä tahansa. Mutta mitä tuolle kävi kun mentiin teknokiima edellä? Ihmiset, varsinkin lapset ja nuoret ovat liimautuneet noihin koneisiin kiinni katselemaan kaikenmaailman paskavideoita
Aina on helppo tie syyttää teknologiaa, kuin nykypäivänä vallitsevaa paskaa vanhemmuutta ja vapaata kasvatusta.
 
Aina on helppo tie syyttää teknologiaa, kuin nykypäivänä vallitsevaa paskaa vanhemmuutta ja vapaata kasvatusta.

Eikö ymmärrys nyt riittänyt? On kehitetty teknologioita, joiden ainoa tarkoitus on addiktoida ihmisiä. Millä helvetin tavalla voit tuonkin kääntää niin, että se ei olisi tämän teknologian syy?
 
Ei niitä tarvita. Voivat olla kivoja ja hauskoja juttuja, mutta ei niitä tarvita.
Mutta kun minä tarvitsen. Elän jokapäiväistä elämääni 4-5:llä kielellä ja osaan näistä oikeasti todella sujuvasti vain kahta. Kone kääntää harva se päivä muiden kielien välillä vähintään avustavasti.

Ja LLM:t ovat ylivoimaisesti parhaita kääntäjiä piesten google-translatet ihan 100-0.

Saattaa tulla jollekin yllätyksenä, mutta ihmiset tarvitsevat eri asioita ja heidän elämänsä ovat erilaisia. Jutut jotka ovat sinulle turhia ovat toiselle erittäinkin tarpeellisia.
 
Eikö ymmärrys nyt riittänyt? On kehitetty teknologioita, joiden ainoa tarkoitus on addiktoida ihmisiä. Millä helvetin tavalla voit tuonkin kääntää niin, että se ei olisi tämän teknologian syy?
Ainoa? Okei. Kaljasta ymmärtäisin vielä tuon perustelun ja senkin erittäin huonosti ja yksinkertaistetusti, mutta kännyköistä niin en.
 
Ainoa? Okei. Kaljasta ymmärtäisin vielä tuon perustelun ja senkin erittäin huonosti ja yksinkertaistetusti, mutta kännyköistä niin en.

Lue tarkemmin. En syyttänyt kännyköitä, vaan nimenomaan kehuin niitä. Mutta syytin noita teknologioita, joita on kehitetty sen kännykän ympärille, esimerkkinä Tiktok.
 
Lue tarkemmin. En syyttänyt kännyköitä, vaan nimenomaan kehuin niitä. Mutta syytin noita teknologioita, joita on kehitetty sen kännykän ympärille, esimerkkinä Tiktok.
Samaa sanottiin televisiosta, mädättää selkärangat ja pilaa silmät. Osa sisällöstä varmasti tekeekin niin, mutta tuo on yhä, myös puhelimien osalta sivujuonne. Kyllä vanhemmat ja muut ihmiset ohjaavat mitä ja miten tulisi käyttää. Nythän näin suurelta osalta ei tapahdu, tai tapahtuu juuri väärin päin. Onko se sitten ihmisten vai teknologian vika?
 
Sehän oli avattu jo tuossa uutisessa, mihin tämä koko keskustelu liittyy. Eli kun esim. ChatGPT:n tietokanta on koottu laittomasti, niin tämän tietokannan pohjalta ChatGPT:n antamat vastaukset rikkovat myös lakia. Kuten muussakin elämässä, jos varastaa polkupyörän, niin kyllä se polkupyörän myyminen eteenpäin on myös laitonta, vaikka sitä pyörää vähän tuunaisi.

Lisäksi AI:llä tuotetu deepfake videot ja audiot ovat rikollisia, mikäli kohde ei ole antanut tähän suostumustaan.
ChatGPT:ssä ei ole tietokantaa. Mallin pyöriminen perustuu harvan matriisin laskemiseen. Länsimaisessa oikeuskäytännössä myös pätee syytön kunnes toisin todistetaan.
 
ChatGPT:ssä ei ole tietokantaa. Mallin pyöriminen perustuu harvan matriisin laskemiseen. Länsimaisessa oikeuskäytännössä myös pätee syytön kunnes toisin todistetaan.

Mistä kuvittelet että ChatGPT sen ulos sylkevän tekstin ottaa, jos ei sillä ole tietokantaa, johon on kerätty tekstiä?
 
Mitä kuunnellut alan ihmisiä niin internet tyylinen strukturoimaton "satunnainen" data ei ole kovinkaan parasta konemallien opettamiseen. Mallit hallusinoivat, pitävät totena humpuukia, jos vastaan tulee vaikka flat earth sivusto jne.

Arvokasta myytävää dataa tulee, jos esimerkiksi new york times artikkelien mukana olisi metadata, lähteet jne. Paremmalle datalle olisi varmastikin markkinaa. Voi pyytää hintaa hyvälaatuisesta järjestetystä datasta.

Jos datasta tulee uusi kulta mikä maksaa niin vaikea nähdä miten pienet toimijat tai open source voisivat kilpailla isojen rikkaiden tahojen kanssa. Joudut ostamaan/lisensoimaan jonkin rikkaan tahon laillisella datalla opettaman mallin mitä käytät/muokkaat omiin tarkoituksiisi?
 
Viimeksi muokattu:
Mitä kuunnellut alan ihmisiä niin internet tyylinen strukturoimaton "satunnainen" data ei ole kovinkaan parasta konemallien opettamiseen. Mallit hallusinoivat, pitävät totena humpuukia, jos vastaan tulee vaikka flat earth sivusto jne.
Tuo hallusinointi taitaa kyllä olla ihan arkkitehtoninen ominaisuus, tai näin ainakin Metan Yann Lecun väittää. Jos mallia treenataan vahvasti Timesin artikkeleilla niin se tekee vain vähän asiavirheitä sen sisällön suhteen. Mutta kun yrität saada tietoa jostain suomalaisesta puolijulkimosta niin osaa ehkä sanoa kansallisuuden ja ammatin oikein, mutta syntymäpäivät ym. yksityiskohdat menee väärin koska sillä ei vaan ole riittävän vahvaa treenausta asianmukaisella aineistolla.
 
Tuo hallusinointi taitaa kyllä olla ihan arkkitehtoninen ominaisuus, tai näin ainakin Metan Yann Lecun väittää. Jos mallia treenataan vahvasti Timesin artikkeleilla niin se tekee vain vähän asiavirheitä sen sisällön suhteen. Mutta kun yrität saada tietoa jostain suomalaisesta puolijulkimosta niin osaa ehkä sanoa kansallisuuden ja ammatin oikein, mutta syntymäpäivät ym. yksityiskohdat menee väärin koska sillä ei vaan ole riittävän vahvaa treenausta asianmukaisella aineistolla.
Iso osa hallusinoinnista tulee huonosta datasta. Nvidia puhuu tästä chipnemon kohdalla. Domain spesifisellä datalla kun opetetaan ja tehostetaan niin neuroverkon hallusinoinnin määrää saadaan minimoitua. ChipNemo nvidian sisäinen llm mihin tungettu nvidian bugikanta, koodit, dokumentaatio jne.

Toisenlainen esimerkki voisi olla vaikka j f kennedyn salamurha. LLM voi ottaa jonkin ihan random internet sivun/twitter ketjun ja suoltaa potaskaa versus lähteinä käytettäisiin strukturoitua dataa jolloin virallinen tieto ja foliohattuteoriat voidaan erottaa llm:n generoimassa vastauksessa.

Toinen puoli malleissa ihan täysi misinformaatio, jos käytetään opetusdatana vain "internettiä". LLM ei tiedä mikä on totta, mikä ei ole totta ja mitkä asiat oikeasti kuuluvat yhteen. Parempi data johtaa parempaan vastaukseen.
- The addition of retrieval-augmented generation enhances accuracy and reduces hallucination.
 
Viimeksi muokattu:
Mm yleisesti AI käytöstä. Ei kukaan ole puhunut että screippaamalla suomi24 pelastetaan potilaat.
Ei tämä ole mitään kiimaa. Kaukana siitä.
Eli ei ollut esimerkkiä LLM mallista tuossa käytössä. Olisit vaan sanonut suoraan että ei ole, niin olis välttynyt turhaan avaamasta linkkejäsi.

Yleinen ai kiima varmaan kuuluu muualle kuin LLM spesifiin uutisketjuun.
 
Eli ei ollut esimerkkiä LLM mallista tuossa käytössä. Olisit vaan sanonut suoraan että ei ole, niin olis välttynyt turhaan avaamasta linkkejäsi.

Yleinen ai kiima varmaan kuuluu muualle kuin LLM spesifiin uutisketjuun.
Samantyyppisiä sovelluksia ne ovat nuokin ja samoja teknisiä ongelmia tietojen syötössä ja käsittelyssä niihin / niissä, joten tasan kuuluvat tähän ketjuun.

Mikä on LLM? Jotain syötävääkö?
 
Lääketieteen ala on konservatiivinen kehityksessään ja pelko siitä että siellä yhtäkkiä tehtäisiin joku uhkarohkea hyppy tekoälyn yksin määrittämiin diagnooseihin ja hoitoihin tuntuu hyvin naiviilta

Juu, eihän nyt kukaan sellaista...


 
Juu, eihän nyt kukaan sellaista...
Sellainen nyanssiero että tuossa on kyse vakuutusalasta, vaikka hyvin lähelle liippaakin. Lääketieteen alan konservatiivisuudella meinaan sitä kuinka valtavat tutkimukset vaaditaan ennenkuin esim. uusia lääkkeita hyväksytään markkinoille. En osaa sanoa onko vakuutusala samalla tavalla konservatiivinen vai yritetäänkö aggressiivisesti mennä sieltä missä aita on matalin.

Noissakin vakuutusyhtiöiden tapauksissa on vielä mahdollista että tulee tuomioita, joilla yhteiskunta tekee selväksi pelisäännöt.

Lääketieteen alallakin on toki sekoiltu, mm. lobotomiat. En silti katsoisi että kirurgiasta kokonaisuudessaan pitäisi luopua.
 
Samantyyppisiä sovelluksia ne ovat nuokin ja samoja teknisiä ongelmia tietojen syötössä ja käsittelyssä niihin / niissä, joten tasan kuuluvat tähän ketjuun.

Mikä on LLM? Jotain syötävääkö?
LLM eli iso kielimalli, vrt. chat gpt.

Kuvantunnistus algoritmit on joo ”ai” malleja myös, mutta aineisto on vain kuvia syövästä tjsp. ja niihin on triviaalia saada oikeudet, vrt. Open ai:n chat gpt (ketjun aihe) ja koko ”julkinen” internet (ketjun aihe).
 
Viimeksi muokattu:
Lyhyt kommentti tähän lääketiedevääntöön - AI on tulevaisuudessa erittäin hyödyllinen mm. ison datan analytiikassa ja kuvantamisessa (EU rahoittaa projektia jossa tavoitteena on pilvidataanalytiikka AI:n avulla lääketieteen käyttöön) mutta se on aina sidoksisssa etiikkaan ja tiukkoihin parametreihin joilla se toimii, ja toimii tällöin hyvänä apuna tutkimuksessa ja diagnostiikassa Mutta kuten tilastotieteessä matemaattisten mallien käytöstä algoritmeilla ajettuun data-analyytikkaan sanotaan, käyttö on hyödyllistä jos (ja vain jos) käyttäjä tietää mitä "musta laatikko" tekee ja millä perusteilla annettu data otetaan mallille syötteeksi. Kyllähän jo nyt lääkelistat ilmoittavat kontraindikaatioista lääkärille automaattisesti hyvinvointialueiden tietojärjestelmissä. Lääketiede on positivistinen tiede ja hyödyntää todella paljon tilastomatematiikkaa, kuten voitte lääkepaketista lukea todennäköisyydet haittavaikutuksille. Ja AI ei todellakaan fyysisesti tutki tai kohtaa potilaita, mutta voi toimia hyödyllisenä apuna päätöksenteossa. Kuten terveydenhoitoalalla omaksutaan aivan heti aluksi (olen kouluttautunut muun laaja-alaisen yliopistokoulutuksen ohella) niin ihminen on yksilö, johon suhtaudutaan yksilönä eikä mitään "rutiinia" saa periaatteessa olla ja lääketieteen etiikka sanelee tämän. Kaikki riippuu materiaaleista joilla AI koulutetaan. Se, että käytettäisiin lähteinä tieteen ulkopuolista materiaalia on, anteeksi vain, huuhaata. Esimerkki yllä Amerikan ihmemaasta on vain hyvä esimerkki heikosta lainsäädännöstä ja sääntelystä (oikeuslähdehän siellä ei ole lakikirja vaan aiemmat tuomarien päätökset ja lait muutenkin vaihtelevat osavaltiosta toiseen). "Anything goes". EU on paljon vahvempi tältä osin. Toisin sanoen, siellä on mahdollista tehdä tällaista, koska vakuutusjärjestelmä mahdollistaa sen, ja asiaintilan muuttamiseen ei ole tai tule olemaan poliittista tahtoa. Lääkärithän näitä hoidon kieltoja eivät ole tehneet, vaan korporaatiot.

Mutta lopuksi hyödyllinen esimerkki : minulla on 1 tyypin diabetes ja käsivarren sensorin keräämä data (jatkuva glukoosiarvo) siirretään pilveen, josta mallilla saa aivan saman datan kuin lääkärikin, todella todella kätevää, mutta vahva tunnistautuminen tietenkin proprietary ajureineen. Näkee trendejä ym. joita joitain vuosia sitten ei ollut, piti käyttää no, verinäytteitä..
 
Ja AI ei todellakaan fyysisesti tutki tai kohtaa potilaita, mutta voi toimia hyödyllisenä apuna päätöksenteossa.
Google itseasiassa perjantaina julkaisi tutkimuksen, jossa LLM kohtasi potilasta esittäviä näyttelijöitä viestien välityksellä ja verrokkina toimi aidot lekurit. Tekoäly pärjäsi melko hyvin, tosin kyseessä vertaisarvioimaton tutkimus eikä erityisen kattava noin muutenkaan. Fyysinen kohtaaminen ei toki onnistu ja yksi tutkimuksen heikkouksista olikin, että lääkärit eivät olleet tottuneet potilaan kanssa kommunikoimiseen tekstiviestein.

 
Google itseasiassa perjantaina julkaisi tutkimuksen, jossa LLM kohtasi potilasta esittäviä näyttelijöitä viestien välityksellä ja verrokkina toimi aidot lekurit. Tekoäly pärjäsi melko hyvin, tosin kyseessä vertaisarvioimaton tutkimus eikä erityisen kattava noin muutenkaan. Fyysinen kohtaaminen ei toki onnistu ja yksi tutkimuksen heikkouksista olikin, että lääkärit eivät olleet tottuneet potilaan kanssa kommunikoimiseen tekstiviestein.

Sit vaan prompt engineeraamaan sopivia reseptilääkkeitä. ;)
 
Tämä tässä näin. Ei bisnesidea saa perustua laittomuuksiin.
Laittomuus vain onko rinnastettavissa miten kirjailija lukee toisten kirjoja tai taidemaalari katselee toisten tauluja.
Miten paljon Google käyttää materiaalina Androd puhelinten materiaalia, kuvia ja ääntä tai Youtuben videoita.
Näihinhän se on ottanu oikeuden jo puhelinta käytettöön otettaessa.
Toisin arkaluontoista materiaalia ei saa levittää koskaan. Hankalia kysymyksiä ja mitä suurempia tietomassoja käytetään sitä vaikempaa on sen hallittu käyttö.


Onks tästä boldatusta kohdasta jotain numeroita jossain vai oliko fiilispohjainen mutuheitto?
Itselläkin tuo rikollinen keino kuulostaa rajulta.
Nämähän on pääosin kaivettu internetistä saatavilla olevasta tavarasta.
Ei nämä suoraan varasta mitään, esim Archive.org sisältää tavaraa johon on monella on tekijänoikeus, mutta asiat on vapaasti saatavilla.

ChatGPT:ssä ei ole tietokantaa. Mallin pyöriminen perustuu harvan matriisin laskemiseen. Länsimaisessa oikeuskäytännössä myös pätee syytön kunnes toisin todistetaan.
Googlen / Wikipedian mukaan opetettu malli on 570GB kokoinen
 
Viimeksi muokattu:
Itselläkin tuo rikollinen keino kuulostaa rajulta.
Nämähän on pääosin kaivettu internetistä saatavilla olevasta tavarasta.
Ei nämä suoraan varasta mitään, esim Archive.org sisältää tavaraa johon on monella on tekijänoikeus, mutta asiat on vapaasti saatavilla.

Tekijänoikeusrikos on rikos, mitäs sitä sievistelemään.
 
Tekijänoikeusrikos on rikos, mitäs sitä sievistelemään.
Kyllähän sitä on rikoksiakin syytä aina arvioida, onko joku asia miten merkityksellinen rikos. Tekijänoikeus ei sinällään ole kovinkaan merkittävä asia, kun tarkastellaan rikosten kirjoa ja niiden seurauksia.

Kouluillahan on tekijänoikeuksiin liittyen muistaakseni helpotuksia. Varmaankin samat helpotukset kannattaisi ottaa käyttöön vähintään tekoälyjen treenaamisessa.
 
Kyllähän sitä on rikoksiakin syytä aina arvioida, onko joku asia miten merkityksellinen rikos. Tekijänoikeus ei sinällään ole kovinkaan merkittävä asia, kun tarkastellaan rikosten kirjoa ja niiden seurauksia.

Kouluillahan on tekijänoikeuksiin liittyen muistaakseni helpotuksia. Varmaankin samat helpotukset kannattaisi ottaa käyttöön vähintään tekoälyjen treenaamisessa.
Koulut maksavat rahaa kyseisistä helpotuksista. Ehkä AI firmat voisivat tehdä samoin. Vaikka euro per sata sanaa tekstiä. Saatais koko maailman ongelmat ratkottua tuolla rahasummalla, eikä tarttis odotella että ai ratkoo meidän ongelmat (lol).
 
Niin. Ja ilmeisesti mahdotonta oli myös sopia tekijänoikeussuojattujen materiaalien käytöstä etukäteen.

Sitten tämä "fair use" termi. Eikö se tarkoita sitä, että jos vaikkapa teen Youtubeen arvostelun jostain elokuvasta, niin saan käyttää videossani pieniä pätkiä kyseisestä leffasta siinä määrin kun se on arvostelulle tarpeellista? Eli en voi siis tehdä videotani niin, että elokuva on siinä kokonaan ja puhuisin vain välillä päälle.

Tekoälymallien koulutuksessa ymmärtääkseni se lähdemateriaali tai data käytetään kokonaisuudessaan ja sitä tarvitaan paljon. Miten tämmöinen voi olla "fair use"?
Jos opettelet itse taidetta ja selaat erilaisia taideteoksia ja alat myöhemmin tuottamaan sitä itse.. eikö se ole sallittua? Miksi tekoäly ei saisi tehdä samaa?

Sehän oli avattu jo tuossa uutisessa, mihin tämä koko keskustelu liittyy. Eli kun esim. ChatGPT:n tietokanta on koottu laittomasti, niin tämän tietokannan pohjalta ChatGPT:n antamat vastaukset rikkovat myös lakia. Kuten muussakin elämässä, jos varastaa polkupyörän, niin kyllä se polkupyörän myyminen eteenpäin on myös laitonta, vaikka sitä pyörää vähän tuunaisi.

Lisäksi AI:llä tuotetu deepfake videot ja audiot ovat rikollisia, mikäli kohde ei ole antanut tähän suostumustaan.
Ihan yhtä vähän rikollista kun leffojen lataaminen netistä tms.

Käytännössä kopioit ykkösiä ja nollia.

Tekoäly myöskin käsittelee dataa ykkösinä ja nollina eli siis "binäärikopiona" orginaali digitaali datasta. Näin ollen ei se mitään taidetta ole esim varastanut vaan kopioi vaan datan esim. binäärimuodossa mikä ei ole mitään taidetta itsessään.
Sitten se luo uutta taidetta samassa muodossa ja lopulta sun näyttöruutu muodostaa siitä kuvan, jonkun ohjelman avulla.
 
Jos opettelet itse taidetta ja selaat erilaisia taideteoksia ja alat myöhemmin tuottamaan sitä itse.. eikö se ole sallittua? Miksi tekoäly ei saisi tehdä samaa?
Kyllä saa. Mutta jos se piirtää super marion niin _kaupallinen käyttö_ on aika rajattua. Omaan käyttöön saa tehdä ihan melkeen mitä vaan etenkin Suomessa.
 
Kyllä saa. Mutta jos se piirtää super marion niin _kaupallinen käyttö_ on aika rajattua. Omaan käyttöön saa tehdä ihan melkeen mitä vaan etenkin Suomessa.
Kannattaa siis tehdä Super Lorenzo jolla vähän erilaiset vaatteet jne. Ei ehkä viiksiä?
 
Kannattaa siis tehdä Super Lorenzo jolla vähän erilaiset vaatteet jne. Ei ehkä viiksiä?
Aivan, mutta ai ei osaa sitä itsenäisesti tehdä. Et voi koskaan tietää että tekikö nää nykyset mallit (ketjun aihe) riittävän suoran kopion jostain että joutuisit vaikeuksiin kaupallisesta käytöstä, vai ei.

Kuvittaja johon ai:ta vertasit aiemmin, sen sijaan ymmärtää että suorien kopioiden tekeminen ei ole hyvä idea.
Edit: ja kuvittajan kanssa voi tehdä työsopimuksen missä nämä asiat on selvästi eritelty -> et ole itse vastuussa jos käy ilmi että kuvittajasi plagioikin sinulta salaa asioita.
 
Viimeksi muokattu:

Statistiikka

Viestiketjuista
258 680
Viestejä
4 495 819
Jäsenet
74 271
Uusin jäsen
Esa.

Hinta.fi

Back
Ylös Bottom