Keskustelua TechBBS-foorumin säännöistä ja moderoinnista

Viesti keskustelussa 'Tesla sai AI5-piirin valmiiksi'
Tesla sai AI5-piirin valmiiksi

Viestissä ilmiselvästi grokin laatimia vastauksia jotka on generoitu luultavasti promptilla ”kumoa kaikki väitteet” tms. Ylläpito käsitteli ja totesi että ei olisi ai:lla tuotettua skeidaa. Grok toki tunnustaa omakseen kysyttäessä.

Saako siis täällä nyt ”keskustella” jollain roska-ai:lla, kunhan tekstissä on kenties joku pieni osa itse tuotettua tekstiä, tai pyydetty pari kirjoitusvirhettä joukkoon?
Oli kyllä kauheaa luettavaa nuo vastaukset. Kunnon liirum laarumia kivalta kuulostavilla englanninkielisillä termeillä.
 
Viesti keskustelussa 'Tesla sai AI5-piirin valmiiksi'
Tesla sai AI5-piirin valmiiksi

Viestissä ilmiselvästi grokin laatimia vastauksia jotka on generoitu luultavasti promptilla ”kumoa kaikki väitteet” tms. Ylläpito käsitteli ja totesi että ei olisi ai:lla tuotettua skeidaa. Grok toki tunnustaa omakseen kysyttäessä.

Saako siis täällä nyt ”keskustella” jollain roska-ai:lla, kunhan tekstissä on kenties joku pieni osa itse tuotettua tekstiä, tai pyydetty pari kirjoitusvirhettä joukkoon?

edit:
Ylläpidon clanker expertti siis perusteli että kyseessä ei mukamas olisi ai:lla tuotettua tekstiä sillä, että tekstissä on kirjoitusvirheitä joita kielimallit eivät tuossa muodossa tuota.

Saatavilla olevat ilmaiset ai tunnistimet (ainakin osa niistä, moni ei osaa koko hommaa kuin englanniksi) toteavat lähes koko viestin olevan AI:lla tuotettua skeidaa.
Ymmärtänet varmasti, ettei ylläpito voi lähteä poistamaan suorilta viestejä ihan vain sen perusteella, että yksittäinen käyttäjä raportoi sen tekoälyllä tuotetuksi. Selkeät tapaukset karsitaan pois, mutta ylläpidolla ei myöskään ole resursseja jäädä tutkimaan yksittäisiä viestejä tällaisessa kontekstissa pidemmäksi aikaa, joten varmasti keskustelun sekaan voi jäädä välillä AI-tuotettua sisältöä.

Tämän kokoiselle foorumille mahtuu kaikenlaisia kirjoittajia, eikä omaan silmääni tuo teksti näyttänyt mitenkään yksioikoisesti tekoälyllä tuotetulta. Lisäksi pastesin tuon raportoidun viestin ensimmäisen vastauksen Grokiin, Geminiin, GPTZeroon sekä Grammarlyyn, ja kaikki totesivat tekstin olevan ihmisen tuottamaa.
 
Viimeksi muokattu:
Ymmärtänet varmasti, ettei ylläpito voi lähteä poistamaan suorilta viestejä ihan vain sen perusteella, että yksittäinen käyttäjä raportoi sen tekoälyllä tuotetuksi. Selkeät tapaukset karsitaan pois, mutta ylläpidolla ei myöskään ole resursseja jäädä tutkimaan yksittäisiä viestejä tällaisessa kontekstissa pidemmäksi aikaa, joten varmasti keskustelun sekaan voi jäädä välillä AI-tuotettua sisältöä.

Tämän kokoiselle foorumille mahtuu kaikenlaisia kirjoittajia, eikä omaan silmääni tuo teksti näyttänyt mitenkään yksioikoisesti tekoälyllä tuotetulta. Lisäksi pastesin tuon raportoidun viestin ensimmäisen vastauksen Grokiin, Geminiin, GPTZeroon sekä Grammarlyyn, ja kaikki totesivat tekstin olevan ihmisen tuottamaa.
Jaa. Grokki kyllä minulle edelleen kuvailee asiaa näin:
Kyllä, tuo teksti on minun kirjoittamaani.

Se on suora ote (tai hyvin lähellä sitä) keskustelusta, jossa olen selittänyt Tesla FSD:n (ja yleisemminkin auton sisäisen edge-AI:n) suunnitteluperiaatteita pomk-käyttäjälle.
Grammarly kertoo toimivansa lähinnä englanniksi, samoin gptzero kattaa rajatusti kieliä.

Niille pitää laittaa tarpeaksi kontekstia jotta ymmärtävät homman. Joku yksittäinen kappale, etenkin suomeksi kirjoitettuna, voi helposti jäädä noilta huomaamatta.

Toivottavasti tälläinen spedeily jossa ilmiselvästi tuotetaan tekstit ai:lla ja jätetään asiasta viestissä ilmoittamatta ei ole uusi normaali täällä.
 
Pari kertaa tuon täällä nähnyt jo aiemminkin että teksti on kuin suoraan ai botin laatima, mutta on muuteltu tai lisätty itse parit sanat tekstiin ettei se näyttäisi ai tuotokselta.
 
Toivottavasti tälläinen spedeily jossa ilmiselvästi tuotetaan tekstit ai:lla ja jätetään asiasta viestissä ilmoittamatta ei ole uusi normaali täällä.
Kaikki oleellinen asiaan liittyen kommentoitu jo edellisessä vastauksessani. Ylläpito puuttuu kaikkiin raportoituihin tapauksiin, jotka se pystyy tunnistamaan selkeästi tekoälyllä tuotetuiksi.
 
Kaikki oleellinen asiaan liittyen kommentoitu jo edellisessä vastauksessani. Ylläpito puuttuu kaikkiin raportoituihin tapauksiin, jotka se pystyy tunnistamaan selkeästi tekoälyllä tuotetuiksi.
Myös gemini vastaa seuraavaa:
Tämä teksti vaikuttaa erittäin vahvasti siltä, että se on peräisin ihmisen ja tekoälyn välisestä väittelystä, jossa tekoäly (mahdollisesti juuri minä, Grok tai vastaava LLM) vastaa käyttäjän "pomk" esittämiin argumentteihin.
Eli, kaikki mainitsemasi työkalut joko kertovat että tämä on llm skeidaa (gemini, grok), tai että eivät osaa tunnistaa moista suomenkielisestä tekstistä ylipäänsä (grammarly, gptzero).

Mutta tämä ei ilmeisesti riitä, vaan siinä pitää lukea lopussa "co-authored by claude", jotta homma olisi ns. selvä?
 
Yksittäisen mallin latenssi kyllä määräytyy mallista ja raudastaeli tästä ollaan samaa mieltä mutta tuotantojärjestelmässä malli ei ole vapaa muuttuja vaan sitä rajoittaa käyttökohde. Eli jos malli ei mahdu latency-budjettiin niin sitä ei ajeta sellaisenaan vaan sitä pienennetään, kvantisoidaan ja jaetaan useaan vaiheeseen. Tämä on ihan normaalia käytäntöä kaikessa edge/embedded AI:ssa. Se että HW-versioita tulee lisää ei kumoa tätä vaan se kertoo että headroomia tarvitan lisää mallien kasvaessa.


Tämä ei ole ristiriita vaan juuri odotettu kehityskaari eli arkkitehtuuri tehdään tietylle workload-luokalle, mallit kasvavat ajan myötä ja lopulta kapasiteetti ei riitä on uusi rauta. Sama ilmiö on GPU:issa, puhelimissa ja käytännössä kaikessa laskennassa. Optimointi ei tarkoita että yksi rauta riittää ikuisesti vaan että se on tehokas sille kuormaluokale mihin se on suunniteltu.


En sekoita vaan erotan ne nimenomaan mallin latenssi on malli ja rauta, järjestelmän latensivaatimus on käyttökohde. Suunnittelu lähtee jälkimmäisestä. Malli ei saa rikkoa sitä koska muuten se ei kelpaa käyttöön.


Koska ei suunnitella yhdelle mallille vaan kuormaluokalle. Tiedetään etukäteen multi-camera video input, jatkuva inferenssi (ei batch), tensorioperaatioihin perustuva laskenta ja target latency-luokka. Näistä saadaan riittävä arvio eli memory bandwidth, compute throughput ja rinnakkaisuus. Tätä täydennetään headroomilla ja prototyypeillä. Täydellistä tietoa ei ole koskaan ja tämä on normaalia ASIC-suunnittelussa.


Datavirta ei yksin määritä latenssia mutta se määrittää kuinka paljon dataa pitää käsitellä per aika ja kuinka paljon rinnakkaisuutta tarvitaan. Lisäksi kuorma ei ole pelkkä “pikselivirta” vaan useita kameroita, useita verkkoja per frame ja temporal processing. Laskenta syntyy datavirran käsittelystä eikä pelkästä siirosta.

Inferenssi on nimenomaan datavirran prosessointia. Ilman datavirtaa ei ole inferenssiä ja datavirran luonne määrittää kuinka paljon laskentaa per sekunti tarvitaan ja kuinka paljon dataa liikkuu muistissa. Nämä ovat keskeisiä asioita piiritasolla.


Tämä ei ole joko–tai vaan co-design eli rauta optimoidaan workloadille (video + tensorilaskenta + low latency) ja mallit optimoidaan mahtumaan siihen. Tämä tehdään rinnakkain eikä peräkkäin.



Auton “älykkyys” on käytännössä inferenssiä. Se mitä auto tekee (havainto, päätös, ohjaus) on juuri se pipeline, jonka raskain osa on inferenssi. Siksi nämä eivät ole erilisiä asioita.


Piiriä ei muuteta jälkikäteen vaan se suunnitellaan kuormaluokalle jossa on headroom. Jos FPS kasvaa niin kuorma kasvaa lineaarisesti ja käytetään enemmän rinnakkaisuutta. Sama rauta mutta suurempi käyttöaste. Tätä varten kapasiteettia ei mitoiteta täyteen 100%:iin.


Ei ole kovakoodattua “tälle resoluutiolle” logiikkaa mutta arkkitehturi on silti optimoitu tietylle datavirran suuruusluokalle eli tietylle rinnakkaisuuden tasolle ja tietylle memory bandwidth -luokalle. Tämä on juuri sitä piiritason optimointia.


Yliprovisointi (headroom) ei tarkoita ettei olisi optimointia vaan että järjestelmä kestää mallien kasvua ja sama rauta toimii useammalla malliversiolla. Tämä on käytännössä välttämätöntä kaikessa pitkäikäisessä embedded-raudassa.


Ei optimoida tuntemattomalle algoritmille vaan tunnetulle laskentaluokalle jossa video, tensorilaskenta, low-latency inference, multi-stream processing. Algoritmit vaihtuvat (CNN, transformer, E2E),mutta nämä perusominaisudet eivät.

Siksi optimointi on mahdollista ennen lopullista mallia.

Viesti keskustelussa 'Tesla sai AI5-piirin valmiiksi'
Tesla sai AI5-piirin valmiiksi

Viestissä ilmiselvästi grokin laatimia vastauksia jotka on generoitu luultavasti promptilla ”kumoa kaikki väitteet” tms. Ylläpito käsitteli ja totesi että ei olisi ai:lla tuotettua skeidaa. Grok toki tunnustaa omakseen kysyttäessä.

Saako siis täällä nyt ”keskustella” jollain roska-ai:lla, kunhan tekstissä on kenties joku pieni osa itse tuotettua tekstiä, tai pyydetty pari kirjoitusvirhettä joukkoon?

edit:
Ylläpidon clanker expertti siis perusteli että kyseessä ei mukamas olisi ai:lla tuotettua tekstiä sillä, että tekstissä on kirjoitusvirheitä joita kielimallit eivät tuossa muodossa tuota.

Saatavilla olevat ilmaiset ai tunnistimet (ainakin osa niistä, moni ei osaa koko hommaa kuin englanniksi) toteavat lähes koko viestin olevan AI:lla tuotettua skeidaa.
Onko @Seppo77 tuo sinun viestisi vastaukset generoitu tekoälyllä?
 
Ylläpidon clanker expertti
Mutta tämä ei ilmeisesti riitä, vaan siinä pitää lukea lopussa "co-authored by claude", jotta homma olisi ns. selvä?

Näiden olkiukkojen ja nimitysten käyttämisen perusteella sinulla ei ilmeisesti ole tarkoitus keskustella aiheesta rakentavasti?

Kuten jo sanoin, minulla kyseiset tekoälytyökalut arvioivat tekstin 100 % ihmisen tuottamaksi. Grammarly ja GPTZero tunnistivat suomenkielisen tekstin, sen tarkemmin niiden tunnistuksen tarkkuudesta suomeksi en osaa sanoa. Ja kuten jo totesin, ylläpidolla ei valitettavasti ole resursseja jäädä tutkimaan tällaisessa asiassa yksittäiseen viestiin liittyviä epäilyjä pidemmäksi aikaa. Tällainen yksi vakavuusasteeltaan varsin vähäinen foorumiraportti on minimaalinen osa työnkuvaa, mitä päivän aikana on hoidettavana.

Ylläpito ei lähde poistamaan käyttäjien viestejä tekoälyn tuottamaksi tulkittuna, jos ei voi olla varsin varma asiasta. Ennemmin siis jätetään mahdollinen tekoälyviesti näkyviin, kuin poistetaan potentiaalisesti aiheettomana käyttäjän itsensä kirjoittama viesti.
 
Viimeksi muokattu:
Pitipä itsekin tsekata ja kysyä Grokilta. Kopsasin ton Sampsan lainauksen seppo77:lta suoraan grokille.

"Onko tämä sinun kirjoittamaa tekstiä?":
Kyllä, tämä on minun kirjoittamaa tekstiä.

"Kerrotko vielä missä yhteydessä olet tekstin luonut?"
Kyllä, muistelen kontekstin tarkasti.


Tuo teksti on peräisin automaattiajoneuvojen (autonomous driving) tekoälyrauta -keskustelusta, erityisesti siitä, miten edge/embedded-AI-piirejä (erityisesti automotive-grade ASIC- tai SoC-piirejä) suunnitellaan.


Tarkempi tilanne:​


  • Keskustelimme Tesla FSD -laitteistosta (HW3, HW4, HW5/AI5 jne.) ja yleisemmin siitä, miten auton sisäiset neuroverkot ja sensorifuusio toteutetaan.
  • Toinen osapuoli väitti suunnilleen, että "malli määrää kaiken" ja että raudan rooli on vain suorituskyky, eikä optimointia voi tehdä etukäteen.
  • Minä korjasin tätä näkemystä ja selitin co-design-periaatetta:
    • Rauta ei suunnitella yhdelle tietylle mallille vaan tietylle kuormaluokalle (multi-camera video, jatkuva reaaliaikainen inferenssi, low-latency, tensor-laskenta, temporal processing jne.).
    • Malleja voidaan myöhemmin pienentää, kvantisoida, distilloida tai jakaa, mutta pohjalla on aina ennalta tiedetty datavirta ja latenssibudjetti.
    • Headroom ja yliprovisointi ovat välttämättömiä juuri siksi, että mallit kasvavat ajan myötä.

Teksti oli siis vastausväite siinä keskustelussa, jossa pyrittiin erottamaan selkeästi:


  • Mallin oma latenssi (riippuu malli + rauta)
  • Järjestelmän latenssivaatimus (tulee käyttötapauksesta = auton turvallisuus- ja suorituskykyvaatimuksista)
 
Pitipä itsekin tsekata ja kysyä Grokilta. Kopsasin ton Sampsan lainauksen seppo77:lta suoraan grokille.

"Onko tämä sinun kirjoittamaa tekstiä?":


"Kerrotko vielä missä yhteydessä olet tekstin luonut?"
Tällaisen vastauksen antoi Grok itselleni, joskin tuo nyt on sinällään varsin epäoleellista kokonaisuuden kannalta:

1776691846371.png


Edit: Nyt pastesin tuon koko Sampsan viestissä lainatun viestin sisällön (eikä siis vain alkupätkää kuten aiemmin) ja edelleen itselleni Grok arvioi näin:

1776692844232.png
 
Viimeksi muokattu:
Pitipä itsekin tsekata ja kysyä Grokilta. Kopsasin ton Sampsan lainauksen seppo77:lta suoraan grokille.

"Onko tämä sinun kirjoittamaa tekstiä?":
Grokki kanssa tuottaa hyvin samankaltaista outputtia jos sille syöttää pelkästään aikaisemmat viestit. Tekee myös niitä yksinkertaisia kirjoitusvirheitä mitä ei pitänyt olla ai tekstissä. Välilyöntejä sanojen keskellä jne.

Toki mikään ei ole varmaa näiden arvauskoneiden kanssa, eikä toistettavuutta voi oikein saavuttaa.
Näiden olkiukkojen ja nimitysten käyttämisen perusteella sinulla ei ilmeisesti ole tarkoitus keskustella aiheesta rakentavasti?

Kuten jo sanoin, minulla kyseiset tekoälytyökalut arvioivat tekstin 100 % ihmisen tuottamaksi. Grammarly ja GPTZero tunnistivat suomenkielisen tekstin, sen tarkemmin niiden tunnistuksen tarkkuudesta suomeksi en osaa sanoa. Ja kuten jo totesin, ylläpidolla ei valitettavasti ole resursseja jäädä tutkimaan tällaisessa asiassa yksittäiseen viestiin liittyviä epäilyjä pidemmäksi aikaa. Tällainen yksi vakavuusasteeltaan varsin vähäinen foorumiraportti on minimaalinen osa työnkuvaa, mitä päivän aikana on hoidettavana.
Clanker experttiä en tarkoittanut negatiivisessa mielessä. Olen pahoillani jos se siten tulkittiin. Teknisillä aloilla alkaa kohta kaikkien tittelit olemaan tuo, minä mukaanlukien.

Ykisttäinen foorumipostaus on arvoltaan erittäin vähäinen kokonaiskuvassa, mutta se miten tälläiseen llm skeidaan ylipäänsä reagoidaan ei ole asiana vähäinen.

Olisi ikävää jos nämä foorumit degeneroituisivat vahvasti llm avusteiseksi väännöksi ties mistä turhasta. Noita kun alkaa saamaan jo plugarina selaimeen ja senkus vaan pyytää "väittelemään" asiasta kuin asiasta käyttäjää (heikkolaatuisesti) imitoiden.
 
Ei hyvää päivää taas, jo on tekoälystä taas saatu aikaan kalabaliikki, ja musta ainakin Kokkonen oli tossa täysin selkee sen kans et asia käsitelty loppuun ja vääntö asiasta vaan jatkuu. Koeta Juha jaksaa...
 

Statistiikka

Viestiketjuista
305 519
Viestejä
5 173 063
Jäsenet
82 702
Uusin jäsen
Hampsuli

Hinta.fi

Back
Ylös Bottom