Taitaa tuo labelointi massadatasta olla ainoa vaihtoehto, että pystytään ennustamaan liikettä, käyttäytymistä ja voiko ajaa turvallisesti yli (muovikassit, savu yms). Ilman että tiedetään mikä on kyseessä on aika vaikeaa tehdä oikeita ratkaisuja. Aika tuskainen olisi käyttää jos jarruttaisi mihin tahansa mitä luulee esteeksi tiellä tai tiensivussa. Lue nykyiset siltoihin tutkakaiusta jarruttelut ym. phantom braking. Isolla fleetillä, kuten Teslalla on, saadaan kyllä dataa erikoisimmistakin tilanteista tienpäältä, ei toki ikinä kaikkea mahdollista, mutta käytännössä realistisesti niin että valtaosa autoista ei kohtaa mitään "uutta ja tunnistamatonta" elinkaarensa aikana.
NykyAP ei toki ole täydellinen ja vaatii ihmistä tueksi kuten ohjeistetaankin. Valvotusti kuitenkin erittäin hyvä ajoavustin jo nyt. NykyAP softan kehitys lienee jäissä FSD beta kehityksen takia - mikä ihan ymmärrettävää kun täys rewrite on tehty, joka on taas merkittävästi kyvykkäämpi kuin vanha (kunhan saadaan koulutettua neuroverkko). Jos muistatte miten nykyinen NOA parani koulutusjaksonsa aikana niin odotan mielenkiinnolla fsd beta laajentumista.
Sitä miten kaukana ollaan oikeasti toimivasta ja luotettavasta fsd:stä ei taida kukaan tietää ja asiaa on hyvin vaikea arvioida kun kehitys ei ole lineaarista. Datamäärä kasvaa tällä hetkellä exponentiaalisesti autokannan mukana ja jos softapuoli on kunnossa (lokaali maksimi riittävän korkealla) niin periaatteessa "riittävä taso" voi tulla yllättävän nopeasti. Jokaisella softa/rautaversiolla on oma "lokaali maksimi" - teoreettinen maksimi suorite mitä ei voi ylittää - kysymys on vain siitä että onko tämä piste riittävän korkealla turvalliseen ajosuoritteeseen 99,999999% tapauksista ja montako ysiä lopulta tarvitaan...
Hardwaresta sen verran, että softalla voidaan vielä tehdä todella paljon ennen kuin raudan rajat tulee vastaan. Se riittääkö nykyrauta - emme tiedä - aika näyttää. Esim, jos varjossa ei ole dataa, tarkistetaan onko kohdalta dataa joitain sekunteja sitten kuvatussa datassa ja kaivetaan se muistista. Tai pinotaan muutamia frameja päällekkäin -> nostetaan kohinasta signaalia. Kameroilla on lisäksi jonkin verran päällekkäisyyttä esim eteenpäin on ultrawide ja normilinssi, onko kummassakaan luettavaa dataa kohteesta jne. Tämä siis ihan ajatuksen virtaa.
Siis eikös nuo molemmat oikeastaan pidä paikkaansa. Eli neuroverkko oppii itse syötetystä datasta ja jotta se voi oppia on data sille koottava ja syötettävä.
Meillä suomessa on vielä legacy stack autoissa ja sitä ei ole edes suunniteltu kaupunkiliikenteeseen ja parkkipaikoille joten ei kannata sen osalta olla yllättynyt ettei kaikkea tunnista.
Loppukaneettina siis se että kyseessä on kehittyvä ja muuttuva asia. Tilanne paranee kokoajan ja vuoden päästä tilanne voi olla jo ihan eri. Tätä ei voi sanoa Legacy OEM tuotteista.
Tällä hetkellä ollaan jossain älykkään kaistavahdin ja adaptiivisen vakkarin tasolla NykyAP:ssa ja siinä roolissaan se toimii jo hyvin ja helpottaa kaupunkien välisiä siirtymiä merkittävästi.