Autonomisen ajamisen järjestelmän ominaisuudet varmaan voidaan kerrostaa monella tavalla, mutta karkeimmalla tasolla kerroksia on kaksi:
- Auton ympärillä olevan maailman tulkitseminen sensoreiden välittämän datan perusteella ja kolmiulotteisen mallin luominen sen datan perusteella auton ympärillä ja reitillä olevista kohteista. Sekä toki liikennemerkkien ja -valojen tulkitseminen.
- Ajaminen kolmiulotteisen mallin sisällä liikennesääntöjen mukaisesti ja mahdollisimman turvallisesti.
Sensorit, kuten kamerat vs. muut sensorit vaikuttavat näistä vain ensimmäiseen kerrokseen, ja ainakin Teslan näytön omien visualisointien mukaan kamerapohjaisella järjestelmällä tuo toimii tällä hetkellä varsin hyvin. Itse olen noita FSD beta videoita jonkun verran katsellut, niin järjestelmä huomaa ja myös visualisoi esim. sen että onko tien laitaan parkkeeratun auton ovi auki vai ei.
Oman tulkintani mukaan tuo toinen kerros, eli ajamisen logiikka on se haastavampi. Ja koska Tesla tavoittelee ajamista kaikkialla, ei vain spesifisesti rajatuilla maantieteellisillä alueilla (joiden sisällä etukäteen tiedetään esim. risteysten etuajo-oikeussäännöt ja nopeudet), tätä on lähdetty tekemään koneoppimiseen ja tekoälyyn pohjautuvalla ratkaisulla. Tämäkin näyttää Teslan tapauksessa toimivan jo melko hyvin, mutta jonkin verran työtä on vielä edessä. Ehkä vuoden päästä ollaan jo lähempänä valmista. Ja joka tapauksessa sensorisetupilla ei tämän kerroksen osalta ole merkitystä.
Muutama FSD beta video jossa nuo visualisoinnit näkyvät:
Itseasiassa, näitä katselleena tulee väkisinkin mieleen että autonominen ajaminen on jo todella lähellä! Ehkä 12 - 24 kuukautta kun voidaan ottaa "FSD Beta"-ominaisuudesta tuo Beta pois?
Ja tähän kaupunki-, taajama- ja asuinalue-ajamiseen verrattuna joku moottoritie-ajaminen on lasten leikkiä ilman risteävää liikennettä, jalankulkijoita ja pyöräilijöitä yms.