Kun näin uusimman FortNine:n videon ( ) niin muistin tämän kommentin (video siis kertoo kahdesta ilmeisen vast'ikään tutkitusta “Tesla jyräsi yöllä moottoritiellä pari-takavaloilla varustetun moottoripyörän yli, tappaen moottoripyöräilijän”).
Kaksi kommenttiin liittyvää ilmiötä:
1. Ihan kuin ihmisaivot eivät käyttäisi “aikaleimoja” arvioidakseen etäisyyksiä... tätä on helppo kokeilla ihan itse aina ajaessa paikoissa joissa on hetkellisiä näköesteitä.
2. Ihan kuin pelkkä aikaleimatieto korvaisi sen puuttuvan samanaikaisen stereokuvan. Ne peräkkäiset saman kameran kuvat ovat samalta linjalta (jos auto ei sillä hetkellä kaarra), joten se ei poista sitä ongelmaa puuttuvasta syvyyserottelusta ...
Tässä siis yksi spekuloitu syy on tuo jälkimmäinen. Yhdellä kameralla nuo pari-takavalot näyttävät kauempana olevalta autolta. Kahdella kameralla (tai sillä tutkalla) tuon havainnon voisi (tutkan tapauksessa sensorifuusiolla) korjata. Yksi kamera näkee kaksi vaihtoehtoista totuutta (kaukana oleva auto tai lähellä oleva moottoripyörä), kahdella kameralla nähdään kolme totuutta (kaksi sivusuunnassa vaihtoehtoisessa paikassa olevaa autoa, tai sitten se moottoripyörä).
Toki, huomioiden tämänkaltainen turvallisuuskriittisen softan keskeneräisyys, olisi ”mielenkiintoista” nähdä miten tuo *nykyinen* versio reagoi esim. palaneisiin takavaloihin (joita täällä saarivaltiossa on ihan liikaa), tai virheellisesti kytkettyihin jarruvaloihin, tai muihin ihmiselle verrattain nopeasti opittaviin tilapäisiin poikkeustilanteisiin...