Ma in questo caso, il computer deve riconoscere le cose progettate per l’uomo.
Lidar è molto bravo a stimare la distanza esatta di un oggetto, ma non ha idea di cosa sia. Ad esempio, sai che qualcosa si trova a 15,231451 metri di distanza. Ma non sai se è un muro di cemento o un banco di nebbia.
La telecamera vede ciò che vediamo noi. E una buona IA può quindi dirti che c’è un banco di nebbia e che si trova tra i 14 ei 16 metri da te.
Raccogli queste informazioni. Quindi apprendi che c’è un banco di nebbia a 15.231451 metri di distanza. Ma questo aggiunge ancora valore alla tua auto a guida autonoma? E se la tua risposta è “sì”, questo valore è sufficiente per rendere l’auto tre volte più costosa?
Nel mondo reale, Lidar è usato per qualcosa di completamente diverso. Per prima cosa esegui la scansione dell’ambiente in auto, come se stessi lavorando in Google Streetview. Con telecamere + lidar, puoi fare una mappa molto dettagliata dell’area. In ufficio, centinaia di persone hanno messo degli adesivi su tutti gli oggetti fissi che la telecamera ha visto. Ora l’IA può usare queste informazioni per guidare lungo questa strada. Finché nulla cambia per strada. Tutta la potenza di calcolo può ora essere trasferita a oggetti dinamici come automobili e persone.
Ma questo non può mai essere pratico. Perché devi aggiornare costantemente le mappe. Quindi le auto che vagano in base a questo principio sono limitate a un’area oa una città. O solo sulle principali autostrade, perché semplicemente non ci si può permettere di scalare qualcosa del genere. Soprattutto se ogni casa automobilistica manterrà il proprio sistema. Quindi tutti questi investimenti sono fatti in un sistema che non potrà mai essere completato.
“Esploratore. Imprenditore impenitente. Fanatico dell’alcol. Scrittore certificato. Aspirante evangelista televisivo. Fanatico di Twitter. Studente. Studioso del web. Appassionato di viaggi.”