Comprendere il ruolo di sensori e radar nella guida autonoma

Comprendere il ruolo di sensori e radar nella guida autonoma

A partire dall'architettura della guida autonoma, tutti i robot sono sviluppati con un'architettura di elaborazione che acquisisce eventi attraverso la percezione. Simile agli occhi e alle orecchie umane. Ottieni ostacoli circostanti e informazioni sulla strada attraverso le telecamere, radar, mappe, eccetera., in modo da calcolare un ragionevole piano di risposta.

Sulla base della nostra analisi degli esseri umani, usiamo le informazioni che vediamo nei nostri occhi in ogni momento della nostra vita quotidiana per giudicare la nostra prossima decisione. Tuttavia, c'è sempre un ritardo temporale dall'occhio alla testa, dalle mani ai piedi, e lo stesso vale per la guida autonoma. Ma in contrasto con i robot, automaticamente il nostro cervello “prevedere” come si svolgeranno le cose. Anche entro millisecondi, le nostre decisioni sono guidate da previsioni su ciò che vediamo, ecco perché possiamo gestire determinate emergenze molto più velocemente dei robot. Perciò, aggiungeremo un modulo di previsione prima della decisione di guida autonoma.


Anche il processo di percezione richiede un attento esame e può essere suddiviso in due fasi: “rilevamento” e “percezione”. “Rilevamento” ha bisogno di ottenere dati grezzi come le immagini, suoni, eccetera., mentre “percezione” sono informazioni utili ordinate da immagini o suoni. Le informazioni utili di “percezione” può essere ulteriormente suddiviso in percezione in tempo reale e percezione della memoria. Gli esseri umani o i robot hanno spesso strategie diverse durante l'elaborazione delle informazioni.

La percezione in tempo reale è l'informazione ottenuta dai sensori in ogni momento (Compreso macchine fotografiche, radar, GPS, eccetera.)

La percezione della memoria è l'informazione (compreso il posizionamento, carta geografica, informazioni sulla connessione del veicolo, eccetera.) che viene raccolto ed elaborato da agenti esterni o memorie passate.
Inoltre, gli algoritmi e i metodi di elaborazione dei vari sensori hanno spesso contraddizioni nelle informazioni. Il radar vede un ostacolo davanti a te e la telecamera ti dice che non ci sono ostacoli. A quest'ora, devi aggiungere a “fusione” modulo. Fare ulteriori correlazioni e giudizi su informazioni incoerenti.
Al fine di garantire la comprensione e la comprensione dell'ambiente da parte del sistema, di solito è necessario ottenere una grande quantità di informazioni sull'ambiente circostante, compresa la posizione degli ostacoli, la velocità, la forma precisa della corsia davanti, il tipo di posizione del segno, eccetera. Queste informazioni vengono solitamente ottenute fondendo i dati di vari sensori come Lidar, Telecamera che circonda/guarda (Telecamera), e radar a onde millimetriche.

Condividi questo post