Comprendre le rôle des capteurs et du radar dans la conduite autonome

Comprendre le rôle des capteurs et du radar dans la conduite autonome

Partir de l'architecture de la conduite autonome, tous les robots sont développés avec une architecture de traitement qui acquiert des événements par la perception. Semblable aux yeux et aux oreilles humains. Obtenez des obstacles environnants et des informations sur la route grâce à des caméras, radar, Plans, etc., afin de calculer un plan de réponse raisonnable.

Basé sur notre analyse des humains, nous utilisons les informations que nous voyons dans nos yeux à chaque instant de notre vie quotidienne pour juger de notre prochaine décision. Cependant, il y a toujours un délai entre les yeux, la tête, les mains et les pieds, et idem pour la conduite autonome. Mais contrairement aux robots, notre cerveau automatiquement “prédire” comment les choses vont se dérouler. Même en quelques millisecondes, nos décisions sont guidées par des prédictions sur ce que nous voyons, c'est pourquoi nous pouvons gérer certaines urgences beaucoup plus rapidement que les robots. Par conséquent, nous ajouterons un module de prédiction avant la décision de conduite autonome.


Le processus de perception nécessite également un examen minutieux et peut être divisé en deux étapes: “détection” et “la perception”. “Détection” a besoin d'obtenir des données brutes telles que des images, des sons, etc., tandis que “la perception” est une information utile triée à partir d'images ou de sons. Les informations utiles de “la perception” peut être divisé en perception en temps réel et en perception de la mémoire. Les humains ou les robots ont souvent des stratégies différentes lors du traitement de l'information.

La perception en temps réel est l'information obtenue par les capteurs à chaque instant (y compris appareils photo, radar, GPS, etc.)

La perception de la mémoire est l'information (y compris le positionnement, carte, informations de connexion du véhicule, etc.) qui est collecté et traité par des agents externes ou des souvenirs passés.
en outre, les algorithmes et les méthodes de traitement des différents capteurs présentent souvent des contradictions dans les informations. Le radar voit un obstacle devant vous et la caméra vous indique qu'il n'y a pas d'obstacle. En ce moment, vous devez ajouter un “la fusion” module. Faire une corrélation et un jugement supplémentaires sur des informations incohérentes.
Afin d’assurer la compréhension et la maîtrise de l’environnement par le système, il est généralement nécessaire d'obtenir une grande quantité d'informations sur le milieu environnant, y compris la position des obstacles, la vitesse, la forme précise de la voie devant vous, le type de position du signe, etc. Ces informations sont généralement obtenues en fusionnant les données de divers capteurs tels que Lidar, Caméra environnante/regardante (Caméra), et radar à ondes millimétriques.

Partager cette publication