فهم دور أجهزة الاستشعار والرادار في القيادة الذاتية

فهم دور أجهزة الاستشعار والرادار في القيادة الذاتية

بدءاً من هندسة القيادة الذاتية, تم تطوير جميع الروبوتات ببنية معالجة تكتسب الأحداث من خلال الإدراك. على غرار عيون وآذان الإنسان. الحصول على العوائق المحيطة ومعلومات الطريق من خلال الكاميرات, رادار, خرائط, إلخ., وذلك لحساب خطة استجابة معقولة.

بناء على تحليلنا للبشر, نستخدم المعلومات التي نراها في أعيننا في كل لحظة من حياتنا اليومية للحكم على قرارنا التالي. لكن, هناك دائمًا تأخير زمني من العين إلى الرأس إلى اليدين إلى القدمين, وينطبق الشيء نفسه على القيادة الذاتية. لكن على عكس الروبوتات, أدمغتنا تلقائيًا “يتنبأ” كيف ستتكشف الأمور. حتى في غضون أجزاء من الثانية, تسترشد قراراتنا بالتنبؤات حول ما نراه, ولهذا السبب يمكننا التعامل مع حالات طوارئ معينة بشكل أسرع من الروبوتات. لذلك, سنضيف وحدة تنبؤ قبل قرار القيادة المستقلة.


تتطلب عملية الإدراك أيضًا فحصًا دقيقًا ويمكن تقسيمها إلى مرحلتين: “الاستشعار” و “تصور”. “الاستشعار” يحتاج إلى الحصول على بيانات أولية مثل الصور, اصوات, إلخ., بينما “تصور” هي معلومات مفيدة تم فرزها من الصور أو الأصوات. المعلومات المفيدة عن “تصور” يمكن تقسيمها كذلك إلى الإدراك في الوقت الحقيقي وإدراك الذاكرة. غالبًا ما يكون لدى البشر أو الروبوتات استراتيجيات مختلفة عند معالجة المعلومات.

الإدراك في الوقت الحقيقي هو المعلومات التي تحصل عليها أجهزة الاستشعار في كل لحظة (مشتمل الكاميرات, رادار, GPS, إلخ.)

إدراك الذاكرة هو المعلومات (بما في ذلك تحديد المواقع, خريطة, معلومات اتصال السيارة, إلخ.) يتم جمعها ومعالجتها بواسطة عوامل خارجية أو ذكريات سابقة.
فضلاً عن ذلك, the algorithms and processing methods of various sensors often have contradictions in information. The radar sees an obstacle in front of you and the camera tells you that there is no obstacle. At this time, you need to add afusionmodule. Make further correlation and judgment on inconsistent information.
In order to ensure the system’s understanding and grasp of the environment, it is usually necessary to obtain a large amount of information about the surrounding environment, including the position of obstacles, the speed, the precise shape of the lane ahead, the position type of the sign, إلخ. This information is usually obtained by fusing data from various sensors such as Lidar, Surrounding/Looking Camera (Camera), and Millimeter Wave Radar.

شارك هذا المنشور