ISSN 0021-3454 (печатная версия)
ISSN 2500-0381 (онлайн версия)
Меню

4
Содержание
том 67 / Апрель, 2024
СТАТЬЯ

DOI 10.17586/0021-3454-2021-64-7-559-566

УДК 629.053

АЛГОРИТМ ПОВЫШЕНИЯ ПРОСТРАНСТВЕННОЙ ПЛОТНОСТИ ЛИДАРНОГО ОБЛАКА ТОЧЕК ДЛЯ РЕШЕНИЯ ЗАДАЧ АВТОНОМНОГО ВОЖДЕНИЯ АВТОМОБИЛЯ

Старобыховская А. А.
Университет ИТМО; Институт дизайна и урбанистики;


Лашманов О. Ю.
ООО «АРРАЙВЕЛ РУС»; Старший алгоритмист


Коротаев В. В.
Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация; профессор


Читать статью полностью 

Аннотация. Для решения задачи повышения плотности точек лидарных облаков предложены несколько алгоритмов, в том числе базирующихся на нейросетях. Лидарные облака высокой плотности могут повышать точность алгоритмов распознавания окружающей сцены и локализации. Качество алгоритмов оценивается следующими метриками: количество ложных точек, средняя погрешность, среднеквадратическая погрешность. В отличие от существующих, предложенные алгоритмы направлены на определение не только позиции дополнительных точек, но и коэффициента их отражательной способности. Приведены результаты экспериментов, показано, что наименьшей погрешностью обладает нейросетевой алгоритм без использования нормализации и сигмоидального взвешивания функции потерь. Наименьшее число ложных точек обеспечивает нейросетевой алгоритм с добавлением нормализации.
Ключевые слова: повышение плотности облака точек, лидар, нейронные сети, нормали, Unet, беспилотные автомобили

Список литературы:
  1. Caesar H., Bankiti V., Lang A. H., Vora S., Liong V. E., Xu Q., Krishnan A., Pan Y., Baldan G., Beijbom O. nuScenes: A multimodal dataset for autonomous driving // Proc. of the IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR). 2020. Vol. 1. P. 11621—11631.
  2. Sun P., Kretzschmar H., Dotiwalla X., Chouard A., Patnaik V., Tsui P., Guo J., Zhou Y., Chai Y., Caine B., Vasudevan V. Scalability in perception for autonomous driving: Waymo open dataset // IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR). 2020. Vol. 1. pp. 2446—2454.
  3. Yang B., Luo W., Urtasun R. PIXOR: Real-time 3D object detection from point clouds // IEEE Computer Society. 2018. Vol. 1. P. 7652—7660.
  4. Liang M. et al. Deep continuous fusion for multi-sensor 3d object detection // Proc. of the European Conf. on Computer Vision (ECCV). 2018. Vol. 1. P. 641—656.
  5. Rozenberszki D., Majdik A. L. LOL: Lidar-only odometry and localization in 3D point cloud maps // IEEE Intern. Conf. on Robotics and Automation (ICRA). 2020. P. 4379—4385.
  6. Chen S., Liu B., Feng C., Vallespi-Gonzalez C., Wellington C. 3D point cloud processing and learning for autonomous driving: Impacting map creation, localization, and perception // IEEE Signal Processing Magazine. 2021. Vol. 38, N 1. P. 68—86.
  7. Bai X., Luo Z., Zhou L., Fu H., Quan L., Tai C. L. D3Feat: Joint learning of dense detection and description of 3D local features // IEEE Computer Society. 2020. Vol. 1. P. 6358—6366.
  8. Ouster, Inc. Mid-Range High-Resolution Imaging Lidar [Электронный ресурс]: , 18.7.2019.
  9. Alsadik B. Ideal angular orientation of selected 64-channel // Remote Sensing. 2020. Vol. 12, N 510.
  10. Geiger A., Lenz P., Stiller C., Urtasun R. Vision meets robotics: the KITTI dataset // Intern. Journal of Robotics Research. 2013. Vol. 32. P. 1231—1237.
  11. Carballo A., Lambert J., Cano A. M., Wong D., Narksri P., Kitsukawa Y., Takeuchi E., Kato S., Takeda K. LIBRE: The multiple 3D LiDAR Dataset // IEEE Intelligent Vehicles Symp. 2020. Vol. 4. P. 1094—1101.
  12. Casas S., Gulino C., Liao R., Urtasun R. SPAGNN: Spatially-aware graph neural networks // IEEE Intern. Conf. on Robotics and Automation, Paris, France. 2020. P. 9491—9497.
  13. He K., Zhang X., Ren S., Sun J. Deep residual learning for image recognition // IEEE Computer Society. 2016. Vol. 1. P. 770—778.
  14. Wang X., Yu K., Wu S., Gu J., Liu Y., Dong C., Qiao Y., Change Loy C. Esrgan: Enhanced super-resolution generative adversarial networks // Proc. of the European Conf. on Computer Vision (ECCV) Workshops. 2018. P. 63—79.
  15. Lequan Yu, Xianzhi Li, Chi-Wing Fu, Cohen-Or D., Pheng-Ann Heng. PU-Net: Point Cloud Upsampling Network // IEEE Conf. on Computer Vision and Pattern Recognition (CVPR). 2018. Vol. 1. P. 2790—2799.
  16. Ronneberger O., Fischer P., Brox T. U-net: Convolutional Networks for Biomedical Image Segmentation. Cham: Springer, 2015. Vol. 9351. P. 234—241.
  17. Hu X., Naiel M. A., Wong A., Lamm M., Fieguth P. RUNet: A Robust UNet architecture for image super-resolution // Computer Society. 2019. Vol. 1. P. 505—507.