ISSN 0021-3454 (печатная версия)
ISSN 2500-0381 (онлайн версия)
Меню

2
Содержание
том 67 / Февраль, 2024
СТАТЬЯ

DOI 10.17586/0021-3454-2022-65-3-218-226

УДК 004.896

ОПТИМИЗАЦИОННЫЕ АЛГОРИТМЫ ПОВЫШЕНИЯ ТОЧНОСТИ И РОБАСТНОСТИ ВИЗУАЛЬНОЙ ОДОМЕТРИИ НАЗЕМНЫХ МОБИЛЬНЫХ РОБОТОВ

Махмуд Ж. .
Университет ИТМО, факультет систем управления и робототехники, лаборатория биомехатроники и энергоэффективной робототехники;


Выонг Х. Т.
Университет ИТМО, факультет систем управления и робототехники, лаборатория биомехатроники и энергоэффективной робототехники;


Бурков А. М.
ПАО „Сбербанк“, лаборатория робототехники;


Колюбин С. А.
Университет ИТМО, Санкт-Петербург, 197101, Российская Федерация; доцент


Читать статью полностью 

Аннотация. Рассматривается задача повышения точности и робастности методов одновременной локализации и картирования с использованием численной оптимизации с ограничениями. В основе предлагаемого решения лежит модификация алгоритма ORB-SLAM3, учитывающая особенности кинематики наземных роботов и использующая комплексирование данных визуальной и колесной одометрии, блочное уравнивание (bundle adjustment) для настройки параметров, комплексно характеризующих состояние визуального сенсора, а также алгоритм замыкания петли для корректировки карты. Результаты апробации на наборе данных OpenLoris показывают, что для ряда сценариев предлагаемое решение существенно превосходит по точности и робастности известный алгоритм ORB-SLAM3.
Ключевые слова: мобильные роботы, локализация, оптимизация, одометрия

Список литературы:
  1. Bailey T., Durrant-Whyte H. Simultaneous localization and mapping (SLAM): Part II. // IEEE Robotics & Automation Magazine. 2006. Vol. 13(3). P. 108—117.
  2. Campos C., Elvira R., Rodriguez J., Montiel J. M. Tardos J. D. ORB-SLAM3: An Accurate Open-Source Library for Visual, Visual–Inertial, and Multimap SLAM // IEEE Trans. on Robotics. 2021. P. 1—17.
  3. Shi X., Li D. et al. Are We Ready for Service Robots? The OpenLORIS-Scene Datasets for Lifelong SLAM // Intern. Conf. on Robotics and Automation (ICRA), Paris, France. 2020. P. 3139—3145.
  4. Bloesch M., Burri M., Omari S., Hutter M., Siegwart R. Iterated extended Kalman filter based visual-inertial odometry using direct photometric feedback // Intern. Journal of Robotics Research. 2017. Vol. 36(10). P. 1053—1072.
  5. Geneva P., Eckenhoff K., Lee W., Yang Y., Huang G. 2020. OpenVINS: A Research Platform for Visual-Inertial Estimation // IEEE Intern. Conf. on Robotics and Automation (ICRA). 2020.
  6. Kummerle R., Grisetti G., Strasdat H., Konolige K., Burgard W. G2o: A general framework for graph optimization // IEEE Intern. Conf. on Robotics and Automation. 2011.
  7. Shoudong Huang, Gamini Dissanayake. Convergence and Consistency Analysis for Extended Kalman Filter Based SLAM // IEEE Trans. on Robotics. 2007. Vol. 23(5). P. 1036—1049.
  8. Qin T., Li P., Shen S. VINS-Mono: A Robust and Versatile Monocular Visual-Inertial State Estimator // IEEE Trans. on Robotics. 2018. Vol. 34(4). P. 1004—1020.
  9. Usenko V., Demmel N., Schubert D., Stuckler J., Cremers D. Visual-Inertial Mapping With Non-Linear Factor Recovery // IEEE Robotics and Automation Letters. 2020. Vol. 5(2). P. 422—429.
  10. Quan M., Piao S., Tan M., Huang S. Tightly-Coupled Monocular Visual-Odometric SLAM Using Wheels and a MEMS Gyroscope // IEEE Access. 2019. N 7. P. 97374—97389.