Анализ алгоритмов геопривязки положения беспилотного летательного аппарата по данным визуально-инерциального одометра
https://doi.org/10.17586/0021-3454-2026-69-3-201-210
Аннотация
Представлены известные алгоритмы детектирования и сопоставления особых точек изображения при решении задачи автономного позиционирования беспилотного летательного аппарата (БПЛА), оснащенного видеокамерой, в условиях отсутствия сигнала от глобальной спутниковой навигационной системы. Идея автономного позиционирования БПЛА заключалась в последовательном сравнении соседних пар кадров видеопотока для отслеживания перемещений носителя видеокамеры в промежутке времени между упомянутыми кадрами. Цель исследования — по результатам сравнительного анализа алгоритмов выделить те, которые наилучшим образом позволяют отслеживать координаты носителя. Реальные полетные данные, используемые для построения контрольной траектории, получены с помощью макетного образца летательного аппарата самолетного типа, оснащенного бортовой инерциальной навигационной системой, имеющей набор микроэлектромеханических сенсоров, и визуальным одометром с надир-ориентированной видеокамерой. Сопоставление реальных полетных данных и результатов работы алгоритмов производилось по нескольким показателям качества: минимуму среднеквадратической ошибки позиционирования, максимальному отклонению от контрольной траектории и среднему времени, необходимому для обработки пары соседних кадров. Результаты сравнения алгоритмов сведены в таблицу, также для наглядного сравнения приведены графики контрольной траектории и оценок, полученные с помощью данных алгоритмов. По совокупности показателей качества позиционирования для реализации рекомендованы нейросетевые алгоритмы d2net, darkfeat и XFeat(dense).
Об авторах
Е. А. ЖирковРоссия
Евгений Андреевич Жирков — отдел разработки; программист
Рязань
Е. Р. Муратов
Россия
Евгений Рашитович Муратов — канд. техн. наук; отдел разработки; ведущий программист
Рязань
Список литературы
1. Мирошниченко А. П., Мухин И. Е. Методы навигации по данным аэроландшафта для малых БЛА // Изв. ЮЗГУ. Серия. Управление, вычислительная техника, информатика. Медицинское приборостроение. 2023. Т. 14, № 3. С. 144–156.
2. Пешехонов В. Г. Высокоточная навигация без использования информации глобальных навигационных спутниковых систем // Гироскопия и навигация. 2022. Т. 30, № 1. C. 3–11.
3. Макаренко С. И. Противодействие беспилотным летательным аппаратам. СПб: Наукоемкие технологии, 2020. 204 с.
4. Кащеев А. А., Кошелев В. И. Оценка эффективности подавления сигналов спутниковых радионавигационных систем преднамеренными помехами // Журнал радиоэлектроники. 2012. № 7. С. 1–12.
5. Conte G., Doherty P. An integrated UAV navigation system based on aerial image matching // Proc. IEEE Aerospace Conf. 2008. P. 1–10.
6. Lu Y., Xue Z., Xia G.-S., Zhang L. A survey on vision-based UAV navigation // Geo-Spatial Information Science. 2018. Vol. 21, N 1. P. 21–32.
7. Yang T., Ren Q., Zhang F., Xie B., Ren H., Li J., Zhang Y. Hybrid camera array-based UAV auto-landing on moving UGV in GPS-denied environment // Remote Sensing. 2018. Vol. 10. P. 1829.
8. Ян Г., Мэн В.-Д., Дун Х.-Г., Фэн Н.-Н. Использование ключевых точек и линий изображения в задаче визуально-инерциальной одометрии в реальном времени // Гироскопия и навигация. 2023. Т. 31, № 4. C. 96–117.
9. Ефимов А. И., Новиков А. И. Алгоритм поэтапного уточнения проективного преобразования для совмещения изображений // Компьютерная оптика. 2016. Т. 40, № 2. С. 258–265.
10. Szeliski R. Image alignment and stitching: a tutorial // Foundations and Trends in Computer Graphics and Vision. 2006. Vol. 2, N 1. P. 1–104.
11. Али Б., Садеков Р. Н., Цодокова В. В. Алгоритмы навигации беспилотных летательных аппаратов с использованием систем технического зрения // Гироскопия и навигация. 2022. Т. 30, № 4. С. 87–105.
12. Тихомиров В. В., Дзуев А. А., Голиков В. П., Требухов А. В. Калибровка БИНС с блоком инерциальных датчиков, закрепленным на амортизаторах // Гироскопия и навигация. 2019. Т. 27, № 1. C. 33–46.
13. Luhmann T., Robson S., Kyle S., Boehm J. Close-range photogrammetry and 3D imaging. Berlin: De Gruyter, 2013. 684 p.
14. Fleps M., Mair E., Ruepp O., Suppa M., Burschka D. Optimization based IMU camera calibration // Proc. IEEE/RSJ Intern. Conf. on Intelligent Robots and Systems, SanFrancisco, 2011. P. 3297–3304.
15. Zhao X., Wu X., Miao J., Chen W., Chen P.C.Y., Li Z. ALIKE: accurateand lightweight keypoint detection and descriptor extraction // Trans. Multi. 2023. Vol. 25. P. 3101–3112.
16. Chen H., Luo Z., Zhou L., Tian Y., Zhen M., Fang T., McKinnon D., Tsin Y., Quan L. A SpanFormer: detector-free image matching with adaptive span transformer // Proc. Computer Vision — ECCV 2022: 17th European Conf. Part XXXII. Berlin: Springer-Verlag, 2022. P. 20–36.
17. Dusmanu M., Rocco I., Pajdla T., Pollefeys M., Sivic J., Torii A. D2Net: Atrainable CNN for joint description and detection of local features // Proc. IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR-2019), Long Beach, 2019.P. 8084–8093.
18. He Y., Hu Y., Zhao W., Li J., Liu Y.-J., Han Y.,Wen J. DarkFeat: noise-robust feature detector and descriptor for extremely low-light RAW images // Proc. of the 37th AAAI Conf. on Artificial Intelligence, 35th Conf. on Innovative Applications of Artificial Intelligence, 30th Symp. on Educational Advances in Artificial Intelligence (AAAI’23/ IAAI’23/EAAI’23). 2023. Vol. 37. AAAI Press. P. 826–834.
19. Tyszkiewicz M. J., Fua P., Trulls E. DISK: learning local features with policy gradient // Proc. of the 34th Intern. Conf. on Neural Information Processing Systems (NIPS’20). N.Y.: Red Hook, 2020. P. 14254–14265.
20. Cheng X., Lin H., Wu X., Yang F., Shen D. Improving video-text retrieval by multi-stream corpus alignment and dual softmax loss. // ArXiv, abs/2109.04290. 2021.
21. Lindenberger P., Sarlin P.-E.,Pollefeys M. LightGlue: local feature matching at light speed // Proc. IEEE/CVF Intern. Conf. on Computer Vision (ICCV), Paris, 2023. P. 17581–17592.
22. Wang Y., He X., Peng S., Tan D., Zhou X. Efficient LoFTR: semi-dense local feature matching with sparse-like speed // Proc. IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR-2024). Seattle, 2024. P. 21666–21675.
23. Wang C., Zhang G., Cheng Z., Zhou W. Rethinking low-level features for interest point detection and description // Proc. Computer Vision — ACCV 2022: 16th Asian Conf. on Computer Vision. Part II. Berlin: Springer-Verlag, 2022. P. 108–123.
24. Sun J., Shen Z., Wang Y., Bao H., Zhou X. LoFTR: detector-free local feature matching with transformers // IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR). IEEE, 2021. P. 8918–8927.
25. Leroy V., Cabon Y., Revaud J. Grounding image matching in 3D with MASt3R // Proc. Computer Vision — ECCV 2024: 18th European Conf. Berlin: Springer-Verlag, 2024. P. 71–91.
26. Revaud J., Weinzaepfel P., De Souza C., Humenberger M. R2D2: repeatable and reliable detector and descriptor // Proc. of the 33rd Intern. Conf. on Neural Information Processing Systems. Curran Associates Inc., Red Hook, 2019. P. 12414–12424.
27. Giang K.T., Song S., Jo S. TopicFM: robust and interpretable topic-assisted feature matching // AAAI Conf. on Artificial Intelligence. 2022.
28. Potje G., Cadar F., Araujo A., Martins R., Nascimento E. R. XFeat: accelerated features for lightweight image matching // Proc. IEEE/CVF Conf. on Computer Vision and Pattern Recognition (CVPR), Seattle, 2024. P. 2682–2691.
29. Tuzcuoğlu Ö., Köksal A., Sofu B., Kalkan S.,Alatan A.A. XoFTR: cross-modal feature matching transformer // Proc. IEEE/CVF Conf. on Computer Vision and Pattern Recognition Workshops (CVPRW), Seattle, 2024. P. 4275–4286.
30. Jiang X., Ren J., Li Z., Zhou X., Liang D., Bai X. MINIMA: modality invariant image matching // arxiv. org›html/2412.19412v1.
31. Lowe D. G. Distinctive image features from scale-invariant keypoints // Intern. Journal of Computer Vision. 2004. Vol. 60, N 2. P. 91–110.
32. Муратов Е. Р., Жирков Е. А. Реализация визуально-инерциального одометра с надир-ориентированной видеокамерой //Материалы ХXVII конф. молодых ученых „Навигация и управление движением“ / Под общ. ред. В. Г. Пешехонова. СПб: ЦНИИ „Электроприбор“, 2025.
Рецензия
Для цитирования:
Жирков Е.А., Муратов Е.Р. Анализ алгоритмов геопривязки положения беспилотного летательного аппарата по данным визуально-инерциального одометра. Известия высших учебных заведений. Приборостроение. 2026;69(3):201-210. https://doi.org/10.17586/0021-3454-2026-69-3-201-210
For citation:
Zhirkov E.A., Muratov E.R. Analysis of Algorithms for Georeferenced Positioning of an Unmanned Aerial Vehicle Using Visual-Inertial Odometer Data. Journal of Instrument Engineering. 2026;69(3):201-210. (In Russ.) https://doi.org/10.17586/0021-3454-2026-69-3-201-210
JATS XML





















