ISSN 0021-3454 (печатная версия)
ISSN 2500-0381 (онлайн версия)
Меню

10
Содержание
том 67 / Октябрь, 2024
СТАТЬЯ

DOI 10.17586/0021-3454-2021-64-2-104-108

УДК 519.713

АЛГОРИТМ ОБНАРУЖЕНИЯ ПОЛОСЫ ДВИЖЕНИЯ

Кориум М. С.
Университет ИТМО; факультет систем управления и робототехники;


Абдельсалам А. А.
Университет ИТМО; факультет систем управления и робототехники;


Перепелкина С. Ю.
Санкт-Петербургский политехнический университет Петра Великого, Санкт-Петербург, 195251, Российская Федерация; доцент


Читать статью полностью 

Аннотация. Решение задачи управления беспилотным автомобилем основывается на использовании теоретико-технических разработок в сфере технического зрения и траекторного управления. Методы технического зрения использованы для анализа окрестности движения транспортного средства. В основу разработки алгоритма положен глобальный анализ геометрических связей между элементами изображения: дорожной полосой и движущимся автомобилем. Этот алгоритм представлен как часть системы управления беспилотным автомобилем с использованием языка Lua, а также обобщенного преобразования Хафа. Приведены примеры реализации алгоритма.
Ключевые слова: транспортное средство, полоса движения, распознавание образов, техническое зрение

Список литературы:
  1. Ballard D. H., Brown Ch. M. Computer Vision. Prentice Hall, 1982. ISBN 0-13-165316-4.
  2.  Huang T. Computer Vision: Evolution and Promise // 19th CERN School of Computing / Ed. by C. E. Vandoni. Geneva, CERN. 1996-11-19. P. 21—25. ISBN 978-9290830955. DOI:10.5170/CERN-1996-008.21.
  3. Elmenreich W. Sensor Fusion in Time-Triggered Systems: PhD Thesis. Vienna, Austria: Vienna University of Technology, 2002. 173 p.
  4. Haghighat M. B. A., Aghagolzadeh A., & Seyedarabi H. Multi-focus image fusion for visual sensor networks in DCT domain // Computers & Electrical Engineering. 2011. Vol. 37, N 5. P. 789—797.
  5. Bengio Y., Courville A., Vincent P. Representation Learning: A Review and New Perspectives // IEEE Transactions on Pattern Analysis and Machine Intelligence.2013. Vol. 35, N 8. P. 1798—1828.
  6. Schmidhuber J. Deep Learning in Neural Networks: An Overview // Neural Networks. 2015. Vol. 61. P. 85—117. PMID 25462637. arXiv:1404.7828. DOI:10.1016/j.neunet.2014.09.003.
  7. Umbaugh S. E. Digital image processing and analysis: human and computer vision applications with CVIPtools. Boca Raton, FL: CRC Press, 2010. ISBN 978-1-4398-0205-2.
  8. Barrow H. G. and Tenenbaum J. M. Interpreting line drawings as three-dimensional surfaces // Artificial Intelligence. 1981. Vol. 17, N 1–3. P. 75—116.
  9. Lindeberg T. Edge detection // Encyclopedia of Mathematics / Ed. by M. Hazewinkel. Springer Science+Business Media B.V., Kluwer Academic Publishers, 2001. ISBN 978-1-55608-010-44.
  10. Lindeberg T. Edge detection and ridge detection with automatic scale selection // Intern. J. of Computer Vision. 1998. Vol. 30, N 2. P. 117—154.
  11. Wang Q., Zheng J., Xu H., Xu B., and Chen R. Roadside magnetic sensor system for vehicle detection in urban environments // IEEE Trans. Intel. Transp. Syst. 2018. Vol. 19, N 5. P. 1365—1374.
  12. Qian Y., Yang M., Wang C., and Wang B. Pedestrian feature generation in fish-eye images via adversary // Proc. IEEE Intern. Conf. Robot. Automat. 2018. May. P. 2007—2012.
  13. Pan X., Shi J., Luo P., Wang X., and Tang X. Spatial as deep: Spatial CNN for traffic scene understanding // Proc. 32nd AAAI Conf. Artif. Intel. 2018. P. 1—8.
  14. Wang Z., Ren W., and Qiu Q. LaneNet: Real-time lane detection networks for autonomous driving // arXiv:1807.01726. Jul. 2018.
  15. Ronneberger O., Fischer P., and Brox T. U-Net: Convolutional networks for biomedical image segmentation // Proc. Intern. Conf. Med. Image Comput. Comput.-Assist. Intervent. NY, USA: Springer, 2015. P. 234—241.
  16. Fu C., Hu P., Dong C., Mertz C., and Dolan J. M. Camera-based semantic enhanced vehicle segmentation for planar LIDAR // Proc. 21st Intern. Conf. Intel. Transp. Syst. 2018. Nov. P. 3805—3810.
  17. Caltagirone L., Scheidegger S., Svensson L., and Wahde M. Fast LIDAR-based road detection using fully convolutional neural networks // arXiv:1703.03613. 2017. Mar.
  18. Oliveira L., Burgard W., and Brox T. Efficient deep models for monocular road segmentation // Proc. IEEE/RSJ Intern. Conf. Intel. Robots Syst. 2016. Oct. P. 4885—4891.
  19. Aly M. Real time detection of lane markers in urban streets // Proc. IEEE Intel. Veh. Symp. 2008. Jun. P. 7—12.
  20. Deusch J. W., Reuter S., Szczot M., Konrad M., and Dietmayer K. A random finite set approach to multiple lane detection // Proc. 15th Intern. IEEE Conf. Intel. Transp. Syst. 2012. Sep. P. 270—275.
  21. Jiang Y., Gao F., and Xu G. Computer vision-based multiple-lane detection on straight road and in a curve // Proc. Intern. Conf. Image Anal. Signal Process. 2010. Apr. P. 114—117.
  22. De Brabandere N. B., Georgoulis S., Proesmans M., and Van Gool L. Towards end-to-end lane detection: An instance segmentation approach // Proc. IEEE Intel. Veh. Symp. 2018. Jun. P. 286—291.
  23. Sun Z., Bebis G., and Miller R. On-road vehicle detection: A review // IEEE Trans. Pattern Anal. Mach. Intel. 2006. Vol. 28, N 5. P. 694—711.
  24. Tzomakas C. and Seelen W. Vehicle detection in traffic scenes using shadow. Tech. Rep. 98-06 Inst. fur neuroinformatik. Ruhtuniversitat, Germany, 1998.
  25. Kastrinaki V., Zervakis M., Kalaitzakis K. A survey of video processing techniques for traffic applications // Image, Vis., Comput. 2003. Vol. 21, N 4. P. 359—381.
  26. Foresti L., Murino V., and Regazzoni C. Vehicle recognition and tracking from road image sequences // IEEE Trans. Veh. Technol. 1999. Vol. 48, N 1. P. 301—318.
  27. Pat. US3069654. Method and means for recognizing complex patterns / P. V. C. Hough. Dec. 18, 1962.
  28. Hough P. V. C. Machine Analysis of Bubble Chamber Pictures // Proc. Intern. Conf. High Energy Accelerators and Instrumentation. 1959. Р. 554—558.
  29.  Lucas B. D. and Kanade T. An iterative image registration technique with an application to stereo vision // IJCAI81. 1981. P. 674—679.
  30. Chiu C., Ku M., and Wang C. Automatic Traffic Sur veillance System for Vision-Based Vehicle Recognition and Tracking // J. of Information Science and Engineering. 2010. Vol. 26, N 2. March. P. 611—629.
  31. Трамбицкий К. В., Андинг К., Польте Г. А., Гартен Д., Мусалимов В. М. Сегментация несфокусированных областей на 2D-изображениях поверхностей с использованием текстурных признаков // Науч.-техн. вестн. информационных технологий, механики и оптики. 2015. Т. 15, № 5(99). С. 796—802.
  32. Trambitckii K., Anding K., Polte G., Garten D., Musalimov V., Kuritcyn P. The application of texture features to quality control of metal surfaces // Acta IMEKO. 2016. Vol. 5, N 4. P. 19—23.
  33. Trambitckii K. S., Anding K., Musalimov V. M., Linss G. Colour based fire detection method with temporal intensity variation filtration // J. of Physics: Conf. Ser. 2015. Vol. 588, N 1. P. 012038.