Generación de Mapa Global 2D y SLAM usando LiDAR y una Estéreo Cámara para el seguimiento de movimiento de un robot móvil

Autores/as

  • Edwin Leonel Álvarez - Gutiérrez Universidad Pedagógica y Tecnológica de Colombia
  • Fabián Rolando Jiménez - López Universidad Pedagógica y Tecnológica de Colombia

DOI:

https://doi.org/10.15332/iteckne.v16i2.2357

Palabras clave:

LiDAR, Mapa Global, seguimiento de movimiento, SLAM, robot móvil, visión estéreo

Resumen

Uno de los temas de mayor atención en la robótica móvil está relacionado con la localización y mapeo de un robot en un entorno determinado, y el otro, asociado a la selección de los dispositivos o sensores necesarios para adquirir la mayor cantidad de información externa posible para la generación de un mapa global. El propósito de este artículo es plantear la integración entre un robot móvil terrestre tipo oruga, tareas de SLAM con dispositivos LiDAR y el uso de estéreo visión a través de la cámara ZED para la generación de un mapa global en 2D y el seguimiento del movimiento del robot móvil mediante el software de MATLAB®. El experimento consiste en realizar diferentes pruebas de detección para determinar las distancias y hacer el seguimiento de la posición del robot móvil en un entorno estructurado en interiores, para observar el comportamiento de la plataforma móvil y determinar el error en las mediciones. Los resultados obtenidos muestran que los dispositivos integrados cumplen satisfactoriamente con las tareas establecidas en condiciones controladas y en entornos interiores, obteniendo porcentajes de error inferiores al 1 y 4% para el caso del LiDAR y la cámara ZED, respectivamente. Se desarrolló una alternativa que resuelve uno de los problemas más comunes de la robótica móvil en los últimos años y, adicionalmente, esta solución permite la posibilidad de fusionarse otro tipo de sensores como los sistemas inerciales, encoders, GPS, entre otros, con el fin de mejorar las aplicaciones en el área y la calidad de la información adquirida desde el exterior.

Descargas

Los datos de descargas todavía no están disponibles.

Citas

D. C. Slaughter, D. K. Giles, and D. Downey, “Autonomous robotic weed control systems: A review,” Comput. Electron. Agric., vol. 61, no. 1, pp. 63-78, Apr. 2008. DOI: https://doi.org/10.1016/j.compag.2007.05.008.

D. Ball et al. Robotics for Sustainable Broad-Acre Agriculture. In: L. Mejias, P. Corke, J. Roberts, (eds) Field and Service Robotics. Springer Tracts in Advanced Robotics, vol 105, 2015. Springer, Cham. DOI: https://doi.org/10.1007/978-3-319-07488-7_30.

A. Barrientos et al., “Aerial remote sensing in agriculture: A practical approach to area coverage and path planning for fleets of mini aerial robots,” J. F. Robot., vol. 28, no. 5, pp. 667-689, Sep. 2011. DOI: https://doi.org/10.1002/rob.20403.

S. G. Tzafestas and S. G. Tzafestas, “Mobile Robot Localization and Mapping,” Introd. to Mob. Robot Control, pp. 479-531, Jan. 2014. ISBN: 0124171036, 9780124171039.

J. Park, J. Y. Kim, B. Kim, and S. Kim, “Global Map Generation using LiDAR and Stereo Camera for Initial Positioning of Mobile Robot,” in 2018 International Conference on Information and Communication Technology Robotics (ICT-ROBOT), 2018, pp. 1-4. DOI: 10.1109/ICT-ROBOT.2018.8549897.

B. A. C. Caldato, R. A. Filho, and J. E. C. Castanho, “ORB-DOM: Stereo and odometer sensor fusion for simultaneous localization and mapping,” in 2017 Latin American Robotics Symposium (LARS) and 2017 Brazilian Symposium on Robotics (SBR), 2017, pp. 1-5. DOI: 10.1109/SBR-LARS-R.2017.8215301.

L. Cheng, Y. Dai, R. Peng, and X. Nong, “Positioning and navigation of mobile robot with asynchronous fusion of binocular vision system and inertial navigation system,” Int. J. Adv. Robot. Syst., vol. 14, no. 6, p. 172988141774560, Nov. 2017. DOI: 10.1177/1729881417745607.

D. T. Savaria and R. Balasubramanian, “V-SLAM: Vision-based simultaneous localization and map building for an autonomous mobile robot,” in 2010 IEEE Conference on Multisensor Fusion and Integration, 2010, pp. 1-6. DOI: 10.1109/MFI.2010.5604466.

G. Campion, G. Bastin, and B. D’Andrca-Novel, “Structural Properties and Classification of Kinematic and Dynamic Models of Wheeled Mobile Robots,” 1996. DOI: 10.1109/ROBOT.1993.292023.

J. L. Jones, B. A. Seiger, and A. M. Flynn, Mobile robots : inspiration to implementation. A.K. Peters, 1999. ISBN: 1568810970 / 9781568810973.

J. Borenstein et al., “Where am I? Sensors and Methods for Mobile Robot Positioning Prepared by the University of Michigan For the Oak Ridge National Lab (ORNL) D& D Program and the United States Department of Energy’s Robotics Technology Development Program Within the Environmental Restoration, Decontamination and Dismantlement Project,” 1996.

SLAMTEC, “RPLIDAR-A2 Laser Range Scanner_ Solid Laser Range Scanner|SLAMTEC,” 2018. [Online]. Available: https://www.slamtec.com/en/Lidar/A2. [Accessed: 14-Feb-2019].

STEREOLABS, “Stereolabs - Capture the World in 3D,” 2018. [Online]. Available: https://www.stereolabs.com/. [Accessed: 14-Feb-2019].

Dinesh Nair, “A Guide to Stereovision and 3D Imaging - Tech Briefs.” [Online]. Available: https://www.techbriefs.com/component/content/article/tb/features/articles/14925?start=1. [Accessed: 11-Apr-2019].

MaxBotix, “How to Use an Ultrasonic Sensor with Arduino [With Code Examples],” 2017. [Online]. Available: https://www.maxbotix.com/Arduino-Ultrasonic-Sensors-085/.[Accessed: 14-Feb-2019].

Edwin Leonel Álvarez Gutiérrez, “Red ZigBee para la Medición de Variables Físicas con Interfaz en Arduino-MATLAB,” I3+, vol. 3, p. 50–64 p., 2016. DOI: https://doi.org/10.24267/23462329.218.

A. F. Silva-Bohórquez, L. E. Mendoza, and C. A. Peña-Cortés, “Sistema de inspección y vigilancia utilizando un robot aéreo guiado mediante visión artificial,” ITECKNE, vol. 10, no. 2, pp. 190-198, Feb. 2014. DOI: https://doi.org/10.15332/iteckne.v10i2.421.

Descargas

Publicado

2019-12-16

Cómo citar

Álvarez - Gutiérrez, E. L., & Jiménez - López, F. R. (2019). Generación de Mapa Global 2D y SLAM usando LiDAR y una Estéreo Cámara para el seguimiento de movimiento de un robot móvil. ITECKNE, 16(2), 144–156. https://doi.org/10.15332/iteckne.v16i2.2357

Número

Sección

Artículos de Investigación e Innovación