“FITOBOT” ROBOT MÓVIL AUTÓNOMO PARA MONITOREO FITOSANITARIO EN INVERNADERO FORESTAL (“FITOBOT” AUTONOMOUS MOBILE ROBOT FOR PHYTOSANITARY MONITORING IN FOREST GREENHOUSES)

Angel Vergara Betancourt, Valentín Contreras Hernández, José Angel Reyes Guzmán

Resumen


Resumen
El uso de dispositivos robóticos para realizar estudios fitosanitarios en ambientes agroforestales confinados mejora la precisión, eficiencia y rapidez en la detección de enfermedades, plagas y estrés que afectan el crecimiento y desarrollo de las plantas. El proyecto FitoBot se centra en el diseño e implementación de un sistema robótico móvil orientado al análisis fitosanitario en espacios confinados. Este proyecto se describe en 3 etapas: diseño y construcción de una plataforma robótica móvil, integración de sistema de adquisición de datos ambientales y percepción visual y programación de algoritmos de navegación autónoma. El hardware utilizado incluye Raspberry Pi, sensores ambientales, cámara, baterías y comunicación remota. Como lenguaje de programación se ha empleado Python y la librería de visión artificial OpenCV. Como resultado se logró la construcción y programación de un robot móvil con capacidad de navegación autónoma, detección de variables climáticas y visualización del entorno.
Palabras Claves: Fitosanidad, Monitoreo ambiental, Navegación autónoma, Robot móvil, Visión artificial.

Abstract
The use of robotic devices to carry out phytosanitary studies in confined agroforestry environments improves the accuracy, efficiency and speed in the detection of diseases, pests and stresses that affect plant growth and development. The FitoBot project focuses on the design and implementation of a mobile robotic system aimed at phytosanitary analysis in confined spaces. This project is described in 3 stages: design and construction of a mobile robotic platform, integration of environmental data acquisition and visual perception system and programming of autonomous navigation algorithms. The hardware used includes Raspberry Pi, environmental sensors, camera, batteries, and remote communication. Python and the OpenCV artificial vision library have been used as programming languages. As a result, the construction and programming of a mobile robot with autonomous navigation capacity, detection of climatic variables and visualization of the environment was achieved.
Keywords: Autonomous navigation, Artificial vision, Environmental monitoring, Mobile robot, Phytosanitary.

Texto completo:

PDF

Referencias


Ahmad, I., Yang, Y., Yue, Y., Ye, C., Hassan, M., Cheng, X., Wu, Y., & Zhang, Y. (2022). Deep learning based detector yolov5 for identifying insect pests. Applied Sciences, 12(19), 10167. https://doi.org/10.3390/app121910167.

Alvarez, G., & Flor, O. (2020). Desempeño en métodos de navegación autó-noma para robots móviles. Minerva, 1(2), 19-29. https://doi.org/10.47460/minerva.v1i2.8.

Cyberbotics: Robotics simulation with Webots. (s. f.). Recuperado 16 de julio de 2024, de https://cyberbotics.com/.

Kakani, V., Nguyen, V. H., Kumar, B. P., Kim, H., & Pasupuleti, V. R. (2020). A critical review on computer vision and artificial intelligence in food industry. Journal of Agriculture and Food Research, 2(1).

Planas de Martí, S. (2018). Agricultura de precisión y protección de cultivos. Revista de Ingeniería, 47.

Quy, V. K., Hau, N. V., Anh, D. V., Quy, N. M., Ban, N. T., Lanza, S., Randaz-zo, G., & Muzirafuti, A. (2022). Iot-enabled smart agriculture: Architecture, applications, and challenges. Applied Sciences, 12(7), 3396. https://doi.org/10.3390/app12073396.

Rodríguez, F., Sánchez-Hermosilla, J., Rivera, L., & Giménez, A. (2016). Análisis de viabilidad de la utilización de robots en invernaderos. Propuesta para el modelo Almería.

Santos Valle, S. y Kienzle, J. (2021). Agricultura 4.0: Robótica agrícola y equipos automatizados para la producción agrícola sostenible. Gestión inte-grada de cultivos, N. 24. Roma, FAO.

Sharma, A., Jain, A., Gupta, P., & Chowdary, V. (2021). Machine Learning Applications for Precision Agriculture: A Comprehensive Review. IEEE Ac-cess, 9, 4843–4873.

Solomon, C., & Breckon, T. (2011). Fundamentals of Digital Image Pro-cessing: A practical approach with examples in Matlab. John Wiley & Sons.

Sood, S., & Singh, H. (2021). Computer vision and machine learning based approaches for food security: A review. Multimedia Tools and Applications, 80(18), 27973-27999.

TecNM. (2024). Agenda estratégica del TecNM para la autosuficiencia ali-mentaria y rescate del campo mexicano. Tecnológico Nacional de México. https://www.tecnm.mx/pdf/agendas/Autosuficiencia_alimentaria_y_rescate.pdf.

United Nations Department of Economic and Social Affairs. (2023). Informe de los Objetivos de Desarrollo Sostenible 2023: Edición especial. [Er-scheinungsort nicht ermittelbar] United Nations.

Wu, D., Jiang, S., Zhao, E., Liu, Y., Zhu, H., Wang, W., & Wang, R. (2022). Detection of camellia oleifera fruit in complex scenes by using yolov7 and data augmentation. Applied Sciences, 12(22), 11318. https://doi.org/10.3390/app122211318.

Xu, R. (2019). Path planning of mobile robot based on multi-sensor infor-mation fusion. EURASIP Journal on Wireless Communications and Net-working, 2019 (1), 44.

Zhou, Y., Tang, Y., Zou, X., Wu, M., Tang, W., Meng, F., Zhang, Y., & Kang, H. (2022). Adaptive active positioning of camellia oleifera fruit picking points: Classical image processing and yolov7 fusion algorithm. Applied Sciences, 12(24), 12959. https://doi.org/10.3390/app122412959.






URL de la licencia: https://creativecommons.org/licenses/by/3.0/deed.es

Barra de separación

Licencia Creative Commons    Pistas Educativas está bajo la Licencia Creative Commons Atribución 3.0 No portada.    

TECNOLÓGICO NACIONAL DE MÉXICO / INSTITUTO TECNOLÓGICO DE CELAYA

Antonio García Cubas Pte #600 esq. Av. Tecnológico, Celaya, Gto. México

Tel. 461 61 17575 Ext 5450 y 5146

pistaseducativas@itcelaya.edu.mx

http://pistaseducativas.celaya.tecnm.mx/index.php/pistas