DESARROLLO DE UN AMBIENTE DE REALIDAD VIRTUAL PARA LA OPERACIÓN DE UN BRAZO ROBÓTICO (DEVELOPMENT OF A VIRTUAL REALITY ENVIRONMENT FOR THE OPERATION OF A ROBOTIC ARM)

Felipe Castro Aranza, Juan José Martínez Nolasco, Mauro Santoyo Mora, Erik López Vargas, Adriana Guzmán López

Resumen


Resumen
En la actualidad existen numerosos métodos de control para la tele-operación de robots desde dispositivos móviles como tablets o teléfonos inteligentes, hasta paneles de control como joysticks, volantes e incluso pedales. Estas interfaces pueden llegar a resultar bastante complejas y aparatosas. Además, estas interfaces pueden presentar algunas limitaciones como son un campo de visión limitado, falta de orientación, imagen de video degradada. Estas limitaciones, incluyendo efectos del factor humano como son una carga de trabajo excesiva, estrés, ansiedad, pueden llegar a generar errores en tareas de tele operación. Es por esta razón que se propone el uso de realidad virtual como una técnica alternativa para el control de un brazo robótico. Donde se podrá visualizar un brazo robótico en 3D utilizando unos lentes de realidad virtual, el cual puede ser tele-operado con el teclado de la computadora.
Para mostrar el ambiente de realidad virtual se utiliza un headset HTC Vive Pro. La construcción del brazo robótico 3D se hizo con el software Blender, donde se crearon cada una de sus piezas además de un esqueleto con el cual delimitan sus movimientos. Para la integración de todos los elementos del ambiente de realidad virtual de tele-operación se recurrió al motor de videojuegos y realidad virtual de Unity, ya que actualmente es uno de los más utilizados con versión gratuita y con multitud de opciones para su programación.
Así mismo se explica de forma general la exportación del modelo del brazo construido en 3D a la plataforma de Unity, la instalación del sistema de HTC (Visor, mandos y estaciones Base) y la programación de los movimientos del brazo robótico dentro del ambiente de realidad virtual.
Como resultado de este proyecto, se obtuvo la visualización del entorno creado desde los lentes de realidad virtual del sistema de HTC Vive Pro, y se logró dar movimiento a cada uno de los ejes del robot utilizando el teclado de la computadora.
Palabras clave: entorno de realidad virtual, teleoperación, brazo robótico.

Abstract
At present there are numerous control methods for the teleoperation of robots from mobile devices such as tablets or smartphones, to control panels such as joysticks, steering wheels and even pedals. These interfaces can be quite complex and cumbersome. In addition, these interfaces may have some limitations such as a limited field of vision, lack of orientation, degraded video image. These limitations, including effects of the human factor such as excessive workload, stress, anxiety, can lead to errors in teleoperation tasks. It is for this reason that the use of virtual reality is proposed as an alternative technique for the control of a robotic arm. Where you can visualize a robotic arm in 3D using virtual reality glasses, which can be tele-operated with the computer keyboard.
To show the virtual reality environment, an HTC Vive Pro headset is used. The 3D robotic arm was built with the Blender software, where each of its parts were created as well as a skeleton with which they delimited their movements. For the integration of all the elements of the tele-operation virtual reality environment, the Unity video game and virtual reality engine was used, since it is currently one of the most used with a free version and with a multitude of options for programming.
Likewise, the export of the arm model built in 3D to the Unity platform, the installation of the HTC system (Viewer, controls and Base stations) and the programming of the robotic arm movements within the reality environment are also explained. virtual.
As a result of this project, the visualization of the environment created from the virtual reality lenses of the HTC Vive Pro system was obtained, and it was possible to give movement to each of the robot's axes using the computer keyboard.
Keywords: virtual reality environment, teleoperation, robotic arm.

Texto completo:

67-79 PDF

Referencias


V. Vickranth, S. S. R. Bommareddy, and V. Premalatha, “Application of Lean Techniques, Enterprise Resource Planning and Artificial Intelligence in Construction Project Management,” in International Conference on Advances in Civil Engineering (ICACE-2019), 2019, vol. 21, p. 23.

F. Heintz, J. Kvarnstrom, P. Doherty, Bridging the sense-reasoning gap: DyKnow–stream-based middleware for knowledge processing, Adv. Eng. Inf. 24 (1) (2010) 14–26.

D. Hu, S. Li, J. Chen, V.R. Kamat, Detecting, locating, and characterizing voids in disaster rubble for search and rescue, Adv. Eng. Inf. 42 (2019) 100974.

F. Tian, M. Voskuijl, Automated generation of multiphysics simulation models to support multidisciplinary design optimization, Adv. Eng. Inf. 29 (4) (2015) 1110–1125.

D. Kim, A. Goyal, A. Newell, S. Lee, J. Deng, and V. R. Kamat,“Semantic Relation Detection between Construction Entities to Support Safe Human- Robot Collaboration in Construction,” in Computing in Civil Engineering 2019: Data, Sensing, and Analytics: American Society of Civil Engineers Reston, VA, 2019, pp. 265-272.

M. J. Pivac and M. B. Wood, “Automated brick laying system for constructing a building from a plurality of bricks,” ed: Google Patents, 2012.

H. Hasunuma et al.,“A tele-operated humanoid robot drives a lift truck”in Proceedings 2002 IEEE International Conference on Robotics and Automation (Cat. No. 02CH37292), 2002, vol. 3: IEEE, pp. 2246-2252.

A. Dubois, L.-E. Gadde, The construction industry as a loosely coupled system: implications for productivity and innovation, Construct. Management Economics 20 (7) (2002) 621–631.

S. Cai, Z. Ma, M.J. Skibniewski, S. Bao, Construction automation and robotics for high-rise buildings over the past decades: A comprehensive review, Adv. Eng. Inf. 42 (2019) 100989.

P.F. Hokayem, M.W. Spong, Bilateral teleoperation: An historical survey, Automatica 42 (12) (2006) 2035–2057.

G. Hitz, A. Gotovos, M.-E. Garneau, C. Pradalier, A. Krause, and R. Y. Siegwart, “Fully autonomous focused exploration for robotic environmental monitoring,” in 2014 IEEE International Conference on Robotics and Automation (ICRA), 2014: IEEE, pp. 2658-2664.

S. Hirche, M. Buss, Human-oriented control for haptic teleoperation, Proc. IEEE 100 (3) (2012) 623–647.

J. F. Jensen and J. W. Hill, “Surgical manipulator for a telerobotic system,” ed: Google Patents, 2003.

F. H. Moll et al., “Arm cart for telerobotic surgical system,” ed: Google Patents, 2005.

G.H. Ballantyne, Robotic surgery, telerobotic surgery, telepresence, and telementoring, Surgical Endoscopy Other Interventional Techniques 16 (10) (2002) 1389–1402.

D. Lester, H. Thronson, Human space exploration and human spaceflight: Latency and the cognitive scale of the universe, Space Policy 27 (2) (2011) 89–93.

J. Bohren, C. Paxton, R. Howarth, G. D. Hager, and L. L. Whitcomb, “Semi-autonomous telerobotic assembly over high-latency networks,” in 2016 11th ACM/ IEEE International Conference on Human-Robot Interaction (HRI), 2016: IEEE, pp. 149-156.

G. Guthart and J. Salisburg, “The intuitive telesurgery system: overview and application. W: Proceedings of 2000 IEEE International Conference; 2000, on Robots and Automation. San Francisco, 22-28 april 2000,” ed: IEEE, 2000

Olguin Carbajal, Mauricio; Rivera Zárate, Israel; Hernández Montañez, Erika Introducción a la Realidad Virtual Polibits, núm. 33, 2006, pp. 11-15 Instituto Politécnico Nacional Distrito Federal, México

Tianyu Zhou, Qi Zhu, Jing Du.(2020) “Intuitive robot teleoperation for civil engineering operations with virtual reality and deep learning scene reconstruction”

Elena Peña Tapia (2017) “Interfaz inmersa para misiones roboticas basadas en realidad virtual”

Beatriz Salvador Ramos, Aplicación de realidad virtual para mostrar datos de monitorización en 3D capturados en entornos reales. Universidad de Zaragoza, 2019.

Carbajal, M. O., Zárate, I. R., & Montañez, E. H. (2006). Introducción a la Realidad Virtual. Polibits(33), 11-15. Recuperado el 20 de Febrero de 2020, de https://www.redalyc.org/pdf/4026/402640446002.pdf

Digital Learning SL. (2015, 2 de noviembre). Scripts y lenguajes de programación en Unity. Academia Android: Recuperado el 1 de marzo del 2020, de https://academiaandroid.com/scripts-lenguajes-programacion-unity/

Eggberg, E. (2015). Valve and HTC Reveal Vive VR Headset. 2020, abril 20: GAMESPOT. Recuperado de https://www.gamespot.com/articles/valve- and-htcreveal-vive-vr-headset/1100-6425606/

HTC Corporation. (2016). Vive. 2020, abril 20: VIVE. Recuperado de https://www.vive.com/eu/product/vive/

HTC Corporation. (2017). Vive Support. 2020, abril 20: VIVE. https://www.vive.com/mx/support/vive/

Ruíz, F. [L_Draven]. (2016, octubre 28). FPS (First Person Camera) RAPIDO Y FACIL / FAST & EASY - UNITY [Archivo de video]. Recuperado de https://www.youtube.com/watch?v=tLUDVn5V8fU

Unity Technologies. (2020). Quiénes somos. 2020, abril 20: Unity. https://unity.com/es/our-company

Unity Technologies. (2020). Unity User Manual (2019.3). USA: Unity Documentation. Recuperado de https://docs.unity3d.com/es/2019.3/Manual/UnityManual.html

SteamVr. (2020) Interaction System from The Lab. 12 de abril del 2020. Recuperado de: https://valvesoftware.github.io/steamvr_unity_plugin/articles/Interaction-






URL de la licencia: https://creativecommons.org/licenses/by/3.0/deed.es

Barra de separación

Licencia Creative Commons    Pistas Educativas está bajo la Licencia Creative Commons Atribución 3.0 No portada.    

TECNOLÓGICO NACIONAL DE MÉXICO / INSTITUTO TECNOLÓGICO DE CELAYA

Antonio García Cubas Pte #600 esq. Av. Tecnológico, Celaya, Gto. México

Tel. 461 61 17575 Ext 5450 y 5146

pistaseducativas@itcelaya.edu.mx

http://pistaseducativas.celaya.tecnm.mx/index.php/pistas