SciELO - Scientific Electronic Library Online

 
vol.37 número2Dispositivo de adquisición y transmisión de la posición de un vehículo mediante GPS y Wi-FiSistema para la gestión en redes no comerciales de los SLA en la etapa de ejecución índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ingeniería Electrónica, Automática y Comunicaciones

versión On-line ISSN 1815-5928

EAC vol.37 no.2 La Habana mayo-ago. 2016

 

ARTÍCULO ORIGINAL

 

 

Interfaz de control teleoperado para dos manipuladores industriales usando un marcador visual humano

 

Teleoperated Control Interface of two industrial robotic arms using a human visual marker

 

 

Germán Darío Buitrago Salazar, Olga Lucía Ramos Sandoval

Grupo de Investigación GAV, Universidad Militar Nueva Granada, Colombia

 

 


RESUMEN

Los trabajos cooperativos con robótica han permitido la interacción más cercana entre los usuarios que controlan los dispositivos y el entorno de trabajo de los robots. Para esto, se han desarrollado interfaces para el control de sus movimientos mediante la realimentación de las variables de sus espacios de trabajo. No obstante, los sistemas mecánicos usados para la interacción robot-humano restringen los movimientos del operario, dificultando el trazo de la trayectoria que debe efectuar cada brazo robótico. Una solución a esta problemática es implementar sistemas en la estación de trabajo que capten visualmente, las posiciones realizadas por el operario. En este trabajo, se presenta una interfaz para controlar de forma remota, dos manipuladores industriales ubicados en celdas de trabajo contiguas, usando el cuerpo humano como un marcador visual de movimiento. Para esto, se utilizó un Kinect colocado en la estación maestro, que capta al usuario esqueléticamente, para luego, usando el modelo cinemático de los robots y sistemas de control para amortiguar el desplazamiento de ellos, realizar una trayectoria similar a la descrita con las manos. La trama de información compartida entre ambas estaciones se realiza por un protocolo Ethernet establecido entre los ordenadores y los controladores de los robots. Los resultados de este trabajo demuestran la viabilidad de este método para controlar robots en tiempo real, con alto grado de similitud entre la trayectoria descrita y la replicada, con tiempos de retardos inferiores a 0.8 segundos y con menores limitaciones, en cuanto a la libertad del movimiento del operario.

Palabras claves: Visión de máquina, control teleoperado, marcador visual humano, sistema maestro-esclavo.

ABSTRACT

Cooperative work with robotics has allowed closer interaction among users who control devices, with the working environment of the robots. For this, we have developed interfaces with motion control and with feedback of variables from their workspaces. However, the mechanical systems used for human-robot interaction restrict the operator movement, reducing the space to draw the path that each robotic arm must make. A solution to this problem is to implement systems in the workstation in order to capture visually the positions taken by the operator. This paper presents an interface to control remotely, two industrial robotic arms located in adjacent workcells, using the human body as a movement visual marker. For this, we used a Kinect placed in the master station, which captures the skeleton of the user in order to control the position of the robot with the hands. To decrease the error and the damping of the path were used their kinematic models and PI controllers. The communication between the Slave system and master system is performed by an Ethernet protocol. The results of this study demonstrate the feasibility of this method to control robots in real time, with high degree of similarity between the path described and the replicated with delay times of less than 0.8 seconds and with fewer limitations on freedom of movement Operator.

Key words: Machine vision, Teleoperated control, Human visual marker, Master-Slave system.


 

 

1.- INTRODUCCIÓN

 

El surgimiento de nuevos escenarios donde se han necesitado involucrar avances en el campo de la robótica han aumentado, pasando de simples aplicaciones con desplazamientos del robot en entornos de trabajo, a sistemas complejos donde los usuarios interactúan en ambientes dinámicos a través de ellos. Ejemplo de ello, han sido los sistemas teleoperados, en el cual, un dispositivo robótico (sistema esclavo) se controla remotamente por un usuario ubicado en un lugar distinto, a través de un mecanismo (sistema maestro) [1]. Las aplicaciones de estos sistemas han sido principalmente en la realización de procedimientos quirúrgicos, en donde el especialista se ubica en una estación de trabajo contigua al sitio de la cirugía, especialmente en cirugías mínimamente invasivas [2]. En el sector aeroespacial, organizaciones como la NASA han invertido dinero y esfuerzos en la construcción de sistemas de exploración tele-robótica, que ayudan a completar exitosamente las misiones [3].

Estos sistemas usan mecanismos que captan los movimientos del operario, para posteriormente procesar dicha información y convertirla en una serie de comandos interpretados por el robot. Las interfaces hombre-máquina (HMI por sus siglas en inglés), utilizan generalmente dispositivos hápticos como el joystick, que realimenta en algunos casos, las fuerzas externas del entorno de trabajo. En [4] usan un sistema teleoperado compuesto por un dispositivo que trabaja como esclavo, para guiar los movimientos de un brazo robótico en un ambiente virtual. El sistema se validó con un manipulador antropomórfico de 7 grados de libertad (DOF por su acrónimo en inglés), realizándose pruebas experimentales con 12 voluntarios.

En el campo asistencial de pacientes, se han desarrollado robots operados a distancia para ayudar en las tareas caseras de pacientes que no puedan moverse. Adicionalmente, el diseño de ese dispositivo robótico será capaz de utilizarse en la construcción, la seguridad y el mantenimiento en lugares riesgosos para los humanos [5]. La teleoperación también se ha aplicado para controlar grúas a través de un mando, realizando las pruebas de rendimiento con personal experto en este tipo de mecanismos. La implementación de este sistema se realizó sobre un brazo robótico de 6 DOF, que ubica diferentes barras hasta construir una estructura sólida en un ambiente con realidad aumentada [6].

A pesar de las ventajas de usar mecanismos para captar los movimientos del usuario, existen limitaciones como la poca libertad de movimiento del usuario para controlar el manipulador, la realimentación en tiempo real de las fuerzas de contacto, los tiempos de retardo de la comunicación entre las estaciones de trabajo maestro-esclavo, las restricciones mecánicas del sensor y las actividades donde se necesiten movimientos rotacionales, las cuales obligan a controlar fuerzas sobre el robot, adyacentes a la trayectoria que realiza [7]. Una alternativa para solventar algunas de estas problemáticas es usar sistemas que detecten los movimientos del usuario, sin usar elementos físicos, mientras que la información del espacio del entorno de trabajo se realimente visualmente.

La electromiografía ha sido una solución a esto, puesto que utiliza sensores sobre los músculos del brazo de una persona, para operar una pinza robótica en escala micro. El funcionamiento de la pinza se hace a partir de la expansión y contracción de un tejido sintético, que la abre y la cierra proporcionalmente a la intensidad de la señal muestreada [8]. Otra solución ha sido la detección de los movimientos de personas utilizando cámaras, efectuada con la implementación de marcadores visuales colocados en el cuerpo, con el fin de trazar una trayectoria cuando ellos se mueven frente a las cámaras calibradas. Esta información obtenida presenta una representación 3D del usuario en tiempo real, a la vez que elimina los posibles ruidos que pueden presentar durante el proceso [9].

Una aplicación concreta del uso de marcadores en telerrobótica se presenta en [10], quienes desarrollaron un algoritmo para el movimiento de un robot y el accionamiento de su efector final en un ambiente virtual, basado en la información de la posición espacial del brazo del usuario, la cual se recolecta con un Kinect. Ese trabajo muestra el potencial de los sistemas de visión de máquina para controlar dispositivos robóticos. Adicionalmente, para solucionar los inconvenientes presentados durante el retardo de la transmisión y que pueden conllevar a la colisión del dispositivo robótico en sistemas maestro-esclavo, se han formulado sistemas de realimentación de fuerzas externas, paralelo al lazo con las señales de teleoperación, que compense la ubicación del robot y anticipe sus colisiones en ambientes con cualquier nivel de navegación [11].

Los trabajos presentados hasta el momento, muestran solamente la interacción con un solo robot, para realizar tareas sencillas y que no se requiera de algún otro agente para ser desarrolladas. Sin embargo, se ha presentado la necesidad de usar robots que trabajen de forma colaborativa, para que cada uno realice una tarea determinada, para alcanzar un mismo fin. Cada robot debe ser, en el mejor de los casos, controlado por un único operario, evitando usar mecanismo que dificulte la operación adecuada de ellos. Del mismo modo, estos trabajos deben ser efectuados con mecanismos que den información en tiempo real, con un mínimo error en cuanto a la precisión de su recorrido.  

Basados en las anteriores afirmaciones, en este documento se presenta un sistema teleoperado para dos manipuladores industriales, ubicados en sus celdas de trabajo, con el objetivo de replicar una trayectoria descrita por un operario desde una estación de trabajo. Como resultado más importante de este trabajo, está el seguimiento de las trayectorias realizadas por los brazos manipuladores, de acuerdo a la referencia determinada por el usuario, con una alta precisión en el seguimiento. El artículo se compone de cuatro secciones: en la segunda, se presenta la metodología usada en el desarrollo de este proyecto, determinando el algoritmo para la estimación de la posición del usuario, el modelado cinemático de los robots y el diseño del controlador utilizado para suavizar los desplazamientos del robot; la tercera detalla los resultados obtenidos en la fase de evaluación del sistema y finalmente, en la última se presentan las conclusiones.

 

2.- HERRAMIENTAS Y MÉTODOS

 

El sistema de control remoto para robótica colaborativa se compone de dos estaciones de trabajo, como se ilustra en la figura 1. La estación maestro se compone de un Kinect ubicado en frente del usuario, el cual captura sus movimientos en tiempo real. Esta información se procesa y se extrae la posición 3D de las articulaciones del cuerpo identificado con el dispositivo. La estación esclavo se conforma por dos brazos robóticos de 6 DOF, ubicados uno contiguo al otro, y conectados entre sí vía Ethernet, a través de sus controladores. Cada manipulador se controla con cada brazo del usuario. La información entre las estaciones maestro-esclavo también se realiza por una conexión Ethernet, específicamente con el protocolo UDP.

En esta sección, se esboza el modelo matemático usado para plantear el algoritmo de seguimiento del usuario, la extracción de los puntos de posición y orientación y su transformación en las matrices homogéneas de traslación y rotación. Asimismo, se describe el modelo cinemático del manipulador, al igual que el diseño del sistema de control propuesto para estabilizar la trayectoria del robot.

2.1.- ESTIMACIÓN DE LA POSICIÓN Y ORIENTACIÓN DEL USUARIO

Como se mencionó anteriormente, para detectar la posición del usuario dentro de la estación maestro, se utilizó un Kinect ubicado frente al usuario. Para esto, el Kinect utiliza tanto el mapa de profundidad, para medir la distancia del sensor con cada uno de los elementos del área de trabajo, como la función de detección de posición de personas. El sensor se configuró para tomar fotogramas con el mapa de disparidad a una velocidad de 30 imágenes por segundo (fps), mientras que el sistema de seguimiento del usuario fue configurado para detectar solamente al usuario más cercano a la cámara. Debido a la cantidad de información que se necesitaba procesar, la resolución de las imágenes tomadas se configuró a un tamaño de 640 x 480 pixeles.

Un ejemplo de la imagen capturada con el Kinect se observa en la figura 2, donde se muestra como el dispositivo representa el cuerpo humano como un arreglo de segmentos o huesos concadenados en los puntos articulares. Para controlar cada uno de los manipuladores con los movimientos de las manos, a cada robot se le asignó el movimiento de un brazo del usuario. Cada brazo debe ser representado por una matriz de rotación y traslación, que relacione las articulaciones respecto a su hombro. Por consiguiente, primero se halló la posición de los puntos {P10, P14, P18, P20} y {P8, P13, P17, P19}, los cuales proyectan los movimientos de las extremidades superiores, y a partir de ellos, se obtiene la ubicación espacial proyectada en cada fotograma.

Cada punto proyectado qn, consta de tres parámetros: los dos primeros describen la posición en pixeles del punto proyectado (Un, Vn), mientras que el tercer valor expresa la distancia de la cámara hasta el punto proyectado, (Zn). Para transformar qn en la ubicación espacial de cada punto en la estación maestro, Pn, se tomó la cámara como el origen del entorno, de tal manera que se ubique el sistema de coordenadas de la imagen en el centro de ella y se evalúe Pn con la ecuación (1), sabiendo que los ángulos α y β son los ángulos de visión horizontal y vertical respectivamente. De acuerdo a [12], para el Kinect el valor de α es 57° y de β es 43°.

La posición de la mano derecha P20 respecto al hombro derecho P10 está dada por la ecuación (2), mientras que para la extremidad superior izquierda la ecuación (3) representa la ubicación de la mano respecto al hombro.

De igual forma, la orientación de cada uno de los puntos puede darse de dos formas distintas. La primera es la rotación del usuario respecto al espacio de coordenadas de la cámara, tomando un punto central del cuerpo humano. La segunda es la jerarquización de la rotación de los puntos basados en las relaciones estructurales de las articulaciones, determinando la matriz de rotación del punto hijo, respecto a un punto padre. Tanto para la primera como para la segunda forma, el origen está ubicado a la altura de la cadera (P1), como se referencia en [13]. Puesto que se estableció reconocer el movimiento de la mano en relación al hombro, se tomó el segundo método.

El Kinect, además de captar el mapa de profundidad y seguir la trayectoria del usuario, estima el cuaternión unitario de cada punto respecto al punto de donde proviene. La ventaja de calcular la rotación en cuaterniones es evitar las singularidades posicionales de los eslabones y facilitar la interpretación de la orientación de los elementos [14]. No obstante, para evaluar la orientación de los puntos del brazo, primero cada cuaternión se transformó a la matriz de rotaciones usando la ecuación (4), sabiendo que el cuaternión para el punto n está dado por kn (wn, an, bn, cn), donde an, bn, cn es el eje de rotación y wn es el valor del ángulo de rotación. 

Una vez establecida la orientación de los puntos, las matrices de rotación de cada extremidad asociada a la base ubicada sobre el hombro están dadas por las ecuaciones (5) y (6).

Las matrices homogéneas de las extremidades superiores están dadas por las ecuaciones (7) y (8). Estás ecuaciones se componen de una parte posicional, tomadas de las ecuaciones (2) y (3) y de una parte rotacional, tomadas de las ecuaciones (5) y (6).

2.2- MODELADO CINEMÁTICO DEL ROBOT

Uno de los objetivos principales de este trabajo es establecer un sistema de teleoperación donde los movimientos de los robots, descompuestos en una parte posicional y en una parte rotacional, sean iguales a los descritos por el sistema maestro, siendo en este caso, los movimientos del usuario frente al Kinect. Así, después de estimarse las matrices de transformación homogénea de los brazos, se calculó la posición y la orientación que asumirán los manipuladores, sabiendo que la trayectoria de las extremidades del usuario debe ser replicada sobre los robots. De esta forma, se debe cumplir que las matrices de transformación homogénea de los robots, TRR y TRL, deben ser idealmente iguales a las matrices de transformación homogénea de los brazos, como se presenta en la ecuación (9).

Para garantizar que TR y TL sean iguales a TRR y TRL respectivamente, primero es considerado un sistema de control en lazo cerrado, realimentado por la posición y la orientación actual de los manipuladores, las cuales son obtenidas de los controladores de los robots en el dominio de las variables articulares q(θi).Así, para estimar las matrices actuales en términos de estas variables, se utiliza los parámetros de Denavit-Hartemberg, los cuales se presentan para uno de los robots en la tabla 1, puesto que ambos están basados en una misma representación geométrica, pero las constantes son diferentes. Dichos valores se especifican en el manual de funcionamiento de los robots [15].

La nueva posición de los robots, acorde al diagrama de bloques que se observa en la figura 3, se obtuvo a partir de la sumatoria de las matrices de la postura actual de los robots, con las señales de control, siendo estas últimas del mismo tamaño de las matrices de transformación homogénea (YTR para el brazo robótico derecho y YTL para el brazo robótico izquierdo respectivamente), como se presenta en la ecuación (10). Por otro lado, las señales de control se estiman a partir del error entre las matrices de transformación, tanto del usuario como de la posición actual de los robots, con la acción de un controlador que será descrito posteriormente.

Finalmente, para enviar la nueva posición estimada a los manipuladores, debe estimarse nuevamente las variables articulares para cada uno de los robots, tomando la información de la matriz de transformación homogénea que asumirá el robot en la siguiente iteración y el modelo cinemático inverso. Así, esta conversión se realiza por desacople cinemático, asumiendo que los tres primeros DOF equivalen a la posición del manipulador y los siguientes tres identifican su orientación. Mientras que los tres primeros ángulos se resuelven a partir del modelo geométrico, colocando el robot en una posición codo arriba, los ángulos de orientación se evalúan con los ángulos de Euler. Está información es introducida al paquete de datos de movimiento de los robots e enviadas de nuevo a los controladores de cada uno.

2.3.- CONTROLADOR DEL MANIPULADOR

El tiempo de latencia y la velocidad de operación de los manipuladores son factores importantes que se deben tener en cuenta cuando se realizan sistemas teleoperados. Si se omiten, la probabilidad de que los dispositivos robóticos realicen movimientos que alteren la trayectoria original a replicarse y, en ambientes inexplorados y con obstáculos en el entorno, colisionen entre ellos mismos o con elementos del espacio es alta. De la misma forma, la precisión en la información recibida del Kinect, en muchos casos, viene con errores sistemáticos que deben ser de corregidos para un funcionamiento objetivo de este sistema maestro-esclavo. Por estas razones, en este sistema de teleoperación se plantea un controlador PI que disminuya los errores presentes entre las matrices de transformación homogénea, amortigüe los sobreimpulsos producidos por los movimientos inapropiados de los robots y reduzca los retardos originados por la comunicación del sistema maestro-esclavo y el procesamiento de la información del Kinect.

De acuerdo a [16], el modelo matemático del controlador PI está dado por la ecuación (11) donde YTj(t) es la matriz cuadrada con la señal de control para el manipulador j, eTj(t) es la matriz de error entre las matrices de transformación homogénea actuales del brazo j del operador y del manipulador robótico j, kp es la matriz cuadrada con las constantes proporcionales del controlador, ti es un valor escalar desinada como el tiempo integrador del controlador y ⨀ es el producto de Hadamard entre las matrices.

Para la programación e implementación del controlador dentro de la interfaz, la ecuación (11) debe discretizarse en función del tiempo de muestreo ts. De esta forma, tomando (11) y transformándola a una ecuación en diferencias con el método de aproximación rectangular hacia adelante, se obtiene la ecuación (12).

Retrasando la expresión (12) y restándola de la ecuación original, se obtiene que

Donde

Finalmente, la ecuación (15) expresa la nueva posición que debe asumir los manipuladores, en términos de las matrices de error y de la señal de control. Es calculada a partir de reemplazar la ecuación (13) en (15).

De esta forma, una vez deducida la ecuación de movimiento con el controlador incorporado, se explicará el método utilizado para evaluar las matrices con los coeficientes del controlador. Uno de las técnicas que facilita la sintonización de los controladores con la planta es el propuesto por Ziegler-Nichols, que afina el controlador respecto a una respuesta obtenida experimentalmente. Para ello, a partir de la curva con la respuesta del sistema en lazo abierto, si se trabajara con el primer método, se halla el atraso L y la constante de tiempo T del sistema. Puesto que los movimientos de los robots son estables en un nivel muy alto y se adaptan rápidamente a un valor de entrada recibido en lazo abierto, se escogió trabajar con este método.

Para obtener estos valores para cada término de la matriz de transformación homogénea final, se obtuvo la curva la respuesta del sistema en lazo abierto, cuando era enviada una misma posición constantemente al controlador de los robots y este retornaba q(θ) en cada instante de tiempo. Realizando la conversión de esta información a las matrices de transformación homogénea, se observó cómo variaba cada término en función del tiempo. Según [17], las fórmulas para calcular los parámetros de un controlador PI son las mostradas en la tabla 2, siendo en este caso, modificadas en su notación para ser aplicadas a cada término en la posición l,m de una matriz.

3.- RESULTADOS

Para validar el sistema teleoperado, se realizó la comparación del desempeño del usuario para controlar los movimientos de los manipuladores, y adicionalmente, se comparó la trayectoria descrita con la replicada por los brazos robóticos en tiempo real, cuando se realiza la tarea de ubicar el efector de los brazos robóticos en un lugar determinado. El usuario es ubicado frente al Kinect a una distancia de dos metros, suficiente para que el sensor capte en su campo de visión, los movimientos de los brazos. La realimentación visual de la estación esclavo se hace con una cámara ubicada en la parte superior del entorno de trabajo.

En la fase experimental del trabajo, se ubicaron dos manipuladores industriales en un mismo entorno, de tal forma que la posición de efector del robot A, que será controlado por la mano izquierda del operario, esté sobre el sistema de coordenadas origen del entorno del trabajo, S0, mientras que el efector final del robot B, controlado por la mano derecha del usuario, esté a una distancia de [560, 130, 0]T de S0. Los robots tienen que ser teleoperados hasta alcanzar un objetivo con coordenadas en [250, 250, -140]T. Para evitar las colisiones de ellos con el entorno y las singularidades de los dispositivos, se restringieron sus movimientos para que no sobrepasaran los límites de las áreas de trabajo.

La figura 4 muestra la trayectoria trazada por cada mano del usuario proyectada sobre dos planos bidimensionales. En la imagen se aprecia la forma en que el usuario realiza diferentes movimientos curvilíneos para moverse hasta el sitio final. Igualmente, se detalla que la posición inicial de las manos es igual a la posición de partida de los robots. De la misma forma, la trayectoria del robot también fue graficada en un plano XY y un plano XZ en la figura 5.

Cuando se sobreponen las dos trayectorias, se observa que la similitud entre la realizada por las manos y la replicada por los robots tienen errores mínimos, pero que al final del recorrido alcanzan el mismo punto objetivo. No obstante, se observa que los movimientos rotacionales de las manos al inicio de cada una de las trayectorias, no son replicados con la misma amplitud por parte de los robots, generando variaciones en el recorrido. Este fenómeno es consecuente de la acción del controlador PI del lazo de realimentación de los robots, dado que la posición de ellos busca asemejarse y estabilizarse en la misma posición de las manos.

La figura 6 detalla el error del recorrido en cada uno de los ejes del sistema coordenado. Para la mano izquierda, visto en la figura 6a, la diferencia no supera los 2 mm. El error de la mano derecha, mostrada en la figura 6b, presenta un amortiguamiento exponencial decreciente durante las primeras iteraciones, para luego converger a un estado estacionario con error nulo. Esto sucede por efectos del controlador y por las condiciones iniciales del robot, puesto que tienen un nivel offset respecto a S0. Adicionalmente, se observa niveles de ruidos en las señales, producidas por la exactitud y precisión de los puntos extraídos en el proceso de seguimiento del esqueleto del usuario. A pesar de que esta información es procesada, parte del ruido aún se ve reflejado sobre la ubicación de los robots.

Finalmente, el tiempo de retardo fue medido desde el momento en que la trama de información es procesada y enviada al robot hasta el instante en que los datos con la realimentación de la posición se recibe en el estación maestro. Utilizando las funciones de temporizadores de la interfaz de comunicación entre las estaciones de trabajo se evaluó que el tiempo estimado promedio de retardo es de 0.746 s, realizando el cálculo para las primeras dos mil iteraciones del proceso. La latencia del sistema fue causada por el tiempo de procesamiento de la información del Kinect y la velocidad de transmisión entre las estaciones. No obstante, el intervalo de retardo no afectó notablemente la posición de los manipuladores puesto que fue compensada por la acción del controlador PI.

 

4.- CONCLUSIONES

 

En este documento se presentó un sistema de teleoperación de dos manipuladores, utilizando el cuerpo del usuario como marcadores visuales, controlándolos con las posiciones de las manos, enfocado a la aplicación de robótica cooperativa en procesos de seguimiento de trayectorias. La aplicación de sistemas no mecánicos para captar los movimientos del operario dan mayor libertad al usuario para moverse, otorgando la capacidad de realizar más recorridos posibles para alcanzar un objetivo, limitándose solamente al diseño mecánico de los dispositivos robóticos y sus espacios de trabajo. Para este desarrollo, fue importante el uso de tecnologías como el Kinect, puesto que facilitan la recolección de información y procesamiento de las imágenes en un menor tiempo.

Los ruidos en las trayectorias a pesar de modificarlas, no generan un percance que ocasione colisiones con los elementos de las celdas de trabajo. Para eliminar este ruido, es posible implementar filtros con anchos de banda cercanos a la frecuencia del usuario para interactuar con los robots. Asimismo, los tiempos de retardo en la comunicación entre ambas estaciones de trabajo no alteran de manera significativa los movimientos del robot, generando desplazamientos en un tiempo muy cercano al real.

Por último, la aplicación del controlador PI, sintonizado por el método de Ziegler-Nichols, mostró una mejoría significativa en la suavización de las trayectorias, eliminando la mayoría de los sobreimpulsos producidos por el ruido en la extracción de la información del Kinect y la sensibilidad del dispositivo para captar los movimientos.

 

AGRADECIMIENTOS

 

Los autores agradecen a la Vicerrectoría de Investigaciones de la Universidad Militar Nueva Granada, por el apoyo y la financiación del proyecto IMP-ING 1573, en el año 2015.

 

REFERENCIAS

 

1. Passengerb C, Peer A, Buss M. A survey of environment-, operator-, and task-adapted controllers for teleoperation systems. Mechatronics. 2010;20(7):787-801.

2. Sivaraman A, Sanchez-Salas R,Prapotnich, D, Barret E, Mombet A, Cathala N, et al. Robotics in urological surgery: Evolution, current status and future perspectives. Actas Urológicas Españolas (English Edition). 2015;39(7):435-441.

3. Fong T, Provencher C, Micire M, Diftler M, Berka R, Bluethmann B, et al. The Human Exploration Telerobotics project: Objectives, approach, and testing. 2012 IEEE Aerospace Conference; 2012 Mar 3-10. Big Sky, MT, Estados Unidos. 2012. IEEE 2012:1-9.

4. Lopez E, Zollo L,Guglielmelli E. Teleoperated control based on virtual fixtures for a redundant surgical system. 2013 IEEE/RSJ International Conference on Intelligent Robots and Systems (IROS); 2013 Nov 3-7. Tokio, Japón. 2013. IEEE 2013;450-455.

5. Van Osch M, Bera D, Van Hee K, Koks Y, Zeegers H. Tele-operated service robot: ROSE. Automation in Construction. 2014;39:152-160.

6. Hung-Lin C, Yi-Chen C, Shih-Chung K, Shang-Hsien H. Development of user interface for tele-operated cranes. Advanced Engineering Informatics.2012;26:641-652.

7. Wildenbeest JG, Abbink D, Heemskerk CJ, van-der Helm FC, Boessenkool H. The Impact of Haptic Feedback Quality on the Performance of Teleoperated Assembly Tasks. IEEE Transactions on Haptics. 2013;6(2):242-252.

8. Kabumoto K, Toyama K, Hoshino T, Morishima K. Teleoperated muscle-powered micro gripper controlled by electromyogram. IEEE 24th International Conference on Micro Electro Mechanical Systems (MEMS); 2011 Ene 23-27. Cancun, México. 2011. IEEE 2011:1277-1280.

9. Michoud B, Guillou E, Bouakaz S.Real-Time and Markerless 3D Human Motion Capture Using Multiple Views. Human Motion – Understanding, Modeling, Capture and Animation. Berlin: Springer Berlin Heidelberg; 2007. p. 88-103.

10. Du G, Zhang P, Mai J, Li Z. Markerless Kinect-Based Hand Tracking for Robot Teleoperation. International Journal of Advanced Robotic Systems. 2012;9:1-10.

11. Richert D, Macnab CJB, Pieper JK. Adaptive Haptic Control for Telerobotics Transitioning Between Free, Soft, and Hard Environments. IEEE Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans. 2012;42(3):558-570.

12. Ballester J, Pheatt C. Using the Xbox Kinect sensor for positional data acquisition. Apparatus and Demonstration Notes.2013;81(1):71-77.

13. LaBelle K. Evaluation of Kinect Joint Tracking for Clinical and In-home Stroke Rehabilitation Tools. Undergraduate Thesis. University of Notre Dame, Indiana, 2011.Disponible en: http://netscale.cse.nd.edu/cms/pub/Edu/KinectRehabilitation/Eval_of_Kinect_for_Rehab.pdf

14. Van Waveren JMP. From Quaternion to Matrix and Back. Id Software, Inc, 2005.

15. Mitsubishi Electric Corporation. CRnQ/CRnD Controller. Instruction Manual. Detailed explanations of functions and operations. Tokio (Japón); 2012.

16. Ogata K. Modern Control Engineering. 5th ed. New Jersey: Prentice Hall; 2010.

17. Meshram P, Kanojiya R. Tuning of PID Controller using Ziegler-Nichols Method for Speed Control of DC Motor. IEEE International Conference On Advances In engineering, Science and Management; 2012 Mar 30-31.Nagapattinam, India. 2012. IEEE 2012:117-122.

 

 

Recibido: 20 de enero de 2016
Aprobado: 15 de junio de 2016

 

 

Germán Darío Buitrago Salazar. Grupo de Investigación GAV, Universidad Militar Nueva Granada. E-mail: gedabusa@gmail.com.

Creative Commons License Todo el contenido de esta revista, excepto dónde está identificado, está bajo una Licencia Creative Commons