<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1815-5928</journal-id>
<journal-title><![CDATA[Ingeniería Electrónica, Automática y Comunicaciones]]></journal-title>
<abbrev-journal-title><![CDATA[EAC]]></abbrev-journal-title>
<issn>1815-5928</issn>
<publisher>
<publisher-name><![CDATA[Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1815-59282016000200003</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Interfaz de control teleoperado para dos manipuladores industriales usando un marcador visual humano]]></article-title>
<article-title xml:lang="en"><![CDATA[Teleoperated Control Interface of two industrial robotic arms using a human visual marker]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Buitrago Salazar]]></surname>
<given-names><![CDATA[Germán Darío]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ramos Sandoval]]></surname>
<given-names><![CDATA[Olga Lucía]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Militar Nueva Granada Grupo de Investigación GAV ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Colombia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>08</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>08</month>
<year>2016</year>
</pub-date>
<volume>37</volume>
<numero>2</numero>
<fpage>28</fpage>
<lpage>38</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S1815-59282016000200003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S1815-59282016000200003&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S1815-59282016000200003&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Los trabajos cooperativos con robótica han permitido la interacción más cercana entre los usuarios que controlan los dispositivos y el entorno de trabajo de los robots. Para esto, se han desarrollado interfaces para el control de sus movimientos mediante la realimentación de las variables de sus espacios de trabajo. No obstante, los sistemas mecánicos usados para la interacción robot-humano restringen los movimientos del operario, dificultando el trazo de la trayectoria que debe efectuar cada brazo robótico. Una solución a esta problemática es implementar sistemas en la estación de trabajo que capten visualmente, las posiciones realizadas por el operario. En este trabajo, se presenta una interfaz para controlar de forma remota, dos manipuladores industriales ubicados en celdas de trabajo contiguas, usando el cuerpo humano como un marcador visual de movimiento. Para esto, se utilizó un Kinect colocado en la estación maestro, que capta al usuario esqueléticamente, para luego, usando el modelo cinemático de los robots y sistemas de control para amortiguar el desplazamiento de ellos, realizar una trayectoria similar a la descrita con las manos. La trama de información compartida entre ambas estaciones se realiza por un protocolo Ethernet establecido entre los ordenadores y los controladores de los robots. Los resultados de este trabajo demuestran la viabilidad de este método para controlar robots en tiempo real, con alto grado de similitud entre la trayectoria descrita y la replicada, con tiempos de retardos inferiores a 0.8 segundos y con menores limitaciones, en cuanto a la libertad del movimiento del operario.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Cooperative work with robotics has allowed closer interaction among users who control devices, with the working environment of the robots. For this, we have developed interfaces with motion control and with feedback of variables from their workspaces. However, the mechanical systems used for human-robot interaction restrict the operator movement, reducing the space to draw the path that each robotic arm must make. A solution to this problem is to implement systems in the workstation in order to capture visually the positions taken by the operator. This paper presents an interface to control remotely, two industrial robotic arms located in adjacent workcells, using the human body as a movement visual marker. For this, we used a Kinect placed in the master station, which captures the skeleton of the user in order to control the position of the robot with the hands. To decrease the error and the damping of the path were used their kinematic models and PI controllers. The communication between the Slave system and master system is performed by an Ethernet protocol. The results of this study demonstrate the feasibility of this method to control robots in real time, with high degree of similarity between the path described and the replicated with delay times of less than 0.8 seconds and with fewer limitations on freedom of movement Operator.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Visión de máquina]]></kwd>
<kwd lng="es"><![CDATA[control teleoperado]]></kwd>
<kwd lng="es"><![CDATA[marcador visual humano]]></kwd>
<kwd lng="es"><![CDATA[sistema maestro-esclavo]]></kwd>
<kwd lng="en"><![CDATA[Machine vision]]></kwd>
<kwd lng="en"><![CDATA[Teleoperated control]]></kwd>
<kwd lng="en"><![CDATA[Human visual marker]]></kwd>
<kwd lng="en"><![CDATA[Master-Slave system]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana" size="2"> <b>ART&Iacute;CULO ORIGINAL</b></font></p>        <p>&nbsp;</p>     <p>&nbsp; </p> 	     <p align="left" ><font face="verdana" size="4"><strong>Interfaz de control teleoperado    para dos manipuladores industriales usando un marcador visual humano</strong></font></p>     <p align="left" >&nbsp;</p>  	     <p ><font face="verdana" size="3"><b>Teleoperated Control Interface of two industrial    robotic arms using a human visual marker</b></font></p>     <p >&nbsp;</p>     <p >&nbsp;</p>  	     <p align="left" ><font face="verdana" size="2"><b>Germ&aacute;n Dar&iacute;o Buitrago    Salazar, Olga Luc&iacute;a Ramos Sandoval</b></font></p>  	    <p align="left" ><font face="verdana" size="2">Grupo de Investigaci&oacute;n GAV, Universidad Militar Nueva Granada, Colombia</font></p>     ]]></body>
<body><![CDATA[<P>&nbsp;     <P>&nbsp;  <hr size="1" noshade>     <P><B><font size="2" face="Verdana">RESUMEN</font></B> 	    <p ><font face="verdana" size="2">Los trabajos cooperativos con rob&oacute;tica han permitido la interacci&oacute;n m&aacute;s cercana entre los usuarios que controlan los dispositivos y el entorno de trabajo de los robots. Para esto, se han desarrollado interfaces para el control de sus movimientos mediante la realimentaci&oacute;n de las variables de sus espacios de trabajo. No obstante, los sistemas mec&aacute;nicos usados para la interacci&oacute;n robot&#45;humano restringen los movimientos del operario, dificultando el trazo de la trayectoria que debe efectuar cada brazo rob&oacute;tico. Una soluci&oacute;n a esta problem&aacute;tica es implementar sistemas en la estaci&oacute;n de trabajo que capten visualmente, las posiciones realizadas por el operario. En este trabajo, se presenta una interfaz para controlar de forma remota, dos manipuladores industriales ubicados en celdas de trabajo contiguas, usando el cuerpo humano como un marcador visual de movimiento. Para esto, se utiliz&oacute; un Kinect colocado en la estaci&oacute;n maestro, que capta al usuario esquel&eacute;ticamente, para luego, usando el modelo cinem&aacute;tico de los robots y sistemas de control para amortiguar el desplazamiento de ellos, realizar una trayectoria similar a la descrita con las manos. La trama de informaci&oacute;n compartida entre ambas estaciones se realiza por un protocolo Ethernet establecido entre los ordenadores y los controladores de los robots. Los resultados de este trabajo demuestran la viabilidad de este m&eacute;todo para controlar robots en tiempo real, con alto grado de similitud entre la trayectoria descrita y la replicada, con tiempos de retardos inferiores a 0.8 segundos y con menores limitaciones, en cuanto a la libertad del movimiento del operario.</font></p>  	     <p ><font face="verdana" size="2"><b>Palabras claves:</b> Visi&oacute;n de m&aacute;quina,    control teleoperado, marcador visual humano, sistema maestro&#45;esclavo.</font></p> 	    <p align="left" ><font face="verdana" size="2"><strong>ABSTRACT</strong></font></p> 	    <p ><font face="verdana" size="2">Cooperative work with robotics has allowed closer interaction among users who control devices, with the working environment of the robots. For this, we have developed interfaces with motion control and with feedback of variables from their workspaces. However, the mechanical systems used for human&#45;robot interaction restrict the operator movement, reducing the space to draw the path that each robotic arm must make. A solution to this problem is to implement systems in the workstation in order to capture visually the positions taken by the operator. This paper presents an interface to control remotely, two industrial robotic arms located in adjacent workcells, using the human body as a movement visual marker. For this, we used a Kinect placed in the master station, which captures the skeleton of the user in order to control the position of the robot with the hands. To decrease the error and the damping of the path were used their kinematic models and PI controllers. The communication between the Slave system and master system is performed by an Ethernet protocol. The results of this study demonstrate the feasibility of this method to control robots in real time, with high degree of similarity between the path described and the replicated with delay times of less than 0.8 seconds and with fewer limitations on freedom of movement Operator.</font></p>  	    <p ><font face="verdana" size="2"><b>Key words:</b> Machine vision, Teleoperated control, Human visual marker, Master&#45;Slave system.</font></p>  	<hr size="1" noshade>     <P>&nbsp;     <P>&nbsp; 	     ]]></body>
<body><![CDATA[<p ><font face="verdana" size="3"><b>1.- INTRODUCCI&Oacute;N</b></font></p>     <p >&nbsp;</p>  	    <p ><font face="verdana" size="2">El surgimiento de nuevos escenarios donde se han necesitado involucrar avances en el campo de la rob&oacute;tica han aumentado, pasando de simples aplicaciones con desplazamientos del robot en entornos de trabajo, a sistemas complejos donde los usuarios interact&uacute;an en ambientes din&aacute;micos a trav&eacute;s de ellos. Ejemplo de ello, han sido los sistemas teleoperados, en el cual, un dispositivo rob&oacute;tico (sistema esclavo) se controla remotamente por un usuario ubicado en un lugar distinto, a trav&eacute;s de un mecanismo (sistema maestro) &#91;1&#93;. Las aplicaciones de estos sistemas han sido principalmente en la realizaci&oacute;n de procedimientos quir&uacute;rgicos, en donde el especialista se ubica en una estaci&oacute;n de trabajo contigua al sitio de la cirug&iacute;a, especialmente en cirug&iacute;as m&iacute;nimamente invasivas &#91;2&#93;. En el sector aeroespacial, organizaciones como la NASA han invertido dinero y esfuerzos en la construcci&oacute;n de sistemas de exploraci&oacute;n tele&#45;rob&oacute;tica, que ayudan a completar exitosamente las misiones &#91;3&#93;.</font></p>  	    <p ><font face="verdana" size="2">Estos sistemas usan mecanismos que captan los movimientos del operario, para posteriormente procesar dicha informaci&oacute;n y convertirla en una serie de comandos interpretados por el robot. Las interfaces hombre&#45;m&aacute;quina (HMI por sus siglas en ingl&eacute;s), utilizan generalmente dispositivos h&aacute;pticos como el joystick, que realimenta en algunos casos, las fuerzas externas del entorno de trabajo. En &#91;4&#93; usan un sistema teleoperado compuesto por un dispositivo que trabaja como esclavo, para guiar los movimientos de un brazo rob&oacute;tico en un ambiente virtual. El sistema se valid&oacute; con un manipulador antropom&oacute;rfico de 7 grados de libertad (DOF por su acr&oacute;nimo en ingl&eacute;s), realiz&aacute;ndose pruebas experimentales con 12 voluntarios.</font></p>  	    <p ><font face="verdana" size="2">En el campo asistencial de pacientes, se han desarrollado robots operados a distancia para ayudar en las tareas caseras de pacientes que no puedan moverse. Adicionalmente, el dise&ntilde;o de ese dispositivo rob&oacute;tico ser&aacute; capaz de utilizarse en la construcci&oacute;n, la seguridad y el mantenimiento en lugares riesgosos para los humanos &#91;5&#93;. La teleoperaci&oacute;n tambi&eacute;n se ha aplicado para controlar gr&uacute;as a trav&eacute;s de un mando, realizando las pruebas de rendimiento con personal experto en este tipo de mecanismos. La implementaci&oacute;n de este sistema se realiz&oacute; sobre un brazo rob&oacute;tico de 6 DOF, que ubica diferentes barras hasta construir una estructura s&oacute;lida en un ambiente con realidad aumentada &#91;6&#93;.</font></p>  	    <p ><font face="verdana" size="2">A pesar de las ventajas de usar mecanismos para captar los movimientos del usuario, existen limitaciones como la poca libertad de movimiento del usuario para controlar el manipulador, la realimentaci&oacute;n en tiempo real de las fuerzas de contacto, los tiempos de retardo de la comunicaci&oacute;n entre las estaciones de trabajo maestro&#45;esclavo, las restricciones mec&aacute;nicas del sensor y las actividades donde se necesiten movimientos rotacionales, las cuales obligan a controlar fuerzas sobre el robot, adyacentes a la trayectoria que realiza &#91;7&#93;. Una alternativa para solventar algunas de estas problem&aacute;ticas es usar sistemas que detecten los movimientos del usuario, sin usar elementos f&iacute;sicos, mientras que la informaci&oacute;n del espacio del entorno de trabajo se realimente visualmente.</font></p>  	    <p ><font face="verdana" size="2">La electromiograf&iacute;a ha sido una soluci&oacute;n a esto, puesto que utiliza sensores sobre los m&uacute;sculos del brazo de una persona, para operar una pinza rob&oacute;tica en escala micro. El funcionamiento de la pinza se hace a partir de la expansi&oacute;n y contracci&oacute;n de un tejido sint&eacute;tico, que la abre y la cierra proporcionalmente a la intensidad de la se&ntilde;al muestreada &#91;8&#93;. Otra soluci&oacute;n ha sido la detecci&oacute;n de los movimientos de personas utilizando c&aacute;maras, efectuada con la implementaci&oacute;n de marcadores visuales colocados en el cuerpo, con el fin de trazar una trayectoria cuando ellos se mueven frente a las c&aacute;maras calibradas. Esta informaci&oacute;n obtenida presenta una representaci&oacute;n 3D del usuario en tiempo real, a la vez que elimina los posibles ruidos que pueden presentar durante el proceso &#91;9&#93;.</font></p>  	    <p ><font face="verdana" size="2">Una aplicaci&oacute;n concreta del uso de marcadores en telerrob&oacute;tica se presenta en &#91;10&#93;, quienes desarrollaron un algoritmo para el movimiento de un robot y el accionamiento de su efector final en un ambiente virtual, basado en la informaci&oacute;n de la posici&oacute;n espacial del brazo del usuario, la cual se recolecta con un Kinect. Ese trabajo muestra el potencial de los sistemas de visi&oacute;n de m&aacute;quina para controlar dispositivos rob&oacute;ticos. Adicionalmente, para solucionar los inconvenientes presentados durante el retardo de la transmisi&oacute;n y que pueden conllevar a la colisi&oacute;n del dispositivo rob&oacute;tico en sistemas maestro&#45;esclavo, se han formulado sistemas de realimentaci&oacute;n de fuerzas externas, paralelo al lazo con las se&ntilde;ales de teleoperaci&oacute;n, que compense la ubicaci&oacute;n del robot y anticipe sus colisiones en ambientes con cualquier nivel de navegaci&oacute;n &#91;11&#93;.</font></p>  	    <p ><font face="verdana" size="2">Los trabajos presentados hasta el momento, muestran solamente la interacci&oacute;n con un solo robot, para realizar tareas sencillas y que no se requiera de alg&uacute;n otro agente para ser desarrolladas. Sin embargo, se ha presentado la necesidad de usar robots que trabajen de forma colaborativa, para que cada uno realice una tarea determinada, para alcanzar un mismo fin. Cada robot debe ser, en el mejor de los casos, controlado por un &uacute;nico operario, evitando usar mecanismo que dificulte la operaci&oacute;n adecuada de ellos. Del mismo modo, estos trabajos deben ser efectuados con mecanismos que den informaci&oacute;n en tiempo real, con un m&iacute;nimo error en cuanto a la precisi&oacute;n de su recorrido.&nbsp;&nbsp;</font></p>  	     <p ><font face="verdana" size="2">Basados en las anteriores afirmaciones, en este    documento se presenta un sistema teleoperado para dos manipuladores industriales,    ubicados en sus celdas de trabajo, con el objetivo de replicar una trayectoria    descrita por un operario desde una estaci&oacute;n de trabajo. Como resultado    m&aacute;s importante de este trabajo, est&aacute; el seguimiento de las trayectorias    realizadas por los brazos manipuladores, de acuerdo a la referencia determinada    por el usuario, con una alta precisi&oacute;n en el seguimiento. El art&iacute;culo    se compone de cuatro secciones: en la segunda, se presenta la metodolog&iacute;a    usada en el desarrollo de este proyecto, determinando el algoritmo para la estimaci&oacute;n    de la posici&oacute;n del usuario, el modelado cinem&aacute;tico de los robots    y el dise&ntilde;o del controlador utilizado para suavizar los desplazamientos    del robot; la tercera detalla los resultados obtenidos en la fase de evaluaci&oacute;n    del sistema y finalmente, en la &uacute;ltima se presentan las conclusiones.</font></p>     ]]></body>
<body><![CDATA[<p >&nbsp;</p>  	     <p ><font face="verdana" size="3"><b>2.&#45; HERRAMIENTAS Y M&Eacute;TODOS</b></font></p>     <p >&nbsp;</p>  	     <p ><font face="verdana" size="2">El sistema de control remoto para rob&oacute;tica    colaborativa se compone de dos estaciones de trabajo, como se ilustra en la    <a href="http://img/revistas/eac/v37n2/f0103216.jpg">figura 1</a>. La estaci&oacute;n maestro se compone    de un Kinect ubicado en frente del usuario, el cual captura sus movimientos    en tiempo real. Esta informaci&oacute;n se procesa y se extrae la posici&oacute;n    3D de las articulaciones del cuerpo identificado con el dispositivo. La estaci&oacute;n    esclavo se conforma por dos brazos rob&oacute;ticos de 6 DOF, ubicados uno contiguo    al otro, y conectados entre s&iacute; v&iacute;a Ethernet, a trav&eacute;s de    sus controladores. Cada manipulador se controla con cada brazo del usuario.    La informaci&oacute;n entre las estaciones maestro&#45;esclavo tambi&eacute;n    se realiza por una conexi&oacute;n Ethernet, espec&iacute;ficamente con el protocolo    UDP.</font></p>     <p ><font face="verdana" size="2">En esta secci&oacute;n, se esboza el modelo    matem&aacute;tico usado para plantear el algoritmo de seguimiento del usuario,    la extracci&oacute;n de los puntos de posici&oacute;n y orientaci&oacute;n y    su transformaci&oacute;n en las matrices homog&eacute;neas de traslaci&oacute;n    y rotaci&oacute;n. Asimismo, se describe el modelo cinem&aacute;tico del manipulador,    al igual que el dise&ntilde;o del sistema de control propuesto para estabilizar    la trayectoria del robot.</font></p>  	     <p ><font face="verdana" size="2"><strong>2.1.&#45; ESTIMACI&Oacute;N DE LA POSICI&Oacute;N    Y ORIENTACI&Oacute;N DEL USUARIO</strong></font></p>  	    <p ><font face="verdana" size="2">Como se mencion&oacute; anteriormente, para detectar la posici&oacute;n del usuario dentro de la estaci&oacute;n maestro, se utiliz&oacute; un Kinect ubicado frente al usuario. Para esto, el Kinect utiliza tanto el mapa de profundidad, para medir la distancia del sensor con cada uno de los elementos del &aacute;rea de trabajo, como la funci&oacute;n de detecci&oacute;n de posici&oacute;n de personas. El sensor se configur&oacute; para tomar fotogramas con el mapa de disparidad a una velocidad de 30 im&aacute;genes por segundo (fps), mientras que el sistema de seguimiento del usuario fue configurado para detectar solamente al usuario m&aacute;s cercano a la c&aacute;mara. Debido a la cantidad de informaci&oacute;n que se necesitaba procesar, la resoluci&oacute;n de las im&aacute;genes tomadas se configur&oacute; a un tama&ntilde;o de 640 x 480 pixeles.</font></p>  	     <p ><font face="verdana" size="2">Un ejemplo de la imagen capturada con el Kinect    se observa en la <a href="http://img/revistas/eac/v37n2/f0203216.jpg">figura 2</a>, donde se muestra    como el dispositivo representa el cuerpo humano como un arreglo de segmentos    o huesos concadenados en los puntos articulares. Para controlar cada uno de    los manipuladores con los movimientos de las manos, a cada robot se le asign&oacute;    el movimiento de un brazo del usuario. Cada brazo debe ser representado por    una matriz de rotaci&oacute;n y traslaci&oacute;n, que relacione las articulaciones    respecto a su hombro. Por consiguiente, primero se hall&oacute; la posici&oacute;n    de los puntos {P<sub>10</sub>, P<sub>14</sub>, P<sub>18</sub>, P<sub>20</sub>}    y {P<sub>8</sub>, P<sub>13</sub>, P<sub>17</sub>, P<sub>19</sub>}, los cuales    proyectan los movimientos de las extremidades superiores, y a partir de ellos,    se obtiene la ubicaci&oacute;n espacial proyectada en cada fotograma.</font></p>  	     <p ><font face="verdana" size="2">Cada punto proyectado q<sub>n</sub>, consta    de tres par&aacute;metros: los dos primeros describen la posici&oacute;n en    pixeles del punto proyectado (U<sub>n</sub>, V<sub>n</sub>), mientras que el    tercer valor expresa la distancia de la c&aacute;mara hasta el punto proyectado,    (Z<sub>n</sub>). Para transformar q<sub>n</sub> en la ubicaci&oacute;n espacial    de cada punto en la estaci&oacute;n maestro, P<sub>n</sub>, se tom&oacute; la    c&aacute;mara como el origen del entorno, de tal manera que se ubique el sistema    de coordenadas de la imagen en el centro de ella y se eval&uacute;e P<sub>n</sub>    con la <a href="#ec1">ecuaci&oacute;n (1)</a>, sabiendo que los &aacute;ngulos    &#945; y &#946; son los &aacute;ngulos de visi&oacute;n horizontal y vertical    respectivamente. De acuerdo a &#91;12&#93;, para el Kinect el valor de &#945;    es 57&deg; y de &#946; es 43&deg;.</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e0103216.gif"><a name="ec1"/></a>  	     ]]></body>
<body><![CDATA[<p ><font face="verdana" size="2">La posici&oacute;n de la mano derecha P<sub>20</sub>    respecto al hombro derecho P<sub>10</sub> est&aacute; dada por la <a href="#ec2">ecuaci&oacute;n    (2)</a>, mientras que para la extremidad superior izquierda la <a href="#ec3">ecuaci&oacute;n    (3)</a> representa la ubicaci&oacute;n de la mano respecto al hombro.</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e0203216.gif"><a name="ec2"/></a> 	    <p><img src="http://img/revistas/eac/v37n2/e0303216.gif"><a name="ec3"/></a>  	    <p ><font face="verdana" size="2">De igual forma, la orientaci&oacute;n de cada uno de los puntos puede darse de dos formas distintas. La primera es la rotaci&oacute;n del usuario respecto al espacio de coordenadas de la c&aacute;mara, tomando un punto central del cuerpo humano. La segunda es la jerarquizaci&oacute;n de la rotaci&oacute;n de los puntos basados en las relaciones estructurales de las articulaciones, determinando la matriz de rotaci&oacute;n del punto hijo, respecto a un punto padre. Tanto para la primera como para la segunda forma, el origen est&aacute; ubicado a la altura de la cadera (P<sub>1</sub>), como se referencia en &#91;13&#93;. Puesto que se estableci&oacute; reconocer el movimiento de la mano en relaci&oacute;n al hombro, se tom&oacute; el segundo m&eacute;todo.</font></p>  	     <p ><font face="verdana" size="2">El Kinect, adem&aacute;s de captar el mapa de    profundidad y seguir la trayectoria del usuario, estima el cuaterni&oacute;n    unitario de cada punto respecto al punto de donde proviene. La ventaja de calcular    la rotaci&oacute;n en cuaterniones es evitar las singularidades posicionales    de los eslabones y facilitar la interpretaci&oacute;n de la orientaci&oacute;n    de los elementos &#91;14&#93;. No obstante, para evaluar la orientaci&oacute;n    de los puntos del brazo, primero cada cuaterni&oacute;n se transform&oacute;    a la matriz de rotaciones usando la <a href="#ec4">ecuaci&oacute;n (4)</a>,    sabiendo que el cuaterni&oacute;n para el punto n est&aacute; dado por k<sub>n</sub>    (w<sub>n</sub>, a<sub>n</sub>, b<sub>n</sub>, c<sub>n</sub>), donde a<sub>n</sub>,    b<sub>n</sub>, c<sub>n</sub> es el eje de rotaci&oacute;n y w<sub>n</sub> es    el valor del &aacute;ngulo de rotaci&oacute;n.&nbsp;</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e0403216.gif"><a name="ec4"/></a>  	     <p ><font face="verdana" size="2">Una vez establecida la orientaci&oacute;n de    los puntos, las matrices de rotaci&oacute;n de cada extremidad asociada a la    base ubicada sobre el hombro est&aacute;n dadas por las <a href="#ec5">ecuaciones    (5)</a> y <a href="#ec6">(6)</a>.</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e0503216.gif"><a name="ec5"/></a> 	    <p><img src="http://img/revistas/eac/v37n2/e0603216.gif"><a name="ec6"/></a>  	     <p ><font face="verdana" size="2">Las matrices homog&eacute;neas de las extremidades    superiores est&aacute;n dadas por las <a href="#ec7">ecuaciones (7)</a> y <a href="#ec8">(8)</a>.    Est&aacute;s ecuaciones se componen de una parte posicional, tomadas de las    <a href="#ec2">ecuaciones (2)</a> y <a href="#ec3">(3)</a> y de una parte rotacional,    tomadas de las <a href="#ec5">ecuaciones (5)</a> y <a href="#ec6">(6)</a>.</font></p>  	    ]]></body>
<body><![CDATA[<p><img src="http://img/revistas/eac/v37n2/e0703216.gif"><a name="ec7"/></a> 	    <p><img src="http://img/revistas/eac/v37n2/e0803216.gif"><a name="ec8"/></a>  	     <p ><font face="verdana" size="2"><strong>2.2&#45; MODELADO CINEM&Aacute;TICO    DEL ROBOT</strong></font></p>  	     <p ><font face="verdana" size="2">Uno de los objetivos principales de este trabajo    es establecer un sistema de teleoperaci&oacute;n donde los movimientos de los    robots, descompuestos en una parte posicional y en una parte rotacional, sean    iguales a los descritos por el sistema maestro, siendo en este caso, los movimientos    del usuario frente al Kinect. As&iacute;, despu&eacute;s de estimarse las matrices    de transformaci&oacute;n homog&eacute;nea de los brazos, se calcul&oacute; la    posici&oacute;n y la orientaci&oacute;n que asumir&aacute;n los manipuladores,    sabiendo que la trayectoria de las extremidades del usuario debe ser replicada    sobre los robots. De esta forma, se debe cumplir que las matrices de transformaci&oacute;n    homog&eacute;nea de los robots, T<sub>RR</sub> y T<sub>RL</sub>, deben ser idealmente    iguales a las matrices de transformaci&oacute;n homog&eacute;nea de los brazos,    como se presenta en la <a href="#ec9">ecuaci&oacute;n (9)</a>.</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e0903216.gif"><a name="ec9"/></a>  	     <p ><font face="verdana" size="2">Para garantizar que T<sub>R</sub> y T<sub>L</sub>    sean iguales a T<sub>RR</sub> y T<sub>RL</sub> respectivamente, primero es considerado    un sistema de control en lazo cerrado, realimentado por la posici&oacute;n y    la orientaci&oacute;n actual de los manipuladores, las cuales son obtenidas    de los controladores de los robots en el dominio de las variables articulares    q(&#952;<sub>i</sub>).As&iacute;, para estimar las matrices actuales en t&eacute;rminos    de estas variables, se utiliza los par&aacute;metros de Denavit&#45;Hartemberg,    los cuales se presentan para uno de los robots en la <a href="http://img/revistas/eac/v37n2/t0103216.gif">tabla    1</a>, puesto que ambos est&aacute;n basados en una misma representaci&oacute;n    geom&eacute;trica, pero las constantes son diferentes. Dichos valores se especifican    en el manual de funcionamiento de los robots &#91;15&#93;.</font></p>     <p ><font face="verdana" size="2">La nueva posici&oacute;n de los robots, acorde    al diagrama de bloques que se observa en la <a href="http://img/revistas/eac/v37n2/f0303216.jpg">figura    3</a>, se obtuvo a partir de la sumatoria de las matrices de la postura actual    de los robots, con las se&ntilde;ales de control, siendo estas &uacute;ltimas    del mismo tama&ntilde;o de las matrices de transformaci&oacute;n homog&eacute;nea    (Y<sub>TR</sub> para el brazo rob&oacute;tico derecho y Y<sub>TL</sub> para    el brazo rob&oacute;tico izquierdo respectivamente), como se presenta en la    <a href="#ec10">ecuaci&oacute;n (10)</a>. Por otro lado, las se&ntilde;ales    de control se estiman a partir del error entre las matrices de transformaci&oacute;n,    tanto del usuario como de la posici&oacute;n actual de los robots, con la acci&oacute;n    de un controlador que ser&aacute; descrito posteriormente.</font></p> 	    <p><img src="http://img/revistas/eac/v37n2/e1003216.gif"><a name="ec10"/></a>  	     <p ><font face="verdana" size="2">Finalmente, para enviar la nueva posici&oacute;n    estimada a los manipuladores, debe estimarse nuevamente las variables articulares    para cada uno de los robots, tomando la informaci&oacute;n de la matriz de transformaci&oacute;n    homog&eacute;nea que asumir&aacute; el robot en la siguiente iteraci&oacute;n    y el modelo cinem&aacute;tico inverso. As&iacute;, esta conversi&oacute;n se    realiza por desacople cinem&aacute;tico, asumiendo que los tres primeros DOF    equivalen a la posici&oacute;n del manipulador y los siguientes tres identifican    su orientaci&oacute;n. Mientras que los tres primeros &aacute;ngulos se resuelven    a partir del modelo geom&eacute;trico, colocando el robot en una posici&oacute;n    codo arriba, los &aacute;ngulos de orientaci&oacute;n se eval&uacute;an con    los &aacute;ngulos de Euler. Est&aacute; informaci&oacute;n es introducida al    paquete de datos de movimiento de los robots e enviadas de nuevo a los controladores    de cada uno.</font></p>  	     <p ><font face="verdana" size="2"><strong>2.3.&#45; CONTROLADOR DEL MANIPULADOR</strong></font></p>  	    ]]></body>
<body><![CDATA[<p ><font face="verdana" size="2">El tiempo de latencia y la velocidad de operaci&oacute;n de los manipuladores son factores importantes que se deben tener en cuenta cuando se realizan sistemas teleoperados. Si se omiten, la probabilidad de que los dispositivos rob&oacute;ticos realicen movimientos que alteren la trayectoria original a replicarse y, en ambientes inexplorados y con obst&aacute;culos en el entorno, colisionen entre ellos mismos o con elementos del espacio es alta. De la misma forma, la precisi&oacute;n en la informaci&oacute;n recibida del Kinect, en muchos casos, viene con errores sistem&aacute;ticos que deben ser de corregidos para un funcionamiento objetivo de este sistema maestro&#45;esclavo. Por estas razones, en este sistema de teleoperaci&oacute;n se plantea un controlador PI que disminuya los errores presentes entre las matrices de transformaci&oacute;n homog&eacute;nea, amortig&uuml;e los sobreimpulsos producidos por los movimientos inapropiados de los robots y reduzca los retardos originados por la comunicaci&oacute;n del sistema maestro&#45;esclavo y el procesamiento de la informaci&oacute;n del Kinect.</font></p>  	     <p ><font face="verdana" size="2">De acuerdo a &#91;16&#93;, el modelo matem&aacute;tico    del controlador PI est&aacute; dado por la <a href="#ec11">ecuaci&oacute;n (11)</a>    donde Y<sub>Tj</sub>(t) es la matriz cuadrada con la se&ntilde;al de control    para el manipulador j, e<sub>Tj</sub>(t) es la matriz de error entre las matrices    de transformaci&oacute;n homog&eacute;nea actuales del brazo j del operador    y del manipulador rob&oacute;tico j, k<sub>p</sub> es la matriz cuadrada con    las constantes proporcionales del controlador, t<sub>i</sub> es un valor escalar    desinada como el tiempo integrador del controlador y &#10752; es el producto    de Hadamard entre las matrices.</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e1103216.gif"><a name="ec11"/></a>  	     <p ><font face="verdana" size="2">Para la programaci&oacute;n e implementaci&oacute;n    del controlador dentro de la interfaz, la <a href="#ec11">ecuaci&oacute;n (11)</a>    debe discretizarse en funci&oacute;n del tiempo de muestreo t<sub>s</sub>. De    esta forma, tomando <a href="#ec11">(11)</a> y transform&aacute;ndola a una    ecuaci&oacute;n en diferencias con el m&eacute;todo de aproximaci&oacute;n rectangular    hacia adelante, se obtiene la <a href="#ec12">ecuaci&oacute;n (12)</a>.</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e1203216.gif"><a name="ec12"/></a>  	     <p ><font face="verdana" size="2">Retrasando la <a href="#ec12">expresi&oacute;n    (12)</a> y rest&aacute;ndola de la ecuaci&oacute;n original, se obtiene que</font></p>  	    <p><img src="http://img/revistas/eac/v37n2/e1303216.gif"><a name="ec13"/></a>  	    <p ><font face="verdana" size="2">Donde</font></p>      <p><img src="http://img/revistas/eac/v37n2/e1403216.gif"><a name="ec14"/></a>  	     <p ><font face="verdana" size="2">Finalmente, la <a href="#ec15">ecuaci&oacute;n    (15)</a> expresa la nueva posici&oacute;n que debe asumir los manipuladores,    en t&eacute;rminos de las matrices de error y de la se&ntilde;al de control.    Es calculada a partir de reemplazar la <a href="#ec13">ecuaci&oacute;n (13)</a>    en <a href="#ec15">(15)</a>.</font></p>     ]]></body>
<body><![CDATA[<p><img src="http://img/revistas/eac/v37n2/e1503216.gif"><a name="ec15"/></a>      <p ><font face="verdana" size="2">De esta forma, una vez deducida la ecuaci&oacute;n    de movimiento con el controlador incorporado, se explicar&aacute; el m&eacute;todo    utilizado para evaluar las matrices con los coeficientes del controlador. Uno    de las t&eacute;cnicas que facilita la sintonizaci&oacute;n de los controladores    con la planta es el propuesto por Ziegler&#45;Nichols, que afina el controlador    respecto a una respuesta obtenida experimentalmente. Para ello, a partir de    la curva con la respuesta del sistema en lazo abierto, si se trabajara con el    primer m&eacute;todo, se halla el atraso L y la constante de tiempo T del sistema.    Puesto que los movimientos de los robots son estables en un nivel muy alto y    se adaptan r&aacute;pidamente a un valor de entrada recibido en lazo abierto,    se escogi&oacute; trabajar con este m&eacute;todo.</font></p>  	     <p ><font face="verdana" size="2">Para obtener estos valores para cada t&eacute;rmino    de la matriz de transformaci&oacute;n homog&eacute;nea final, se obtuvo la curva    la respuesta del sistema en lazo abierto, cuando era enviada una misma posici&oacute;n    constantemente al controlador de los robots y este retornaba q(&#952;) en cada    instante de tiempo. Realizando la conversi&oacute;n de esta informaci&oacute;n    a las matrices de transformaci&oacute;n homog&eacute;nea, se observ&oacute;    c&oacute;mo variaba cada t&eacute;rmino en funci&oacute;n del tiempo. Seg&uacute;n    &#91;17&#93;, las f&oacute;rmulas para calcular los par&aacute;metros de un    controlador PI son las mostradas en la <a href="#tab2">tabla 2</a>, siendo en    este caso, modificadas en su notaci&oacute;n para ser aplicadas a cada t&eacute;rmino    en la posici&oacute;n l,m de una matriz.</font></p>      <p align="center"><img src="http://img/revistas/eac/v37n2/t0203216.gif"><a name="tab2"/></a>  	    <p ><font face="verdana" size="3"><strong>3.&#45; RESULTADOS</strong></font></p>  	    <p ><font face="verdana" size="2">Para validar el sistema teleoperado, se realiz&oacute; la comparaci&oacute;n del desempe&ntilde;o del usuario para controlar los movimientos de los manipuladores, y adicionalmente, se compar&oacute; la trayectoria descrita con la replicada por los brazos rob&oacute;ticos en tiempo real, cuando se realiza la tarea de ubicar el efector de los brazos rob&oacute;ticos en un lugar determinado. El usuario es ubicado frente al Kinect a una distancia de dos metros, suficiente para que el sensor capte en su campo de visi&oacute;n, los movimientos de los brazos. La realimentaci&oacute;n visual de la estaci&oacute;n esclavo se hace con una c&aacute;mara ubicada en la parte superior del entorno de trabajo.</font></p>  	     <p ><font face="verdana" size="2">En la fase experimental del trabajo, se ubicaron    dos manipuladores industriales en un mismo entorno, de tal forma que la posici&oacute;n    de efector del robot A, que ser&aacute; controlado por la mano izquierda del    operario, est&eacute; sobre el sistema de coordenadas origen del entorno del    trabajo, S<sub>0</sub>, mientras que el efector final del robot B, controlado    por la mano derecha del usuario, est&eacute; a una distancia de &#91;560, 130,    0&#93;<sup>T</sup> de S<sub>0</sub>. Los robots tienen que ser teleoperados    hasta alcanzar un objetivo con coordenadas en &#91;250, 250, &#45;140&#93;<sup>T</sup>.    Para evitar las colisiones de ellos con el entorno y las singularidades de los    dispositivos, se restringieron sus movimientos para que no sobrepasaran los    l&iacute;mites de las &aacute;reas de trabajo.</font></p>  	     <p ><font face="verdana" size="2">La <a href="http://img/revistas/eac/v37n2/f0403216.jpg">figura 4</a>    muestra la trayectoria trazada por cada mano del usuario proyectada sobre dos    planos bidimensionales. En la imagen se aprecia la forma en que el usuario realiza    diferentes movimientos curvil&iacute;neos para moverse hasta el sitio final.    Igualmente, se detalla que la posici&oacute;n inicial de las manos es igual    a la posici&oacute;n de partida de los robots. De la misma forma, la trayectoria    del robot tambi&eacute;n fue graficada en un plano XY y un plano XZ en la <a href="http://img/revistas/eac/v37n2/f0503216.jpg">figura    5</a>.</font></p>  	    <p ><font face="verdana" size="2">Cuando se sobreponen las dos trayectorias, se observa que la similitud entre la realizada por las manos y la replicada por los robots tienen errores m&iacute;nimos, pero que al final del recorrido alcanzan el mismo punto objetivo. No obstante, se observa que los movimientos rotacionales de las manos al inicio de cada una de las trayectorias, no son replicados con la misma amplitud por parte de los robots, generando variaciones en el recorrido. Este fen&oacute;meno es consecuente de la acci&oacute;n del controlador PI del lazo de realimentaci&oacute;n de los robots, dado que la posici&oacute;n de ellos busca asemejarse y estabilizarse en la misma posici&oacute;n de las manos.</font></p>  	     <p ><font face="verdana" size="2">La <a href="http://img/revistas/eac/v37n2/f0603216.jpg">figura 6</a>    detalla el error del recorrido en cada uno de los ejes del sistema coordenado.    Para la mano izquierda, visto en la <a href="http://img/revistas/eac/v37n2/f0603216.jpg">figura 6a</a>,    la diferencia no supera los 2 mm. El error de la mano derecha, mostrada en la    <a href="http://img/revistas/eac/v37n2/f0603216.jpg">figura 6b</a>, presenta un amortiguamiento exponencial    decreciente durante las primeras iteraciones, para luego converger a un estado    estacionario con error nulo. Esto sucede por efectos del controlador y por las    condiciones iniciales del robot, puesto que tienen un nivel offset respecto    a S<sub>0</sub>. Adicionalmente, se observa niveles de ruidos en las se&ntilde;ales,    producidas por la exactitud y precisi&oacute;n de los puntos extra&iacute;dos    en el proceso de seguimiento del esqueleto del usuario. A pesar de que esta    informaci&oacute;n es procesada, parte del ruido a&uacute;n se ve reflejado    sobre la ubicaci&oacute;n de los robots.</font></p>  	    ]]></body>
<body><![CDATA[<p ><font face="verdana" size="2">Finalmente, el tiempo de retardo fue medido desde el momento en que la trama de informaci&oacute;n es procesada y enviada al robot hasta el instante en que los datos con la realimentaci&oacute;n de la posici&oacute;n se recibe en el estaci&oacute;n maestro. Utilizando las funciones de temporizadores de la interfaz de comunicaci&oacute;n entre las estaciones de trabajo se evalu&oacute; que el tiempo estimado promedio de retardo es de 0.746 s, realizando el c&aacute;lculo para las primeras dos mil iteraciones del proceso. La latencia del sistema fue causada por el tiempo de procesamiento de la informaci&oacute;n del Kinect y la velocidad de transmisi&oacute;n entre las estaciones. No obstante, el intervalo de retardo no afect&oacute; notablemente la posici&oacute;n de los manipuladores puesto que fue compensada por la acci&oacute;n del controlador PI.</font></p>  	     <p>&nbsp;</p>     <p ><font face="verdana" size="3"><strong>4.&#45; CONCLUSIONES</strong></font></p>     <p >&nbsp;</p>  	     <p ><font face="verdana" size="2">En este documento se present&oacute; un sistema    de teleoperaci&oacute;n de dos manipuladores, utilizando el cuerpo del usuario    como marcadores visuales, control&aacute;ndolos con las posiciones de las manos,    enfocado a la aplicaci&oacute;n de rob&oacute;tica cooperativa en procesos de    seguimiento de trayectorias. La aplicaci&oacute;n de sistemas no mec&aacute;nicos    para captar los movimientos del operario dan mayor libertad al usuario para    moverse, otorgando la capacidad de realizar m&aacute;s recorridos posibles para    alcanzar un objetivo, limit&aacute;ndose solamente al dise&ntilde;o mec&aacute;nico    de los dispositivos rob&oacute;ticos y sus espacios de trabajo. Para este desarrollo,    fue importante el uso de tecnolog&iacute;as como el Kinect, puesto que facilitan    la recolecci&oacute;n de informaci&oacute;n y procesamiento de las im&aacute;genes    en un menor tiempo.</font></p>  	    <p ><font face="verdana" size="2">Los ruidos en las trayectorias a pesar de modificarlas, no generan un percance que ocasione colisiones con los elementos de las celdas de trabajo. Para eliminar este ruido, es posible implementar filtros con anchos de banda cercanos a la frecuencia del usuario para interactuar con los robots. Asimismo, los tiempos de retardo en la comunicaci&oacute;n entre ambas estaciones de trabajo no alteran de manera significativa los movimientos del robot, generando desplazamientos en un tiempo muy cercano al real.</font></p>  	     <p ><font face="verdana" size="2">Por &uacute;ltimo, la aplicaci&oacute;n del    controlador PI, sintonizado por el m&eacute;todo de Ziegler&#45;Nichols, mostr&oacute;    una mejor&iacute;a significativa en la suavizaci&oacute;n de las trayectorias,    eliminando la mayor&iacute;a de los sobreimpulsos producidos por el ruido en    la extracci&oacute;n de la informaci&oacute;n del Kinect y la sensibilidad del    dispositivo para captar los movimientos.</font></p>     <p >&nbsp;</p>  	     <p ><font face="verdana" size="3"><b>AGRADECIMIENTOS</b></font></p>     <p >&nbsp;</p>  	     ]]></body>
<body><![CDATA[<p ><font face="verdana" size="2">Los autores agradecen a la Vicerrector&iacute;a    de Investigaciones de la Universidad Militar Nueva Granada, por el apoyo y la    financiaci&oacute;n del proyecto IMP&#45;ING 1573, en el a&ntilde;o 2015.</font></p>     <p >&nbsp;</p>  	     <p ><font face="verdana" size="3"><b>REFERENCIAS</b></font></p>     <p >&nbsp;</p>  	    <!-- ref --><p ><font face="verdana" size="2">1. Passengerb C, Peer A, Buss M. A survey of environment&#45;, operator&#45;, and task&#45;adapted controllers for teleoperation systems. Mechatronics. 2010;20(7):787&#45;801.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">2. Sivaraman A, Sanchez&#45;Salas R,Prapotnich,    D, Barret E, Mombet A, Cathala N, et al. Robotics in urological surgery:    Evolution, current status and future perspectives. Actas Urol&oacute;gicas Espa&ntilde;olas    (English Edition)<i>.</i> 2015;39(7):435&#45;441.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">3. Fong T, Provencher C, Micire M, Diftler M,    Berka R, Bluethmann B, et al. The Human Exploration Telerobotics project: Objectives,    approach, and testing. 2012 IEEE Aerospace Conference; 2012 Mar 3&#45;10. Big    Sky, MT, Estados Unidos. 2012. IEEE 2012:1&#45;9.    </font></p>  	     ]]></body>
<body><![CDATA[<!-- ref --><p ><font face="verdana" size="2">4. Lopez E, Zollo L,Guglielmelli E. Teleoperated    control based on virtual fixtures for a redundant surgical system. 2013 IEEE/RSJ    International Conference on Intelligent Robots and Systems (IROS); 2013 Nov    3&#45;7. Tokio, Jap&oacute;n. 2013. IEEE 2013;450&#45;455.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">5. Van Osch M, Bera D, Van Hee K, Koks Y, Zeegers    H. Tele&#45;operated service robot: ROSE. Automation in Construction. 2014;39:152&#45;160.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">6. Hung&#45;Lin C, Yi&#45;Chen C, Shih&#45;Chung    K, Shang&#45;Hsien H. Development of user interface for tele&#45;operated cranes.    Advanced Engineering Informatics<i>.</i>2012;26:641&#45;652.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">7. Wildenbeest JG, Abbink D, Heemskerk CJ, van-der    Helm FC, Boessenkool H. The Impact of Haptic Feedback Quality on the Performance    of Teleoperated Assembly Tasks. IEEE Transactions on Haptics<i>.</i> 2013;6(2):242&#45;252.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">8. Kabumoto K, Toyama K, Hoshino T, Morishima    K. Teleoperated muscle&#45;powered micro gripper controlled by electromyogram.    IEEE 24th International Conference on Micro Electro Mechanical Systems (MEMS);    2011 Ene 23&#45;27. Cancun, M&eacute;xico. 2011. IEEE 2011:1277&#45;1280.    </font></p>  	     ]]></body>
<body><![CDATA[<!-- ref --><p ><font face="verdana" size="2">9. Michoud B, Guillou E, Bouakaz S.Real&#45;Time    and Markerless 3D Human Motion Capture Using Multiple Views. Human Motion &#150;    Understanding, Modeling, Capture and Animation. Berlin: Springer Berlin Heidelberg;    2007. p. 88&#45;103.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">10. Du G, Zhang P, Mai J, Li Z. Markerless Kinect&#45;Based    Hand Tracking for Robot Teleoperation. International Journal of Advanced Robotic    Systems<i>.</i> 2012;9:1&#45;10.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">11. Richert D, Macnab CJB, Pieper JK. Adaptive    Haptic Control for Telerobotics Transitioning Between Free, Soft, and Hard Environments.    IEEE Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans.    2012;42(3):558&#45;570.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">12. Ballester J, Pheatt C. Using the Xbox Kinect    sensor for positional data acquisition. Apparatus and Demonstration Notes.2013;81(1):71&#45;77.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">13. LaBelle K. Evaluation of Kinect Joint Tracking    for Clinical and In&#45;home Stroke Rehabilitation Tools. Undergraduate Thesis.    University of Notre Dame, Indiana, 2011.Disponible en: <a href="http://netscale.cse.nd.edu/cms/pub/Edu/KinectRehabilitation/Eval_of_Kinect_for_Rehab.pdf" target="_blank">http://netscale.cse.nd.edu/cms/pub/Edu/KinectRehabilitation/Eval_of_Kinect_for_Rehab.pdf</a></font><!-- ref --><p ><font face="verdana" size="2">14. Van Waveren JMP. From Quaternion to Matrix    and Back. Id Software, Inc, 2005.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">15. Mitsubishi Electric Corporation. CRnQ/CRnD    Controller. Instruction Manual. Detailed explanations of functions and operations.    Tokio (Jap&oacute;n); 2012.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">16. Ogata K. Modern Control Engineering. 5th    ed. New Jersey: Prentice Hall; 2010.    </font></p>  	     <!-- ref --><p ><font face="verdana" size="2">17. Meshram P, Kanojiya R. Tuning of PID Controller    using Ziegler&#45;Nichols Method for Speed Control of DC Motor. IEEE International    Conference On Advances In engineering, Science and Management; 2012 Mar 30&#45;31.Nagapattinam,    India. 2012. IEEE 2012:117&#45;122.    </font></p>     <P>&nbsp;     <P>&nbsp;      <P><font size="2" face="Verdana">Recibido: 20 de enero de 2016    ]]></body>
<body><![CDATA[<br>   Aprobado: 15 de junio de 2016</font>      <P>&nbsp;     <P>&nbsp; 	     <p ><font face="verdana" size="2"><i>Germ&aacute;n Dar&iacute;o Buitrago Salazar</i>.    Grupo de Investigaci&oacute;n GAV, Universidad Militar Nueva Granada. E&#45;mail:    <a href="mailto:gedabusa@gmail.com">gedabusa@gmail.com</a>.</font></p> 	     ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Passengerb]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Peer]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Buss]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of environment-, operator-, and task-adapted controllers for teleoperation systems]]></article-title>
<source><![CDATA[Mechatronics]]></source>
<year>2010</year>
<volume>20</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>787-801</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sivaraman]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Sanchez-Salas]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Prapotnich]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Barret]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Mombet]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Cathala]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Robotics in urological surgery: Evolution, current status and future perspectives]]></article-title>
<source><![CDATA[Actas Urológicas Españolas]]></source>
<year>2015</year>
<volume>39</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>435-441</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fong]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Provencher]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Micire]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Diftler]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Berka]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Bluethmann]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Human Exploration Telerobotics project: Objectives, approach, and testing]]></article-title>
<source><![CDATA[]]></source>
<year>2012</year>
<month> M</month>
<day>ar</day>
<conf-name><![CDATA[ Aerospace Conference]]></conf-name>
<conf-date>2012</conf-date>
<conf-loc> </conf-loc>
<page-range>1-9</page-range><publisher-loc><![CDATA[Big Sky^eMT MT]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lopez]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Zollo]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Guglielmelli]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Teleoperated control based on virtual fixtures for a redundant surgical system]]></article-title>
<source><![CDATA[2013 IEEE/RSJ]]></source>
<year>2013</year>
<conf-name><![CDATA[ International Conference on Intelligent Robots and Systems (IROS)]]></conf-name>
<conf-date>2013 Nov 3-7</conf-date>
<conf-loc>Tokio </conf-loc>
<page-range>450-455</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Osch]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Bera]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Van Hee]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Koks]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Zeegers]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Tele-operated service robot: ROSE]]></article-title>
<source><![CDATA[Automation in Construction]]></source>
<year>2014</year>
<volume>39</volume>
<page-range>152-160</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hung-Lin]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Yi-Chen]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Shih-Chung]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Shang-Hsien]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Development of user interface for tele-operated cranes]]></article-title>
<source><![CDATA[Advanced Engineering Informatics]]></source>
<year>2012</year>
<volume>26</volume>
<page-range>641-652</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wildenbeest]]></surname>
<given-names><![CDATA[JG]]></given-names>
</name>
<name>
<surname><![CDATA[Abbink]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Heemskerk]]></surname>
<given-names><![CDATA[CJ]]></given-names>
</name>
<name>
<surname><![CDATA[van-der Helm]]></surname>
<given-names><![CDATA[FC]]></given-names>
</name>
<name>
<surname><![CDATA[Boessenkool]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The Impact of Haptic Feedback Quality on the Performance of Teleoperated Assembly Tasks]]></article-title>
<source><![CDATA[IEEE Transactions on Haptics]]></source>
<year>2013</year>
<volume>6</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>242-252</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kabumoto]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Toyama]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Hoshino]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Morishima]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Teleoperated muscle-powered micro gripper controlled by electromyogram]]></article-title>
<source><![CDATA[IEEE]]></source>
<year>2011</year>
<conf-name><![CDATA[24 International Conference on Micro Electro Mechanical Systems (MEMS)]]></conf-name>
<conf-date>2011 Ene 23-27</conf-date>
<conf-loc>Cancun </conf-loc>
<page-range>1277-1280</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Michoud]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Guillou]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Bouakaz]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Real-Time and Markerless 3D Human Motion Capture Using Multiple Views: Human Motion - Understanding, Modeling, Capture and Animation]]></source>
<year>2007</year>
<publisher-loc><![CDATA[Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Du]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Mai]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Markerless Kinect-Based Hand Tracking for Robot Teleoperation]]></article-title>
<source><![CDATA[International Journal of Advanced Robotic Systems]]></source>
<year>2012</year>
<volume>9</volume>
<page-range>1-10</page-range></nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Richert]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Macnab]]></surname>
<given-names><![CDATA[CJB]]></given-names>
</name>
<name>
<surname><![CDATA[Pieper]]></surname>
<given-names><![CDATA[JK]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Adaptive Haptic Control for Telerobotics Transitioning Between Free, Soft, and Hard Environments]]></article-title>
<source><![CDATA[IEEE Transactions on Systems, Man and Cybernetics, Part A: Systems and Humans]]></source>
<year>2012</year>
<volume>42</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>558-570</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ballester]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Pheatt]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Using the Xbox Kinect sensor for positional data acquisition]]></article-title>
<source><![CDATA[Apparatus and Demonstration Notes]]></source>
<year>2013</year>
<volume>81</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>71-77</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LaBelle]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<source><![CDATA[Evaluation of Kinect Joint Tracking for Clinical and In-home Stroke Rehabilitation Tools.Undergraduate Thesis]]></source>
<year>2011</year>
<publisher-loc><![CDATA[University of Notre Dame ]]></publisher-loc>
<publisher-name><![CDATA[Indiana]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Van Waveren]]></surname>
<given-names><![CDATA[JMP]]></given-names>
</name>
</person-group>
<source><![CDATA[From Quaternion to Matrix and Back]]></source>
<year>2005</year>
<publisher-name><![CDATA[Id Software.Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="">
<collab>Mitsubishi Electric</collab>
<source><![CDATA[CRnQ/CRnD Controller: Instruction Manual. Detailed explanations of functions and operations]]></source>
<year>2012</year>
<publisher-loc><![CDATA[Tokio ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ogata]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<source><![CDATA[Modern Control Engineering]]></source>
<year>2010</year>
<edition>5</edition>
<publisher-loc><![CDATA[New Jersey ]]></publisher-loc>
<publisher-name><![CDATA[Prentice Hall]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Meshram]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Kanojiya]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Tuning of PID Controller using Ziegler-Nichols Method for Speed Control of DC Motor]]></article-title>
<source><![CDATA[IEEE]]></source>
<year>2012</year>
<conf-name><![CDATA[ International Conference On Advances In engineering, Science and Management]]></conf-name>
<conf-date>2012 Mar 30-31</conf-date>
<conf-loc>Nagapattinam </conf-loc>
<page-range>117-122</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
