<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2071-0054</journal-id>
<journal-title><![CDATA[Revista Ciencias Técnicas Agropecuarias]]></journal-title>
<abbrev-journal-title><![CDATA[Rev Cie Téc Agr]]></abbrev-journal-title>
<issn>2071-0054</issn>
<publisher>
<publisher-name><![CDATA[Universidad Agraria de La Habana]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2071-00542011000200005</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Sistema para el control inteligente de un robot manipulador]]></article-title>
<article-title xml:lang="en"><![CDATA[System for the intelligent control of a robotic manipulator]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Boudy González]]></surname>
<given-names><![CDATA[O]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[León Martínez]]></surname>
<given-names><![CDATA[Javier A]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Estrada Rodríguez]]></surname>
<given-names><![CDATA[Yordan E]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto de Cibernética Matemática y Física  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Agraria de La Habana Facultad de Ciencias Técnicas ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad de las Ciencias Informáticas  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2011</year>
</pub-date>
<volume>20</volume>
<numero>2</numero>
<fpage>24</fpage>
<lpage>30</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2071-00542011000200005&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2071-00542011000200005&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2071-00542011000200005&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El presente trabajo muestra el desarrollo de una aplicación para el control inteligente de un robot manipulador de seis grados de libertad, a partir de técnicas de visión artificial, para la identificación inteligente de objetos mediante reconocimiento de patrones utilizando redes neuronales artificiales. Se implementó el método de segmentación de imágenes basado en el crecimiento de regiones por agrupación de pixeles, para la detección de los objetos. Para resolver el problema cinemático inverso del robot, fue desarrollado un modelo matemático apropiado basado en un método trigonométrico alternativo. El sistema fue probado de forma satisfactoria, identificando diferentes tipos de objetos con un alto porcentaje de certeza y determinando su ubicación en el área de trabajo del robot.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This paper shows the development of software for the intelligent control of a six degree of freedom robot manipulator, with artificial vision techniques for the intelligent identification of objects by means of pattern recognition using an artificial neural network. A method of images segmentation, based on regions growth by pixels grouping, was implemented for the objects detection. a mathematical model, based on an alternative trigonometric method, was developed to solve the inverse kinematic problem of this robot. The system was tested on a satisfactory way; identifying different kinds of objects with a high percent of certainty and determining their location in the workspace of robot.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[robot manipulador]]></kwd>
<kwd lng="es"><![CDATA[control inteligente]]></kwd>
<kwd lng="es"><![CDATA[visión artificial]]></kwd>
<kwd lng="es"><![CDATA[reconocimiento de patrones]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales]]></kwd>
<kwd lng="es"><![CDATA[modelo cinemático]]></kwd>
<kwd lng="en"><![CDATA[robotic manipulator]]></kwd>
<kwd lng="en"><![CDATA[intelligent control]]></kwd>
<kwd lng="en"><![CDATA[artificial vision]]></kwd>
<kwd lng="en"><![CDATA[pattern recognition]]></kwd>
<kwd lng="en"><![CDATA[neural networks]]></kwd>
<kwd lng="en"><![CDATA[kinematic model]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="left"><font size="4" face="Verdana, Arial, Helvetica, sans-serif"><strong>Sistema    para el control inteligente de un robot manipulador</strong></font></p>     <p align="left">&nbsp;</p>     <p align="left"><strong><font size="3" face="Verdana, Arial, Helvetica, sans-serif">    System for the intelligent control of a robotic manipulator </font></strong></p>     <p align="left">&nbsp; </p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br>   <strong>Sergio O. Boudy Gonz&aacute;lez<sup>1</sup> , Javier A. Le&oacute;n    Mart&iacute;nez<sup>2</sup> , Yordan E. Estrada Rodr&iacute;guez<sup>3</sup></strong></font>  </p>     <p align="center">&nbsp;</p>     <p align="left"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup></font>    <font size="2" face="Verdana, Arial, Helvetica, sans-serif"> Ing. en Ciencias    Inform&aacute;ticas. Instituto de Cibern&eacute;tica Matem&aacute;tica y F&iacute;sica,    La Habana, Cuba. E-mail: <a href="mailto:sergio@icmf.inf.cu">sergio@icmf.inf.cu    </a>    <br>   <sup>2</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    Ing. en Autom&aacute;tica, Universidad Agraria de La Habana, Facultad de Ciencias    T&eacute;cnicas, San Jos&eacute; de las Lajas, Mayabeque, Cuba. E-mal: <a href="mailto:jleon@isch.edu.cu">jleon@isch.edu.cu</a>    <br>   <sup>3</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    Ing. en Ciencias Inform&aacute;ticas. Universidad de las Ciencias Inform&aacute;ticas,    La Habana, Cuba.</font>    ]]></body>
<body><![CDATA[<br> </p> <hr>     <p align="left"><span style="text-transform: uppercase"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Resumen</strong></font></span></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El presente trabajo muestra el desarrollo de una aplicaci&oacute;n para el control inteligente de un robot manipulador de seis grados de libertad, a partir de t&eacute;cnicas de visi&oacute;n artificial, para la identificaci&oacute;n inteligente de objetos mediante reconocimiento de patrones utilizando redes neuronales artificiales. Se implement&oacute; el m&eacute;todo de segmentaci&oacute;n de im&aacute;genes basado en el crecimiento de regiones por agrupaci&oacute;n de pixeles, para la detecci&oacute;n de los objetos. Para resolver el problema cinem&aacute;tico inverso del robot, fue desarrollado un modelo matem&aacute;tico apropiado basado en un m&eacute;todo trigonom&eacute;trico alternativo. El sistema fue probado de forma satisfactoria, identificando diferentes tipos de objetos con un alto porcentaje de certeza y determinando su ubicaci&oacute;n en el &aacute;rea de trabajo del robot. </font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Palabras    clave:</strong> robot manipulador, control inteligente, visi&oacute;n artificial    , reconocimiento de patrones, redes neuronales, modelo cinem&aacute;tico. </font></p> <hr align="center">     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>ABSTRACT</strong></font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">This paper shows the development of software for the intelligent control of a six degree of freedom robot manipulator, with artificial vision techniques for the intelligent identification of objects by means of pattern recognition using an artificial neural network. A method of images segmentation, based on regions growth by pixels grouping, was implemented for the objects detection. a mathematical model, based on an alternative trigonometric method, was developed to solve the inverse kinematic problem of this robot. The system was tested on a satisfactory way; identifying different kinds of objects with a high percent of certainty and determining their location in the workspace of robot. </font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Keywords:</strong> robotic manipulator, intelligent control, artificial vision, pattern recognition, neural networks, kinematic model. </font></p> <hr align="center">     <p align="left">&nbsp;</p>     <p align="left">&nbsp;</p>     <p align="left"><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><strong>INTRODUCCI&Oacute;N </strong></font></p>     ]]></body>
<body><![CDATA[<p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Desde hace varias d&eacute;cadas el hombre se ha empe&ntilde;ado en automatizar las tareas que requieran un comportamiento inteligente, para lo cual ha desarrollado m&aacute;quinas que imitan rasgos de la inteligencia humana. Con este fin ha creado t&eacute;cnicas basadas en el an&aacute;lisis formal y estad&iacute;stico del comportamiento humano ante diferentes problemas, aliviando as&iacute; &aacute;reas tales como el control de sistemas, la planificaci&oacute;n autom&aacute;tica, la habilidad de responder a diagn&oacute;sticos y a consultas de los consumidores, el reconocimiento de la escritura, el habla y los patrones. En los &uacute;ltimos a&ntilde;os ha adquirido particular relevancia el empleo de algoritmos de visi&oacute;n artificial basados en t&eacute;cnicas de reconocimiento de patrones, para incrementar las prestaciones de manipuladores rob&oacute;ticos en muchos escenarios, destac&aacute;ndose la clasificaci&oacute;n autom&aacute;tica de productos agr&iacute;colas, basada en criterios de forma, textura, tama&ntilde;o y color, en l&iacute;neas de embalaje de los mismos. </font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El    objetivo del presente trabajo es desarrollar una aplicaci&oacute;n que permita    dotar de cierto grado de inteligencia a un robot manipulador (<a href="#f1">Figura    1</a>), a partir del reconocimiento de patrones con redes neuronales, en im&aacute;genes    digitales. La aplicaci&oacute;n debe ser capaz de identificar objetos previamente    definidos, y determinar su posici&oacute;n. </font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El procesamiento digital de im&aacute;genes es una de las ramas de la ciencia que m&aacute;s desarrollo ha experimentado en la &uacute;ltima d&eacute;cada, debido fundamentalmente a dos factores: el avance vertiginoso que ha experimentado el hardware, y la importancia que han adquirido las aplicaciones de esta t&eacute;cnica en la vida moderna. </font></p>     <p align="center"> <img border="0" src="/img/revistas/rcta/v20n2/f0105111.gif" width="466" height="389"><a name="f1"></a></p>     
<p align="justify">&nbsp;</p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este trabajo, las etapas de filtrado y segmentaci&oacute;n de las im&aacute;genes se realizan casi de manera simult&aacute;nea. Se va operando la imagen de forma puntual, aplicando primero el filtrado por escala de grises sobre la misma, y luego se segmenta por un m&eacute;todo basado en la formaci&oacute;n de regiones conocido como crecimiento por agrupaci&oacute;n de  píxeles (Rodr&iacute;guez, 2000). Para el reconocimiento fue utilizada una red neuronal del tipo perceptr&oacute;n multicapa. </font></p>     <p align="center">&nbsp; </p>     <p align="justify"><span style="text-transform: uppercase"> <font face="Verdana, Arial, Helvetica, sans-serif"><strong>Materiales y M&eacute;todos </strong></font> </span></p>     <p align="justify"><strong><font size="2" face="Verdana, Arial, Helvetica, sans-serif">METODOLOG&Iacute;A </font></strong></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Elementos generales </strong></font>&nbsp; </p>      ]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la soluci&oacute;n de la aplicaci&oacute;n, se describe el proceso que se lleva a cabo para el tratamiento de las im&aacute;genes digitales, el tipo de red neuronal empleada y su topolog&iacute;a, el sistema de visi&oacute;n del robot y se le da soluci&oacute;n al problema cinem&aacute;tico inverso del robot. </font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Procesamiento digital de im&aacute;genes </strong></font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El procesamiento de las im&aacute;genes se ha dividido en 4 fases para facilitar el trabajo y mejorar la eficiencia de nuestra aplicaci&oacute;n (Rodr&iacute;guez , 2000). </font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Captura</strong> </font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se obtiene una imagen desde una c&aacute;mara digital (webcam). </font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Filtrado </strong></font></p>       <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se    ha utilizado un filtro por escala de grises, el que consiste en convertir una    imagen de 24 a 8 bits (<a href="#f1">Figura 1</a>). Para lo cual se le aplica    a la imagen la ecuaci&oacute;n (1): </font></p>     <p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e0105111.gif" width="378" height="48">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<strong>&nbsp;&nbsp;&nbsp;    (1)</strong></font></p>      
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>donde: </strong></font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">I<sub>f</sub> : Imagen final;    ]]></body>
<body><![CDATA[<br>   P<sub>r</sub>: Valor del color rojo del píxel;     <br>   P<sub>g</sub>: Valor del color verde del píxel;    <br>   P<sub>b</sub> : Valor del color azul del píxel.     <br>   &nbsp;</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se obtiene una imagen de 8 bits y 256 colores con el siguiente formato: </font></p>      <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>W x H x 8 </strong></font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>donde: </strong></font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">W: Ancho de la imagen en  	píxeles;     <br>   H: Largo de la imagen en píxeles. </font></p>       <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/f0205111.gif" width="321" height="228"></font></p>     
]]></body>
<body><![CDATA[<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/f0305111.gif" width="298" height="237"></font></p>      
<p><b><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Segmentaci&oacute;n </font> 	</b></p>      <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la segmentaci&oacute;n de la imagen fue utilizado un m&eacute;todo basado en el crecimiento de regiones por agrupaci&oacute;n de  	píxeles. El mismo realiza la agrupaci&oacute;n de regiones de modo que cada una de ellas se clasifica en objeto o fondo, en dependencia de un umbral previamente definido  	    <br> 	(Rodr&iacute;guez, 2000). </font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se puede contemplar la segmentaci&oacute;n como un proceso que divide la regi&oacute;n R en n subregiones, R<sub>1</sub> , R<sub>2</sub> ,..., R<sub>n</sub> , de tal forma que: </font></p>       <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e01a05111.gif" width="333" height="122"></font></p>      
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde la regi&oacute;n R es la representaci&oacute;n completa de una imagen, es una propiedad de los puntos del conjunto R<sub>i</sub>, donde &Oslash; es el conjunto vac&iacute;o y R<sub>i</sub> una regi&oacute;n de tama&ntilde;o N: </font></p>       <p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e0205111.gif" width="167" height="68">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;<strong>    (2)</strong></font></p>       
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Entonces    se dice que la regi&oacute;n es homog&eacute;nea si <img src="/img/revistas/rcta/v20n2/e02a05111.gif" width="172" height="33">    , donde T es un umbral y m es la media (Morales, 2000). </font></p>      
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Reconocimiento </strong></font></p>      ]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Al culminar el proceso de segmentaci&oacute;n se obtiene un listado con los objetos encontrados pero, como se requiere que el sistema opere con elementos de diferentes tama&ntilde;os, se hace necesario realizar un proceso de extracci&oacute;n de caracter&iacute;sticas, que consiste en extraer la informaci&oacute;n extremadamente relevante de los mismos. Para normalizar la regi&oacute;n se calcula el factor de relaci&oacute;n seg&uacute;n la ecuaci&oacute;n (3) entre la matriz contenedora del objeto y una matriz est&aacute;ndar de dimensiones <em>n x m </em>, donde <em>n = m = 20 </em>. </font></p>       <p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e0305111.gif" width="91" height="74">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;    (3)</font></p>       
<p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e0405111.gif" width="208" height="53">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;    (4)</font></p>       
<p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e0505111.gif" width="204" height="59">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;    (5)</font></p>      
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Donde: </strong></font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">F<sub>a</sub>: factor de relaci&oacute;n;     <br>   M<sub>a</sub>: matriz contenedora del objeto;     <br>   M<sub>e</sub>: matriz est&aacute;ndar de dimensi&oacute;n n x m:     <br>   V<sub>rna</sub>: vector que representa el objeto;     <br>   P: relaci&oacute;n de transferencia entre Ma y Me. </font></p>      ]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por lo que se obtiene de la ecuaci&oacute;n (6) un vector (<i>V<sub>rna</sub></i>) que caracteriza el objeto, con tama&ntilde;o fijo de 20 elementos y con un formato entendible por la red neuronal. </font></p>      <p align="center">&nbsp; </p>      <p align="center">&nbsp;</p>       <p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/e0605111.gif" width="148" height="43">&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;    (6)</font></p>      
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Red neuronal empleada </strong></font></p>       <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se    ha empleado un perceptr&oacute;n multicapa. Este tipo de red neuronal es muy    utilizado para problemas de reconocimiento de patrones (Bello, 1993). Inicialmente    fueron definidos los patrones &#8220;c&iacute;rculo&#8221;, &#8220;cuadrado&#8221;    y &#8220;no s&eacute;&#8221; , este &uacute;ltimo definido para el caso en que    un objeto no pertenezca a ninguno de los patrones anteriores (Duda y Hart, 2001).</font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    </font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Despu&eacute;s    de varias pruebas se lleg&oacute; a la conclusi&oacute;n de que la topolog&iacute;a    utilizada es la adecuada, ya que se prob&oacute; con mayor n&uacute;mero de    neuronas en la capa de procesamiento obteni&eacute;ndose un resultado similar,    pero con un mayor costo de c&oacute;mputo (ver <a href="/img/revistas/rcta/v20n2/t0105111.gif">Tabla    I</a>). </font></p>      
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se decidi&oacute; implementar un perceptr&oacute;n de 3 capas, siguiendo un criterio de selecci&oacute;n pr&aacute;ctico (Aguado, 2000). El mismo cuenta con 20 neuronas en la capa de entrada, una capa de procesamiento con 10 neuronas con funci&oacute;n de activaci&oacute;n logar&iacute;tmica ( Demuth <em> 	et al., 2007); </em> y una capa de salida con 3 neuronas. Se utiliz&oacute; un m&eacute;todo de entrenamiento supervisado, Reduced Memory Levenberg-Marquardt (trainlm) ( Demuth <em> 	et al., 2007). </em>Para el mismo se cont&oacute; con 31 muestras entre los 3 patrones, por lo que fue entrenada la red primeramente con 58 &eacute;pocas y se obtuvo un error global de 0,0005, y posteriormente se realiz&oacute; otro entrenamiento con 300 &eacute;pocas donde se obtuvo un resultado bastante similar, el error fue de 0,0008. </font></p>      <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Sistema de visi&oacute;n del robot </strong></font></p>       <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para    dotar de visi&oacute;n al robot manipulador es preciso familiarizar el sistema    con el entorno de trabajo, lo que en t&eacute;rminos pr&aacute;cticos no es    m&aacute;s que calibrar la c&aacute;mara (Gonz&aacute;lez, 2007). Para este    fin, se &#8220;muestra&#8221; al sistema una hoja de papel con dos puntos situados    a una distancia conocida, para establecer el sistema de referencia de la c&aacute;mara.    En la <a href="/img/revistas/rcta/v20n2/f0505111.gif">Figura 5</a> se muestra    una representaci&oacute;n del espacio de visi&oacute;n del robot (uni&oacute;n    de los sistemas de referencia de la c&aacute;mara y del robot), donde <strong><em>C    </em></strong> es el contorno que encierra el &aacute;rea de visi&oacute;n de    la c&aacute;mara, <strong><em>R </em></strong> es el punto de giro de la base    del robot, <strong><em>P<sub>1</sub> </em></strong> y <strong><em>P<sub>2</sub>    </em></strong> son dos puntos conocidos alineados dentro del contorno <strong><em>C    </em></strong>, y <strong><em>S </em></strong> la distancia (en <em>cm </em>)    entre <strong><em>R </em></strong> y los puntos <strong><em>P<sub>1</sub> </em></strong>    y <strong><em>P<sub>2</sub> </em></strong>. Es necesario determinar la relaci&oacute;n    de pixeles por cent&iacute;metro, para convertir la posici&oacute;n del objeto    de unidades de la c&aacute;mara (pixeles) a unidades reales (<em style="font-style: normal">cm</em>).    </font></p>     
]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">De    la <a href="/img/revistas/rcta/v20n2/f0505111.gif">Figura 5</a> se toman  las siguientes relaciones: </font></p>     
<p align="left">&nbsp;</p>     <p align="right"> <img src="/img/revistas/rcta/v20n2/e0705111.gif" alt="" width="509" height="173" border="0"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    </font></p>     
<p align="left">&nbsp;</p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P<sub>Rx</sub> y P<sub>Ry</sub>-son las coordenadas de un punto dentro del &aacute;rea de trabajo con respecto al sistema de coordenada del robot. Es decir, un objeto en el plano de la c&aacute;mara se le hace una conversi&oacute;n de pixeles a cm y luego se le aplica un cambio de coordenadas del plano de la c&aacute;mara al plano de coordenadas del robot, dado por las ecuaciones (11) y (12). </font></p>     <p align="center"> <img border="0" src="/img/revistas/rcta/v20n2/e0805111.gif" width="522" height="156" align="right"></p>     
<p align="center">&nbsp;</p>     <p align="left">&nbsp;</p>     <p align="left">&nbsp;</p>     <p align="left">&nbsp;</p>     ]]></body>
<body><![CDATA[<p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <strong>Donde: </strong></font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">  N<sub>px cm</sub>: Cantidad de  píxeles por cm;    <br>   D: Distancia entre dos puntos;     <br>   D<sub>p</sub>: Distancia expresada en píxeles;     <br>   D<sub>cm</sub>: Distancia expresada en cm;     <br>   P<sub>p</sub>: Posici&oacute;n de un punto en píxeles;     <br>   P<sub>cm</sub>: Posici&oacute;n de un punto en cm. </font></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como las coordenadas de P<sub>1</sub> y P<sub>2</sub> son conocidas, as&iacute; como la distancia en cm entre ellos, utilizando la ecuaci&oacute;n (14) po-demos calcular la cantidad de pixeles por cm, considerando que la c&aacute;mara se encuentra perpendicular al &aacute;rea de trabajo. Luego, con la ecuaci&oacute;n (15) obtenemos las coordenadas de los puntos P<sub>1</sub> y P<sub>2</sub> en cm. </font></p>     <p align="center">&nbsp;</p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e0905111.gif" width="565" height="143"></p>     
]]></body>
<body><![CDATA[<p align="justify"><b><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Modelo cinem&aacute;tico del robot </font> </b></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Inicialmente existi&oacute; la tentativa de ajustar un modelo cinem&aacute;tico desarrollado para otro robot con caracter&iacute;sticas mec&aacute;nicas similares a las del empleado (Pozo y Arbide, 1989). Sin embargo, al no poseer este los sensores necesarios para determinar la posici&oacute;n y la orientaci&oacute;n de la pinza, se decidi&oacute; incorporarle una segunda c&aacute;mara al sistema, que permitiese hacer un ajuste fino de la posici&oacute;n y la orientaci&oacute;n de la pinza respecto al objeto una vez posicionadas el resto de las articulaciones del robot. Por esta raz&oacute;n, y a partir de las consideraciones que a continuaci&oacute;n se detallan, fue desarrollado un modelo cinem&aacute;tico basado en un m&eacute;todo trigonom&eacute;trico alternativo, contando con la informaci&oacute;n que brinda el brazo manipulador acerca de su posici&oacute;n en el espacio. </font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <img src="/img/revistas/rcta/v20n2/f0605111.gif" width="613" height="335"></font></p>     
<p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se considerar&aacute; primeramente el &aacute;ngulo de la pinza o mu&ntilde;eca con respecto a la horizontal como constante. Luego, a partir del punto en el espacio (x, y, z) que se desea alcanzar, y su distancia desde el punto inicial (0, 0, 0), es posible encontrar una soluci&oacute;n para los &aacute;ngulos del resto de las articulaciones del robot. </font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <img src="/img/revistas/rcta/v20n2/f0705111.gif" width="563" height="322"><a name="f7"></a></font></p>     
<p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se    tiene que el &aacute;ngulo </font> <font size="2" face="Symbol">a<sub>1</sub></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">=    30&deg;, adem&aacute;s se conoce que<img src="/img/revistas/rcta/v20n2/e09a05111.gif" width="94" height="20">    y como (x, y, z) es el punto final, el valor de es num&eacute;ricamente conocido.    Son conocidas adem&aacute;s las longitudes de los elementos que conforman la    estructura mec&aacute;nica del robot, las cuales est&aacute;n representadas    en la Figura 6 como <strong>B<sub>1</sub> </strong>, <strong>B<sub>2</sub> </strong>,    <strong>B<sub>3</sub> </strong> y <strong>B<sub>4</sub> </strong>. Luego: </font></p>     
<p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1005111.gif" width="567" height="92"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ahora, con el objetivo de calcular el valor de se hace necesario calcular cada una de sus partes: </font></p>     <p align="center">&nbsp; </p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1105111.gif" width="580" height="61"></p>     
]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Seguidamente se calcula el valor la distancia existente entre el punto de origen del sistema hasta la &uacute;ltima articulaci&oacute;n del brazo manipulador: </font></p>     <p align="center">&nbsp; </p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1205111.gif" width="536" height="87"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una vez determinada esta &uacute;ltima, se calcula el valor del &aacute;ngulo y respectivamente: </font></p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1305111.gif" width="536" height="83"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con el objetivo de facilitar la b&uacute;squeda de los dem&aacute;s &aacute;ngulos, se calcula a partir de la <em>ley de los cosenos </em> la distancia entre la primera y la &uacute;ltima articulaci&oacute;n del robot manipulador: </font></p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1405111.gif" width="546" height="83"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> Dándole solución a los demás ángulos que forman </font> <font size="2" face="Symbol">a</font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">2  : </font></p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1505111.gif" width="527" height="53"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Despejando en la <em>ley de los cosenos </em>: </font></p>     ]]></body>
<body><![CDATA[<p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1605111.gif" width="532" height="103"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para determinar el valor del, se suman todos los &aacute;ngulos que lo conforman: </font></p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1705111.gif" width="525" height="41"></p>     
<p align="right"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">luego:    <img src="/img/revistas/rcta/v20n2/e1805111.gif" width="169" height="66">    </font></p>     
<p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e1905111.gif" width="514" height="56"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por  último se calculan los ángulos que conforman </font> <font size="2" face="Symbol">a</font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">4  y se suman. </font></p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e2005111.gif" width="503" height="110"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Finalmente    se calcula el cual representa el primer grado de libertad del sistema como se    ve en la <a href="#f7">Figura 7</a>.    </font></p>     <p align="right"> <img border="0" src="/img/revistas/rcta/v20n2/e2105111.gif" width="517" height="48"></p>     
<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ahora, con el objetivo de ajustar los &aacute;ngulos encontrados al grado de libertad correspondiente, es necesario hacer un an&aacute;lisis t&eacute;cnico del robot empleado y llevarlo al modelo matem&aacute;tico propuesto, en aras de normalizar los valores calculados a las caracter&iacute;sticas f&iacute;sicas reales del robot. De modo que: </font></p>     ]]></body>
<body><![CDATA[<p align="center">&nbsp; </p>     <p align="center"> <img border="0" src="/img/revistas/rcta/v20n2/e2205111.gif" width="159" height="131"></p>     
<p align="left">&nbsp;</p>     <p align="left"><span style="text-transform: uppercase"><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><strong>Resultados y Discusi&oacute;n </strong></font> </span></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El sistema funciona de manera satisfactoria, identificando los tipos de objetos predeterminados con un alto porcentaje de certeza, y es capaz de determinar la posici&oacute;n de los mismos dentro del &aacute;rea de trabajo del robot. </font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">No obstante, el sistema posee la siguiente limitante: si var&iacute;a la iluminaci&oacute;n del &aacute;rea de trabajo hay que reajustar manualmente el umbral de filtrado de la imagen, pues el m&eacute;todo de segmentaci&oacute;n empleado no permite hacerlo de manera din&aacute;mica. En pr&oacute;ximas versiones se pretende mejorar el sistema de visi&oacute;n, espec&iacute;ficamente la etapa de segmentaci&oacute;n de la imagen, con la implementaci&oacute;n del m&eacute;todo de Otsu que, al trabajar la imagen de forma local, es menos ruidoso; y que al estar basado en el an&aacute;lisis discriminante de la misma, permite tener un umbral autoajustable que dotar&iacute;a al sistema de un mayor grado de independencia en lo relativo a la iluminaci&oacute;n del entorno de trabajo del robot. </font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A continuaci&oacute;n se muestran los resultados obtenidos a partir de pruebas efectuadas variando el n&uacute;mero de neuronas de la capa de procesamiento. Estos resultados avalan la selecci&oacute;n de la topolog&iacute;a definitiva para la red neuronal empleada en el sistema. </font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>donde:</strong>    </font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">N<sub>NCP</sub> : n&uacute;mero de neuronas en la capa de procesamiento; </font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">T<sub>r</sub> : tiempo de respuesta de la red neuronal en segundos; </font></p>     ]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">T<sub>e</sub> : Tiempo de entrenamiento de la red neuronal en minutos; </font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P<sub>c</sub> : Porcentaje de certeza de la red neuronal. </font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/f0805111.gif" width="531" height="405">    </font></p>     
<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/f0905111.gif" width="502" height="403"></font></p>     
<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/f1005111.gif" width="493" height="391"></font></p>     
<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcta/v20n2/f1105111.gif" width="505" height="407"></font></p>     
<p align="justify">&nbsp;</p>     <p align="justify"><span style="text-transform: uppercase"><b><font face="Verdana, Arial, Helvetica, sans-serif">Conclusiones </font></b> </span></p>     <p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se obtuvo una aplicaci&oacute;n capaz de dotar de cierto grado de inteligencia a un robot manipulador, a partir de la implementaci&oacute;n de un sistema de visi&oacute;n artificial basado en el reconocimiento de patrones, utilizando redes neuronales. Para ello se emple&oacute; un algoritmo para el procesamiento de im&aacute;genes basado en el m&eacute;todo de crecimiento de regiones por agrupaci&oacute;n de  píxeles sobre im&aacute;genes filtradas a tonos de grises, y fueron aplicados algoritmos para la identificaci&oacute;n inteligente de objetos en las mismas. Se desarroll&oacute; un modelo matem&aacute;tico que describe la cinem&aacute;tica inversa del robot empleado, a partir de las consideraciones pr&aacute;cticas dadas para su empleo. </font></p>     <p align="justify">&nbsp;</p>     ]]></body>
<body><![CDATA[<p align="justify"><span style="text-transform: uppercase"><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><strong>Referencias bibliogr&aacute;ficas </strong></font> </span></p>     <!-- ref --><p align="justify"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">1. RODR&Iacute;GUEZ    MORALES, R.: Monograf&iacute;a del curso de procesamiento de im&aacute;genes.    Instituto de Cibern&eacute;tica, Matem&aacute;tica y F&iacute;sica (ICIMAF),    LA Habana, Cuba, 2000.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">2. BELLO P&Eacute;REZ, R.:    Curso Introductorio de Redes Neuronales Artificiales, McGrawHill, Madrid, Espa&ntilde;a,    1993.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">3. DUDA, R. and P. HART:    Pattern classification, John Wiley &amp; Sons New York, USA, 2001.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">4. AGUADO BEHAR, A.: Temas    de Identificaci&oacute;n y Control Adaptable, Instituto de Cibern&eacute;tica,    Matem&aacute;tica y F&iacute;sica (ICIMAF), La Habana, Cuba, 2000.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">5. DEMUTH, H.; M. BEALE    and M. HAGAN: Neural Network Toolbox 5 User's Guide. The MathWorks Inc., USA,    2007.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">6. GONZ&Aacute;LEZ    OROZCO, J.: Control Servovisual para Robot Manipulador en 3D, Tesis (en opci&oacute;n    al grado cient&iacute;fico de Doctor en Ciencias T&eacute;cnicas), Universidad    Central Marta Abreu de Las Villas, Facultad de Ingenier&iacute;a El&eacute;ctrica,    Departamento de Autom&aacute;tica, Santa Clara, Cuba, 2007.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">7. POZO QUINTERO, A. y S.    ARBIDE: La S&iacute;ntesis Cinem&aacute;tica y Din&aacute;mica de dos Robots    Industriales. Editorial Academia, La Habana, Cuba, 1989.     </font></p>     <p></p>     <p class="MsoNormal"> <span style="font-family: Verdana,sans-serif; font-weight: 700"><font size="2"> Recibido 11/01/10, aprobado 31/03/11, trabajo 21/11, investigación</font></span></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RODRÍGUEZ MORALES]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Monografía del curso de procesamiento de imágenes]]></source>
<year>2000</year>
<publisher-loc><![CDATA[LA Habana ]]></publisher-loc>
<publisher-name><![CDATA[Instituto de Cibernética, Matemática y Física (ICIMAF)]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BELLO PÉREZ]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Curso Introductorio de Redes Neuronales Artificiales]]></source>
<year>1993</year>
<publisher-loc><![CDATA[Madrid ]]></publisher-loc>
<publisher-name><![CDATA[McGrawHill]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DUDA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[HART]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern classification]]></source>
<year>2001</year>
<publisher-name><![CDATA[John Wiley Sons New York]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[AGUADO BEHAR]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Temas de Identificación y Control Adaptable]]></source>
<year>2000</year>
<publisher-loc><![CDATA[La Habana ]]></publisher-loc>
<publisher-name><![CDATA[Instituto de Cibernética, Matemática y Física (ICIMAF)]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DEMUTH]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[BEALE]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[HAGAN]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Neural Network Toolbox 5 User's Guide]]></source>
<year>2007</year>
<publisher-name><![CDATA[The MathWorks Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GONZÁLEZ OROZCO]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Control Servovisual para Robot Manipulador en 3D]]></source>
<year>2007</year>
<publisher-loc><![CDATA[Santa Clara ]]></publisher-loc>
<publisher-name><![CDATA[Universidad Central "Marta Abreu" de Las Villas, Facultad de Ingeniería Eléctrica, Departamento de Automática]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[POZO QUINTERO]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[ARBIDE]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[La Síntesis Cinemática y Dinámica de dos Robots Industriales]]></source>
<year>1989</year>
<publisher-loc><![CDATA[La Habana ]]></publisher-loc>
<publisher-name><![CDATA[Editorial Academia]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
