<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992013000400006</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Métodos de búsqueda para la configuración de redes neuronales asociativas]]></article-title>
<article-title xml:lang="en"><![CDATA[Methods of search to the configuration of the associative neural nets]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez-López]]></surname>
<given-names><![CDATA[Yoan]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Falcón-Martínez]]></surname>
<given-names><![CDATA[Rafael]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Camagüey Facultad de Informática ]]></institution>
<addr-line><![CDATA[Camagüey ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,University of Ottawa Electrical Engineering & Computer Science (EECS) ]]></institution>
<addr-line><![CDATA[Ottawa ]]></addr-line>
<country>Canada</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2013</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2013</year>
</pub-date>
<volume>7</volume>
<numero>4</numero>
<fpage>75</fpage>
<lpage>89</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992013000400006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992013000400006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992013000400006&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Dentro del campo de la Inteligencia Artificial, el uso de las redes neuronales, permiten la resolución de problemas complejos. Es por eso que encontrar una configuración de un vector de entrada para trabajar con redes neuronales se hace muy engorroso, por lo cual se hace necesario utilizar métodos de búsquedas eficientes, como son: los métodos de búsquedas heurísticas: ascensión de colinas, búsqueda exhaustiva, algoritmos genéticos (AG), entre otros. El presente artículo consiste en el desarrollo de un diseño para la búsqueda de una configuración del vector de entrada para el trabajo con las redes neuronales asociativas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Within the field of Artificial Intelligence, the use of neural networks allows complex problem solving. That is why to find a configuration of an input vector to neural networks work becomes very cumbersome, so it is necessary to use efficient searching methods such as heuristic search methods: hill-climbing, exhaustive search, genetic algorithms (GA), among others. This article is the development of a design for finding a configuration of the input vector to the work with the associative neural network.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[búsqueda]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales asociativas]]></kwd>
<kwd lng="en"><![CDATA[Associative neural net]]></kwd>
<kwd lng="en"><![CDATA[search]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana" size="2"><B><FONT COLOR="#231f20">ART&Iacute;CULO ORIGINAL</FONT></B></font></p>     <p>&nbsp;</p>     <p><font face="Verdana" size="4"><b><strong>M&eacute;todos de b&uacute;squeda    para la configuraci&oacute;n de redes neuronales asociativas</strong></b></font></p>     <p>&nbsp;</p>     <p><b><font color="#231f20" face="Verdana" size="3"><strong>Methods of search    to the configuration of the associative neural nets</strong></font></b>  </p>     <p>&nbsp;</p>     <p>&nbsp;</p>      <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Yoan    Mart&iacute;nez-L&oacute;pez<font color="#231f20"><sup>1*</sup>, </font>Rafael    Falc&oacute;n Mart&iacute;nez<sup>2</sup></font></strong></font>     <P><font color="#231f20" size="2" face="Verdana"><sup>1</sup>Facultad de Inform&aacute;tica.    Universidad de Camag&uuml;ey, Circunvalaci&oacute;n Norte, km 5 &frac12;, Camag&uuml;ey,    Cuba. CP.: 74650    <br>   </font><font color="#231f20" size="2" face="Verdana"><sup>2</sup></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Electrical    Engineering &amp; Computer Science (EECS) University of Ottawa 800 King Edward    Ave, Ottawa ON Canada K1N 6N5 </font>      ]]></body>
<body><![CDATA[<P><font color="#231f20" size="2" face="Verdana"><b>*Autor para la correspondencia:</b>    <a href="mailto:yoan.martinez@reduc.edu.cu">yoan.martinez@reduc.edu.cu</a></font>     <P>&nbsp;     <P>&nbsp;  <FONT COLOR="#231f20">    <P> <hr>      <P>     <P><font face="Verdana" size="2"><B>RESUMEN</B></font>     <P><font face="Verdana" size="2">Dentro del campo de  la   Inteligencia Artificial, el uso de las redes neuronales,  permiten la resoluci&oacute;n de problemas complejos. Es por eso que encontrar una  configuraci&oacute;n de un vector de entrada&nbsp;  para trabajar con redes neuronales se hace muy engorroso, por lo cual se  hace necesario utilizar m&eacute;todos de b&uacute;squedas eficientes, como son: los m&eacute;todos  de b&uacute;squedas heur&iacute;sticas: ascensi&oacute;n de colinas, b&uacute;squeda exhaustiva, algoritmos  gen&eacute;ticos (AG), entre otros. El presente art&iacute;culo consiste en el desarrollo de un  dise&ntilde;o &nbsp;para la b&uacute;squeda de una  configuraci&oacute;n del vector de entrada para el trabajo con las redes neuronales  asociativas. </font>      <P></FONT>     <P> <font color="#231f20" size="2" face="Verdana"><B>Palabras clave: </B>b&uacute;squeda, redes  neuronales asociativas.</font></p> <hr>     <P><font face="Verdana" size="2"><B>ABSTRACT</b></font></p>     ]]></body>
<body><![CDATA[<P><font color="#231f20" size="2" face="Verdana">Within the field of Artificial    Intelligence, the use of neural networks allows complex problem solving. That    is why to find a configuration of an input vector to neural networks work becomes    very cumbersome, so it is necessary to use efficient searching methods such    as heuristic search methods: hill-climbing, exhaustive search, genetic algorithms    (GA), among others. This article is the development of a design for finding    a configuration of the input vector to the work with the associative neural    network.</font>     <P><font color="#231f20" size="2" face="Verdana"><B>Key words: </B>Associative    neural net, search.</font> </p> <hr>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font face="Verdana" size="3"><b>INTRODUCCI&Oacute;N</b></font> </p> <FONT COLOR="#231f20">      <P></FONT>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la soluci&oacute;n de  problemas&nbsp; complejos de Inteligencia  Artificial (IA), unas de las t&eacute;cnicas empleadas son las redes neuronales. Las  redes neuronales&nbsp; artificiales (RNAs) son  modelos&nbsp; computacionales que pretenden  simular el funcionamiento del cerebro humano a partir del desarrollo de una  arquitectura que toma las caracter&iacute;sticas del funcionamiento de este &oacute;rgano sin  llegar a desarrollar un duplicado del mismo. &nbsp;Las RNAs son capaces de aprender de la  experiencia, de extender nuevos ejemplos a partir de ejemplos anteriores, las  mismas son utilizadas para la predicci&oacute;n, la miner&iacute;a de datos, el  reconocimiento de patrones, los sistemas de control adaptativo, entre otras  aplicaciones. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dentro de los distintos modelos de RNAs, se  encuentran, los de tipo asociativo, que han aportado soluciones eficientes a  problemas complejos (Bello, 2002), entre los que se destacan Hopfield (Hopfield,  1982), IAC (McClelland 1989), SIAC (Garc&iacute;a, 1997). La topolog&iacute;a de los modelos  de RNA asociativas (RNAAs) se forman por un grupo de neuronas por cada atributo  del dominio del problema. En cada grupo se coloca una neurona por cada valor  que aparezca para ese atributo en el conjunto de datos, existiendo enlaces  entre las neuronas de grupos diferentes.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Debido a que la  configuraci&oacute;n de un vector de entrada para trabajar con redes neuronales se  hace muy engorrosa, ya que depende de los diferentes par&aacute;metros de entrada,  entre los cuales se encuentran las estrategias de asignaci&oacute;n de los pesos, el  tratamiento de los pesos de las redes, el procesamiento de los rasgos, si se  desea configurar manualmente este vector, el espacio de b&uacute;squeda que permite  obtener el mayor rendimiento de la RNAAs dados los par&aacute;metros de entrada se  hace muy complejo, por eso es necesario utilizar m&eacute;todos de b&uacute;squedas  eficientes.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font color="#231f20" size="2" face="Verdana"><B><font size="3">MATERIALES Y M</font><FONT  COLOR="#231f20"><font face="Verdana" size="3"><B>&Eacute;</B></font></FONT><font size="3">TODOS</font></B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El problema consiste    en encontrar un vector de configuraci&oacute;n, para la obtenci&oacute;n de    un mayor rendimiento de las redes neuronales asociativas, utilizando un determinado    m&eacute;todo de b&uacute;squeda que a continuaci&oacute;n se analizar&aacute;.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Algoritmos    de B&uacute;squedas</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>B&uacute;squeda    exhaustiva o fuerza bruta:</strong>    <br>       <br>   Es una t&eacute;cnica sencilla donde se exploran todas las posibles soluciones    del problema, de forma enumerada hasta encontrar una&nbsp; soluci&oacute;n que    satisfaga el problema, es decir, buscar la mejor una soluci&oacute;n a un problema    dado de forma secuencial.</font></p>     <p><strong><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ascensi&oacute;n de colinas (Hill Climbing):</font></strong></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo de b&uacute;squeda conocido por ascensi&oacute;n de colinas es un bucle que se mueve en direcci&oacute;n del valor creciente y termina cuando alcanza un pico en el que ning&uacute;n vecino tiene valor mejor. A continuaci&oacute;n se muestra su algoritmo:     <br>   P1. Evaluar el estado inicial. Si es objetivo SALIR con &Eacute;XITO.</font>    <br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif">P2. Iterar hasta  encontrar una soluci&oacute;n o hasta que no haya nuevos operadores aplicables al  estado actual</font>.    ]]></body>
<body><![CDATA[<br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Seleccionar un  operador todav&iacute;a no aplicado al estado actual y aplicarlo para producir un  nuevo estado</font>.    <br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Evaluar el nuevo  estado.    <br> Si es objetivo  SALIR con &Eacute;XITO.    <br> Si es mejor que el  estado actual hacerlo estado actual.    <br> Si no es mejor que  el actual continuar en el lazo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Algoritmos Gen&eacute;ticos (AG):</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los Algoritmos Gen&eacute;ticos (Goldberg, 1998), son m&eacute;todos de b&uacute;squeda de prop&oacute;sito general basados en los principios de la gen&eacute;tica natural, es decir, son algoritmos de b&uacute;squeda basados en los mecanismos de la selecci&oacute;n natural y la gen&eacute;tica.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Surgen como herramientas para la soluci&oacute;n de complejos problemas de b&uacute;squeda y optimizaci&oacute;n, producto del an&aacute;lisis de los sistemas adaptativos en la naturaleza, y como resultado de abstraer la esencia de su funcionamiento. El t&eacute;rmino Algoritmo Gen&eacute;tico se usa por el hecho de que estos simulan los procesos de la evoluci&oacute;n a trav&eacute;s del uso de operadores gen&eacute;ticos que operan sobre una poblaci&oacute;n de individuos que &ldquo;evoluciona&rdquo; de una generaci&oacute;n a otra. Los Algoritmos Gen&eacute;ticos son m&eacute;todos de b&uacute;squeda de prop&oacute;sito general basados en los principios de la gen&eacute;tica natural, es decir, son algoritmos de b&uacute;squeda basados en los mecanismos de la selecci&oacute;n natural y la gen&eacute;tica. Un AG puede ser visto como una estructura de control que organiza o dirige un conjunto de transformaciones que se ejecutan iterativamente sobre una poblaci&oacute;n de individuos que representan soluciones para el problema a resolver; estas transformaciones se realizan mediante los llamados operadores gen&eacute;ticos, y considerando una funci&oacute;n de calidad o grado de aptitud de un individuo, la cual es una medida que permite comparar las soluciones para determinar cu&aacute;l es mejor.    <br>       <br>   <strong>Optimizaci&oacute;n basada en mallas variables (VMO):</strong></font></p>     ]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La cual cae en la categor&iacute;a de las t&eacute;cnicas de computaci&oacute;n evolutiva. Un conjunto de nodos que representan soluciones potenciales de un problema de optimizaci&oacute;n forma una malla que din&aacute;micamente crece y se desplaza por el espacio de b&uacute;squeda, para ello en cada ciclo se generan nodos intermedios entre los nodos de la malla y aquellos nodos que son extremos locales, entre los extremos locales y el extremo global y a partir de los nodos m&aacute;s externos de la malla. Los mejores nodos de la malla resultante son usados como malla inicial para el ciclo siguiente. La intenci&oacute;n del nuevo modelo es permitir una mayor exploraci&oacute;n del espacio de b&uacute;squeda.(Bello, 2007) . Un conjunto de nodos que representan soluciones potenciales de un problema de optimizaci&oacute;n que forma una malla que din&aacute;micamente crece y se desplaza por el espacio de b&uacute;squeda.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Optimizaci&oacute;n basada en Enjambre de Part&iacute;culas (PSO):</strong>    <br>       <br> </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La optimizaci&oacute;n basada en enjambre de  part&iacute;culas (Engelbrecht, 2006),&nbsp;&nbsp; es un  m&eacute;todo de optimizaci&oacute;n bioinspirado basado en una poblaci&oacute;n. Esta optimizaci&oacute;n  est&aacute; inspirada en el movimiento de los muchos individuos hacia un objetivo  predefinido. El objetivo es maximizar o minimizar la funci&oacute;n fijada.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Modelos de Redes Neuronales Artificiales (RNA): </strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las RNA no son m&aacute;s que un modelo artificial y simplificado del cerebro humano, que es el ejemplo m&aacute;s perfecto del que disponemos para un sistema que es capaz de adquirir conocimiento a trav&eacute;s de la experiencia. Debido a su constituci&oacute;n y a sus fundamentos, las RNA presentan un gran n&uacute;mero de caracter&iacute;sticas semejantes a las del cerebro.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">  Dentro del &aacute;rea vasta y compleja de la resoluci&oacute;n de problemas, los modelos asociativos han aportado una parte considerable de la eficiencia en la solubilidad lograda a escala mundial por las RNA (Bello, 2002). La topolog&iacute;a de los modelos de RNA asociativos se forma por un grupo de neuronas por cada rasgo del dominio del problema. En estos grupos se coloca una neurona por cada valor que aparezca para ese rasgo en el conjunto de datos. Existen enlaces entre las neuronas de grupos diferentes. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Modelos de redes neuronales artificiales asociativas (RNAAs):</strong>    <br>       <br>   <strong>Modelo de IAC:</strong></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la topolog&iacute;a  del&nbsp; modelo de IAC (McClelland, 1989) &nbsp;las neuronas se distribuyen en grupos y se  establecen enlaces entre las neuronas de grupos diferentes y del mismo grupo.  Las conexiones entre las neuronas de grupos diferentes son excitadoras,  mientras que las conexiones dentro de los grupos son inhibitorias.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este modelo puede  ser usado como una memoria asociativa, donde la recuperaci&oacute;n de un conjunto de  atributos puede ser lograda mediante la estimulaci&oacute;n de otros. IAC consiste de  un conjunto de unidades de procesamiento organizadas en un n&uacute;mero de grupos  competitivos (llamados tambi&eacute;n pools). Hay conexiones bidireccionales  inhibidoras (peso &lt; 0) entre las unidades del mismo grupo, y bidireccionales  excitadoras (peso &gt; 0) entre neuronas de diferentes grupos. Cada unidad  dentro del mismo grupo se conecta a todas las dem&aacute;s, y este es el mecanismo por  medio del cual se logra la competencia. La tendencia es que las neuronas con  mayor activaci&oacute;n en el grupo tienden a someter a las otras, reforzando su  propia se&ntilde;al y debilitando la de las dem&aacute;s. Los enlaces entre los grupos  tambi&eacute;n son bidireccionales, lo que significa que un cambio en las unidades de  cualquier grupo afectar&aacute; otros grupos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La entrada neta se calcula de la siguiente forma:.    <br>       <br>   </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Net = weightij*outputi+outputj    (1).    <br> D&oacute;nde:    <br> weightij: es el peso del enlace entre la unidad <em>i </em>y la unidad <em>j</em>,</font>    <br> <font size="2"><font face="Verdana, Arial, Helvetica, sans-serif">outputi</font><font face="Verdana, Arial, Helvetica, sans-serif">: es el valor actual de activaci&oacute;n de la neurona <em>i</em></font></font>    <br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">extinputj: es el valor de cualquier entrada externa a la unidad j. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el modelo IAC todas las unidades pueden ser  unidades de entrada, o sea, pueden ser estimuladas desde el exterior. Y tambi&eacute;n  todas las unidades pueden ser consideradas de salida, pues la activaci&oacute;n final  de cualquier unidad nos brinda informaci&oacute;n acerca del comportamiento de un  cierto rasgo. Este tipo de red asociativa posee un aprendizaje <em>off line</em>,  y los pesos pueden ser positivos o negativos en dependencia del tipo de  conexi&oacute;n que se establezca entre dos unidades. Los pesos no cambian con el  tiempo, pues se calculan al inicio y no var&iacute;an como en otros modelos.    ]]></body>
<body><![CDATA[<br>       <br>   <strong>Modelo SIAC:</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El modelo de SIAC (Garc&iacute;a,  1997) ofrece cierta igualdad con el IAC, aunque aqu&iacute; no existe competencia  entre las neuronas del mismo grupo. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las neuronas se organizan, al igual que en el IAC, por grupos, donde cada grupo se corresponde con un rasgo. En cada grupo se sit&uacute;a un nodo por cada elemento del dominio del rasgo. Se denomina dominio del rasgo xi y se denota por DOM (xi) al conjunto de valores que toma el rasgo seg&uacute;n los elementos del conjunto de entrenamiento. Existe un arco no dirigido entre todo par de nodos, excepto entre los situados en el mismo cl&uacute;ster. Cada arco posee un peso wij que indica en qu&eacute; medida se relacionan ambos valores. La funci&oacute;n de activaci&oacute;n de las unidades de este modelo puede describirse as&iacute;:</font></p>     <p><img src="img/revistas/rcci/v7n4/fo0106413.jpg" width="400" height="98">(2)</p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D&oacute;nde:    <br>    Cp: conjunto de rasgos predictores.</font>       <br>     <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Extinput: entrada externa de la neurona  representando el h-&eacute;simo valor del rasgo k-&eacute;simo.</font></p>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <strong>Modelo  Hopfield:</strong>.</font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las redes de  Hopfield (Hopfield, 1982) son redes de adaptaci&oacute;n probabil&iacute;stica, recurrentes,  funcionalmente entrar&iacute;an en la categor&iacute;a de las memorias autoasociativas, es  decir, que aprenden a reconstruir los patrones de entrada que memorizaron  durante el entrenamiento.</font>     ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> Una red de Hopfield se compone de sola capa de neuronas), pues recuerda un conjunto de vectores de entrada {x1 , x2 , ... , xN }. La forma en que se determinan los pesos es:</font>     <P><img src="img/revistas/rcci/v7n4/fo0206413.jpg" width="112" height="64"> (3)      <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Siendo L la cantidad de patrones de entrada a  memorizar</font>.    <br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Xi representa el valor de la neurona i</font>.    <br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif">W el peso total del entrenamiento de la RNA.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">   Estos  modelos de RNA asociativas se encuentran implementados en la  herramienta NeuroDeveloper (Falc&oacute;n, 2003), donde se procesan los atributos de tipo simb&oacute;lico y num&eacute;rico. La selecci&oacute;n de los valores representativos est&aacute; guiada por el criterio experto en el dominio de aplicaci&oacute;n. NeuroEvaluator (Falc&oacute;n, 2006), otra plataforma computacional para la evaluaci&oacute;n de modelos neuro-borrosos asociativos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Forma de tratamiento  de los pesos</strong>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Todos utilizan un aprendizaje basado en la regla de  Hebb, y en particular se definen tres variantes para el c&aacute;lculo de los pesos:  Frecuencia Absoluta, Frecuencia Relativa y Coeficiente de Correlaci&oacute;n de  Pearson. Con los cuales se calcula la activaci&oacute;n de cada neurona.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Estrategia de  asignaci&oacute;n</strong>    <br>       ]]></body>
<body><![CDATA[<br> Se especifica qu&eacute;&nbsp; tipo de estrategia  se aplicar&aacute; para las funciones de pertenencia, a la hora de preprocesar los  datos:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Todas las pertenencias.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- M&aacute;xima pertenencia.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Pertenencia&gt;</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Preprocesamiento de los rasgos</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el procesamiento de los rasgos hay que tener en cuenta el tipo de  rasgo con el cual &nbsp;trabajar&aacute; la RNAAs, ya  que en dependencia del tipo de rasgo se aplicar&aacute; la l&oacute;gica borrosa para  fuzzificar el mismo utilizando una determianda funci&oacute;n de pertenencia o se  discretizar&aacute; usando un determinado m&eacute;todo de  discretizaci&oacute;n.</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>L&oacute;gica  borrosa (fuzzy logic):</strong></font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Seg&uacute;n (&Ouml;stermark, 2000; Zadeh, 1994), la l&oacute;gica borrosa surge como la posibilidad de flexibilizar el arcaico concepto de que una cosa &ldquo;o es, o no es&rdquo;, pues en la mayor&iacute;a de los problemas de la matem&aacute;tica, estas decisiones duras son inconsecuentes y el principio del tercio exclusivo nos puede llevar a un callej&oacute;n sin salida ante una decisi&oacute;n en la que exista un por ciento de verdad y otro de falsedad  (Falc&oacute;n, 2006).</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Funci&oacute;n  de pertenencia (FP):</strong>.</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Si&nbsp;X&nbsp;es&nbsp;una&nbsp;colecci&oacute;n&nbsp;de&nbsp;objetos&nbsp;denotados&nbsp;gen&eacute;ricamente&nbsp;por&nbsp;<em>x</em>,&nbsp;entonces&nbsp;un&nbsp;conjunto&nbsp;borroso&nbsp;A&nbsp;en&nbsp;X&nbsp;  se&nbsp;define&nbsp;como&nbsp;un&nbsp;conjunto&nbsp;de&nbsp;pares&nbsp;ordenados.</font></p>     ]]></body>
<body><![CDATA[<p><img src="img/revistas/rcci/v7n4/fo0206413.png" width="169" height="29">(4)</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para cada t&eacute;rmino ling&uuml;&iacute;stico se define un conjunto borroso mediante su funci&oacute;n de pertenencia (FP).</font>    <br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los tipos de FP  (Nauck, 1997) m&aacute;s utilizadas dentro de la l&oacute;gica borrosa son:</font></p>     <p>-<font size="2" face="Verdana, Arial, Helvetica, sans-serif"> Funci&oacute;n de pertenencia triangular.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Funci&oacute;n de pertenencia trapezoidal.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Funci&oacute;n de pertenencia gaussiana.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Funci&oacute;n de pertenencia sigmoidal.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Funci&oacute;n de pertenencia beta.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">- Funci&oacute;n de pertenencia campana.</font></p>     <p><strong><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Discretizar los rasgos</font></strong></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">No es m&aacute;s que dividir los valores de un atributo continuo, en un conjunto de intervalos adyacentes correspondiente al caso unidimensional de los m&eacute;todos de agrupamiento. Este caso, conocido como discretizaci&oacute;n, es de especial importancia en Inteligencia Artificial, pues permite que muchos algoritmos de aprendizaje ideados para funcionar con atributos nominales o categ&oacute;ricos puedan tambi&eacute;n utilizarse con conjuntos de datos que incluyen valores num&eacute;ricos (Hussain, 1999), algo esencial en la resoluci&oacute;n de problemas reales</font>.</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este caso se divide el rasgo en intervalos seg&uacute;n el criterio de un experto o utilizando m&eacute;todos autom&aacute;ticos. La correcta determinaci&oacute;n de dichos intervalos se corresponde con el m&eacute;todo empleado con este objetivo. Algunos m&eacute;todos de discretizaci&oacute;n conocidos son: Equal Width (Hussain, 1999), Equal Frequency (Hussain, 1999), Chi-2 (Liu, 1997), CAIM (Kurgan, 2004), K-Means (Jyh-Shing, 1998).</font></p>     <p><strong><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Vector de configuraci&oacute;n</font></strong></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el dise&ntilde;o  del vector de configuraci&oacute;n se debe tener en cuenta  lo siguiente:</font><font face="Verdana, Arial, Helvetica, sans-serif">    <br>   <font size="2">V = (v1, v2, v3, v4)    <br>   Donde:    <br>   v1 es el modelo de RNA asociativa.    <br>   v2 es la forma de tratamiento de los pesos.    <br>   v3  es la estrategia de asignaci&oacute;n.    <br>   v4  es el preprocesamiento de los rasgos.    ]]></body>
<body><![CDATA[<br>   Teniendo en cuanta lo siguiente:    <br>   De la plataforma NeuroEvaluator:    <br>   Para v1: se seleccionan tres modelos de RNAAs.    <br> Para v2: se seleccionan tres formas de tratamiento de los pesos.</font></font>    <br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para v3: se seleccionan tres  estrategias de asignaci&oacute;n. </font>    <br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para v4:  existen AN formas de preprocesar todos los atributos de los  que consta la base de casos, donde N es la cantidad de atributo y A las maneras  de modelar un atributo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En resumen el espacio total de b&uacute;squeda para encontrar el vector de  configuraci&oacute;n correspondiente con el objetivo de obtener el mejor rendimiento  de la RNAAs ser&aacute;:</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Espacio Total de B&uacute;squeda  (ETB) </font></strong><font face="Verdana, Arial, Helvetica, sans-serif">= 3*3*3* AN de combinaciones. (5)</font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Es decir el vector de configuraci&oacute;n est&aacute; formado  por A+3 componentes &nbsp;pueden tomar 27* AN &nbsp;valores. La primera componente  del vector son los modelos de RNA; se formar&aacute; un vector por cada modelo fijando  en la primera posici&oacute;n el modelo de RNA correspondiente y manteniendo el resto  de las posiciones con valores iniciales iguales para todos los vectores que se  formen. Estos valores iniciales fueron seleccionados previamente atendiendo a  la incidencia que ellos tienen sobre el rendimiento de la RNA. Cada uno de los  vectores formados ser&aacute; un estado inicial a partir del cual se comenzar&aacute;n a  generar los siguientes nodos seg&uacute;n la heur&iacute;stica planteada</font>.</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Forma de tratamiento    de los pesos:</b></font></p> <ol>       ]]></body>
<body><![CDATA[<li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Frecuencia Absoluta.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Frecuencia Relativa.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Coeficiente      de Correlaci&oacute;n de Pearson.    <br>     </font></li>     </ol>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Estrategia de    asignaci&oacute;n:</b></font></p> <ol>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Todas las pertenencias.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">M&aacute;xima      pertenencia.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Pertenencia&gt;<img width="13" height="18" src="img/revistas/rcci/v7n4/fo0606413.png"></font></li>     </ol>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>Preprocesamiento    de los rasgos:</b></font></p> <ol>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a fuzzificar      mediante la variante Triangle.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a fuzzificar      mediante la variante All Gaussian.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a fuzzificar      mediante la variante Sigmoidea, Gaussian, Sigmoidea.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a fuzzificar      mediante la variante * Triangle.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a fuzzificar      mediante la variante Triangle, Trapezoid, Triangle.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a discretizar      mediante la variante CAIM.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a discretizar      mediante la variante Chi_Square.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a discretizar      mediante la variante K-Means.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a discretizar      mediante la variante Equal_Width.</font></li>       ]]></body>
<body><![CDATA[<li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rasgo a discretizar      mediante la variante Equal_Frequency.</font></li>     </ol>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para lograr una  mayor velocidad en la b&uacute;squeda de los vectores de configuraci&oacute;n de las redes  neuronales se debe utilizar la programaci&oacute;n distribuida, que brinda la posibilidad  de manejar los recursos de toda una red</font>.</p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Programaci&oacute;n distribuida</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La construcci&oacute;n de sistemas distribuidos brinda la  posibilidad de utilizar los recursos de toda una red. Los dos tipos principales  de sistemas distribuidos son los sistemas computacionales distribuidos y los  sistemas de procesamiento paralelo. En programaci&oacute;n distribuida, un conjunto de  ordenadores conectados por una red son usados colectivamente para realizar  tareas distribuidas. Por otro lado en los sistemas paralelos, la soluci&oacute;n a un  problema importante es dividida en peque&ntilde;as tareas que son repartidas y  ejecutadas para conseguir un alto rendimiento. Los sistemas distribuidos se  pueden implementar usando dos modelos: el modelo cliente &ndash; servidor y el modelo  basado en objetos. El modelo de cliente-servidor contiene un conjunto de procesos  clientes y un conjunto de procesos servidor. Cliente y Servidor deben hablar el  mismo lenguaje para conseguir una comunicaci&oacute;n efectiva. En el modelo Orientado  a Objetos hay una serie de objetos que solicitan servicios (clientes) a los  proveedores de los servicios (servidores) a trav&eacute;s de una interfaz de  encapsulaci&oacute;n definida. Un cliente env&iacute;a un mensaje a un objeto (servidor) y  &eacute;ste decide qu&eacute; ejecutar. RMI y CORBA son algunos de esos sistemas basados en  objetos (Labrador, 2006)</font>.</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Microsoft .NET Remoting provee un marco que permite  que una aplicaci&oacute;n pueda comunicarse con otra, tanto si ambas residen en el  mismo equipo como si residen en equipos distintos de la misma red de &aacute;rea local  o en redes distintas separadas por una gran distancia, incluso si los sistemas  operativos que se ejecutan en dichos equipos son diferentes; con la  peculiaridad de necesitar ejecutarse sobre Microsoft .Net Framework, del cual  existen versiones para Linux y sus hom&oacute;logos as&iacute; como para todas las versiones  de Windows. Microsoft .NET Framework es un artefacto importante dentro de la  arquitectura .Net (Labrador, 2006).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La interfaz de programaci&oacute;n de .NET Remoting en la  plataforma .NET, tiene otra filosof&iacute;a respecto a las comunicaciones y formatos  de mensajes de otras APIs, como son COM distribuido (DCOM) o la invocaci&oacute;n  remota de m&eacute;todos (RMI). En lugar de basarse en un protocolo y en mensajes  propietarios, .NET Remoting utiliza est&aacute;ndares muy bien establecidos como SOAP  para mensajer&iacute;a y HTTP y TCP como protocolo de comunicaci&oacute;n. Incluso se pueden  utilizar canales propios o de terceras partes</font>.</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Microsoft .NET    Remoting oculta todos los detalles de implementaci&oacute;n del trabajo con    Sockets, entregando al programador final una interfaz de programaci&oacute;n    que se distingue por las facilidades de uso y su potente alcance. En el siguiente    esquema se ejemplifican claramente las diferentes partes que conforman una t&iacute;pica    llamada a un objeto remoto en .NET, ver <a href="img/revistas/rcci/v7n4/f0106413.jpg">Figura    1 </a></font>.</p>     <p align="left">&nbsp;</p>     <p><font color="#231f20" size="3" face="Verdana"><B>RESULTADOS Y DISCUSI&Oacute;N </B></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#t01">tabla</a> se muestra c&oacute;mo debe quedar el vector de configuraci&oacute;n de    acuerdo a los modelos de red que se utilizan: el tratamiento a los pesos, la    estrategia de asignaci&oacute;n y el preprocesamiento de los datos</font>.</p>     <p align="center"><a name="t01"></a><img src="img/revistas/rcci/v7n4/t0106413.jpg" width="507" height="208"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La <a href="img/revistas/rcci/v7n4/f0206413.jpg" title="f02">figura    2</a> muestra c&oacute;mo se conformar&iacute;an los vectores de configuraci&oacute;n    en funci&oacute;n del rendimiento de la RNAAs, utilizando el m&eacute;todo de    b&uacute;squeda de algoritmo gen&eacute;tico (AG), para un solo atributo</font>.</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La b&uacute;squeda del vector de configuraci&oacute;n se detendr&aacute; cuando el rendimiento de la RNAAs, sea mayor que el propuesto como umbral. En la <a href="img/revistas/rcci/v7n4/f0306413.jpg">figura 3</a> se muestra c&oacute;mo se realizar&aacute; la b&uacute;squeda de la configuraci&oacute;n del vector de configuraci&oacute;n utilizando la los sistemas distribuidos</font>.</p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Costo computacional</strong></font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El costo computacional de la b&uacute;squeda del vector de configuraci&oacute;n, est&aacute; relacionado con el tipo de b&uacute;squeda que se emplee, es ah&iacute; donde debe ser analizado este costo computacional, en el caso de la b&uacute;squeda exhaustiva es de O (n!) ya que depende de la exploraci&oacute;n de todas las componentes del vector completo, en el caso de la Ascensi&oacute;n de colinas es de O(n), como depende de la informaci&oacute;n del vector anterior, no tiene que explorar todo el espacio, sino encontrar una soluci&oacute;n mejor. El costo computacional del algoritmo PSO es de O(n2), el del algoritmo VMO es O(n3) y para el AG es de O(n4),  teniendo en cuenta que O(n)  O(n2)  O(n3)  O(n4)  O (n!).</font></p>     <p>&nbsp;</p>     <p><font color="#231f20" size="3" face="Verdana"><B>CONCLUSIONES</B></font></p> <FONT COLOR="#231f20">     <P></FONT>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con este dise&ntilde;o    propuesto se pretende reducir considerablemente el n&uacute;mero de configuraciones    del vector a explorar, teniendo en cuenta que al determinar que un elemento    de este no ofrece una mejora en el desempe&ntilde;o de la RNA, el mismo no volver&aacute;    a ser examinado al combinarlo con otro de los elementos no explorados y&nbsp;    se puede obtener un mayor rendimiento de la RNA, en un determinado tiempo y    se evita la b&uacute;squeda engorrosa de estos vectores<font color="#231f20">.</font></font>      ]]></body>
<body><![CDATA[<P>&nbsp;     <P>     <P>     <P><font color="#231f20" size="3" face="Verdana"><B>REFERENCIAS BIBLIOGR&Aacute;FICAS    </B></font>     <!-- ref --><P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BELLO , R. E. Aplicaciones    de la Inteligencia Artificial. Universidad de Guadalajara. 2002.     </font>      <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BELLO,  R. E. P. A. Optimizaci&oacute;n basada en mallas din&aacute;micas. Su aplicaci&oacute;n al problema  de selecci&oacute;n de rasgos. 2007.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ENGELBRECHT, A. P.  Fundamentals of Computational Swarm Intelligence, 2006. John Wiley &amp; Sons.    </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">C.  BLUM AND A. ROLI. &ldquo;<em>Metaheuristics  in Combinatorial Optimization: Overview and conceptual </em>Comparison&rdquo;,TR/IRIDIA. 2001.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">FALC&Oacute;N,  R. J. Herramienta para el desarrollo de sistemas conexionistas en presencia de  rasgos difusos., UCLV Marta Abreu. 2003.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">FALC&Oacute;N,  R. J. Plataforma evaluadora de modelos neuroborrosos asociativos., UCLV Marta  Abreu. 2006.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">FALC&Oacute;N,  R. J. LABRADOR, A., NAVARRO, A., RODR&Iacute;GUEZ, Y. GARC&Iacute;A, M. M&oacute;dulo de Experimentaci&oacute;n Combinatoria para la  Evaluaci&oacute;n de Modelos Neuro-Borrosos Asociativos. UCLV Marta Abreu. 2006.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GOLDBERG, D. E. (Ed.) Genetic Algorithms in  Search. Optimization and Machine Learning. 1998. Addison-Wesley Publishing  Company: University of Alabama.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GLOVER,  F. Tabu search for nonlinear and parametric optimization (with links to genetic  algorithms). Discrete Applied Mathematics 49(1-3), 231-255 doi: 10.1016/0166-218X(94)90211-9. 1994.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">HOPFIELD, J. J. Neural  networks and physical systems with emergent collective computational abilities,  Proc. Nat. Acad. Sci. USA. vol. 79: p.  2554-2558. 1982.    </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">HUSSAIN,  F. L., H. Discretization: An Enabling Technique. 1999.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">JYH-SHING,  R. Neuro-Fuzzy and Soft Computing. Prentice Hall. 1998.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">KURGAN,  L. CAIM Discretization Algorithm. IEEE Transactions on Knowledge and Data  Engineering. , Vol 16. No. 2. 2004.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">KENNEDY,  J. EBERHART, R.C. 1995. Particle swarm optimization. Proc. of On Neural  Networks, Piscataway, NJ,  pp. 1942-1948.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">LABRADOR,  A. N. A. M. M&oacute;dulo de Experimentaci&oacute;n Combinatoria para la Evaluaci&oacute;n de  Modelos Neuro-Borrosos Asociativos. UCLV Marta Abreu. 2006.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">LIU,  H. A. S. R. CHI2: Attribute selection and discretization of numeric attributes.  In Proceedings of the IEEE 7th Conference on tools with AI.&nbsp; 1997.    </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MCCLELLAND, J. L. y. R. &quot;Explorations  in parallel distributed processing.MIT Press&quot;. 1989.</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">MART&Iacute;NEZ- L&Oacute;PEZ. Y,  &ldquo;Shell para la construcci&oacute;n de Sistemas Expertos Conexionistas&rdquo;. , UCLV  Marta Abreu. 2010.     <p></p> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MOSCATO,  P., COTTA. &ldquo;An introduction to memetic algorithms&rdquo; Revista Iberoamericana de  Inteligencia artificial N&ordm;19. 2003.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NAUCK,  D. Foundations of neuro fuzzy systems, John Wiley &amp; Sons, Inc. 1997.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">&Ouml;STERMARK,  R. A hybrid genetic fuzzy neural network algorithm designed for classification.  2000.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PURIS  A., BELLO, R., MOLINA, D,HERRERA, F. &ldquo;Variable mesh optimization for continuous  optimization problems&rdquo;, Soft Computing, vol. 16, no. 3, p. 511&ndash;525. 2011.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">R.  YANG. &ldquo;Line-breeding Schemes for Combinatorial Optimization&rdquo;, Lectures Notes in  Computer Science 1498. Springer-Verlag Berlin. p. 448&ndash;457. 1998.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ZADEH,  L. A. The fuzzy systems handbook: a practitioner&rsquo;s guide to building, using and  maintaining fuzzy system. 1994.</font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> </font></p> <FONT COLOR="#231f20">     ]]></body>
<body><![CDATA[<P>     <P>      <P></FONT>     <P>&nbsp;     <P>&nbsp;     <P><font color="#231f20" size="2" face="Verdana">Recibido: <I>08/03/2013</I>     <br>   Aceptado: <I>28/10/2013</I></font>       ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Aplicaciones de la Inteligencia Artificial]]></source>
<year>2002</year>
<publisher-name><![CDATA[Universidad de Guadalajara]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R. E. P. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Optimización basada en mallas dinámicas. Su aplicación al problema de selección de rasgos]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ENGELBRECHT]]></surname>
<given-names><![CDATA[A. P.]]></given-names>
</name>
</person-group>
<source><![CDATA[Fundamentals of Computational Swarm Intelligence]]></source>
<year>2006</year>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BLUM]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
<name>
<surname><![CDATA[ROLI.]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Metaheuristics in Combinatorial Optimization: Overview and conceptual Comparison]]></source>
<year>2001</year>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FALCÓN]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Herramienta para el desarrollo de sistemas conexionistas en presencia de rasgos difusos]]></source>
<year>2003</year>
<publisher-name><![CDATA[UCLV Marta Abreu]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FALCÓN]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
</person-group>
<source><![CDATA[Plataforma evaluadora de modelos neuroborrosos asociativos]]></source>
<year>2006</year>
<publisher-name><![CDATA[UCLV Marta Abreu]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FALCÓN]]></surname>
<given-names><![CDATA[R. J.]]></given-names>
</name>
<name>
<surname><![CDATA[LABRADOR]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[NAVARRO]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<source><![CDATA[Módulo de Experimentación Combinatoria para la Evaluación de Modelos Neuro-Borrosos Asociativos]]></source>
<year>2006</year>
<publisher-name><![CDATA[UCLV Marta Abreu]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GOLDBERG]]></surname>
<given-names><![CDATA[D. E.]]></given-names>
</name>
</person-group>
<source><![CDATA[Optimization and Machine Learning]]></source>
<year>1998</year>
<publisher-name><![CDATA[Addison-Wesley Publishing Company]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GLOVER]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Tabu search for nonlinear and parametric optimization (with links to genetic algorithms)]]></article-title>
<source><![CDATA[Discrete Applied Mathematics]]></source>
<year>1994</year>
<volume>49</volume>
<numero>1-3</numero>
<issue>1-3</issue>
<page-range>231-255</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HOPFIELD]]></surname>
<given-names><![CDATA[J. J.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural networks and physical systems with emergent collective computational abilities]]></article-title>
<source><![CDATA[Proc. Nat. Acad. Sci.]]></source>
<year>1982</year>
<volume>79</volume>
<page-range>2554-2558</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HUSSAIN]]></surname>
<given-names><![CDATA[F. L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Discretization: An Enabling Technique]]></source>
<year>1999</year>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JYH-SHING]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Neuro-Fuzzy and Soft Computing]]></source>
<year>1998</year>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KURGAN]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[CAIM Discretization Algorithm]]></article-title>
<source><![CDATA[IEEE Transactions on Knowledge and Data Engineering.]]></source>
<year>2004</year>
<volume>16</volume>
<numero>2</numero>
<issue>2</issue>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KENNEDY]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[EBERHART]]></surname>
<given-names><![CDATA[R.C.]]></given-names>
</name>
</person-group>
<source><![CDATA[Particle swarm optimization]]></source>
<year>1995</year>
<page-range>1942-1948</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LABRADOR]]></surname>
<given-names><![CDATA[A. N. A. M.]]></given-names>
</name>
</person-group>
<source><![CDATA[Módulo de Experimentación Combinatoria para la Evaluación de Modelos Neuro-Borrosos Asociativos]]></source>
<year>2006</year>
<publisher-name><![CDATA[UCLV Marta Abreu]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LIU]]></surname>
<given-names><![CDATA[H. A. S. R.]]></given-names>
</name>
</person-group>
<source><![CDATA[CHI2: Attribute selection and discretization of numeric attributes]]></source>
<year>1997</year>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MCCLELLAND]]></surname>
<given-names><![CDATA[J. L.]]></given-names>
</name>
</person-group>
<source><![CDATA[Explorations in parallel distributed processing]]></source>
<year>1989</year>
<publisher-name><![CDATA[MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARTÍNEZ- LÓPEZ]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[Shell para la construcción de Sistemas Expertos Conexionistas]]></source>
<year>2010</year>
<publisher-name><![CDATA[UCLV Marta Abreu]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MOSCATO]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An introduction to memetic algorithms]]></article-title>
<source><![CDATA[Revista Iberoamericana de Inteligencia artificial]]></source>
<year>2003</year>
<numero>19</numero>
<issue>19</issue>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NAUCK]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
</person-group>
<source><![CDATA[Foundations of neuro fuzzy systems]]></source>
<year>1997</year>
<publisher-name><![CDATA[John Wiley & Sons, Inc.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ÖSTERMARK]]></surname>
<given-names><![CDATA[R. A]]></given-names>
</name>
</person-group>
<source><![CDATA[hybrid genetic fuzzy neural network algorithm designed for classification]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PURIS]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Variable mesh optimization for continuous optimization problems]]></article-title>
<source><![CDATA[Soft Computing]]></source>
<year>2011</year>
<volume>16</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>511-525</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YANG.]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Line-breeding Schemes for Combinatorial Optimization]]></article-title>
<source><![CDATA[Lectures Notes in Computer Science 1498]]></source>
<year>1998</year>
<page-range>448-457</page-range><publisher-loc><![CDATA[Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Springer-Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZADEH]]></surname>
<given-names><![CDATA[L. A.]]></given-names>
</name>
</person-group>
<source><![CDATA[The fuzzy systems handbook: a practitioner&#8217;s guide to building, using and maintaining fuzzy system]]></source>
<year>1994</year>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
