<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992017000100014</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Multiclasificador para predecir interacción de proteínas usando optimización basada en colonia de hormigas]]></article-title>
<article-title xml:lang="en"><![CDATA[Multi-classifier to predict protein interactions using ant colony optimization]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Cabrera Hernández]]></surname>
<given-names><![CDATA[Leidys]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Nápoles Ruiz]]></surname>
<given-names><![CDATA[Gonzalo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Santos Martínez]]></surname>
<given-names><![CDATA[Lester]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Casas Cardoso]]></surname>
<given-names><![CDATA[Gladys]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[María M]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad Central Marta Abreu de Las Villas Centro de Estudios de Informática ]]></institution>
<addr-line><![CDATA[ Villa clara]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2017</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2017</year>
</pub-date>
<volume>11</volume>
<numero>1</numero>
<fpage>195</fpage>
<lpage>210</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992017000100014&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992017000100014&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992017000100014&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN En los últimos años el desarrollo de sistemas multi-clasificadores se ha convertido en un campo de investigación activo. Un sistema multi-clasificador es un conjunto de algoritmos de clasificación cuyas salidas individuales se funden para una mayor precisión. Muchos estudios teóricos y empíricos han demostrado las ventajas del paradigma de la combinación de clasificadores sobre los clasificadores individuales. Cuando se combinan clasificadores es importante garantizar la diversidad entre ellos de alguna manera, algunas medidas estadísticas pueden utilizarse para estimar la diversidad de un conjunto de clasificadores, estas se llaman medidas de diversidad. Otra cuestión a considerar es el número de clasificadores individuales incluidos en el modelo: cuanto menor sea el número de clasificadores, más simple es el sistema resultante. En términos generales, el principio de parsimonia es muy deseado en tales conjuntos, desde que un conjunto voluminoso también será un modelo que consume mucho tiempo. Encontrar el subconjunto mínimo de los clasificadores individuales que produce el mejor rendimiento del sistema se puede plantear como un problema de optimización combinatoria. En este trabajo se aborda el problema de la construcción de sistemas multi-clasificadores usando la Optimización basada en Colonia de Hormigas, un algoritmo de optimización meta heurístico ampliamente popular y eficaz, la razón principal detrás del uso del mismo radica en su fuerte capacidad para resolver problemas de optimización combinatoria entrelazados. Además, un análisis empírico es incluido para validar estadísticamente nuestra propuesta, mostrándose una aplicación real en la interacción de proteínas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT In recent years the development of multi-classifier systems has become an active area &#8203;&#8203;research. A multi-classifier system is a set of classification algorithms whose individual outputs are fused for greater accuracy and interpretability. Many theoretical and empirical studies have shown the advantages of paradigm combination of classifiers over individual classifiers. When combined classifiers is important to ensure diversity among them in some way, some statistical measures can be used to estimate the diversity of a set classifiers, these are called diversity measures. Another issue to consider is the number of individual classifiers included in the model: the lower the number of classifiers, simpler is the resulting system. In general terms, the principle of parsimony is very desirable in such sets since a voluminous set also be a time-consuming model. Find the minimum subset of individual classifiers that produces the best system performance can pose as a combinatorial optimization problem. In this paper the problem of building multi-classifiers systems is addressed using Ant Colony Optimization, an optimization algorithm metaheuristic widely popular and effective, the main reason behind the use of it lies in its strong ability to solve problems intertwined combinatorial optimization. In addition, an empirical analysis is included to statistically validate our proposal, showing a real application in protein interaction.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[multi-clasificador]]></kwd>
<kwd lng="es"><![CDATA[clasificador]]></kwd>
<kwd lng="es"><![CDATA[optimización de colonia de hormigas]]></kwd>
<kwd lng="es"><![CDATA[medidas de diversidad]]></kwd>
<kwd lng="en"><![CDATA[multi-classifier]]></kwd>
<kwd lng="en"><![CDATA[classifier]]></kwd>
<kwd lng="en"><![CDATA[ant colony optimization]]></kwd>
<kwd lng="en"><![CDATA[diversity measures]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Multiclasificador  para predecir interacci&oacute;n de prote&iacute;nas usando optimizaci&oacute;n basada en colonia de  hormigas</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Multi-classifier  to predict protein interactions using ant colony optimization</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Leidys Cabrera Hern&aacute;ndez<strong><sup>1*</sup></strong>, Gonzalo N&aacute;poles Ruiz<strong><sup>1</sup></strong>, Lester Santos Mart&iacute;nez </font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><sup>1</sup>, Gladys Casas Cardoso<sup>1</sup>, Mar&iacute;a M. Garc&iacute;a<sup>1</sup></strong></font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Centro de Estudios de Inform&aacute;tica, Universidad Central &ldquo;Marta Abreu&rdquo; de Las  Villas, Carretera Camajuan&iacute; Km5 &frac12;, Villa clara, Cuba. CP: 54830. {<a href="mailto:leidysc@uclv.edu.cu">leidysc@uclv.edu.cu</a>, <a href="mailto:gnapoles@uclv.edu.cu">gnapoles@uclv.edu.cu</a>, <a href="mailto:lsantos@uclv.edu.cu">lsantos@uclv.edu.cu</a>, <a href="mailto:gcasas@uclv.edu.cu">gcasas@uclv.edu.cu</a>, <a href="mailto:mmgarcia@uclv.edu.cu">mmgarcia@uclv.edu.cu</a>}</font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br>       ]]></body>
<body><![CDATA[<br>       </font></p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:fjsilva@cenatav.co.cu">leidysc@uclv.edu.cu</a><a href="mailto:jova@uci.cu"></a></font><font face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:losorio@ismm.edu.cu"></a> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los &uacute;ltimos a&ntilde;os el desarrollo de sistemas  multi-clasificadores se ha convertido en un campo de investigaci&oacute;n activo. Un  sistema multi-clasificador es un conjunto de algoritmos de clasificaci&oacute;n cuyas  salidas individuales se funden para una mayor precisi&oacute;n. Muchos estudios te&oacute;ricos y emp&iacute;ricos han demostrado  las ventajas del paradigma de la combinaci&oacute;n de clasificadores sobre los  clasificadores individuales. Cuando se combinan clasificadores es importante  garantizar la diversidad entre ellos de alguna manera, algunas medidas  estad&iacute;sticas pueden utilizarse para estimar la diversidad de un conjunto de  clasificadores, estas se llaman medidas de diversidad. Otra cuesti&oacute;n a considerar es  el n&uacute;mero de clasificadores individuales incluidos en el modelo: cuanto menor  sea el n&uacute;mero de clasificadores, m&aacute;s simple es el sistema resultante. En  t&eacute;rminos generales, el principio de parsimonia es muy deseado en tales  conjuntos, desde que un conjunto voluminoso tambi&eacute;n ser&aacute; un modelo que consume  mucho tiempo. Encontrar el subconjunto m&iacute;nimo de los clasificadores  individuales que produce el mejor rendimiento del sistema se puede plantear  como un problema de optimizaci&oacute;n combinatoria. En este trabajo se aborda el  problema de la construcci&oacute;n de sistemas multi-clasificadores usando la  Optimizaci&oacute;n basada en Colonia de Hormigas, un algoritmo de optimizaci&oacute;n meta  heur&iacute;stico ampliamente popular y eficaz, la raz&oacute;n principal detr&aacute;s del uso del  mismo radica en su fuerte capacidad para resolver problemas de optimizaci&oacute;n  combinatoria entrelazados. Adem&aacute;s, un an&aacute;lisis emp&iacute;rico es  incluido para validar estad&iacute;sticamente nuestra propuesta, mostr&aacute;ndose una  aplicaci&oacute;n real en la interacci&oacute;n de prote&iacute;nas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">multi-clasificador, clasificador, optimizaci&oacute;n de colonia  de hormigas, medidas de diversidad. </font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">In recent  years the development of multi-classifier systems has become an active area  &#8203;&#8203;research. A multi-classifier system is a set of classification algorithms  whose individual outputs are fused for greater accuracy and interpretability.  Many theoretical and empirical studies have shown the advantages of paradigm  combination of classifiers over individual classifiers. When combined  classifiers is important to ensure diversity among them in some way, some  statistical measures can be used to estimate the diversity of a set  classifiers, these are called diversity measures. Another issue to consider is  the number of individual classifiers included in the model: the lower the  number of classifiers, simpler is the resulting system. In general terms, the  principle of parsimony is very desirable in such sets since a voluminous set  also be a time-consuming model. Find the minimum subset of individual  classifiers that produces the best system performance can pose as a  combinatorial optimization problem. In this paper the problem of building multi-classifiers  systems is addressed using Ant Colony Optimization, an optimization algorithm metaheuristic  widely popular and effective, the main reason behind the use of it lies in its  strong ability to solve problems intertwined combinatorial optimization. In  addition, an empirical analysis is included to statistically validate our  proposal, showing a real application in protein interaction.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>multi-classifier, classifier, ant colony optimization, diversity  measures.</font></p> <hr>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los problemas de clasificaci&oacute;n son algunos de los temas m&aacute;s estudiados en  la miner&iacute;a de datos y el aprendizaje automatizado. A pesar de la gran cantidad  de documentos t&eacute;cnicos dedicados al tema, las t&eacute;cnicas de clasificaci&oacute;n siguen  ganando el apoyo firme de los investigadores en las disciplinas antes  mencionadas. La elecci&oacute;n del mejor clasificador depende en gran medida de las  caracter&iacute;sticas del problema en cuesti&oacute;n y la naturaleza de los l&iacute;mites de  decisi&oacute;n descubiertos por cada t&eacute;cnica para separar las diferentes clases de  decisiones. En la b&uacute;squeda de mejores esquemas de clasificaci&oacute;n, la combinaci&oacute;n  de varios clasificadores es una tendencia popular. Este es el punto crucial sobre  el que se construye un multi-clasificador (MC). Un MC se basa en la combinaci&oacute;n  de un conjunto de clasificadores individuales a trav&eacute;s de algunos criterios con  la intenci&oacute;n de lograr un resultado superior (Polikar, 2006). En  principio, hay que esperar mejores resultados mediante el uso de un conjunto de  clasificadores, incluso en problemas de clasificaci&oacute;n de patrones complejos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En (Dietterich, 2000) se  sugieren tres tipos de razones por las cuales un sistema MC puede ser mejor que  un clasificador simple. La primera es estad&iacute;stica, pues si efectivamente por  cada clasificador tenemos una hip&oacute;tesis, la idea de combinar estas hip&oacute;tesis da  como resultado una hip&oacute;tesis que puede no ser la mejor, pero al menos evita  seleccionar la peor de ellas. La segunda justificaci&oacute;n es computacional, ya que  algunos algoritmos ejecutan b&uacute;squedas que pueden llevar a diferentes &oacute;ptimos  locales: cada clasificador comienza la b&uacute;squeda desde un punto diferente y  termina cercano al &oacute;ptimo. Existe la expectativa de que alguna v&iacute;a de combinaci&oacute;n  puede llevar a un MC a obtener una mejor aproximaci&oacute;n. La &uacute;ltima justificaci&oacute;n  es figurativa ya que es posible que el espacio de hip&oacute;tesis considerado no  contenga la hip&oacute;tesis &oacute;ptima; pero la aproximaci&oacute;n de varias fronteras de  decisi&oacute;n puede dar como consecuencia una nueva hip&oacute;tesis fuera del espacio  inicial y que se aproxime m&aacute;s a la &oacute;ptima.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como lo demuestra el n&uacute;mero diverso de modelos disponibles en la  literatura, hay varias maneras de desarrollar un MC. Algunas de ellas un poco  m&aacute;s relacionadas con problemas de clasificaci&oacute;n de patrones gen&eacute;ricos (por  ejemplo, <em>Bagging</em> y <em>Boosting</em>), mientras que otras son con  fines espec&iacute;ficos. A pesar del campo de aplicaci&oacute;n previsto para el modelo, la  creaci&oacute;n de MCs precisos implica dos retos principales. El primero est&aacute; relacionado  con la adecuada elecci&oacute;n de los clasificadores individuales (es decir, los  bloques de construcci&oacute;n) mientras que la segunda se centra en la combinaci&oacute;n de  sus salidas individuales de clasificaci&oacute;n (Bonet, 2013).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La selecci&oacute;n de los clasificadores bases es el primer paso en la  construcci&oacute;n de un MC; hay varios modelos cl&aacute;sicos que se han propuesto para  este fin. <em>Bagging</em> (Breiman, 1996) tiene  sus ra&iacute;ces en el principio de la generaci&oacute;n de diferentes conjuntos de  entrenamiento extra&iacute;dos del conjunto de entrenamiento inicial por medio de un  muestreo aleatorio con reemplazo, lo que asegura la diversidad. Este modelo  requiere la selecci&oacute;n de un modelo d&eacute;bil o inestable de clasificaci&oacute;n, es  decir, un clasificador que var&iacute;a sus salidas en presencia de, por ejemplo,  cambios param&eacute;tricos menores. <em>Bagging</em> tambi&eacute;n asume que todos sus clasificadores d&eacute;biles ser&aacute;n del mismo tipo o familia  y la fusi&oacute;n de sus salidas individuales se lleva a cabo a trav&eacute;s de la t&eacute;cnica  de voto mayoritario. Este algoritmo puede ser aplicado en los m&eacute;todos de  aprendizaje con un atributo num&eacute;rico de decisi&oacute;n (por ejemplo, problemas de  regresi&oacute;n), en la que las salidas individuales son n&uacute;meros reales y, por tanto,  se promedian. Otra estrategia que <em>Bagging</em> emplea para producir el resultado final es estimar una probabilidad para cada  salida. Estas probabilidades estimadas por los modelos se promedian y la clase  m&aacute;s probable es la mostrada como soluci&oacute;n por el modelo MC basado en <em>Bagging</em> (Witten, 2005). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Boosting</em> (Schapire, 1990) es parecido a <em>Bagging</em> porque usa el m&eacute;todo de crear bases de entrenamiento aleatorias con reemplazo,  a partir de la base original y un &uacute;nico modelo de clasificaci&oacute;n para los  clasificadores de base, de ah&iacute; que la diversidad la garantice de la misma  forma. Sin embargo, este algoritmo se realiza de manera secuencial, donde los  clasificadores se van entrenando uno detr&aacute;s del otro porque usan informaci&oacute;n  del anterior. Otra diferencia es que <em>Boosting</em> le da un peso al modelo por su rendimiento, en lugar de dar peso igual a todos  los modelos. El reemplazo se realiza estrat&eacute;gicamente de forma que los casos  mal clasificados tienen mayor probabilidad, que los bien clasificados, de  pertenecer al conjunto de entrenamiento del siguiente clasificador del sistema.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En resumen: las dos t&eacute;cnicas anteriores se limitan al mismo tipo de modelo de  clasificaci&oacute;n base y est&aacute;n capacitados con subconjuntos de sus datos de  entrenamiento. El primer enfoque (<em>Bagging</em>)  selecciona subconjuntos al azar, mientras que el segundo selecciona los  subconjuntos de forma iterativa en base al resultado de la iteraci&oacute;n anterior.  Otro modelo que se denomina <em>Stacking</em> (Wolpert, 1992), es un  m&eacute;todo diferente a los anteriores pues la diversidad se determina con el empleo  de diversos modelos de clasificaci&oacute;n. Es menos utilizado que <em>Bagging</em> y <em>Boosting</em>, ya que es dif&iacute;cil de analizar te&oacute;ricamente. <em>Stacking</em> combina m&uacute;ltiples clasificadores  generados por diferentes algoritmos para un mismo conjunto de datos en una  primera fase. Para combinar las salidas no utiliza voto mayoritario, sino que  introduce un meta-clasificador que aprende la relaci&oacute;n entre las salidas de los  clasificadores de base y la clase original.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se podr&iacute;a decir que estos tres paradigmas son los m&aacute;s generales y usados en  la construcci&oacute;n de MCs, aunque la mejor alternativa no es f&aacute;cil de determinar.  Sistemas MCs, al igual que los clasificadores simples, no son intr&iacute;nsecamente  mejores que otros, pero tienen que ser seleccionados sobre la base de su  rendimiento frente a un determinado tipo de problema (Kuncheva, 2004).</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Algunos MCs aseguran la diversidad utilizando diferentes conjuntos de  entrenamiento, pero esto s&oacute;lo funciona para clasificadores que son sensibles a  los cambios, tales como &aacute;rboles de decisi&oacute;n. Otros utilizan diferentes  conjuntos de rasgos y por lo tanto tambi&eacute;n var&iacute;an los conjuntos de  entrenamiento. Otros utilizan distintos tipos de clasificadores base, donde se  hace muy necesario cuantificar la diversidad entre ellos.    <br>   Resulta intuitivo pensar que el resultado de combinar un grupo de  clasificadores id&eacute;nticos no va a ser mejor que el resultado de uno solo de sus miembros. Al contrario, resultar&iacute;a  m&aacute;s conveniente si combin&aacute;ramos un grupo de clasificadores diferentes entre s&iacute;,  dado que al menos uno de ellos debe dar la respuesta correcta cuando el resto  falle. Dicha diferencia, conocida principalmente como diversidad, tambi&eacute;n se le  conoce como independencia, dependencia negativa o complementariedad. A pesar de  que no existe una definici&oacute;n formal de lo que es intuitivamente percibido como  diversidad, no al menos en el vocabulario de la Ciencia de la Computaci&oacute;n, es  ampliamente aceptado por la comunidad cient&iacute;fica el hecho de que la existencia  de diversidad en un grupo de clasificadores base es una condici&oacute;n necesaria  para la mejora del desempe&ntilde;o de un ensamblado de clasificadores. Un ensamblado  de clasificadores diversificados conduce a errores no correlacionados, que a su  vez mejoran la precisi&oacute;n de clasificaci&oacute;n (Shulklopert, 2012).  Comprender y cuantificar la diversidad que existe en un ensamblado de  clasificadores es un aspecto importante en la combinaci&oacute;n de clasificadores. En  la literatura existen diferentes medidas usadas para tal prop&oacute;sito, cuyo  objetivo es cuantificar la dependencia existente entre clasificadores distintos,  dichas medidas son conocidas como medidas de diversidad o <em>diversity measures</em>, las cuales se describen por Kuncheva y otros  autores en (Kuncheva and Whitaker, 2003). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Otro aspecto a considerar es el n&uacute;mero de clasificadores base que van a ser  parte del MC: cuanto menor es el n&uacute;mero de clasificadores, m&aacute;s simple es el  sistema. Sin embargo, encontrar el subconjunto m&iacute;nimo de clasificadores que sea  tambi&eacute;n de alto rendimiento en el problema en cuesti&oacute;n, podr&iacute;a ser concebido  como un problema de optimizaci&oacute;n combinatoria con un espacio de b&uacute;squeda  exponencial; esto es debido al hecho de que la cantidad de combinaciones  posibles entre los clasificadores crece a un ritmo bastante r&aacute;pido. Incluso con  un peque&ntilde;o grupo de ellos podr&iacute;amos terminar en un n&uacute;mero muy explosivo de  combinaciones posibles. Por ello, hemos decidido usar la Optimizaci&oacute;n basada en  Colonia de Hormigas (OCH), un algoritmo meta heur&iacute;stico, el cual ha demostrado  ser una alternativa muy viable y robusta para hacer frente a las b&uacute;squedas  complejas y problemas de optimizaci&oacute;n discretos (Bello et al., 2006, N&aacute;poles et al., 2014) ,  gracias a su inspiraci&oacute;n biol&oacute;gica y su naturaleza altamente paralelizado.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por los hechos antes  mencionados, en este trabajo se presenta una nueva formulaci&oacute;n para el  aprendizaje de un MC por medio de la meta-heur&iacute;stica OCH. En particular OCH  ayuda en la selecci&oacute;n de un grupo adecuado de clasificadores base de un gran  n&uacute;mero de alternativas posibles. Adem&aacute;s, se asegura que este grupo posea una  buena diversidad y alcance la m&aacute;s alta precisi&oacute;n posible de la clasificaci&oacute;n  para el problema en cuesti&oacute;n. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este  apartado, se presenta la formulaci&oacute;n de algunas medidas de diversidad  existentes en la literatura para medir cu&aacute;n diverso puede ser un conjunto de  clasificadores, tambi&eacute;n se describe la formulaci&oacute;n de OCH para la generaci&oacute;n  autom&aacute;tica de un MC que garantice la diversidad en el conjunto de soluci&oacute;n, as&iacute;  como la m&aacute;s alta precisi&oacute;n posible en la clasificaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Medidas  de diversidad</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Estas medidas  para cuantificar la diversidad, pueden ser categorizadas en dos tipos: medidas  de pareja (<em>pairwise</em>) y medidas de grupo  (<em>non pairwise</em>). A continuaci&oacute;n,  veremos las medidas por pareja ya que estas son las que contiene mejor  interpretabilidad y una f&aacute;cil formulaci&oacute;n matem&aacute;tica, razones por las cuales  fueron seleccionadas para este trabajo. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las medidas de pareja se calculan por pares de clasificadores usando sus  salidas, las cuales son binarias (1,0) que indica si la instancia fue  correctamente clasificada o no por el clasificador. A continuaci&oacute;n, se indica en  la <a href="#t01">Tabla 1</a> el resultado de dos clasificadores (Ci, Cj) para una instancia en  cuanto a si la clasificaron correctamente o no. El valor de <em>a</em> es igual a 1 si ambos clasificadores  son correctos en la clasificaci&oacute;n, si ambos se equivocan entonces <em>d</em> es igual a 1, mientras que los valores  de <em>b</em> y <em>c </em>solo toman valor 1 en caso de que uno de los clasificadores sea  correcto y el otro no. Para una instancia la suma de estos valores solo puede  ser igual a 1, ya que solo uno de los casos anteriores podr&aacute; ocurrir.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Si se suman entonces los valores de a, b, c y d obtenidos para todas las  instancias entre el par de clasificadores (Ci, Cj) se obtendr&aacute; el resultado  mostrado en la <a href="#t02">Tabla 2</a>, donde A representa la suma de las instancias en que  ambos clasificadores fueron correctos, D es la suma de las instancias donde  ambos se equivocaron, mientras que B y C representan la cantidad de instancias  en las que uno fue correcto y el otro no, a partir de estos valores se calculan  entonces las medidas en forma de pares. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Es decir, A ser&iacute;a igual a la suma total de los valores de <em>a</em> para todas las instancias y as&iacute;  respectivamente con los valores de B, C y D. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La suma total de A, B, C y D entonces es igual a N, que tiene que coincidir  con el n&uacute;mero total de instancias o casos.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0114117.jpg" alt="t01" width="404" height="135"><a name="t01"></a></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0214117.jpg" alt="t02" width="438" height="130"><a name="t02"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un conjunto de L clasificadores produce L*(L-1)/2&nbsp; pares de valores. Para obtener un &uacute;nico  resultado habr&iacute;a que promediar estos valores.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><u>Coeficiente de  correlaci&oacute;n &rho;</u> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El coeficiente de correlaci&oacute;n (Kuncheva, 2004) entre dos clasificadores Ci  y Cj se calcula como:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0114117.jpg" alt="fo01" width="314" height="47"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El valor final de la medida para un conjunto de clasificadores ser&iacute;a el  promedio de los valores asociados a cada combinaci&oacute;n de dos clasificadores que  se extraiga del conjunto. Mientras menor sea el valor de &rho;, mayor ser&aacute; la diversidad. Los valores estar&aacute;n en el intervalo [-1, 1].</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><u>Estad&iacute;stico Q</u></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El estad&iacute;stico Q se calcula de la siguiente forma:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0214117.jpg" alt="fo02" width="210" height="43"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se ha demostrado que &rho; y Q  tienen el mismo signo. Adem&aacute;s, se puede demostrar que &nbsp;|&rho;| &le; |Q|.(Kuncheva and Whitaker, 2003) </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><u>Medida de  desacuerdo</u></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La medida de desacuerdo fue introducida por (Skalak, 1996), es la  m&aacute;s intuitiva de las medidas entre un par de clasificadores, y es igual a la  probabilidad de que los dos clasificadores discrepen en sus predicciones.  Mientras mayor sea su valor mayor ser&aacute; la diversidad.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0314117.jpg" alt="fo03" width="179" height="45"></p>     <p><font size="2"><u><font face="Verdana, Arial, Helvetica, sans-serif">Medida de  Doble Fallo</font></u></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La medida de  doble fallo fue introducida por (Giacinto, 2001) y&nbsp; considera el fallo de los dos clasificadores  al mismo tiempo. En (Ruta, 2001)  definen a esta medida como una medida no-sim&eacute;trica, esto quiere decir que si se  intercambian los unos con los ceros en los resultados de los clasificadores, el  valor de la medida no va a ser el mismo. Esta medida est&aacute; basada en el concepto  de que es m&aacute;s importante conocer cu&aacute;ndo errores simult&aacute;neos son cometidos que  cu&aacute;ndo ambos tienen clasificaci&oacute;n correcta. Mientras menor sea el valor mayor  ser&aacute; la diversidad.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0414117.jpg" alt="fo04" width="188" height="39"></p>     ]]></body>
<body><![CDATA[<p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Optimizaci&oacute;n de Colonia de  Hormigas</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La meta heur&iacute;stica OCH es un  m&eacute;todo de b&uacute;squeda estoc&aacute;stica dise&ntilde;ado originalmente en los problemas de  optimizaci&oacute;n combinatoria; este m&eacute;todo fue inventado por Marco Dorigo y se inspira  en una colonia de hormigas (Escalona et al., 2005). Las hormigas reales en la  naturaleza, buscan los alimentos en la proximidad de su nido al azar. Una vez  que las hormigas han encontrado una fuente de alimento, eval&uacute;an esta fuente de  acuerdo a su calidad y cantidad. En el camino de vuelta al nido, ponen una  sustancia qu&iacute;mica llamada feromona en el suelo con el fin de guiar al resto de  la colonia a la fuente de alimentaci&oacute;n (Dorigo, 2000). Por lo tanto, OCH es un  modelo totalmente constructivo, donde cada hormiga construye gradualmente una  soluci&oacute;n candidata al problema mediante la exploraci&oacute;n de un gr&aacute;fico construido  de una manera paso a paso. M&aacute;s espec&iacute;ficamente, cada hormiga artificial pasa de  un estado (v&eacute;rtice o nodo del gr&aacute;fico) a otro durante el proceso de b&uacute;squeda.  La soluci&oacute;n es entonces una secuencia de movimientos. La preferencia de  movimiento depende de dos valores asociados al enlace (aristas o arcos del gr&aacute;fico)  entre estos dos nodos: La informaci&oacute;n artificial denotada por <img src="/img/revistas/rcci/v11n1/fo0514117.jpg" alt="fo05" width="17" height="15">&nbsp;se basa directamente en los rastros de  feromona de ir del nodo i al nodo j, y las hormigas la actualizan de forma  iterativa durante la ejecuci&oacute;n del algoritmo y la informaci&oacute;n heur&iacute;stica <img src="/img/revistas/rcci/v11n1/fo0614117.jpg" alt="fo06" width="20" height="14">&nbsp;indica la preferencia  heur&iacute;stica de moverse desde el nodo i hasta el nodo j, o sea de  recorrer la arista. Este aspecto espec&iacute;fico del problema del conocimiento a  menudo no se modificar&aacute; durante la ejecuci&oacute;n del algoritmo, por lo que debe ser  estimada cuidadosamente. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En cada paso de construcci&oacute;n,  una hormiga k escoge ir al siguiente nodo con una probabilidad que se calcula  como la ecuaci&oacute;n (5), la cual indica la probabilidad de aceptar el estado j-&eacute;simo,  en la posici&oacute;n i-&eacute;sima del candidato que le corresponde, <img src="/img/revistas/rcci/v11n1/fo0714117.jpg" alt="fo07" width="28" height="24"> es el conjunto de estados no  visitados para la hormiga k-&eacute;sima, mientras que <img src="/img/revistas/rcci/v11n1/fo0814117.jpg" alt="fo08" width="14" height="13"> y <img src="/img/revistas/rcci/v11n1/fo0914117.jpg" alt="fo14" width="14" height="23"> son dos par&aacute;metros que se  utilizan para el control de la influencia ejercida por los rastros de feromona  y la informaci&oacute;n heur&iacute;stica, respectivamente, sobre la probabilidad de  transici&oacute;n.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo1014117.jpg" alt="fo10" width="396" height="65"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una vez  completado el proceso iterativo de construcci&oacute;n de soluci&oacute;n, todos los rastros  de feromona son actualizados utilizando las soluciones construidas por las  hormigas. En la primera etapa de evaporaci&oacute;n de feromonas se lleva a cabo lo  que reduce uniformemente la cantidad de feromona establecida en todos los caminos  por una cierta cantidad. Posteriormente, una o m&aacute;s soluciones se utilizan para  aumentar el valor de feromonas de los caminos incluidos en estas soluciones. El  esquema de actualizaci&oacute;n de feromona es un paso fundamental en cualquier  algoritmo basado en OCH. Esencialmente, las variantes de OCH difieren principalmente  en la estrategia usada para actualizar el rastro de feromona en cada iteraci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Sistema de Hormigas</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El Sistema de Hormigas (SH) fue el primer algoritmo de  OCH propuesto (Morales,  2014). En SH, los rastros de feromona son actualizados una  vez que todas las hormigas han completado sus recorridos. Como un primer paso,  todos los rastros de feromona se evaporan de manera uniforme utilizando un  factor constante <img src="/img/revistas/rcci/v11n1/fo1114117.jpg" alt="fo11" width="75" height="17"> Despu&eacute;s de eso, cada&nbsp; hormiga deposita una cantidad de feromona <img src="/img/revistas/rcci/v11n1/fo1214117.jpg" alt="fo12" width="28" height="22">&nbsp;en las aristas del gr&aacute;fico, que son parte de su  soluci&oacute;n. Se debe mencionar que el valor <img src="/img/revistas/rcci/v11n1/fo1214117.jpg" alt="fo12" width="28" height="22">&nbsp;se calcula de acuerdo con la calidad de la soluci&oacute;n  encontrada por la k-&eacute;sima hormiga. La siguiente ecuaci&oacute;n resume los dos pasos, donde &rho;&nbsp;indica la tasa de evaporaci&oacute;n, mientras que P es el  n&uacute;mero de hormigas en la colonia. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo1314117.jpg" alt="fo13" width="378" height="37"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los caminos  (aristas) que no son elegidos peri&oacute;dicamente por las hormigas, los niveles de  feromonas asociados disminuir&aacute;n gradualmente con el n&uacute;mero de iteraciones, mientras  que los caminos a menudo seleccionados por las hormigas ver&aacute;n su nivel de  feromona reforzado, por lo tanto, haci&eacute;ndolos m&aacute;s propensos a ser seleccionados  en futuras iteraciones. Sin embargo, las simulaciones m&aacute;s completas reportadas  en (Cisneros Matos, 2007) describen que  los mejores resultados se podr&iacute;an lograr si s&oacute;lo se utiliza la mejor soluci&oacute;n  global para la actualizaci&oacute;n de los rastros de feromona en lugar de utilizar  todas las hormigas en la colonia. Observe que la acumulaci&oacute;n ilimitada de  feromona en los caminos m&aacute;s prometedores puede producir un estancamiento en la  b&uacute;squeda.</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Sistema de Colonia de Hormigas</font></strong></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sistema de Colonia de Hormigas (SCH) se dise&ntilde;&oacute;  para mejorar el m&eacute;todo SH explotando las mejores soluciones globales  encontradas por las hormigas durante la etapa de b&uacute;squeda (Machado Tugores, 2013). Como resultado  de ello, el algoritmo mejora las caracter&iacute;sticas de explotaci&oacute;n de las hormigas  cuando construyen una soluci&oacute;n en vez de explorar nuevas &aacute;reas del espacio de  soluciones. Este objetivo se logra a trav&eacute;s de tres mecanismos: (1) una fuerte  estrategia elitista para la actualizaci&oacute;n de rastros de feromonas; (2) una  regla para la actualizaci&oacute;n de rastros de feromona durante la fase de b&uacute;squeda,  y (3) una regla de probabilidad de transici&oacute;n pseudo-aleatoria. La ecuaci&oacute;n (7)  formaliza la estrategia para la actualizaci&oacute;n de los rastros de feromona, donde <img src="/img/revistas/rcci/v11n1/fo1414117.jpg" alt="fo14" width="20" height="25">&nbsp;indica la cantidad de feromona asociada con  la hormiga que tiene el mejor valor heur&iacute;stico. Esto significa que la etapa de  evaporaci&oacute;n se lleva a cabo en todos los caminos (aristas), como en SH, pero el  proceso de actualizaci&oacute;n s&oacute;lo se produce en el camino descubierto por el mejor  individuo.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo1514117.jpg" alt="fo15" width="347" height="33"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con el fin de aprovechar  plenamente el mejor conocimiento provocado por las hormigas en su viaje, SCH  tambi&eacute;n introduce una regla proporcional pseudo-aleatoria (v&eacute;ase la ecuaci&oacute;n (8)).  M&aacute;s espec&iacute;ficamente, una decisi&oacute;n aleatoria se hace con probabilidad q0 &nbsp;para moverse al nodo que contenga el&nbsp; producto m&aacute;ximo de rastros de feromona y la  informaci&oacute;n heur&iacute;stica; de lo contrario SCH adoptar&aacute; la regla de decisi&oacute;n  est&aacute;ndar ofrecida por SH. El valor q0 es un par&aacute;metro que debe ser  fijado por el experto a priori; cuando se aproxima a 1, la explotaci&oacute;n se ve  favorecida por la exploraci&oacute;n.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo1614117.jpg" alt="fo16" width="385" height="57"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por &uacute;ltimo, en el modelo SCH, las  hormigas utilizan una regla adicional para la actualizaci&oacute;n de los rastros de  feromonas cuando est&aacute;n construyendo la soluci&oacute;n candidata, como se muestra en  la ecuaci&oacute;n (9). Este enfoque tiene el mismo efecto de disminuir la  probabilidad de seleccionar la misma ruta de acceso para todas las hormigas;  Por lo tanto, combate el problema de estancamiento presente en SH, dado que introduce  un equilibrio entre la explotaci&oacute;n y la exploraci&oacute;n.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo1714117.jpg" alt="fo17" width="355" height="34"></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Sistema de Hormigas MAX-MIN</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El Sistema de Hormigas MAX-MIN (SHMM) fue desarrollado  espec&iacute;ficamente para promover una explotaci&oacute;n m&aacute;s fuerte de las soluciones y  por lo tanto evitar caer en un estado de estancamiento (Machado Tugores, 2013). En pocas palabras, podr&iacute;amos definir un estado de  estancamiento como la situaci&oacute;n en la que las hormigas construyen la misma  soluci&oacute;n una y otra vez y, finalmente, la exploraci&oacute;n se detiene. Este modelo  tiene las siguientes caracter&iacute;sticas: Igualmente a SCH, una fuerte estrategia  elitista regula el agente autorizado a actualizar los rastros de feromona.  Podr&iacute;a ser la hormiga que tiene la mejor soluci&oacute;n hasta el momento, o el que  tiene la mejor soluci&oacute;n en la iteraci&oacute;n actual. En segundo lugar, todos los  rastros de feromona se limitan al rango <img src="/img/revistas/rcci/v11n1/fo1814117.jpg" alt="fo18" width="197" height="22"> para todos los componentes de  la soluci&oacute;n, entonces la probabilidad de la selecci&oacute;n de un estado espec&iacute;fico  nunca ser&aacute; cero, lo que evita configuraciones de estancamiento. Como punto  final, rastros de feromona se inicializan con <img src="/img/revistas/rcci/v11n1/fo1914117.jpg" alt="fo19" width="70" height="19"> para garantizar una mayor exploraci&oacute;n  del espacio de b&uacute;squeda en el comienzo de la fase de optimizaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las tres variantes de OCH descritas  anteriormente fueron tenidas en cuenta para nuestro problema. </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Construcci&oacute;n  de un multi-clasificador con OCH</font></strong></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A continuaci&oacute;n, se aborda el problema de  la construcci&oacute;n de un MC &quot;&oacute;ptimo&quot; mediante el uso de la  meta-heur&iacute;stica OCH. Aqu&iacute;, el criterio de optimalidad se refiere a la precisi&oacute;n  del sistema final y al n&uacute;mero de clasificadores base seleccionados. Ciertamente,  no podemos asegurar que nuestra propuesta ser&aacute; siempre encontrar el &oacute;ptimo  global porque el optimizador seleccionado (OCH) puede converger a una soluci&oacute;n  sub-&oacute;ptima. Sin embargo, hemos adoptado esta meta-heur&iacute;stica ya que es capaz de  encontrar soluciones casi &oacute;ptimas en un tiempo de ejecuci&oacute;n razonablemente  corto, sin imponer ningunas limitaciones sobre la funci&oacute;n objetivo (por  ejemplo, la continuidad, diferenciabilidad, convexidad o informaci&oacute;n gradiente)  que rara vez se conocen de antemano.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Supongamos una familia de  clasificadores <img src="/img/revistas/rcci/v11n1/fo2014117.jpg" alt="fo20" width="176" height="23">donde cada clasificador tiene  un error de clasificaci&oacute;n asociado <img src="/img/revistas/rcci/v11n1/fo2114117.jpg" alt="fo21" width="61" height="23"> donde <img src="/img/revistas/rcci/v11n1/fo2214117.jpg" alt="fo22" width="14" height="20"> indica la clasificaci&oacute;n del problema  a resolver. La cuesti&oacute;n de la construcci&oacute;n de un MC M consiste en encontrar un  subconjunto de estos clasificadores <img src="/img/revistas/rcci/v11n1/fo2314117.jpg" alt="fo23" width="60" height="17">con la diversidad m&aacute;xima de  tal manera que <img src="/img/revistas/rcci/v11n1/fo2414117.jpg" alt="fo24" width="56" height="25"> tienda al error m&iacute;nimo. Note  que <img src="/img/revistas/rcci/v11n1/fo2514117.jpg" alt="fo25" width="32" height="23"> necesariamente debe ser  estrictamente menor que <img src="/img/revistas/rcci/v11n1/fo2614117.jpg" alt="fo26" width="32" height="23"> , de lo contrario la soluci&oacute;n  ser&aacute; el trivial (por ejemplo, todos los clasificadores individuales se incluyen  en el conjunto). Por otra parte, el modelo tiene que cumplir con otro  obst&aacute;culo: <img src="/img/revistas/rcci/v11n1/fo2714117.jpg" alt="fo27" width="346" height="24"> est&aacute; el mejor clasificador  incluido en el conjunto. Esta restricci&oacute;n asegura que el conjunto mejora el  rendimiento de la clasificaci&oacute;n sobre cualquiera de sus esquemas de  clasificaci&oacute;n constituyentes.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Desde el punto de vista de la  optimizaci&oacute;n, las soluciones candidatas para nuestro problema pueden ser  codificados como un vector binario en el que el estado &quot;1&quot; en la i-&eacute;sima  dimensi&oacute;n significa que el clasificador <img src="/img/revistas/rcci/v11n1/fo2814117.jpg" alt="fo28" width="19" height="19">&nbsp;se incluir&aacute; en el conjunto, mientras que el estado  &quot;0&quot; indica que <img src="/img/revistas/rcci/v11n1/fo2814117.jpg" alt="fo28" width="19" height="19"> no ser&aacute; ser incluido en M. Por lo tanto, el modelo  propuesto <img src="/img/revistas/rcci/v11n1/fo2914117.jpg" alt="fo29" width="24" height="29"> representa la probabilidad de  asignar el estado <img src="/img/revistas/rcci/v11n1/fo3014117.jpg" alt="fo30" width="75" height="24"> a la i-&eacute;sima dimensi&oacute;n (es  decir, la probabilidad de incluir el clasificador i-&eacute;simo). La ecuaci&oacute;n (10) da  a conocer la funci&oacute;n objetivo que debe minimizarse durante el proceso de  b&uacute;squeda llevado a cabo por OCH, donde X &nbsp;es la soluci&oacute;n candidata, Mx denota el conjunto calculado a  partir de X y <img src="/img/revistas/rcci/v11n1/fo3114117.jpg" alt="fo31" width="64" height="24"> denota su error de  clasificaci&oacute;n. En esta formulaci&oacute;n, un factor <img src="/img/revistas/rcci/v11n1/fo3214117.jpg" alt="fo32" width="64" height="18"> se introduce con  el fin de controlar la relevancia que el experto otorga a la precisi&oacute;n del  sistema con respecto a la cardinalidad del conjunto, es decir, el n&uacute;mero de clasificadores  seleccionados.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo3314117.jpg" alt="fo33" width="451" height="31"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Durante el proceso de  b&uacute;squeda, las soluciones que tienen una tasa de error mayor que la tasa de  error asociada al mejor clasificador incluido en el conjunto (es decir, <img src="/img/revistas/rcci/v11n1/fo3414117.jpg" alt="fo34" width="145" height="25"> deben ser penalizadas por un  factor positivo. Adem&aacute;s, dos soluciones no factibles pueden inducir errores  diferentes, y por lo tanto la estrategia de penalizaci&oacute;n debe considerar este  hecho cuando se adapte la funci&oacute;n objetivo F(X). Por ejemplo, consideremos dos  soluciones diferentes</font> <img src="/img/revistas/rcci/v11n1/fo3514117.jpg" alt="fo35" width="310" height="25"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">que codifican los <img src="/img/revistas/rcci/v11n1/fo3614117.jpg" alt="fo36" width="83" height="25"> conjuntos, respectivamente. Si  los errores inducidos <img src="/img/revistas/rcci/v11n1/fo3714117.jpg" alt="fo37" width="422" height="25"> son mayores que cero, entonces X1 y X2 son ambos considerados no  factible. Sin embargo, es poco probable que E1 - E2 = 0. Esto sugiere que no debemos  penalizar a ambas soluciones con el mismo valor positivo; en cambio, debemos  penalizar a cada soluci&oacute;n en funci&oacute;n de su error <img src="/img/revistas/rcci/v11n1/fo3814117.jpg" alt="fo38" width="95" height="24"> En este trabajo, hacemos uso  de una funci&oacute;n de penalizaci&oacute;n din&aacute;mica P(X) &nbsp;que tiene en cuenta el error inducido como sigue:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo3914117.jpg" alt="fo39" width="398" height="66"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Otro aspecto que hay que  considerar cuando se resuelve un problema de optimizaci&oacute;n combinatorio mediante  cualquier algoritmo de OCH es la estimaci&oacute;n de la informaci&oacute;n heur&iacute;stica. Este  componente permite mejorar la b&uacute;squeda, incluso en grandes espacios de  b&uacute;squeda, ya que corresponde a los conocimientos espec&iacute;ficos del problema la  incorporaci&oacute;n de la regla de probabilidad de transici&oacute;n de estado. Como se  mencion&oacute; en la introducci&oacute;n los clasificadores que inducen gran diversidad  tienden a mejorar el rendimiento del conjunto global, incluso cuando no son los  m&aacute;s precisos. La ecuaci&oacute;n (12) formaliza este razonamiento al estimar la matriz  heur&iacute;stica <img src="/img/revistas/rcci/v11n1/fo4014117.jpg" alt="fo40" width="45" height="19"> donde D epresenta la diversidad del conjunto  en consideraci&oacute;n, <img src="/img/revistas/rcci/v11n1/fo4114117.jpg" alt="fo41" width="55" height="26"> se refiere a la familia de los  clasificadores base y el &iacute;ndice j indica el estado del clasificador  i-&eacute;simo (0 = excluido, 1 = incluido) en el conjunto.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo4214117.jpg" alt="fo42" width="344" height="54"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Es importante recordar que la diversidad  anterior se calcula usando las medidas de diversidad enunciadas en el primer  ep&iacute;grafe.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para validar emp&iacute;ricamente la metodolog&iacute;a propuesta en este estudio se dise&ntilde;aron  varios experimentos para conocer el comportamiento de nuestro MC construido  basado en OCH. El MC fue generado usando el mecanismo de <em>Vote</em> el cual permite la combinaci&oacute;n de distintos tipos de modelos  bases, los cuales fueron tomados de la herramienta WEKA, en donde tienen los  siguientes nombres: &Aacute;rbol de decisi&oacute;n alternativo <em>ADTree</em>, <em>J48</em>, <em>Logistic function</em>, <em>K-Nearest Neighbor</em>, <em>Na&iuml;ve  Bayes</em> y <em>Multi-Layer Perceptron</em> (MLP). Dos estrategias fueron consideradas para combinar las salidas de los  clasificadores bases: promedio y voto mayoritario. Todos los experimentos  fueron realizados con la siguiente configuraci&oacute;n para la meta-heur&iacute;stica OCH:  50 iteraciones, constante de evaporaci&oacute;n &rho; = 0.9; ACS&rsquo; phi = 0.9 y q0  = 0.7. El conjunto de datos fue dividido en dos grupos, 66% de las instancias  para entrenar y el resto para evaluaci&oacute;n. Se usaron 10 bases de datos del  Repositorio de Aprendizaje Autom&aacute;tico de la Universidad de California Irvine (en  ingl&eacute;s UCI MLR), ver <a href="#t03">Tabla 3</a>.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0314117.jpg" alt="t03" width="570" height="289"><a name="t03"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los experimentos estuvieron encaminados a identificar cu&aacute;les de las  variantes modeladas de OCH obtiene los mejores resultados. Se crearon dos  grupos basados en la cantidad de clasificadores en los conjuntos de soluci&oacute;n, grupo  1: contiene aquellas soluciones que tienen 2 o 3 clasificadores y el grupo 2: contiene  aquellas soluciones con una cantidad de clasificadores mayor a 3. Se define el  primer grupo con soluciones que incluyen solo hasta 3 clasificadores, siendo  dicha cantidad un umbral emp&iacute;rico establecido en los experimentos, debido a que  el n&uacute;mero m&aacute;ximo de clasificadores incluidos en las soluciones es 6, por lo  tanto pensamos que las combinaciones menos complejas eran aquellas que solo  inclu&iacute;an pocos clasificadores, siendo estas aquellas que tienen la cantidad  m&iacute;nima posible (2) y 3.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">De esta manera el grupo 1  representa las soluciones obtenidas con menor cantidad de clasificadores y por  tanto las soluciones menos complejas, mientras que el grupo 2 representa las m&aacute;s  complejas, en funci&oacute;n por supuesto de la cantidad de clasificadores incluidos  en el MC. Luego se aplic&oacute; la prueba estad&iacute;stica Chi-cuadrado, la cual revel&oacute; la  existencia de diferencias significativas entre las variantes. Como se puede  observar en la <a href="#t04">Tabla 4</a> la variante SHMM muestra la mayor cantidad de casos en  el primer grupo, es decir, las soluciones que menor n&uacute;mero de clasificadores  tienen se encuentran usando esta variante. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0414117.jpg" alt="t04" width="535" height="135"><a name="t04"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Adicionalmente se aplic&oacute; la prueba de Kruskal-Wallis para determinar la  variante que ofrece los mejores resultados en cuanto a la exactitud de la clasificaci&oacute;n.  Esta prueba revel&oacute; que no exist&iacute;an diferencias significativas, lo cual se  muestra en la <a href="#t05">Tabla 5</a>, aunque se puede observar en ella que el valor m&aacute;s alto  en el rango promedio de los valores obtenidos se alcanza con la variante SHMM.  Por tanto, se sugiere el uso de esta variante por los resultados obtenidos.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0514117.jpg" alt="t05" width="540" height="151"><a name="t05"></a></p>     <p><strong><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Interacci&oacute;n de prote&iacute;nas en la <em>Arabidopsis thaliana</em></font></strong></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El problema consiste en predecir interacciones de prote&iacute;nas en una base de  datos de <em>Arabidopsis thaliana</em>, la  base se obtuvo en el Departamento de Biolog&iacute;a de Sistemas de Plantas del  Instituto de Biotecnolog&iacute;a (VIB) en B&eacute;lgica. Dicha base contiene informaci&oacute;n  relevante de las interacciones de prote&iacute;nas de la <em>Arabidopsis thaliana</em>: atributos de dominios conservados, valores de  expresi&oacute;n para calcular coeficientes de correlaci&oacute;n Pearson, informaci&oacute;n de  anotaciones de genes ont&oacute;logos, grupos ort&oacute;logos, entre otros. El conjunto de  datos consta de 4314 pares de prote&iacute;nas, 1438 son ejemplos de verdaderas  interacciones y 2876 son ejemplos negativos (o al menos dudosos). Los  resultados reportados anteriormente demuestran que identificar simult&aacute;neamente  ejemplos positivos y negativos resulta dif&iacute;cil, pues es raro encontrar reportes  de pares de prote&iacute;nas que no interact&uacute;an, especialmente a gran escala y los  casos negativos para el aprendizaje no son del todo seguros.&nbsp; Se seleccionaron en total 11 rasgos, m&aacute;s la  variable especial denominada clase, la cual identifica si hay o no una  interacci&oacute;n de prote&iacute;na. Los clasificadores bases fueron los mismos mencionados  en el experimento, as&iacute; como la misma configuraci&oacute;n para la meta-heur&iacute;stica,  usando ahora solo la variante SHMM la cual arroj&oacute; los mejores resultados, la medida  de diversidad usada fue Doble-Fallo. El mejor clasificador individual present&oacute;  una exactitud igual a 0.82 en el caso de J48, a continuaci&oacute;n se muestra en la  <a href="#t06">Tabla 6</a> la soluci&oacute;n obtenida con su exactitud y diversidad correspondiente, las  posiciones con &ldquo;1&rdquo; en la soluci&oacute;n corresponden con los clasificadores incluidos  en el conjunto, en este caso: <em>Logistic  function</em>, J48 y MLP. La posici&oacute;n se&ntilde;alada en rojo corresponde con la del  mejor clasificador individual lo cual significa que est&aacute; incluido en la  soluci&oacute;n del MC.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v11n1/t0614117.jpg" alt="t06" width="487" height="94"><a name="t06"></a></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este trabajo se describe c&oacute;mo construir un MC usando la meta-heur&iacute;stica  OCH. En particular tres populares variantes de ella han sido tenidas en cuenta.  Se describe la funci&oacute;n objetivo y la funci&oacute;n heur&iacute;stica usada, la cual tiene en  cuenta la diversidad del conjunto seg&uacute;n las medidas de diversidad. Los  experimentos confirman que los mejores resultados se obtienen con la variante  SHMM, garantiz&aacute;ndose la existencia de diversidad en el conjunto de  clasificadores y los mejores grados de clasificaci&oacute;n posible. Luego se muestra  una aplicaci&oacute;n real para probar el desempe&ntilde;o del MC para predecir la  interacci&oacute;n de prote&iacute;nas en la <em>Arabidopsis  thaliana</em>, donde la exactitud del mejor clasificador individual es superada  en 4% por el MC.</font> </p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <!-- ref --><p><font size="2"><a><font face="Verdana, Arial, Helvetica, sans-serif">BELLO, R., PURIS,  A., NOWE, A., MART&Iacute;NEZ, Y. &amp; GARC&Iacute;A, M. M. Two step ant colony system to  solve the feature selection problem.&nbsp;  Iberoamerican Congress on Pattern Recognition, 2006. Springer, 588-596.    </font></a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BONET, I., MONTERO,  P. ,&nbsp;&nbsp; RIVERO, V., TEIJEIRA, M.,&nbsp; BORGES, F.,&nbsp;&nbsp;  URIARTE, E. 2013. Classifier Ensemble Based on Feature Selection and  Diversity Measures for Predicting the Affinity of A(2B) Adenosine Receptor  Antagonists. <em>Journal of Chemical  Information and Modeling,</em> 53 (12).</a> </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BREIMAN, L. 1996. <em>Bagging predictors.</em> <em>Machine Learning</em><strong>,</strong> 24<strong>,</strong> 123-140.    </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>CISNEROS MATOS, C.  A. 2007. <em>Selecci&oacute;n/identificaci&oacute;n  asistida por computadora de nuevos compuestos l&iacute;deres con actividad  anti-inflamatoria.</em>, Universidas Central &ldquo;Marta Abreu&rdquo; de las Villas.</a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>DIETTERICH, T. G.  Ensemble methods in machine learning.&nbsp;  Proceedings of the First International Workshop on Multiple Classifier  Systems, 2000 London, United Kingdom. 1-15.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>DORIGO, M.,  BONABEAU, E., THERAULAZ, G. 2000. Ant algorithms and stigmergy. <em>Future Generation Computer Systems.,</em> 16<strong>,</strong> 851--871.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>ESCALONA, J. C.,  CARRASCO, R. &amp; PADR&Oacute;N, J. A. 2005. Introducci&oacute;n al dise&ntilde;o de F&aacute;rmacos </a> </font><!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>GIACINTO, G., ROLI,  F. 2001. Design of effective neural network ensembles for image classification  purposes. <em>Image vision and computing  journal,</em> 19<strong>,</strong> 699-707.    </a> </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>KUNCHEVA, L. I.  2004. Diversity in Classifier Ensembles. <em>Combining  Pattern Classifiers: Methods and Algorithms.</em> New Jersey: John Wiley &amp;  Sons, Inc.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>KUNCHEVA, L. I.  &amp; WHITAKER, C. J. 2003. Measures of diversity in classifier ensembles and  their relationship with the ensemble accuracy. <em>Machine Learning,</em> 51<strong>,</strong> 181-207.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>MACHADO TUGORES, Y.  2013. <em>Tamizaje farmacol&oacute;gico en la  b&uacute;squeda de potenciales f&aacute;rmacos antimal&aacute;ricos integrando nuevos modelos in  silico y corroboraci&oacute;n experimental.</em>, Universidad Complutense de Madrid.    </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>MORALES, A. 2014. <em>Construcci&oacute;n de sistemas multiclasificadores  usando Algoritmos Gen&eacute;ticos y medidas de diversidad.</em> Universidad Central  &ldquo;Marta Abreu&rdquo; de Las Villas.</a></font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>N&Aacute;POLES, G., GRAU,  I., BELLO, R. &amp; GRAU, R. 2014. Two-steps learning of Fuzzy Cognitive Maps  for prediction and knowledge discovery on the HIV-1 drug resistance. <em>Expert Systems with Applications,</em> 41<strong>,</strong> 821-830.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>POLIKAR, R. 2006.  Ensemble based systems in decision making. <em>Circuits  and Systems Magazine, IEEE,</em> 6<strong>,</strong> 21-45.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>RUTA, D., GABRYS, B.  2001. <em>Analysis of the Correlation Between  Majority Voting Error and the Diversity</em>.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>SCHAPIRE, R. E.  1990. <em>The strength of weak learnability</em>. <em>Machine Learning,</em> 5<strong>,</strong> 197-227.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>SHULKLOPERT, J. R.,  DUVAL, M.,&nbsp; VEGA, S., 2012. Combinacion  de clasificadores supervisados: estado del arte. <em>Reconociemiento de patrones,</em> RNPS No 2142.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>SKALAK, D. B. The  sources of increased accuracy for two proposed Boosting algorithms.&nbsp; Proc. American Association for Arti  Intelligence, AAAI-96, Integrating Multiple Learned Models Workshop, 1996.  120-125.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>WITTEN, I., FRANK,  E. 2005. <em>Data Mining: Practical Machine  Learning Tools and Techniques</em>.<em> San  Francisco, Diane Cerra.    </em></a></font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>WOLPERT, D. 1992. <em>Stacked generalization.</em> <em>Neural Networks</em><strong>,</strong> 5<strong>,</strong> 241-259.    </a></font></p>     <p name="_ENREF_1">&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 25/08/2016    <br> Aceptado: 02/11/2016</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[PURIS]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[NOWE]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[MARTÍNEZ]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[M. M]]></given-names>
</name>
</person-group>
<source><![CDATA[Two step ant colony system to solve the feature selection problem]]></source>
<year>2006</year>
<page-range>588-596</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BONET]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[MONTERO]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[RIVERO]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[TEIJEIRA]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[BORGES]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[URIARTE]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Classifier Ensemble Based on Feature Selection and Diversity Measures for Predicting the Affinity of A(2B)]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>53</volume>
<numero>12</numero>
<issue>12</issue>
<publisher-name><![CDATA[Journal of Chemical Information and Modeling]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BREIMAN]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Bagging predictors]]></source>
<year>1996</year>
<volume>24</volume>
<page-range>123-140</page-range><publisher-name><![CDATA[Machine Learning]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CISNEROS MATOS]]></surname>
<given-names><![CDATA[C. A]]></given-names>
</name>
</person-group>
<source><![CDATA[Selección/identificación asistida por computadora de nuevos compuestos líderes con actividad anti-inflamatoria.]]></source>
<year>2007</year>
<publisher-name><![CDATA[Universidas Central Marta Abreu de las Villas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DIETTERICH]]></surname>
<given-names><![CDATA[T. G]]></given-names>
</name>
</person-group>
<source><![CDATA[Ensemble methods in machine learning]]></source>
<year>2000</year>
<page-range>1-15</page-range><publisher-loc><![CDATA[^eLondon London]]></publisher-loc>
<publisher-name><![CDATA[United Kingdom]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DORIGO]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[BONABEAU]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[THERAULAZ]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[Ant algorithms and stigmergy]]></source>
<year>2000</year>
<volume>16</volume><volume>851--871</volume>
<publisher-name><![CDATA[Future Generation Computer Systems]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ESCALONA]]></surname>
<given-names><![CDATA[J. C]]></given-names>
</name>
<name>
<surname><![CDATA[CARRASCO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[PADRÓN]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
</person-group>
<source><![CDATA[Introducción al diseño de Fármacos]]></source>
<year>2005</year>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GIACINTO]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[ROLI]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Design of effective neural network ensembles for image classification purposes]]></source>
<year>2001</year>
<volume>19</volume>
<page-range>699-707</page-range><publisher-name><![CDATA[Image vision and computing journal]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KUNCHEVA]]></surname>
<given-names><![CDATA[L. I]]></given-names>
</name>
</person-group>
<source><![CDATA[Diversity in Classifier Ensembles]]></source>
<year>2004</year>
<publisher-loc><![CDATA[^eNew Jersey New Jersey]]></publisher-loc>
<publisher-name><![CDATA[John Wiley & Sons, Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KUNCHEVA]]></surname>
<given-names><![CDATA[L. I]]></given-names>
</name>
<name>
<surname><![CDATA[WHITAKER]]></surname>
<given-names><![CDATA[C. J]]></given-names>
</name>
</person-group>
<source><![CDATA[Measures of diversity in classifier ensembles and their relationship with the ensemble accuracy]]></source>
<year>2003</year>
<volume>51</volume>
<page-range>181-207</page-range><publisher-name><![CDATA[Machine Learning]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MACHADO TUGORES]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[Tamizaje farmacológico en la búsqueda de potenciales fármacos antimaláricos integrando nuevos modelos in silico y corroboración experimental]]></source>
<year>2013</year>
<publisher-name><![CDATA[Universidad Complutense de Madrid]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MORALES]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Construcción de sistemas multiclasificadores usando Algoritmos Genéticos y medidas de diversidad.]]></source>
<year>2014</year>
<publisher-name><![CDATA[Universidad Central Marta Abreu de Las Villas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NÁPOLES]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[GRAU]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[GRAU]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Two-steps learning of Fuzzy Cognitive Maps for prediction and knowledge discovery on the HIV-1 drug resistance]]></source>
<year>2014</year>
<volume>41</volume>
<page-range>821-830</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[POLIKAR]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Ensemble based systems in decision making]]></source>
<year>2006</year>
<volume>6</volume>
<page-range>21-45</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RUTA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[GABRYS]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[Analysis of the Correlation Between Majority Voting Error and the Diversity]]></source>
<year>2001</year>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SCHAPIRE]]></surname>
<given-names><![CDATA[R. E]]></given-names>
</name>
</person-group>
<source><![CDATA[The strength of weak learnability]]></source>
<year>1990</year>
<volume>5</volume><volume>197-227</volume>
<publisher-name><![CDATA[Machine Learning]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SHULKLOPERT]]></surname>
<given-names><![CDATA[J. R]]></given-names>
</name>
<name>
<surname><![CDATA[DUVAL]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[VEGA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Combinacion de clasificadores supervisados: estado del arte]]></source>
<year>2012</year>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SKALAK]]></surname>
<given-names><![CDATA[D. B]]></given-names>
</name>
</person-group>
<source><![CDATA[The sources of increased accuracy for two proposed Boosting algorithms]]></source>
<year>1996</year>
<page-range>120-125</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WITTEN]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[FRANK]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<source><![CDATA[Data Mining: Practical Machine Learning Tools and Techniques]]></source>
<year>2005</year>
<publisher-loc><![CDATA[^eSan Francisco San Francisco]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WOLPERT]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Stacked generalization]]></source>
<year>1992</year>
<volume>5</volume>
<page-range>241-259</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
