<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992018000500004</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Evaluación del algoritmo AR-NSGEP en colecciones de datos desbalanceadas.]]></article-title>
<article-title xml:lang="en"><![CDATA[Evaluation of the AR-NSGEP algorithm in unbalanced datasets.]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Guerrero Enamorado]]></surname>
<given-names><![CDATA[Alain]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Morell]]></surname>
<given-names><![CDATA[Carlos]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ventura]]></surname>
<given-names><![CDATA[Sebastián]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de las Ciencias Informáticas (UCI)  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Central Marta Abreu de las Villas (UCLV)  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad de Córdoba (UCO)  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2018</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2018</year>
</pub-date>
<volume>12</volume>
<fpage>42</fpage>
<lpage>57</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992018000500004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992018000500004&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992018000500004&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Uno de los grandes problemas que tiene la minería de datos es la existencia del desbalance. Este fenómeno puede afectar gravemente la efectividad de los sistemas de clasificación. Este trabajo persigue como objetivo fundamental obtener información empírica del desempeño del algoritmo AR-NSGEP en colecciones de datos no-balanceados. Se evaluá dicho algoritmo en colecciones de datos con diferentes niveles de desbalance. Se utilizaron colecciones con razones de desbalance entre 1,5 y 40. Durante la etapa de evaluación se utilizaron técnicas de validación cruzada y pruebas estadísticas no-paramétricas para consolidar los resultados obtenidos. La evaluación se realizó con tres métricas muy utilizadas para medir el desempeño en Sistemas Clasificadores con Aprendizaje. Los resultados obtenidos muestran la competitividad del algoritmo AR-NSGEP en colecciones de datos no-balanceados.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[One of the biggest problems with data mining is the existence of imbalance. This phenomenon can seriously affect the effectiveness of classification systems. The main objective of this work is to obtain empirical information of the performance of the AR-NSGEP algorithm in unbalanced datasets. This algorithm is evaluated in datasets with different levels of imbalance. Were used datasets with an unbalance rate between 1,5 and 40. During the evaluation stage, cross-validation techniques and non-parametric statistical tests were used to consolidate the results obtained. The evaluation was carried out with three metrics widely used to measure the performance in Learning Classifier Systems. The obtained results show the competitiveness of the AR-NSGEP algorithm in unbalanced data collections.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Sistemas Clasificadores con Aprendizaje]]></kwd>
<kwd lng="es"><![CDATA[Desbalance]]></kwd>
<kwd lng="es"><![CDATA[Clasificación]]></kwd>
<kwd lng="en"><![CDATA[Learning Classifier Systems]]></kwd>
<kwd lng="en"><![CDATA[Unbalance]]></kwd>
<kwd lng="en"><![CDATA[Classification]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">E</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>valuaci&oacute;n&nbsp;del algoritmo &nbsp;AR-NSGEP en colecciones de  datos</strong> <strong>desbalanceadas.</strong></font></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><em><font face="Verdana, Arial, Helvetica, sans-serif">Evaluation </font></em></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><em>of &nbsp;the AR-NSGEP  algorithm &nbsp;in &nbsp;unbalanced &nbsp;datasets</em></strong><strong>.</strong></font></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Alain &nbsp;Guerrero &nbsp;Enamorado<strong><sup>1</sup><strong><sup>*</sup></strong></strong>, Carlos Morell<strong><sup>2</sup></strong>, Sebasti&aacute;n Ventura<sup>3</sup></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Universidad de las Ciencias Inform&aacute;ticas (UCI), Cuba    <br>     <sup>2</sup>Universidad Central &ldquo;Marta &nbsp;Abreu&rdquo;de las Villas (UCLV),  &nbsp;Cuba    ]]></body>
<body><![CDATA[<br>     <sup>3</sup>Universidad de C&oacute;rdoba (UCO), Espa&ntilde;a</font>    <br> </p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> alaing@uci.cu</font></p>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Uno de los grandes problemas que tiene la miner&iacute;a de  datos es la existencia del desbalance. Este fen&oacute;meno puede afectar gravemente la efectividad de los sistemas de clasificaci&oacute;n. Este trabajo persigue como objetivo fundamental obtener informaci&oacute;n emp&iacute;rica del desempe&ntilde;o del algoritmo  AR-NSGEP en colecciones de  datos no-balanceados.  &nbsp;Se evalu&aacute; &nbsp;dicho algoritmo en colecciones de datos con diferentes niveles de desbalance. &nbsp;Se utilizaron colecciones  con razones de desbalance entre 1<em>,</em>5 y 40. Durante la etapa de evaluaci&oacute;n se utilizaron t&eacute;cnicas de validaci&oacute;n cruzada y pruebas estad&iacute;sticas no-param&eacute;tricas  para consolidar los resultados obtenidos. La evaluaci&oacute;n se realiz&oacute; con tres m&eacute;tricas muy utilizadas para medir el desempe&ntilde;o en Sistemas Clasificadores con Aprendizaje. Los resultados obtenidos muestran la competitividad  del  algoritmo AR-NSGEP en colecciones de datos no-balanceados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sistemas Clasificadores con Aprendizaje, Desbalance, Clasificaci&oacute;n</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">One of the biggest problems  &nbsp;with data mining is the existence of imbalance. This phenomenon can seriously  affect the  effectiveness of classification systems. The main objective of  this work is to obtain empirical information of the performance of the AR-NSGEP algorithm  in unbalanced datasets. This algorithm is evaluated  in datasets with different levels of imbalance. &nbsp;Were&nbsp;  used datasets with an unbalance rate between 1,5 and  40.  During the evaluation stage, cross-validation  &nbsp;techniques  and non-parametric statistical tests were used to  consolidate the results  obtained. The evaluation was carried out with three &nbsp;metrics widely used to measure the  performance in Learning Classifier Systems. The  obtained results show the competitiveness of  the AR-NSGEP  algorithm in unbalanced data collections. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>Learning Classifier Systems, Unbalance, Classification </font></p> <hr>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las Tecnolog&iacute;as &nbsp;de la Informaci&oacute;n &nbsp;y las Comunicaciones juegan un papel protag&oacute;nico &nbsp;en la digitalizaci&oacute;n  de grandes vol&uacute;menes &nbsp;de datos. La extracci&oacute;n &nbsp;autom&aacute;tica &nbsp;de informaci&oacute;n comprensible y &uacute;til &nbsp;desde &nbsp;esta avalancha de datos es de  gran importancia para muchos dominios de aplicaci&oacute;n. Una de las maneras que  han sido desarrolladas para minar  estos  datos son las t&eacute;cnicas de Aprendizaje Autom&aacute;tico (AA). El AA (Gollapudi,    2016) lo define como un mecanismo para la b&uacute;squeda de patrones que le permita aprender y  hacer predicciones  a las m&aacute;quinas, lo cual implica que sean capaces de  mejorar su desempe&ntilde;o futuro a partir de la experiencia. &nbsp;Se trata de crear programas  &nbsp;capaces de  generalizar comportamientos a partir &nbsp;de una informaci&oacute;n suministrada en forma de ejemplos. Es, por lo tanto, un proceso de inducci&oacute;n &nbsp;del conocimiento. As&iacute;, &nbsp;los algoritmos de Aprendizaje Autom&aacute;tico &nbsp;pueden  utilizarse para construir  modelos de clasificaci&oacute;n &nbsp;a partir &nbsp;de un proceso  de extracci&oacute;n de patrones &nbsp;desde ejemplos  previamente etiquetados. Esto permite que los modelos obtenidos  puedan predecir ejemplos nuevos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Existe una familia  de algoritmos de Aprendizaje Autom&aacute;tico que utilizan las reglas como forma de Representar el Conocimiento, la  cual se combina &nbsp;con un M&eacute;todo de Soluci&oacute;n de Problemas  (usualmente Algoritmos Gen&eacute;ticos) para obtener clasificadores interpretables. A este tipo de tecnolog&iacute;as se les llama Sistemas Clasificadores  con Aprendizaje (SCA) (Urbanowicz and Browne, 2017).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A pesar de todo este esfuerzo por el desarrollo de algoritmos que sean capaces de procesar eficazmente los  datos, existen problemas inherentes a  estos  que pueden afectar el desempe&ntilde;o &nbsp;de los SCA. Uno de los m&aacute;s comunes cuando se trata de datos reales &nbsp;es el desbalance. En (Sanatkar and Haratizadeh, 2015) definen  las colecciones de datos no-balanceados como aquellas que tienen una distribuci&oacute;n de instancias donde una de las clases &nbsp;es mayoritaria  respecto al  resto. En presencia de  este  fen&oacute;meno un algoritmo de clasificaci&oacute;n puede  que no pierda mucho en exactitud predictiva (ACC) incluso  si ignora por completo  las instancias de la clase minoritaria. Esto puede ser un problema serio,  puesto que precisamente la clase minoritaria puede ser la de mayor inter&eacute;s para un problema dado. Algunos ejemplos de problemas de  este  tipo pueden ser:</font></p> <ul>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Detecci&oacute;n de productos defectuosos en una l&iacute;nea de ensamblaje.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Detecci&oacute;n &nbsp;de enfermedades en una poblaci&oacute;n &nbsp;aparentemente sana. Si la enfermedad que se &nbsp;pretende     detectar es rara el problema puede tener un elevado nivel de desbalance.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Detecci&oacute;n de fraudes bancarios (tarjetas de cr&eacute;dito, transacciones).</font></li>     ]]></body>
<body><![CDATA[</ul>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> Para evitar este problema,  &nbsp;es necesario hacer un tratamiento a nivel de algoritmo o a nivel de datos. Ejemplo del primer caso, &nbsp;es el  trabajo de (Bria et&tilde;al., 2014) donde se presenta un enfoque que utiliza una cascada de clasificadores, donde cada nodo es entrenado  por un algoritmo basado en ranking en lugar de utilizar el error  de clasificaci&oacute;n. El segundo &nbsp;caso se basa en re-balancear las clases disminuyendo la clase mayoritaria o aumentando la  minoritaria. En los trabajos (Xue and Hall, 2015; Japkowicz and Stephen, 2002) se realiza un an&aacute;lisis m&aacute;s profundo de este tema. En general se &nbsp;utilizan  &nbsp;varios esquemas: sobre-muestreo, &nbsp;sub-muestreo &nbsp;y muestreo aleatorio. En los trabajos (Chawla et&tilde;al., 2002; Wang et&tilde;al., 2015) se han utilizado estas t&eacute;cnicas combinadas  con algoritmos evolutivos. Otra forma de abordar el problema es utilizando los Algoritmos Evolutivos Multi- Objetivo (AEMO),  &nbsp;de manera  que se utiliza un objetivo por cada clase, maximizando al mismo  tiempo la exactitud predictiva para la clase minoritaria &nbsp;y para la clase mayoritaria. Este enfoque puede utilizar &nbsp;los enfoques cl&aacute;sicos NSGA-II (Deb et&tilde;al., 2002) o SPEA2 (Zitzler et&tilde;al., 2001).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con este trabajo se persigue &nbsp;como objetivo fundamental realizar una evaluaci&oacute;n del algoritmo  AR-NSGEP (Guerrero-Enamorado et&tilde;al., 2018) frente a diferentes niveles de desbalance, para esto se utilizaron colecciones de  datos del repositorio UCI (Dua and Karra Taniskidou, 2017). La Secci&oacute;n &nbsp;2 describe las caracter&iacute;sticas fundamentales del algoritmo  sometido a evaluaci&oacute;n. Posteriormente en  la Secci&oacute;n 3 se muestra la metodolog&iacute;a seguida para evaluar el algoritmo y se exponen posteriormente los resultados obtenidos.  Finalmente, la Secci&oacute;n 4 expone las conclusiones fundamentales del trabajo. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En esta secci&oacute;n se explica &nbsp;el principio de funcionamiento &nbsp;del algoritmo utilizado en la evaluaci&oacute;n del algoritmo, AR-NSGEP, as&iacute; como los elementos de dise&ntilde;o fundamentales. Mayor nivel de detalles &nbsp;se pueden encontrar en el trabajo donde se introdujo (Guerrero-Enamorado et&tilde;al., 2018). Este algoritmo est&aacute; basado en el trabajo de (Deb and Jain, 2014). B&aacute;sicamente tiene dos fases, la  primera es para el descubrimiento de reglas y sigue el esquema del algoritmo NSGA-III (Deb and Jain, 2014) pero utilizando el punto ut&oacute;pico (Deb, 2014) como punto de referencia. En la segunda fase del algoritmo dichas reglas son ordenadas  en forma de lista de decisi&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La primera fase utiliza un ciclo evolutivo cl&aacute;sico (ver <a href="#f01">figura 1</a>), se parte de la generaci&oacute;n y evaluaci&oacute;n de la  poblaci&oacute;n inicial, posteriormente &nbsp;se aplican los operadores gen&eacute;ticos de selecci&oacute;n, mutaci&oacute;n y cruzamiento.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A continuaci&oacute;n se evalu&aacute; la poblaci&oacute;n obtenida  y se da paso a  un proceso de reemplazo elitista, que utiliza el esquema del NSGA-III. En este proceso se ordenan &nbsp;las soluciones en  frentes de no-dominancia, las soluciones  muy cercanas (a menos de una distancia epsilon)  entre s&iacute;, dentro de un mismo frente son agrupadas dejando  solo una al azar. Dentro de un mismo frente de no-dominancia &nbsp;son preferibles las soluciones que tienen una distancia euclidiana menor  hasta el punto de referencia &nbsp;ut&oacute;pico de los objetivos. Finalmente se realiza una competici&oacute;n para generar  un vector-soluci&oacute;n de individuos no redundantes. En  cada  iteraci&oacute;n del ciclo evolutivo se repite el proceso anterior y a su vez esto se realiza para cada clase de la colecci&oacute;n de datos.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/f0104518.jpg" alt="f01" width="556" height="403"><a name="f01"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#f01">Figura 1</a>: Ciclo evolutivo o fase de  descubrimiento de reglas.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La segunda fase inicia  al terminar las iteraciones de la  primera fase por cada clase.  &nbsp;Se crea entonces un clasificador vac&iacute;o. Se ordenan &nbsp;las reglas obtenidas  en la primera fase, &nbsp;se toma la mejor regla y se adiciona al clasificador, se eliminan de la colecci&oacute;n de datos las instancias que esta regla cubre, se reordenan &nbsp;las reglas pero ahora en la colecci&oacute;n de datos reducida,  &nbsp;se extrae nuevamente la mejor regla y se adiciona  &nbsp;al clasificador. Este proceso &nbsp;se repite hasta  que no queden reglas en la lista de la primera fase o instancias en  la colecci&oacute;n de  datos. El clasificador as&iacute; obtenido es el que se utiliza para evaluar el algoritmo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>2.1 Esquema de codificaci&oacute;n de los individuos</strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el dise&ntilde;o del algoritmo AR-NSGEP  se utiliz&oacute; la Programaci&oacute;n de Expresiones Gen&eacute;ticas (PEG) propuesta  por  Ferreira (2006). Con esta, se estableci&oacute; la codificaci&oacute;n de los individuos de la poblaci&oacute;n. Esta tecnolog&iacute;a aprovecha la eficiencia &nbsp;de los Algoritmos Gen&eacute;ticos &nbsp;(AG)  &nbsp;para evolucionar y la potencia de los &aacute;rboles  &nbsp;de  la Programaci&oacute;n Gen&eacute;tica (PG) para construir  reglas en forma de Funciones &nbsp;Discriminantes (FD).  &nbsp;En este trabajo los individuos  &nbsp;son representados genot&iacute;picamente en forma de cadenas de  caracteres y fenot&iacute;picamente en forma de &aacute;rboles de expresi&oacute;n que se traducen en una funci&oacute;n discriminante.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La tecnolog&iacute;a &nbsp;PEG separa el genotipo en dos  partes: la &ldquo;cabeza&rdquo; &nbsp;y la &ldquo;cola&rdquo;. &nbsp;La cabeza puede generarse con funciones, atributos predictores o constantes, su  tama&ntilde;o &nbsp;es &nbsp;uno de los par&aacute;metros &nbsp;del algoritmo. Una vez definida la cabeza, el &nbsp;tama&ntilde;o &nbsp;de la cola queda determinado puesto que est&aacute; &nbsp;dise&ntilde;ada &nbsp;para garantizar  que existan suficientes elementos terminales en caso de que la cabeza est&eacute; compuesta solo de funciones. Esto  garantiza la completitud de los &aacute;rboles de expresi&oacute;n. La cola se genera solamente &nbsp;con elementos terminales, &nbsp;es decir, atributos predictores o  constantes. En  los casos donde la  cabeza no  tenga  solo funciones, la  informaci&oacute;n presente en el  genotipo (cabeza + cola) no se expresa  &nbsp;del todo a nivel fenot&iacute;pico, pero permanece latente hasta que  una condici&oacute;n externa  (cruzamiento o mutaci&oacute;n) permita su activaci&oacute;n. Siguiendo &nbsp;estas  restricciones &nbsp;se genera la poblaci&oacute;n inicial de manera aleatoria.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por otro lado, el algoritmo AR-NSGEP solo utiliza funciones aritm&eacute;ticas b&aacute;sicas (suma, resta,  multiplicaci&oacute;n y divisi&oacute;n) en las FD. Se utiliza un enfoque Michigan (Holland and Reitman, 1977) por lo cual cada individuo  codifica una sola regla como una FD. El clasificador final se crea como una base de  reglas  que es ordenada &nbsp;en la segunda fase del algoritmo  como &nbsp;se explic&oacute; en la secci&oacute;n 2.</font></p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">El consecuente de  cada  regla representa la clase que predice y  se utilizaron algunos de  los operadores  gen&eacute;ticos que Ferreira (2006) defini&oacute; para PEG. A continuaci&oacute;n los m&aacute;s importantes:</font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Operador de selecci&oacute;n: no realiza  ning&uacute;n cambio a nivel genot&iacute;pico, sin embargo contribuye a generar variaci&oacute;n en la frecuencia relativa de diferentes genotipos en una poblaci&oacute;n (<em>genetic drift </em>), debido a que brinda la posibilidad  de desaparici&oacute;n &nbsp;de genes particulares a medida que los individuos mueren o no  se reproducen. &nbsp;La selecci&oacute;n &nbsp;se realiza utilizando un torneo binario que tiene en cuenta los frentes de no-dominancia y  la distancia euclidiana pesada hasta el punto de referencia ut&oacute;pico. &nbsp;Estos  elementos permiten crear un sesgo que provoca que los mejores individuos tengan mayor probabilidad de generar    <br>   descendencia. </font></p> <ul>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Operador de mutaci&oacute;n simple: puede aplicarse con una probabilidad definida como par&aacute;metro, se cambia     en cualquier lugar del genotipo un elemento por otro cualquiera.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Mutaci&oacute;n &nbsp;de transposici&oacute;n &nbsp;con inserci&oacute;n &nbsp;de secuencia (TIS), &nbsp;la probabilidad de ocurrencia se &nbsp;define  como par&aacute;metro. Se selecciona  aleatoriamente &nbsp;una secuencia de elementos a transponer, esta se escoge aleatoriamente en tama&ntilde;o y lugar de inicio.  Posteriormente  &nbsp;esta secuencia  es insertada en una posici&oacute;n     aleatoria de la cabeza  exceptuando &nbsp;el inicio para evitar  que  se formen individuos de un solo elemento.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Mutaci&oacute;n de transposici&oacute;n con inserci&oacute;n de secuencia en la ra&iacute;z (TISR), este operador &nbsp;selecciona aleato- riamente una secuencia de  elementos a  transponer, pero con la restricci&oacute;n de que inicie con una funci&oacute;n.     Esta secuencia &nbsp;es insertada en el inicio  de la cabeza del genotipo.</font></li>       ]]></body>
<body><![CDATA[<li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recombinaci&oacute;n por un punto, se escoge &nbsp;aleatoriamente un mismo punto de corte en los progenitores,  se &nbsp;intercambian entonces las partes resultantes &nbsp;para  generar dos nuevos individuos. Por ejemplo,  los individuos Aa y Bb generan la  descendencia Ab y aB.</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recombinaci&oacute;n por dos puntos, se seleccionan &nbsp;dos puntos de corte en cada uno de los progenitores, estos puntos determinan una secuencia de genes en  cada  uno de ellos.  Las secuencias de los progenitores son  intercambiadas para generar dos nuevos individuos. Por ejemplo, AaA y BbB generar&iacute;an la descendencia  AbA y BaB.</font></li>     </ul>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>2.2 Clasificaci&oacute;n con Funciones Discriminantes    <br>       <br> </strong>En el algoritmo AR-NSGEP las reglas codifican en su antecedente una FD. Las FD son expresiones matem&aacute;ticas en las cuales diferentes tipos de operadores y  funciones se aplican a los atributos de una instancia devolviendo un valor num&eacute;rico (Espejo et&tilde;al., 2010). Este valor num&eacute;rico se puede &nbsp;interpretar como una salida de clasificaci&oacute;n binaria  a partir de definir un umbral (normalmente cero). El clasificador consistir&iacute;a en una lista de FD, donde  cada funci&oacute;n &nbsp;tiene  asociada una clase de salida. Para el caso de clasificaci&oacute;n &nbsp;binaria, quedar&iacute;a &nbsp;como en la  ecuaci&oacute;n &nbsp;1, donde <em>X  &nbsp;</em>es &nbsp;el vector de atributos de entrada. En este caso la funci&oacute;n &nbsp;<em>f </em>(<em>X </em>) divide el espacio caracter&iacute;stico &nbsp;solamente&nbsp; en dos regiones. Para el caso de problemas multi-clase se &nbsp;utiliza &nbsp;el enfoque uno- contra-todos (<em>OVA</em>) &nbsp;donde un  problema con <em>n</em>-clases &nbsp;es transformado en <em>n </em>problemas binarios. Este enfoque utiliza cada clase como positiva mientras el resto de las clases son negativas.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>if </em>(<em>f</em>(<em>X </em>) <em>&gt; </em>0) &nbsp;<em>then &nbsp;X &isin; Class</em>1&nbsp; &nbsp;<em>else X &isin; Class</em>2&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; (1) </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>2.3 Objetivos que se utilizan  &nbsp;para la aptitud</strong>     <br>       <br> El algoritmo AR-NSGEP utiliza cuatro objetivos para guiar el proceso de  b&uacute;squeda multi-objetivo, &nbsp;tres  de ellos en la direcci&oacute;n de la exactitud  y el cuarto en la  comprensibilidad &nbsp;de las reglas. Cada uno  de estos objetivos  se representan &nbsp;en las ecuaciones 2, 3, 4 y 5 respectivamente. </font></p>     ]]></body>
<body><![CDATA[<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/fo0104518.png" alt="fo01" width="564" height="206"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En las ecuaciones anteriores <em>vp</em>, <em>vn</em>, <em>f p </em>y <em>f n </em>representan los  verdaderos positivos, verdaderos negativos, falsos positivos y falsos negativos respectivamente de  la matriz de confusi&oacute;n (ver <a href="#f02">figura 2</a>) que se obtiene al evaluar un  individuo en el conjunto de entrenamiento. La  ecuaci&oacute;n 5 es una m&eacute;trica de la simplicidad de un individuo.  El t&eacute;rmino &nbsp;<em>Tama&ntilde;oM&aacute;ximo &nbsp;</em>representa el  tama&ntilde;o &nbsp;m&aacute;s &nbsp;grande que puede tomar  un individuo. La variable <em>Tama&ntilde;oFenotipo</em>, es la longitud  del fenotipo del individuo ya expresado. En la secci&oacute;n 2.1 se plante&oacute; como puede existir una parte del genotipo que no se expresa &nbsp;en el fenotipo.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/f0204518.png" alt="f02" width="239" height="190"><a name="f02"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#f02">Figura 2</a>: Matriz de confusi&oacute;n de una regla.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>2.4 Proceso adaptativo de AR-NSGEP</strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Shen et&tilde;al. (2008) plantea que en los problemas multi-objetivo  &nbsp;no todos los objetivos son igualmente importantes y en distintos momentos del proceso evolutivo la prioridad de estos puede cambiar. Para enfrentar estas problem&aacute;ticas AR-NSGEP  incorpora una estrategia adaptativa que modifica la importancia relativa entre los objetivos, de manera que toda la poblaci&oacute;n recibe una presi&oacute;n selectiva en la direcci&oacute;n del mejor individuo de la iteraci&oacute;n anterior. Para esto se modifican los pesos de  la distancia euclidiana  &nbsp;pesada que utiliza el operador de  selecci&oacute;n (ver secci&oacute;n 2.1) utilizando meta-informaci&oacute;n del movimiento del mejor individuo en un espacio ROC (ver <a href="#f03">figura 3</a>).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">De esta forma cuando  el mejor individuo  se mueve  &nbsp;en la direcci&oacute;n A, de una generaci&oacute;n a otra significa una buena direcci&oacute;n en los objetivos sensibilidad y especificidad al  mismo  tiempo, por lo cual se resta importancia a ambos objetivos para reducir la velocidad de exploraci&oacute;n del algoritmo  y as&iacute; este se concentre  &nbsp;m&aacute;s en esa vecindad. En cambio, si el mejor individuo se movi&oacute; en la direcci&oacute;n C, significa  que hubo un empeoramiento  en ambos objetivos al mismo tiempo, por lo cual se aumenta la velocidad de exploraci&oacute;n del algoritmo  para permitir que se escape de esa zona. Los casos intermedios  B y D se manejan  variando la velocidad en uno u otro objetivo seg&uacute;n esta misma l&oacute;gica. Finalmente, a las ecuaciones de ajuste de los pesos que permiten modificar los niveles de importancia de cada objetivo se aplica un amortiguamiento para lograr que los cambios &nbsp;se realicen  de manera menos brusca (ver <a href="#f04">figura 4</a>).</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/f0304518.png" alt="f03" width="421" height="399"><a name="f03"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#f03">Figura 3</a>: An&aacute;lisis ROC del movimiento de O</font></p>     <p align="left">&nbsp;</p>     ]]></body>
<body><![CDATA[<p align="left"><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En esta secci&oacute;n mostramos la  metodolog&iacute;a seguida para realizar  la evaluaci&oacute;n del algoritmo  AR-NSGEP. Se utilizaron  &nbsp;t&eacute;cnicas &nbsp;de validaci&oacute;n &nbsp;cruzada en 10 partes, adem&aacute;s &nbsp;de utilizar &nbsp;en cada partici&oacute;n &nbsp;cinco  semillas aleatorias distintas, generando un total de 50 experimentos por cada pareja algoritmo base de datos. La eva- luaci&oacute;n se realiza &nbsp;en 15 colecciones de  datos  desbalanceadas frente a seis algoritmos que generan clasificadores interpretables (UCS, GASSIST, HIDER, SLAVE, LOGIT-BOOST y CORE).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>3.1 Bases de datos desbalanceadas</strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se utilizaron las siguientes colecciones de datos desbalanceadas tomadas  del repositorio  UCI (Dua and Karra Taniskidou, 2017): glass1, ecoli-0_vs_1,  iris0, glass0, glass-0-1-2-3_vs_4-5-6,  ecoli1, ecoli2, glass6, ecoli3, ecoli4, glass-0-1-6_vs_5, glass2, glass4, glass5 y ecoli-0-1-3-7_vs_2-6.  Como se puede ver en la <a href="#t01">tabla 1</a> las primeras nueve  tienen una razon de desbalance menor que 9 y las &uacute;ltimas 6 mayor que 9.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/f0404518.png" alt="f04" width="542" height="239"><a name="f04"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#f04">Figura 4</a>: Efecto del factor de amortiguamiento</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>3.2 Herramientas  &nbsp;utilizadas</strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la experimentaci&oacute;n se utiliz&oacute; el marco de trabajo KEEL (Triguero et&tilde;al., 2017), reutilizando las implementaciones  que esta herramienta &nbsp;trae  de los algoritmos UCS, GASSIST,  HIDER, SLAVE, LOGIT-BOOST y CORE. En cada unos de ellos se utilizaron las configuraciones &oacute;ptimas que sus desarrolladores &nbsp;recomiendan. Dichas configuraciones pueden encontrarse  condensadas en el trabajo de Fern&aacute;ndez  et&tilde;al. (2009). Se utiliz&oacute;  un procesador Intel(R) Core(TM) i7-4790 CPU @ 3.60GHz &nbsp;con GNU/Linux Ubuntu 16.04 LTS y 8GiB de memo-  ria RAM. Para el an&aacute;lisis estad&iacute;stico se utilizaron pruebas no-param&eacute;tricas. En particular se utiliz&oacute; la prueba  de Friedman, combinada con las pruebas <em>post hoc </em>de Finner  y Li. Seg&uacute;n Derrac et&tilde;al. (2011), estas &uacute;ltimas logran los p-valores m&aacute;s peque&ntilde;os en las comparaciones.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>3.3 Resultados</strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v12s1/t0204518.png" target="_blank">Tabla 2</a> se muestran los resultados obtenidos para la m&eacute;trica de exactitud predictiva (ACC). La &uacute;ltima fila muestra el rankin promedio  de cada algoritmo entre todas las colecciones. &nbsp;Se puede notar como el algoritmo UCS logra el primer lugar 3<em>,</em>37 en el rankin  promedio para esta m&eacute;trica. &nbsp;Sin embargo, la mayor&iacute;a &nbsp;de los algoritmos est&aacute;n muy cercanos en este ranking.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aplicando la prueba de Friedman  se &nbsp;obtiene un p-valor = 2.2782E-1. Por lo cual no se &nbsp;logra rechazar la hip&oacute;tesis nula de que todos los algoritmos se desempe&ntilde;an de igual manera. Como era de esperar esta m&eacute;trica no es &uacute;til para evaluar colecciones de datos  desbalanceadas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v12s1/t0304518.png" target="_blank">Tabla 3</a> se muestran los resultados obtenidos para la m&eacute;trica AUC. La &uacute;ltima fila muestra el ranking  promedio de cada algoritmo entre todas las colecciones de datos. Se puede notar como el algoritmo AR-NSGEP logra el primer lugar 2<em>,</em>17 en el rankin promedio para esta m&eacute;trica.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aplicando la prueba de  Friedman se obtiene &nbsp;un p-valor = 1.0000E-5. En  la <a href="/img/revistas/rcci/v12s1/t0504518.png">Tabla 5</a> se muestran  los resultadosde varias pruebas <em>post hoc </em>para el AUC donde se nota que los algoritmos HIDER, SLAVE y CORE fueron  mejorados significativamente por el algoritmo de control AR-NSGEP. En cambio  los algoritmos GASSIST, LogitBoost y UCS no pudieron ser mejorados. Esto constata  el efecto que tiene en esta m&eacute;trica el proceso  adaptativo de AR-NSGEP ya que a  pesar de no  tener en cuenta el desbalance de manera explicita, el algoritmo logra sobreponerse a este.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#t01">Tabla 1</a>: Imbalanced data sets</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/t0104518.png" alt="t01" width="413" height="427"><a name="t01"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v12s1/t0101518.png" target="_blank">Tabla 2</a>: Resultados de  los algoritmos en la m&eacute;trica ACC</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v12s1/t0304518.png" target="_blank">Tabla 3</a>: Resultados de los algoritmos en la m&eacute;trica AUC</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v12s1/t0404518.png" target="_blank">Tabla 4</a>: Resultados de los algoritmos en la m&eacute;trica NR</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v12s1/t0504518.png" target="_blank">Tabla 5</a>: Pruebas estad&iacute;sticas para la m&eacute;trica AUC</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v12s1/t0404518.png">Tabla 4</a> se muestran los resultados obtenidos para la m&eacute;trica  &nbsp;NR. La &uacute;ltima &nbsp;fila  muestra el ranking promedio de cada algoritmo entre todas las colecciones de datos.  Se puede  &nbsp;notar como ahora es el algoritmo  SLAVE el que logra el primer lugar 1<em>,</em>83 en el  rankin promedio para esta m&eacute;trica. Se aplic&oacute; entonces el m&eacute;todo de multi-comparaci&oacute;n por pares de  Bergmann y Hommel.  Para ejecutar esta prueba estad&iacute;stica se utiliz&oacute; la  librer&iacute;a &nbsp;&ldquo;scmamp&rdquo; de R (Calvo and Santaf&eacute;, &nbsp;2015). Con esta se &nbsp;gener&oacute; &nbsp;el gr&aacute;fico &nbsp;de la <a href="#f05">figura  5</a> donde el  algoritmo SLAVE est&aacute; resaltado con el primer lugar del ranking. Las l&iacute;neas conectan aquellos algoritmos que no tienen diferencia significativa entre ellos.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/f0504518.png" alt="f05" width="512" height="256"><a name="f05"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#f05">Figura 5</a>: Prueba de Bergmann y Hommel para la m&eacute;trica NR</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Finalmente, se cre&oacute; la <a href="#f06">figura  6</a> que combina en un &uacute;nico gr&aacute;fico el desempe&ntilde;o de los algoritmos en las tres m&eacute;tricas evaluadas  (ACC, AUC y NR), el &aacute;rea sombreada abarca la zona donde se encuentran  &nbsp;los algoritmos que se desempe&ntilde;an de manera  equivalente respecto a las m&eacute;tricas ACC y AUC al mismo  tiempo. En dicha  zona se encuentran &nbsp;los mejores algoritmos: GASSIST, LOGITBOOST,  &nbsp;UCS y AR-NSGEP, este &uacute;ltimo muy cercano al punto de mejor desempe&ntilde;o. Las l&iacute;neas conectan a los algoritmos &nbsp;que no tienen diferencia significativa entre ellos seg&uacute;n la prueba de Bergmann y Hommel (ver <a href="#f05">figura 5</a>). Teniendo en cuenta al mismo tiempo las  tres m&eacute;tricas se puede &nbsp;decir que los algoritmos GASSIST, LOGITBOOST &nbsp;y AR-NSGEP  se desempe&ntilde;an de manera equivalente.</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12s1/f0604518.jpg" alt="f06" width="558" height="514"><a name="f06"></a></font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="#f06">Figura 6</a>: Gr&aacute;fico del comportamiento de los algoritmos con el aumento del desbalance para la m&eacute;trica ACC</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Tras la evaluaci&oacute;n experimental se pudo  constatar la competitividad del algoritmo  AR-NSGEP en presencia del desbalance. Los experimentos mostraron &nbsp;que AR-NSGEP logra quedar entre los primeros  lugares del rankin teniendo en cuenta al mismo tiempo las tres m&eacute;tricas (ACC, AUC y NR) utilizadas para evaluar los algoritmos.  Para  el caso de la m&eacute;trica AUC, AR-NSGEP  qued&oacute; en primer lugar del ranking mejorando significativamente  a varios de los algoritmos utilizados en la comparaci&oacute;n. &nbsp;Junto con AR-NSGEP, los algoritmos GASSIST y LOGITBOOST &nbsp;se &nbsp;desempe&ntilde;aron de manera equivalente teniendo en cuenta las tres m&eacute;tricas  &nbsp;al mismo tiempo. A pesar de  estos  resultados, &nbsp;no se puede &nbsp;dejar de subrayar que todos los algoritmos que se utilizaron se vieron afectados por este indeseable fen&oacute;meno. La m&eacute;trica ACC no permiti&oacute; establecer diferencias entre  los algoritmos. Esto permiti&oacute; reafirmar la inefectividad de la m&eacute;trica ACC para evaluar algoritmos cuando &nbsp;se est&aacute; en presencia del desbalance entre las clases.</font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Bria, A., Karssemeijer, N., and Tortorella, F. (2014). Learning  from unbalanced data: A cascade-based ap-  proach for detecting clustered microcalcifications. <em>Medical Image Analysis</em>, 18:241&ndash;252.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Calvo, B. and Santaf&eacute;, G. (2015). scmamp: Statistical Comparison of Multiple &nbsp;Algorithms in Multiple &nbsp;Pro-  blems. <em>The R Journal</em>, 8(1):248&ndash;256.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Chawla, N. V., Bowyer, K. W., Hall, L. O., and Kegelmeyer, W. P. (2002). &nbsp;SMOTE:  Synthetic minority  over-sampling technique. <em>Journal of Artificial Intelligence &nbsp;Research</em>, 16:321&ndash;357.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Deb, K. (2014).  Multi-objective Optimization. &nbsp;In Burke, E. K. and Graham, K., editors, <em>Search Methodolo- gies: Introductory  Tutorials in Optimization and Decision Support Techniques</em>, chapter 15, pages 403&ndash;446. Springer, New York, second edition.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Deb, K. and Jain, H. (2014). An Evolutionary Many-Objective Optimization Algorithm Using Reference-point  Based  Non-dominated Sorting Approach, Part I: Solving Problems  with Box Constraints. <em>IEEE Transactions on Evolutionary Computation</em>, 18(4):577 &ndash; 601.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Deb, K., &nbsp;Pratap, A., Agarwal, S., and Meyarivan, T. &nbsp;(2002). &nbsp;A&nbsp; Fast and Elitist  &nbsp;Multiobjective &nbsp;Genetic   Algorithm: NSGA-II. <em>IEEE Transactions on evolutionary computation</em>,  6(2):182&ndash;197.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Derrac, J., Garc&iacute;a, S., Molina, D., and Herrera,  F. (2011). A practical tutorial &nbsp;on the use of  nonparametric statistical tests as a  methodology for comparing evolutionary and swarm intelligence algorithms. &nbsp;<em>Swarm and Evolutionary Computation</em>, 1(1):3&ndash;18. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dua, D. and Karra Taniskidou, E. (2017). <em>{</em>UCI<em>}</em>Machine Learning  Repository.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Espejo, P. G., Ventura, S., and Herrera, F. (2010). A Survey on  the Application of Genetic Programming to   Classification. <em>IEEE  Transactions on Systems, Man, and Cybernetics, Part C: Applications  and Reviews</em>,   40(2):121&ndash;144.</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Fern&aacute;ndez,  A., Garc&iacute;a, S., Bernad&oacute;-Mansilla, E., and Herrera, F. (2009). Genetics-Based Machine Learning  for Rule Induction: Taxonomy  , Experimental Study and State of the Art.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ferreira, C. (2006).&nbsp;&nbsp; <em>Gene Expression  Programming Mathematical Modeling  by an Artificial Intelligence</em>.   Springer-Verlag, Berlin Heidelberg, &nbsp;second  edition.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Gollapudi, S. (2016).  &nbsp;<em>Practical Machine  Learning. &nbsp;Tackle the real-world &nbsp;complexities of modern machine  learning with innovative and cutting-edge techniques</em>. &nbsp;Birmingham, UK.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Guerrero-Enamorado, A., Morell,  C., and Ventura, S. (2018). &nbsp;A gene expression  &nbsp;programming algorithm  for discovering  classification rules in the multi-objective  &nbsp;space.&nbsp; &nbsp;<em>International  &nbsp;Journal of Computational  Intelligence &nbsp;Systems</em>, 11(1):540 &ndash;  559.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Holland, J. H. and Reitman, J. O. (1977). &nbsp;Cognitive  &nbsp;Systems Based on Adaptive &nbsp;Algorithms.&nbsp; &nbsp;<em>SIGART  Bulletin</em>, (63):49&ndash;49.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Japkowicz,  N. and Stephen, S. (2002). The class imbalance  problem: A systematic study. &nbsp;<em>Intelligent Data Analysis</em>, 6(5):429&ndash;449.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sanatkar, H. and Haratizadeh, S. (2015).  &nbsp;An XCS-Based Algorithm &nbsp;for Classifying Imbalanced  Datasets.    <em>International Journal  of Intelligent Systems</em>, 4(6):101&ndash;105.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Shen, X., Guo, Y., Chen, Q., and Hu, W. (2008). &nbsp;A multi-objective &nbsp;optimization  &nbsp;evolutionary algorithm incorporating preference information based on fuzzy logic. <em>Computational Optimization and Applications</em>,   46(1):159&ndash;188.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Triguero, I., Gonz&aacute;lez, S., Moyano, J. M., Garc&iacute;a, S., Alcal&aacute;-Fdez, J., Luengo,  J., Fern&aacute;ndez, A., Del Je&uacute;s, M. J., S&aacute;nchez, L., and Herrera,  F. (2017). KEEL 3.0: An Open Source Software for Multi-Stage Analysis in Data Mining. <em>International Journal of Computational Intelligence  &nbsp;Systems</em>, 10:1238&ndash;1249.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Urbanowicz, R. J. and Browne, W. N. (2017). Introduction to Learning Classifier Systems.  In Weiss, G. and   Tuyls, K., editors, <em>Springer Briefs in Intelligent Systems</em>, page 135. Springer Berlin  Heidelberg.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Wang, S., Minku, L. L., and Yao, X. (2015). Resampling-Based Ensemble Methods for Online Class Imbalance</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Learning. <em>IEEE Transactions on Knowledge and Data Engineering</em>, 27(5):1356&ndash;1368. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Xue, J.-h. and Hall, P. (2015).  &nbsp;Why Does Rebalancing Class-Unbalanced Data Improve &nbsp;AUC for Linear Discriminant Analysis? <em>IEEE Transactions on Pattern Analysis and Machine Intelligence</em>, 37(5):1109&ndash;1112.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Zitzler, E., Laumanns, M., and Thiele,  L. (2001). SPEA2:  Improving the Strength Pareto Evolutionary Al- gorithm.&nbsp; &nbsp;Tik &nbsp;report 103, Computer Engineering and Networks Laboratory  (TIK), ETH &nbsp;Zurich, Zurich,  Switzerland.    </font></p>     <p name="_ENREF_1">&nbsp;</p>     ]]></body>
<body><![CDATA[<p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 28/05/2018     <br> Aceptado: 11/09/2018</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bria]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Karssemeijer]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Tortorella]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Learning from unbalanced data]]></article-title>
<source><![CDATA[A cascade-based ap- proach for detecting clustered microcalcifications.]]></source>
<year></year>
<volume>18</volume>
<page-range>241-252</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Calvo]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Santafé]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[scmamp: Statistical Comparison of Multiple Algorithms in Multiple Problems.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>8</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>248-256</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chawla]]></surname>
<given-names><![CDATA[N. V]]></given-names>
</name>
<name>
<surname><![CDATA[Bowyer]]></surname>
<given-names><![CDATA[K. W]]></given-names>
</name>
<name>
<surname><![CDATA[Hall]]></surname>
<given-names><![CDATA[L. O]]></given-names>
</name>
<name>
<surname><![CDATA[Kegelmeyer]]></surname>
<given-names><![CDATA[W. P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[SMOTE: Synthetic minority over-sampling technique.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>16</volume>
<page-range>321-357</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Deb]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<source><![CDATA[Multi-objective Optimization.: Search Methodologies: Introductory Tutorials in Optimization and Decision Support Techniques]]></source>
<year>2014</year>
<page-range>403-446</page-range><publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Deb]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Evolutionary Many-Objective Optimization Algorithm Using Reference-point Based Non-dominated Sorting Approach]]></article-title>
<source><![CDATA[IEEE Transactions on Evolutionary Computation]]></source>
<year></year>
<volume>18</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>577 - 601</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Deb]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[Pratap]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Agarwal]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Meyarivan]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Fast and Elitist Multiobjective Genetic Algorithm: NSGA-II. IEEE Transactions on evolutionary computation]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>6</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>182-197</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Derrac]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Molina]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A practical tutorial on the use of nonparametric statistical tests as a methodology for comparing evolutionary and swarm intelligence algorithms]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>3-18</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dua]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Karra Taniskidou]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<source><![CDATA[Machine Learning Repository]]></source>
<year>2017</year>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Espejo]]></surname>
<given-names><![CDATA[P. G]]></given-names>
</name>
<name>
<surname><![CDATA[Ventura]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Survey on the Application of Genetic Programming to Classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>40</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>121-144</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Bernadó-Mansilla]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Genetics-Based Machine Learning for Rule Induction: Taxonomy ,: Experimental Study and State of the Art]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ferreira]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Gene Expression Programming Mathematical Modeling by an Artificial Intelligence.]]></source>
<year>2006</year>
<publisher-loc><![CDATA[Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gollapudi]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Practical Machine Learning.: Tackle the real-world complexities of modern machine learning with innovative and cutting-edge techniques.]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Guerrero-Enamorado]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Morell]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Ventura]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A gene expression programming algorithm for discovering classification rules in the multi-objective space.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>11</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>540 - 559</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Holland]]></surname>
<given-names><![CDATA[J. H]]></given-names>
</name>
<name>
<surname><![CDATA[Reitman]]></surname>
<given-names><![CDATA[J. O]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Cognitive Systems Based on Adaptive Algorithms.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>63</volume>
<page-range>49-49</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Japkowicz]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[S]]></surname>
<given-names><![CDATA[Stephen]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The class imbalance problem: A systematic study.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>6</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>429-449.</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sanatkar]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[Haratizadeh]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An XCS-Based Algorithm for Classifying Imbalanced Datasets]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>4</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>101-105</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shen]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Guo]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[Q]]></given-names>
</name>
<name>
<surname><![CDATA[Hu]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A multi-objective optimization evolutionary algorithm incorporating preference information based on fuzzy logic.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>46</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>159-188</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Triguero]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[González]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Moyano]]></surname>
<given-names><![CDATA[J. M]]></given-names>
</name>
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Alcalá-Fdez]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Luengo]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Del Jeús]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[KEEL 3.0: An Open Source Software for Multi-Stage Analysis in Data Mining.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>10</volume>
<page-range>1238-1249</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[R. J.]]></surname>
<given-names><![CDATA[Urbanowicz]]></given-names>
</name>
<name>
<surname><![CDATA[Browne]]></surname>
<given-names><![CDATA[W. N]]></given-names>
</name>
</person-group>
<source><![CDATA[Introduction to Learning Classifier Systems.: Springer Briefs in Intelligent Systems]]></source>
<year>2017</year>
<page-range>135</page-range><publisher-loc><![CDATA[Berlin ]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Minku]]></surname>
<given-names><![CDATA[L. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Yao]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Resampling-Based Ensemble Methods for Online Class Imbalance Learning.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>27</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1356-1368</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xue]]></surname>
<given-names><![CDATA[J.-h]]></given-names>
</name>
<name>
<surname><![CDATA[Hall]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Why Does Rebalancing Class-Unbalanced Data Improve AUC for Linear Discriminant Analysis?]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>37</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1109-1112</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zitzler]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Laumanns]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Thiele]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[SPEA2: Improving the Strength Pareto Evolutionary Algorithm.]]></source>
<year>2001</year>
<publisher-loc><![CDATA[Zurich ]]></publisher-loc>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
