<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992016000400006</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Efecto de la selección de rasgos en la clasificación basada en prototipos]]></article-title>
<article-title xml:lang="en"><![CDATA[Effect of the features selection in the classification based on prototypes]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Fernández Hernández]]></surname>
<given-names><![CDATA[Yumilka Bárbara]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bello Pérez]]></surname>
<given-names><![CDATA[Rafael]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Filiberto Cabrera]]></surname>
<given-names><![CDATA[Yaima]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Frías Dominguez]]></surname>
<given-names><![CDATA[Mabel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Caballero Mota]]></surname>
<given-names><![CDATA[Yaile]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Camagüey Departamento de Computación ]]></institution>
<addr-line><![CDATA[ Camagüey]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Central de Las Villas Departamento de Ciencia de la Computación ]]></institution>
<addr-line><![CDATA[ Santa Clara]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2016</year>
</pub-date>
<volume>10</volume>
<numero>4</numero>
<fpage>83</fpage>
<lpage>96</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992016000400006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992016000400006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992016000400006&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN La selección de atributos es una técnica de procesamiento de datos cuyo objetivo es buscar un subconjunto de atributos que mejore el rendimiento del clasificador. Teniendo en cuenta que en los problemas de clasificación, la generación de prototipos es de gran utilidad, el principal aporte de este trabajo es proponer un nuevo método que integre la construcción de prototipos en este tipo de problemas con el método NP-BASIR (utilizando las relaciones de similaridad para realizar la granulación del universo, esta genera clases de similitud de objetos del universo, y para cada clase de similitud se construye un prototipo) combinado con el método de selección de atributos basado en la medida calidad de la similaridad para el cálculo de reductos utilizando la técnica de optimización Particle Swarm Optimization. El principal aporte de esta investigación es demostrar la utilidad de combinar selección de atributos unido a la construcción de prototipos. El algoritmo propuesto fue probado en conjuntos de datos internacionales y se comparó con algoritmos conocidos para la generación de prototipos. Los resultados experimentales muestran que el método propuesto obtuvo resultados satisfactorios, siendo la principal ventaja que se logra reducir en el conjunto de datos la cantidad de objetos y la cantidad de atributos sin variar significativamente la calidad de la clasificación comparada con el conjunto de datos original.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT Feature selection is a preprocessing technique with the objective of finding a subset of attributes that improves the classifier performance. In this paper is proposed a new method for solving classification problems based on prototypes (NP-BASIR-Class method) using feature selection. When using similarity relations for the granulation of the universe, similarity classes are generated, and a prototype is constructed for each similarity class. The feature selection method used was REDUCT-SIM based in the technique of optimization PSO (Particle Swarm Optimization). The main contribution of this investigation is demonstrating the utility of combining feature selection together to the prototype generation. The proposed algorithm was proven in groups of international data set and it was compared with well-known algorithms for the generation of prototypes. The experimental results show that the proposed method obtained satisfactory results, being the main advantage that is possible to reduce in the data set, the quantity of objects and the quantity of features obtaining satisfactory results without varying significantly the quality of the classification compared with the original data set.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[selección de atributos]]></kwd>
<kwd lng="es"><![CDATA[generación de prototipos]]></kwd>
<kwd lng="es"><![CDATA[relaciones de similaridad]]></kwd>
<kwd lng="es"><![CDATA[clasificación]]></kwd>
<kwd lng="en"><![CDATA[features selection]]></kwd>
<kwd lng="en"><![CDATA[prototype generation]]></kwd>
<kwd lng="en"><![CDATA[similarity relations]]></kwd>
<kwd lng="en"><![CDATA[classification]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Efecto  de la selecci&oacute;n de rasgos en la clasificaci&oacute;n basada en prototipos</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Effect  of the features selection in the classification based on prototypes</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Yumilka B&aacute;rbara Fern&aacute;ndez  Hern&aacute;ndez<strong><sup>1*</sup></strong>,</font> <font face="Verdana, Arial, Helvetica, sans-serif">Rafael Bello P&eacute;rez<strong><sup>2</sup></strong></font></strong></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>,</strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"> Yaima Filiberto Cabrera<strong><sup>1</sup></strong></font></strong></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>,</strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"> Mabel Fr&iacute;as Dominguez<strong><sup>1</sup></strong></font></strong></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>,</strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"> Yaile Caballero Mota<strong><sup>1</sup></strong></font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Departamento de Computaci&oacute;n. Universidad de Camag&uuml;ey. Ignacio  Agramonte. Circunvalaci&oacute;n Norte km 5 1/2, Camag&uuml;ey, CP 70300.  {yaima.filiberto, mabel.frias, yaile.caballero}@reduc.edu.cu    <br>   <sup>2</sup>Departamento de Ciencia de la Computaci&oacute;n. Universidad Central de Las  Villas, Carretera a Camajuan&iacute;, km 5, Santa Clara, CP 54838. rbellop@uclv.edu.cu</font></p>     ]]></body>
<body><![CDATA[<P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span><a href="mailto:lcylwik@uci.cu"><font size="2">yumilka.fernandez@reduc.edu.cu</font></a></font>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  selecci&oacute;n de atributos es una t&eacute;cnica de procesamiento de datos cuyo objetivo  es buscar un subconjunto de atributos que mejore el rendimiento del  clasificador. Teniendo en cuenta que en los problemas de clasificaci&oacute;n, la generaci&oacute;n de prototipos es de gran  utilidad, el principal aporte de este trabajo es proponer un nuevo m&eacute;todo que  integre la construcci&oacute;n de prototipos en este tipo de problemas con el m&eacute;todo  NP-BASIR (utilizando las relaciones de similaridad para realizar la granulaci&oacute;n  del universo, esta genera clases de similitud de objetos del universo, y para  cada clase de similitud se construye un prototipo) combinado con el m&eacute;todo de selecci&oacute;n  de atributos basado en la medida calidad de la similaridad para el c&aacute;lculo de  reductos utilizando la t&eacute;cnica de optimizaci&oacute;n <em>Particle Swarm Optimization</em>. El principal aporte de esta  investigaci&oacute;n es demostrar la utilidad de combinar selecci&oacute;n de atributos unido  a la construcci&oacute;n de prototipos. El algoritmo propuesto fue probado en  conjuntos de datos internacionales y se compar&oacute; con algoritmos conocidos para  la generaci&oacute;n de prototipos. Los resultados experimentales muestran que el  m&eacute;todo propuesto obtuvo resultados satisfactorios, siendo la principal ventaja  que se logra reducir en el conjunto de datos la cantidad de objetos y la  cantidad de atributos sin variar significativamente la calidad de la clasificaci&oacute;n  comparada con el conjunto de datos original. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">selecci&oacute;n de atributos; generaci&oacute;n de prototipos; relaciones de  similaridad; clasificaci&oacute;n</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Feature selection is a preprocessing technique with the objective of  finding a subset of attributes that improves the classifier performance. In  this paper is proposed a new method for solving classification problems based  on prototypes (NP-BASIR-Class method) using feature selection. When using  similarity relations for the granulation of the universe, similarity classes  are generated, and a prototype is constructed for each similarity class. The  feature selection method used was REDUCT-SIM based in the technique of  optimization PSO (Particle Swarm Optimization). The main contribution of this  investigation is demonstrating the utility of combining feature selection  together to the prototype generation. The proposed algorithm was proven in  groups of international data set and it was compared with well-known algorithms  for the generation of prototypes. The experimental results show that the  proposed method obtained satisfactory results, being the main advantage that is  possible to reduce in the data set, the quantity of objects and the quantity of  features obtaining satisfactory results without varying significantly the  quality of the classification compared with the original data set.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>features selection; prototype generation; similarity relations; classification</font></p> <hr>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En problemas de clasificaci&oacute;n  basados en objetos o ejemplos, los m&eacute;todos de aprendizaje san un conjunto de  entrenamiento para estimar la etiqueta de la clase. Estos algoritmos de  aprendizaje presentan problemas de escalabilidad cuando el tama&ntilde;o del conjunto  de entrenamiento crece, siendo as&iacute; que la cantidad de ejemplos de entrenamiento  afecta el costo computacional del m&eacute;todo (Garc&iacute;a-Duran, R., &amp; Borrajo, 2010); como se puede  ver en (Barandela, 2001) la regla del vecino m&aacute;s cercano  es un ejemplo de un alto costo computacional cuando la cantidad de objetos ejemplos  es mayor (Jiang, Pang, Wu, &amp; Kuang, 2012).</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para disminuir este problema, una alternativa es la  clasificaci&oacute;n basada en Prototipo m&aacute;s Cercano (<em>Nearest Prototype, NP</em>) (Bezdek &amp; Kuncheva, 2001). El mismo se  refiere a determinar el valor del atributo decisi&oacute;n de un nuevo objeto  analizando su similaridad con respecto a un conjunto de prototipos,  seleccionados o generados a partir del conjunto inicial de objetos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La manera&nbsp; de  obtener este conjunto de prototipos est&aacute; basada en seleccionarlos de un  conjunto original de&nbsp; ejemplos  etiquetados, o reemplazando el conjunto original por uno diferente y disminuido  (Triguero I, Derrac J, Garc&acute;&#305;a S., &amp; F., 2011). Los m&eacute;todos de  reducci&oacute;n de datos, cuando se refieren a ejemplos se dividen en dos categor&iacute;as:  la Selecci&oacute;n de Prototipos (SP) (BIEN &amp; TIBSHIRANI, 2012) y la Generaci&oacute;n  de Prototipos (GP) (Le&oacute;n, J., &amp; Giraldo, 2012). Los m&eacute;todos de  selecci&oacute;n de prototipos conservan un subconjunto de objetos representativos de  los datos de entrenamiento original desechando el ruido y los objetos  redundantes. Los m&eacute;todos de generaci&oacute;n de prototipos, por el contrario,  seleccionan los datos que puedan reemplazar los datos originales con nuevos  datos artificiales (Espinilla, Quesada, Moya, Martinez, &amp; Nugent., 2015). Este proceso  permite llenar regiones del dominio del problema que no tiene ejemplos  representativos en los datos originales.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La Generaci&oacute;n de Prototipos (GP) que tiene como objetivo  obtener un conjunto de entrenamiento lo m&aacute;s reducido posible que permita clasificar  con la misma o m&aacute;s calidad que con el conjunto de entrenamiento original. Esto  permite reducir la complejidad espacial del m&eacute;todo y reducir su costo computacional.  Adem&aacute;s, en ocasiones puede mejorar su precisi&oacute;n, mediante la eliminaci&oacute;n de  ruido. Las t&eacute;cnicas de generaci&oacute;n de prototipo han demostrado ser muy  competitivas mejorando el rendimiento del clasificador del vecino m&aacute;s cercano (Triguero, Derrac, Garc&iacute;a, &amp; Herrera, 2012). Los  clasificadores basados en prototipos permiten determinar la clase de un nuevo  ejemplo basado en un conjunto reducido de prototipo en vez de usar un gran conjunto  de ejemplos conocidos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El acercamiento NP permite  disminuir los costos de almacenamiento y procesamiento de las t&eacute;cnicas de  aprendizaje basadas en ejemplos. En (S.W. Kim, 2003) se  plantea que cuando la cantidad de informaci&oacute;n es muy grande, una posible  soluci&oacute;n es reducir la cantidad de vectores &ldquo;ejemplos&rdquo;, siempre que la eficacia  obtenida sea mejor o igual que cuando se utiliza el conjunto original de datos.  Por lo tanto, un buen conjunto de prototipos tiene dos caracter&iacute;sticas  importantes: cardinalidad m&iacute;nima y precisi&oacute;n m&aacute;xima en la soluci&oacute;n de un  problema. Se necesitan estrategias para reducir la cantidad de ejemplos de entrada  a una cantidad peque&ntilde;a representativa y su actuaci&oacute;n debe evaluarse teniendo en  cuenta la precisi&oacute;n de la clasificaci&oacute;n y el coeficiente de la reducci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">M&aacute;s de 25 m&eacute;todos de GP han  sido referidos en la literatura, en (Triguero I et  al., 2011) se presenta un estudio experimental donde  se identifican las principales caracter&iacute;sticas de estos m&eacute;todos y se muestra su  taxonom&iacute;a siguiendo un orden jer&aacute;rquico basado en los mecanismos de generaci&oacute;n,  en los conjuntos de generaci&oacute;n resultantes, tipo de reducci&oacute;n y evaluaci&oacute;n de  la b&uacute;squeda. Los 5 m&eacute;todos que ofrecen los mejores resultados seg&uacute;n este art&iacute;culo  son: Generalized Editing using Nearest Neighbor GENN (Koplowitz &amp; Brown, 1981),  Evolutionary Nearest Prototype Classifier&nbsp;  ENPC (F. Fern&aacute;ndez &amp; Isasi, 2004),  Integrated Concept Prototype Learned 2, ICPL2 (W.LAM,  C.K.KEUNG, &amp; . Aug. 2002), Reduction by space  partitioning 3 RSP3 (S&aacute;nchez, 2004), <em>Particle Swarm Optimization</em> PSO (Nanni &amp; Lumini, 2008). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Existen varias aproximaciones basadas en t&eacute;cnicas de agrupamiento (Bermejo &amp;  Cabestany, 2000), (Patan&eacute; &amp;  Russo, 2001), (Le&oacute;n et al., 2012), las  cuales se caracterizan por dos etapas principales, la primera es para agrupar  un conjunto de datos de entradas sin etiquetas para obtener un conjunto  reducido de prototipos, la segunda es para poner etiquetas a estos prototipos  basados en ejemplos ya etiquetados y en la regla del vecino m&aacute;s cercano (F. Fern&aacute;ndez  &amp; Isasi, 2004).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En (Triguero et  al., 2012) los autores plantean un enfoque h&iacute;brido para integrar un esquema de pesos con el fin de  obtener la reducci&oacute;n de datos, aplicando una t&eacute;cnica auto-adaptativa de  evoluci&oacute;n diferencial con el fin de optimizar la ponderaci&oacute;n dada a cada  caracter&iacute;stica y la localizaci&oacute;n de los prototipos, obteniendo mejoras en el  rendimiento del clasificador del vecino m&aacute;s cercano.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En (BELLO-GARCIA, GARCIA, &amp; BELLO, 2013) se presenta un m&eacute;todo para la construcci&oacute;n de  prototipos en problemas de aproximaci&oacute;n de funciones utilizando la medida  calidad de la similaridad (Filiberto, Bello, Caballero, &amp; Larrua, 2010b) y la metaheuristica UMDA, mientras que en (Y. Fern&aacute;ndez et al., 2015) se propone un algoritmo para construir  prototipos en problemas de clasificaci&oacute;n.&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong><em>Selecci&oacute;n de atributos</em></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los problemas de clasificaci&oacute;n se puede pensar que lo  m&aacute;s significativo es disponer de la m&aacute;xima informaci&oacute;n posible. Por lo que  puede parecer que cuanto mayor sea el n&uacute;mero de atributos empleados mejor. El  rendimiento de los algoritmos de aprendizaje se puede deteriorar ante la abundancia  de informaci&oacute;n. Muchos atributos pueden ser completamente irrelevantes para el  problema. Adem&aacute;s, varios atributos redundantes pueden estar proporcionando la  misma informaci&oacute;n (Chandrashekar &amp; Sahin, 2014). Por tanto,  podr&iacute;amos prescindir perfectamente de algunos de ellos sin perjudicar nada la  resoluci&oacute;n del problema, y mejorar los resultados en diversos aspectos. De modo  que resulta &uacute;til realizar una selecci&oacute;n de atributos, antes de proceder al  proceso de clasificaci&oacute;n, pues es un hecho que el comportamiento de los  clasificadores mejora cuando se eliminan los atributos no relevantes y  redundantes (Ara&uacute;zo, 2006).</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la selecci&oacute;n de atributos se intenta escoger el  subconjunto m&iacute;nimo de atributos de acuerdo con dos criterios: que la tasa de  aciertos no descienda significativamente; y que la distribuci&oacute;n de clase  resultante, sea lo m&aacute;s semejante posible a la distribuci&oacute;n de clase original,  dados todos los atributos. En general, la aplicaci&oacute;n de la selecci&oacute;n de  caracter&iacute;sticas ayuda en todas las fases del proceso de descubrimiento de  conocimiento.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los algoritmos de selecci&oacute;n de atributos escogen un subconjunto  m&iacute;nimo de caracter&iacute;sticas que satisfaga un criterio de evaluaci&oacute;n (Liu &amp; Motoda, 2007) (Ch., D., R.,  &amp; K., 2011). Cuando los algoritmos de selecci&oacute;n de atributos se aplican antes de la  clasificaci&oacute;n, estamos interesados en aquellos atributos que clasifican mejor  los datos desconocidos hasta el momento. Si el algoritmo proporciona un  subconjunto de atributos, este subconjunto se utiliza para generar el modelo de  conocimiento que clasificar&aacute; los nuevos datos (Triguero et al., 2012).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La utilizaci&oacute;n de m&eacute;todos de selecci&oacute;n de atributos en el  desarrollo de clasificadores se aborda en (Ara&uacute;zo, 2006), donde se expone las ventajas  que puede aportar en cuanto a la&nbsp;  eficiencia (en tiempo y/o en espacio) de la mayor&iacute;a de los algoritmos de  aprendizaje; ya que seleccionando un conjunto de caracter&iacute;sticas m&aacute;s peque&ntilde;o el  algoritmo funcionar&aacute; m&aacute;s r&aacute;pido y/o con menor consumo de memoria u otros  recursos. Tambi&eacute;n la mejora en los resultados obtenidos es otra ventaja puesto  que algunos de los algoritmos de aprendizaje, que trabajan muy bien con pocas  caracter&iacute;sticas relevantes, ante la abundancia de informaci&oacute;n pueden tratar de  usar caracter&iacute;sticas irrelevantes y ser confundidos por las mismas, ofreciendo  resultados peores. As&iacute; que la selecci&oacute;n de atributos puede ayudar a obtener  mejores resultados a un algoritmo indic&aacute;ndole en que caracter&iacute;sticas centrar la  atenci&oacute;n, puede lograr la reducci&oacute;n de los costes de adquisici&oacute;n de datos y la  mejora en la interpretaci&oacute;n de los resultados, al estar basada en un menor  n&uacute;mero de caracter&iacute;sticas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la secci&oacute;n 2 se describe el m&eacute;todo REDUCT-SIM (Y. Fern&aacute;ndez, Bello, Filiberto, Caballero, &amp; Fr&iacute;as,  2013) que se utiliz&oacute; para realizar la  selecci&oacute;n de atributos antes de aplicar el proceso de construcci&oacute;n de  prototipos propuesto en (Y. Fern&aacute;ndez et al., 2015), En la secci&oacute;n 3 se analiza el desempe&ntilde;o de la nueva  propuesta y finalmente se presentan las conclusiones.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Selecci&oacute;n  de rasgos aplicado a la clasificaci&oacute;n basada en prototipos.</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este ep&iacute;grafe presenta las  principales caracter&iacute;sticas que definen al m&eacute;todo de selecci&oacute;n de atributos  (REDUCT-SIM) y al m&eacute;todo de generaci&oacute;n de prototipos NPBASIR-Class. Se describe  la nueva propuesta que surge de la combinaci&oacute;n de estas dos t&eacute;cnicas, NPBASIR-Class-RED,  y se realizan los estudios experimentales con conjuntos de datos  internacionales, incluyendo adem&aacute;s el an&aacute;lisis estad&iacute;stico basado en pruebas no  param&eacute;tricos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong><em>M&eacute;todo de  selecci&oacute;n de atributos (REDUCT-SIM)</em></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el c&aacute;lculo  de los reductos se utilizan los pesos calculados para los rasgos al construir  la relaci&oacute;n de similaridad. El m&eacute;todo propuesto en (Filiberto et al., 2010b) busca el  conjunto de pesos <em>W={ w<sub>1</sub>, &hellip;, w<sub>n</sub>  }</em> asociado al conjunto de los rasgos de condici&oacute;n <em>C={ r<sub>1</sub>, &hellip;, r<sub>n</sub> }</em> mediante una b&uacute;squeda  heur&iacute;stica que maximice la medida calidad de la similaridad.&nbsp; El m&eacute;todo REDUCT-SIM utiliza el conjunto de  pesos <em>W</em> para construir reductos. La  esencia de este m&eacute;todo es eliminar los rasgos en orden inverso a su  importancia, mientras se mantenga la condici&oacute;n de que el subconjunto resultante  es un reducto. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para chequear la  condici&oacute;n de reducto se utiliza la medida calidad de la clasificaci&oacute;n, la cual  se define por la expresi&oacute;n (1);</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo0106416.jpg" alt="fo01" width="262" height="71"></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <em>card(B*Y<sub>i</sub>)</em> denota  la cardinalidad de la aproximaci&oacute;n inferior de cada clase, <em>m</em> es la cantidad de clases y <em>N</em> es la cantidad de objetos del universo. Un reducto <em>B</em> cumple que g<em>B(Y)=gC(Y).</em> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El c&aacute;lculo de la  medida calidad de la clasificaci&oacute;n exige que los rasgos de condici&oacute;n tengan  dominio discreto, en otro caso es necesario discretizar el dominio.    <br>   A continuaci&oacute;n,  se describe los pasos que son seguidos en el algoritmo REDUCT-SIM:    <br> Paso 1:  Calcular el conjunto de pesos <em>W</em> seg&uacute;n  el m&eacute;todo propuesto en (Filiberto et al.,  2010b).     <br> Paso 2:  Ordenar los rasgos en C seg&uacute;n el valor de los pesos calculados de mayor a  menor.    <br> Paso 3:  Discretizar los rasgos de dominio continuo.    <br> Paso 4:  Calcular la medida calidad de la clasificaci&oacute;n del conjunto de entrenamiento  discretizado.     <br> Paso 5:  Eliminar sucesivamente los rasgos de menores pesos mientras que se conserve el  valor de la medida calidad de la clasificaci&oacute;n.     <br> Paso 6: Se considera como reducto el conjunto de rasgos resultantes.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>M&eacute;todo de construcci&oacute;n de  prototipos (NPBASIR-Class)</strong></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este m&eacute;todo es un proceso iterativo en el cual los prototipos  son construidos de las clases de similitud de objetos en el universo: una clase  de similitud es construida usando la relaci&oacute;n de similitud R ([Oi]R) y un  prototipo es construido para esta clase de similitud. Cuando un objeto es  incluido en una clase de similitud, es marcado como usado y no se tiene en  cuenta para construir otra clase de similitud; Un arreglo de n componentes es  usado, llamado Usado [] donde en Usado [i] tiene valor 1 si el objeto fue  utilizado o 0 en otro caso. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este algoritmo utiliza un conjunto de instancias X = {X1,  X2...Xn} cada una de las cuales es descrita por un vector de a atributos  descriptivos y pertenece a una de k clases w = {w1, w2,..., wk} y una relaci&oacute;n  de similitud R. La relaci&oacute;n de similitud R es construida acorde al m&eacute;todo  propuesto en (Filiberto et al., 2010b), (Filiberto, Bello, Caballero, &amp; Larrua, 2010); que est&aacute;  basado en encontrar la relaci&oacute;n que maximice la calidad de la medida de  similitud. En este caso, la relaci&oacute;n R genera una granulaci&oacute;n considerando los  a atributos descriptivos, tan similares como posibles para la granulaci&oacute;n acorde  a las clases.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo propuesto consiste en un procedimiento  iterativo en el cual se construyen prototipos a partir de las clases de  similaridad de objetos del universo: se construye una clase de similaridad  usando la relaci&oacute;n de similaridad <em>R ([Oi]  R</em>) y se construye un prototipo para esta clase de similaridad. Cada vez que  un objeto se incluye en una clase de similaridad se marca como usado, y no se  tiene en cuenta para construir a partir de una clase de similaridad; pero los  objetos usados si pueden pertenecer a clases de similaridad que se construyan  para otros objetos no usados. Se usa un arreglo de <em>n</em> componentes, denominado <em>Usado[],</em> en el cual <em>Usado[i]</em> tiene un valor <em>1</em> si el objeto ya fue usado, &oacute; <em>0</em> en otro caso.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Algoritmo:  NPBASIR-C (entrada: X, salida: ProtoSet)</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dado un conjunto de n objetos con m atributos descriptivos y un atributo de  decisi&oacute;n y una relaci&oacute;n de similitud R</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>P1:</strong> Inicializar contador de objetos.</font></p>     <p><img src="/img/revistas/rcci/v10n4/fo0206416.jpg" alt="fo02" width="183" height="77"></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">P2:</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"> Comenzar procesamiento del objeto O<sub>i</sub>.    <br>   i &larr; &iacute;ndice del primer objeto no usado     <br> Si i=n entonces fin de la generaci&oacute;n  de prototipos.</font></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>P3:</strong> Construir la clase de similitud de objetos </font><font size="2"><font face="Verdana, Arial, Helvetica, sans-serif">O<sub>i</sub></font></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> acorde a R.    <br>   [</font><font size="2"><font face="Verdana, Arial, Helvetica, sans-serif">O<sub>i</sub></font></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">]R denota la  clase de similitud del objeto </font><font size="2"><font face="Verdana, Arial, Helvetica, sans-serif">O<sub>i</sub></font></font>. </p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">P4:</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"> Construir un vector P con m componentes para todos  los objetos en [O<sub>i</sub>]R.</font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P(i) &larr;  f(V<sub>i</sub>), donde V<sub>i</sub> es el conjunto de valores de los rasgos i  en objetos en [O<sub>i</sub>]R&nbsp; y f es un  operador de agregaci&oacute;n. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v10n4/fo0306416.jpg" alt="fo03" width="429" height="78"></font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">P6:</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"> Ir a P2 </font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el paso P4 la funci&oacute;n f denota un operador de  agregaci&oacute;n, por ejemplo: Si el valor en Vi es real, el promedio puede ser  usado; si son discretos, el valor m&aacute;s com&uacute;n. El prop&oacute;sito es construir un  prototipo o centroide para un conjunto de objetos similares.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El conjunto de prototipos ProtoSet es la salida del  algoritmo NPBASIR-C. Este conjunto es usado por el clasificador para clasificar  nuevas instancias:</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Algoritmo  NPBASIR-CLASS (entrada: ProtoSet, x, salida: class)</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dado un Nuevo objeto x y el conjunto ProtoSet.     ]]></body>
<body><![CDATA[<br>   P1: Calcular la similitud entre x y cada prototipo.    <br>   P2: Seleccionar los k prototipos m&aacute;s similar a x.     <br>   P3: Calcular la clase de x como la clase m&aacute;s probable en el conjunto de k  prototipos m&aacute;s similares.     <br>   En el paso 3 la clase se calcula de igual forma que en  k-vecinos m&aacute;s similares (k-SN) para la clasificaci&oacute;n.</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">M&eacute;todo NPBASIR-Class-RED</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo NPBASIR-ClassRED es el resultado de realizar la selecci&oacute;n de  atributos utilizando el m&eacute;todo REDUCT-SIM, explicado anteriormente y con el  subconjunto de atributos obtenidos realizar la generaci&oacute;n de prototipos  utilizando NPBASIR-Class.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con el fin de evaluar la  exactitud de la propuesta fue realizada el siguiente estudio experimental. Se  utilizaron 10 conjuntos de datos provenientes del dep&oacute;sito de datos para  aprendizaje automatizado disponibles en el sitio ftp de la Universidad de  Irvine, California, donde la mayor&iacute;a de los atributos en A tienen dominio continuo y el rasgo d  discreto. La <a href="#t01">tabla 1</a> resume las propiedades de los conjuntos de datos  seleccionados. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los conjuntos de datos considerados fueron particionados utilizando el  procedimiento K-fold cross-validation. (Demsar, 2006). Este  m&eacute;todo, subdivide el conjunto de datos original en K (10) subconjuntos de igual  tama&ntilde;o, uno de los cuales se utiliza como conjunto de prueba mientras los dem&aacute;s  forman el conjunto de entrenamiento. Luego la exactitud general del  clasificador es calculada como el promedio de las precisiones obtenidas con  todos los subconjuntos de prueba. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para calcular la exactitud de los m&eacute;todos se utiliz&oacute; la m&eacute;trica Accuracy,  t&iacute;picamente usada en estos casos por su simplicidad y aplicaci&oacute;n exitosa (Witten &amp;  Frank, 2005). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el an&aacute;lisis estad&iacute;stico de los resultados se utilizaron las t&eacute;cnicas  de prueba de hip&oacute;tesis (S. Garc&iacute;a &amp;  Herrera, 2009), (Sheskin, 2003). Para  comparaciones m&uacute;ltiples, se utilizan las pruebas de Friedman y de  Iman-Davenport (Iman &amp;  Davenport, 1980) para detectar diferencias estad&iacute;sticamente significativas entre un grupo  de resultados. Se emplea adem&aacute;s la prueba de Holm (Holm, 1979) con el  fin de encontrar los algoritmos significativamente superiores.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Estas pruebas son sugeridas en los estudios presentados en (Demsar, 2006), (S. Garc&iacute;a &amp;  Herrera, 2008), (S. Garc&iacute;a &amp;  Herrera, 2009) (S. Garc&iacute;a, et  al., 2010), donde se afirma que el uso  de estas pruebas es muy recomendable para la validaci&oacute;n de resultados en el  campo del aprendizaje automatizado.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/t0106416.jpg" alt="t01" width="459" height="258"><a name="t01"></a></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>RESULTADOS Y DISCUSI&Oacute;N</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v10n4/t0206416.jpg" target="_blank">Tabla 2</a> se  muestran los resultados de la comparaci&oacute;n entre el algoritmo NPBASIR-Class,  NPBASIR-ClassRED,&nbsp; y los algoritmos LVQ3,  GENN, PSCSA, VQ, MSE,ENPC,AVQ, Chen e HYB, que seg&uacute;n el estudio realizado en (Triguero I et al., 2011) obtienen los mejores resultados entre los clasificadores analizados. Estos  algoritmos est&aacute;n implementados en la herramienta KEEL (Alcal&aacute;, 2008). Los conjuntos de datos  utilizados se renombraron con la terminaci&oacute;n &ndash;red, con el prop&oacute;sito de  demostrar que fueron las bases reducidas las que se utilizaron en la  experimentaci&oacute;n, excepto para el algoritmo NPBASIR-Class, que fueron los  conjuntos originales.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En  la <a href="/img/revistas/rcci/v10n4/t0306416.jpg" target="_blank">Tabla 3</a> se puede observar que el mejor ranking lo tiene el m&eacute;todo  NPBASIR-Class, seguido por el NPBASIR-ClassRED, demostrando que utilizando  selecci&oacute;n de atributos antes de la clasificaci&oacute;n los resultados son satisfactorios,  teniendo en cuenta que se disminuye el tiempo de ejecuci&oacute;n (como se muestra en  la <a href="/img/revistas/rcci/v10n4/t0406416.jpg" target="_blank">Tabla 4</a>) y la cantidad de prototipos encontrados es menor (como se muestra  en la <a href="/img/revistas/rcci/v10n4/t0506416.jpg" target="_blank">Tabla 5</a>), sin variar notablemente la calidad de la clasificaci&oacute;n. La  cantidad de prototipos generados por los algoritmos NP-BASIR-Class y NP-BASIR-ClassRED fue calculada basada en el promedio de  la cantidad de prototipos generados para cada partici&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El tiempo de ejecuci&oacute;n que se muestra en la <a href="/img/revistas/rcci/v10n4/t0406416.jpg" target="_blank">Tabla 4</a>, en la columna  NPBASIR-Class fue el tiempo de ejecuci&oacute;n de los conjuntos de datos sin la  selecci&oacute;n de atributos y en la columna NPBASIR-ClassRED, el tiempo de ejecuci&oacute;n  de los conjuntos de datos con la selecci&oacute;n de atributos, dado en segundos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v10n4/t0506416.jpg" target="_blank">Tabla 5</a> tambi&eacute;n se observa el coeficiente de reducci&oacute;n Re (&middot;) (Bermejo &amp;  Cabestany, 2000), esta medida que se muestra en la expresi&oacute;n (2), indica la cantidad de  objetos que fue reducida (relaci&oacute;n entre la cantidad de prototipos determinados  utilizando todos los atributos(P) y la cantidad de prototipos determinados  utilizando selecci&oacute;n de atributos(X)).</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo0406416.jpg" alt="fo06" width="239" height="62"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v10n4/t0506416.jpg" target="_blank">Tabla 5</a>, la quinta columna muestra el coeficiente de reducci&oacute;n del algoritmo NPBASIR-ClassRED  respecto al conjunto original de datos y la columna 6 muestra el coeficiente de  reducci&oacute;n del algoritmo NPBASIR-ClassRED respecto al algoritmo NPBASIR-Class.</font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En  este art&iacute;culo, se analizaron los resultados obtenidos al comparar la propuesta  con otras t&eacute;cnicas de generaci&oacute;n de prototipos y se puede concluir que: La  combinaci&oacute;n de un m&eacute;todo de selecci&oacute;n de atributos con un m&eacute;todo de generaci&oacute;n  de prototipos, favorece la obtenci&oacute;n de mejores resultados. El m&eacute;todo NPBASIR-ClassRED  permite disminuir el tiempo de ejecuci&oacute;n y la cantidad de prototipos en  comparaci&oacute;n con otros m&eacute;todos, sin variar notablemente la calidad de la clasificaci&oacute;n. </font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS  BIBLIOGR&Aacute;FICAS</B></font>     <p><font size="2"><a><font face="Verdana, Arial, Helvetica, sans-serif">ALCAL&Aacute;, J., et al.</font></a><font face="Verdana, Arial, Helvetica, sans-serif"> (2008). KEEL: A Software Tool to Assess Evolutionary Algorithms to Data Mining  Problems. <em>Soft Computing, 13</em>(3), 307-318. </font></font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>ARA&Uacute;ZO,  A. (2006). <em>Un sistema inteligente para  selecci&oacute;n de caracter&iacute;sticas en clasificaci&oacute;n.</em> </a>(Tesis  Doctoral), Universidad de Granada, Granada, Espa&ntilde;a.    &nbsp;&nbsp; </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BARANDELA, R. (2001). <em>The nearest neighbour rule and the reduction  of the training sample size </em>Paper presented at the 9th Symposium on Pattern  Recognition and Image Analysis, Castellon, Espa&ntilde;a.    </a> </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BELLO-GARCIA,  M., GARCIA, M. M., &amp; BELLO, R. (2013). </a><em>A Method for Building Prototypes in the Nearest Prototype  Approach Based on Similarity Relations for Problems of Function Approximation.</em> Paper presented  at the MICAI.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BERMEJO, S., &amp; CABESTANY, J.  (2000). A Batch Learning Algorithm Vector Quantization Algorithm for Nearest  Neighbour Classification. <em>Neural  Processing Letters,, 11</em>, 173&ndash;184. </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BEZDEK, J. C., &amp; KUNCHEVA, L.  I. (2001). Nearest Prototype classifiers design: an experimental study. <em>Int&rsquo;l J. Intelligent Systems, 16</em>,  1445-1473. </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>BIEN, J., &amp; TIBSHIRANI, R.  (2012). Prototype selection for interpretable classification. <em>Annals of Applied Statistics, 5</em>,  2403-2424.     </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>Ch., Y., D., M., R., W., &amp;  K., W. (2011). A rough set approach to feature selection based on power set  tree. <em>Knowledge-Based Systems, 24</em>(2),  275&ndash;281. </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>CHANDRASHEKAR, G., &amp; SAHIN,  F. (2014). A survey on feature selection method. <em>Computers and Electrical Engineering, 40</em>, 16&ndash;28. </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>DEMSAR, J. (2006). Statistical  comparisons of classifiers over multiple data sets. <em>Journal of Machine Learning Research</em>(7), 1-30.     </a> </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>ESPINILLA, M., QUESADA, F. J., MOYA,  F., MARTINEZ, L., &amp; NUGENT. (2015). Reducing the response time for activity  recognition through use of prototype generation algorithms. <em>LNCS,, 9102</em>, 313-318.     </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>FERN&Aacute;NDEZ, F., &amp; ISASI, P.  (2004). Evolutionary design of nearest prototype classifiers. </a><em>J. Heurist, 10</em>(4),  431&ndash;454. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>FERN&Aacute;NDEZ, Y., BELLO,  R., FILIBERTO, Y., CABALLERO, Y., &amp; FR&Iacute;AS, M. (2013). </a>Effects of using  reducts in the performanceof the IRBASIR algoritmth. <em>Revista DYNA, 182</em>, 182-190.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>FERN&Aacute;NDEZ, Y., BELLO,  R., FILIBERTO, Y., FR&Iacute;AS, M., COELLO, L., &amp; CABALLERO, Y. (2015). </a>An Approach For  Prototype Generation Based On Similarity Relations For Problems Of  Classification. <em>Computaci&oacute;n y Sistemas, 19</em>(1), 109&ndash;118. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>FILIBERTO, Y.</a>, BELLO, R., CABALLERO, Y., &amp; LARRUA, R. (2010). Using PSO and RST to Predict the Resistant  Capacity of Connections in Composite Structures. <em>In  International Workshop on Nature Inspired Cooperative Strategies for  Optimization (NICSO 2010) Springer</em>, 359-370. doi: 10.1007/978-3-642-12538-6_30 </font><!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>FILIBERTO, Y.</a>, BELLO, R., CABALLERO, Y., &amp;  LARRUA, R. (2010b, Nov. 19-Dec. 1). <em>A method  to built similarity relations into extended Rough set theory.</em> Paper presented at the Proceedings of the 10th International Conference on  Intelligent Systems Design and Applications (ISDA2010), Cairo, Egipto.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>GARC&Iacute;A-DURAN,  R., F., F., &amp; BORRAJO, D. (2010). </a>A prototype-based method for  classification with time constraints: a case study on automated planning. . <em>Pattern Anal. Applic</em>. doi:  10.1007/s10044-010-0194-6 </font><!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>GARC&Iacute;A, S., et al.</a> (2010). Advanced  nonparametric tests for multiple comparisons in the design of experiments in  computational intelligence and data mining: Experimental analysis of power. <em>Information  Sciences, 180</em>, 2044-2064.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>GARC&Iacute;A, S.</a>, &amp; HERRERA, F. (2008). An extension on &ldquo;statistical comparisons of  classifiers over multiple data sets&rdquo; for all pairwise comparisons. <em>Journal  of Machine Learning Research, 9</em>, 2677-2694. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>GARC&Iacute;A, S.</a>, &amp; HERRERA,  F. (2009). Evolutionary  under-sampling for classification with imbalanced data sets: Proposals and  taxonomy. <em>Evolutionary Computation, 17</em>(3), 275-306. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>HOLM, S.</a> (1979). A simple  sequentially rejective multiple test procedure. <em>Journal  of Statistics, 6</em>, 65-70.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>IMAN, R.</a>, &amp; DAVENPORT,  J. (1980). Approximations  of the critical region of the friedman statistic. <em>Communications  in Statistics, Part A Theory Methods, 9</em>, 571-595.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>JIANG, S., PANG, G., WU, M.,  &amp; KUANG, L. (2012). An improved K-nearest-neighbor algorithm for text  categorization. <em>Expert Systems with  Applications, 39</em>(1), 1503&ndash;1509. </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>KOPLOWITZ, J., &amp; BROWN, T. A.  (1981). On the relation of performance to editing in nearest neighbor rule. <em>Pattern Recognition, 13</em>(3), 251-255. </a> </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>LE&Oacute;N, E., J., G., &amp; GIRALDO,  F. (2012). <em>Online Cluster Prototype  Generation for the Gravitational Clustering Algorithm Advances in Artificial  Intelligence. .</em> Paper presented at the IBERAMIA 2012.    </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>LIU, H., &amp; MOTODA, H. (2007).  Computational Methods of Feature Selection. <em>Data  Mining and Knowledge Discovery Series</em>.     </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>NANNI, L., &amp; LUMINI, A.  (2008). Particle swarm optimization for prototype reduction. <em>Neurocomputing, 72</em>(4&ndash;6), 1092&ndash;1097. </a> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>PATAN&Eacute;, G., &amp; RUSSO, M.  (2001). The Enhanced LBG Algorithm. <em>Neural  Networks, 14</em>, 1219&ndash;1237. </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>S.W. KIM, J. O. (2003). A Brief  Taxonomy and Ranking of Creative Prototype Reduction Schemes. <em>Pattern Analysis and Applications, 6</em>,  232-244.     </a></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>S&Aacute;NCHEZ, J. S. (2004). High  training set size reduction by space partitioning and prototype abstraction. <em>Pattern Recognit., 37</em>(7), 1561&ndash;1564. </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>SHESKIN, D.</a> (2003). <em>Handbook of parametric and nonparametric  statistical procedures, chapman &amp; hall</em>. Paper  presented at the <em>CRC</em>.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>TRIGUERO I, DERRAC J, GARCIA S.,  &amp; F., H. (2011). A Taxonomy and Experimental Study on Prototype Generation  for Nearest Neighbor Classification. <em>EEE  Transactions on Systems, Man, and Cybernetics-Part C: Applications and Reviews,  do i: 0.1109/TSMCC.2010.2103939, in press</em>.     </a> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>TRIGUERO,  I., DERRAC, J., GARC&Iacute;A, S., &amp; HERRERA, F. (2012). </a>Integrating a  Differential Evolution Feature Weighting scheme into Prototype Generation. <em>Neurocomputing, 97</em>, 332-343.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>W.LAM, C.K.KEUNG, &amp; ., D. L.  (Aug. 2002). Discovering useful concept prototypes for classi</a>&#64257;cation based on &#64257;ltering and  abstraction. <em>Pattern Anal. Mach. Intell,  14</em>, 1075&ndash;1090. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a>WITTEN, I., &amp; FRANK, E.  (Eds.). (2005). <em>Data Mining. Practical  Machine Learning Tools and Techniques</em> (Second Edition ed.): Department of  Computer Science. </a>University of Waikato.     </font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 08/05/2016    <br> Aceptado: </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">22/10/2016</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ALCALÁ]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[KEEL: A Software Tool to Assess Evolutionary Algorithms to Data Mining Problems]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>307-318</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ARAÚZO]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Un sistema inteligente para selección de características en clasificación.]]></source>
<year>2006</year>
<publisher-loc><![CDATA[^eGranada Granada]]></publisher-loc>
<publisher-name><![CDATA[), Universidad de Granada]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BARANDELA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[The nearest neighbour rule and the reduction of the training sample size Paper presented at the 9th Symposium on Pattern Recognition and Image Analysis]]></source>
<year>2001</year>
<publisher-loc><![CDATA[^eCastellon Castellon]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BELLO-GARCIA]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[GARCIA]]></surname>
<given-names><![CDATA[M. M]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[A Method for Building Prototypes in the Nearest Prototype Approach Based on Similarity Relations for Problems of Function Approximation]]></source>
<year>2013</year>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BERMEJO]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[CABESTANY]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[A Batch Learning Algorithm Vector Quantization Algorithm for Nearest Neighbour Classification]]></source>
<year>2000</year>
<volume>11</volume>
<page-range>173-184</page-range><publisher-name><![CDATA[Neural Processing Letters]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BEZDEK]]></surname>
<given-names><![CDATA[J. C]]></given-names>
</name>
<name>
<surname><![CDATA[KUNCHEVA]]></surname>
<given-names><![CDATA[L. I]]></given-names>
</name>
</person-group>
<source><![CDATA[Nearest Prototype classifiers design: an experimental study]]></source>
<year>2001</year>
<volume>16</volume>
<page-range>1445-1473</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BIEN]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[TIBSHIRANI]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Prototype selection for interpretable classification]]></source>
<year>2012</year>
<volume>5</volume>
<page-range>2403-2424</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ch]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[D]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[R]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[K]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A rough set approach to feature selection based on power set tree]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>24</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>275-281</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CHANDRASHEKAR]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[SAHIN]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[A survey on feature selection method]]></source>
<year>2014</year>
<volume>40</volume>
<page-range>16-28</page-range><publisher-name><![CDATA[Computers and Electrical Engineering]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DEMSAR]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical comparisons of classifiers over multiple data sets.]]></source>
<year>2006</year>
<volume>7</volume>
<page-range>1-30</page-range><publisher-name><![CDATA[Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ESPINILLA]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[QUESADA]]></surname>
<given-names><![CDATA[F. J]]></given-names>
</name>
<name>
<surname><![CDATA[MOYA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[MARTINEZ]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[NUGENT]]></surname>
</name>
</person-group>
<source><![CDATA[Reducing the response time for activity recognition through use of prototype generation algorithms.]]></source>
<year>2015</year>
<page-range>313-318</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FERNÁNDEZ]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[ISASI]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evolutionary design of nearest prototype classifiers]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>10</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>431-454</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FERNÁNDEZ]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[FILIBERTO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[FRÍAS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Effects of using reducts in the performanceof the IRBASIR algoritmth]]></source>
<year>2013</year>
<volume>182</volume>
<page-range>182-190</page-range><publisher-name><![CDATA[Revista DYNA]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FERNÁNDEZ]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[FILIBERTO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[FRÍAS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[COELLO]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Approach For Prototype Generation Based On Similarity Relations For Problems Of Classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>19</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>109-118</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FILIBERTO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[LARRUA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Using PSO and RST to Predict the Resistant Capacity of Connections in Composite Structures]]></source>
<year>2010</year>
<page-range>359-370</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FILIBERTO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[BELLO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[CABALLERO]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[LARRUA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[A method to built similarity relations into extended Rough set theory]]></source>
<year>2010</year>
<month>b,</month>
<day> N</day>
<publisher-loc><![CDATA[^eCairo Cairo]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA-DURAN]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[BORRAJO]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[A prototype-based method for classification with time constraints: a case study on automated planning.]]></source>
<year>2010</year>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Advanced nonparametric tests for multiple comparisons in the design of experiments in computational intelligence and data mining: Experimental analysis of power]]></source>
<year>2010</year>
<volume>180</volume>
<page-range>2044-2064</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[An extension on statistical comparisons of classifiers over multiple data sets for all pairwise comparisons]]></source>
<year>2008</year>
<volume>9</volume>
<page-range>2677-2694</page-range><publisher-name><![CDATA[Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evolutionary under-sampling for classification with imbalanced data sets: Proposals and taxonomy]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>17</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>275-306</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HOLM]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[A simple sequentially rejective multiple test procedure]]></source>
<year>1979</year>
<volume>6</volume>
<page-range>65-70</page-range><publisher-name><![CDATA[Journal of Statistics]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[IMAN]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[DAVENPORT]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Approximations of the critical region of the friedman statistic]]></source>
<year>1980</year>
<volume>9</volume>
<page-range>571-595.</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JIANG]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[PANG]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[WU]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[KUANG]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An improved K-nearest-neighbor algorithm for text categorization]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>39</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1503-1509</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KOPLOWITZ]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[BROWN]]></surname>
<given-names><![CDATA[T. A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On the relation of performance to editing in nearest neighbor rule]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>251-255</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LEÓN]]></surname>
<given-names><![CDATA[E., J., G]]></given-names>
</name>
<name>
<surname><![CDATA[GIRALDO]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Online Cluster Prototype Generation for the Gravitational Clustering Algorithm Advances in Artificial Intelligence.]]></source>
<year>2012</year>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LIU]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[MOTODA]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Computational Methods of Feature Selection]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NANNI]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[LUMINI]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Particle swarm optimization for prototype reduction]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>72</volume>
<numero>4-6</numero>
<issue>4-6</issue>
<page-range>1092-1097</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PATANÉ]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[RUSSO]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[The Enhanced LBG Algorithm]]></source>
<year>2001</year>
<volume>14</volume>
<page-range>1219-1237</page-range></nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[W. KIM]]></surname>
<given-names><![CDATA[J. O]]></given-names>
</name>
</person-group>
<source><![CDATA[A Brief Taxonomy and Ranking of Creative Prototype Reduction Schemes.]]></source>
<year>2003</year>
<volume>6</volume>
<page-range>232-244</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SÁNCHEZ]]></surname>
<given-names><![CDATA[J. S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[High training set size reduction by space partitioning and prototype abstraction.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>37</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>1561-1564</page-range></nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SHESKIN]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Handbook of parametric and nonparametric statistical procedures, chapman & hall]]></source>
<year>2003</year>
</nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TRIGUERO]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[DERRAC]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[GARCIA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[A Taxonomy and Experimental Study on Prototype Generation for Nearest Neighbor Classification.]]></source>
<year>2011</year>
</nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TRIGUERO]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[DERRAC]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Integrating a Differential Evolution Feature Weighting scheme into Prototype Generation]]></source>
<year>2012</year>
<volume>97</volume>
<page-range>332-343</page-range></nlm-citation>
</ref>
<ref id="B34">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LAM]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[KEUNG]]></surname>
<given-names><![CDATA[C.K]]></given-names>
</name>
</person-group>
<source><![CDATA[Discovering useful concept prototypes for classi&#64257;cation based on &#64257;ltering and abstraction]]></source>
<year>Aug.</year>
<month> 2</month>
<day>00</day>
<volume>14</volume>
<page-range>1075-1090</page-range></nlm-citation>
</ref>
<ref id="B35">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WITTEN]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[FRANK]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<source><![CDATA[Data Mining. Practical Machine Learning Tools and Techniques]]></source>
<year>2005</year>
<edition>Second Edition</edition>
<publisher-name><![CDATA[University of Waikato]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
