<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992017000200010</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Estudio del comportamiento de métodos basados prototipos y en relaciones de similitud ante &#8220;hubness&#8221;]]></article-title>
<article-title xml:lang="en"><![CDATA[A study of the behavior of methods based on prototypes and similarity relations in the face of &#8220;hubness&#8221;]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Rodríguez Alvarez]]></surname>
<given-names><![CDATA[Yanela]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bello Pérez]]></surname>
<given-names><![CDATA[Rafael]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Caballero Mota]]></surname>
<given-names><![CDATA[Yailé]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Filiberto Cabrera]]></surname>
<given-names><![CDATA[Yaima]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Fernández Hernández]]></surname>
<given-names><![CDATA[Yumilka]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Frías Hernández]]></surname>
<given-names><![CDATA[Mabel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Camagüey Departamento de Computación ]]></institution>
<addr-line><![CDATA[ Camagüey]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Central Marta Abreu de las Villas Departamento de Ciencias de la Computación ]]></institution>
<addr-line><![CDATA[ Villa Clara]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2017</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2017</year>
</pub-date>
<volume>11</volume>
<numero>2</numero>
<fpage>134</fpage>
<lpage>148</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992017000200010&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992017000200010&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992017000200010&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN El fenómeno hubness, es un aspecto del curso de la dimensionalidad descrito recientemente, que está relacionado con la disminución de la especificidad de las similitudes entre los puntos en un espacio de alta dimensión; lo cual va en detrimento de los métodos de aprendizaje automático. En este trabajo se evalúa el impacto del fenómeno hubness en la clasificación utilizando un enfoque basado en prototipos. El estudio experimental realizado demuestra que los métodos de generación y selección de prototipos estudiados ofrecen resultados comparables contra otros métodos basados en el enfoque kNN, encontrados en la literatura, los cuales son hubness-consientes y están diseñados específicamente para lidiar con este problema. Teniendo en cuenta los resultados alentadores de este estudio y las bondades de los métodos basados en prototipos es posible asegurar que la utilización de los mismos permitirá mejorar el desempeño de los sistemas que manejen datos de altas dimensiones y bajo la asunción de hubness.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT The hubness phenomenon, is an aspect of the curse of dimensionality recently described, that is related to the diminishment of specificity in similarities between points in a high-dimensional space; which is detrimental to the machine learning methods. This paper deals with evaluating the impact of hubness phenomenon on classification based on the nearest prototype. Experimental results show that the studied methods of generation and selection of prototypes offer comparable results against others methods based on kNN approach, found in the literature, which are hubness aware and are specifically designed to deal with this problem. Based on these encouraging results and the extensibility of methods based on prototypes, it is possible argue that it might be beneficial to use them in order to improve system performance in high dimensional data under the assumption of hubness.]]></p></abstract>
<kwd-group>
<kwd lng="en"><![CDATA[Hubness]]></kwd>
<kwd lng="es"><![CDATA[selección de prototipos]]></kwd>
<kwd lng="es"><![CDATA[generación de prototipos]]></kwd>
<kwd lng="es"><![CDATA[relaciones de similitud]]></kwd>
<kwd lng="es"><![CDATA[clasificación]]></kwd>
<kwd lng="en"><![CDATA[Hubness]]></kwd>
<kwd lng="en"><![CDATA[prototype selection]]></kwd>
<kwd lng="en"><![CDATA[prototype generation]]></kwd>
<kwd lng="en"><![CDATA[similarity relations]]></kwd>
<kwd lng="en"><![CDATA[classification.]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Estudio del comportamiento de m&eacute;todos basados  prototipos y en relaciones de similitud ante &ldquo;hubness&rdquo;</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">A study of the behavior of methods based on  prototypes and similarity relations in the face of &ldquo;hubness&rdquo;</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Yanela  Rodr&iacute;guez Alvarez<strong><sup>1*</sup></strong>,<strong> Rafael  Bello P&eacute;rez <sup>2</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">,<strong>Yail&eacute;  Caballero Mota<sup>1</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>, Yail&eacute;  Caballero Mota<sup>1</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>, Yaima  Filiberto Cabrera<sup>1</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>, Yumilka  Fern&aacute;ndez Hern&aacute;ndez<sup>1</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>, Mabel  Fr&iacute;as Hern&aacute;ndez<sup>1</sup></strong></font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Departamento de Computaci&oacute;n, Universidad de Camag&uuml;ey, Circunvalaci&oacute;n  Norte Km 5 &frac12;, Camag&uuml;ey, Cuba. {yanela.rodriguez, yaile.caballero,  yaima.filiberto, yumilka.fernandez, mabel.frias}@reduc.edu.cu </font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br> <sup>2</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Departamento de Ciencias de la Computaci&oacute;n, Universidad  Central &ldquo;Marta Abreu&rdquo; de las Villas. Carretera a Camajuan&iacute; Km. 5 y &frac12;, Santa  Clara, Villa Clara, Cuba. <a href="mailto:rbellop@uclv.edu.cu">rbellop@uclv.edu.cu</a></font></p>     ]]></body>
<body><![CDATA[<P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:yanela.rodriguez@reduc.edu.cu">yanela.rodriguez@reduc.edu.cu</a><a href="mailto:ycardosog@uci.cu"></a><a href="mailto:lisvandy@ibp.co.cu"></a><a href="mailto:ycoca@uci.cu"></a><a href="mailto:valery@electrica.cujae.edu.cu"></a><a href="mailto:rtrujillo@edistancia.uo.edu.cu"></a><a href="mailto:jova@uci.cu"></a></font><font face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:losorio@ismm.edu.cu"></a> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El fen&oacute;meno <em>hubness</em>,  es un aspecto del curso de la dimensionalidad descrito recientemente, que est&aacute;  relacionado con la disminuci&oacute;n de la especificidad de las similitudes entre los  puntos en un espacio de alta dimensi&oacute;n; lo cual va en detrimento de los m&eacute;todos  de aprendizaje autom&aacute;tico. &nbsp;En este  trabajo se eval&uacute;a el impacto del fen&oacute;meno <em>hubness</em> en la clasificaci&oacute;n utilizando un enfoque basado en prototipos. El estudio  experimental realizado demuestra que los m&eacute;todos de generaci&oacute;n y selecci&oacute;n de  prototipos estudiados ofrecen resultados comparables contra otros m&eacute;todos  basados en el enfoque kNN, encontrados en la literatura, los cuales son <em>hubness</em>-consientes y est&aacute;n dise&ntilde;ados  espec&iacute;ficamente para lidiar con este problema. Teniendo en cuenta los  resultados alentadores de este estudio y las bondades de los m&eacute;todos basados en  prototipos es posible asegurar que la utilizaci&oacute;n de los mismos permitir&aacute;  mejorar el desempe&ntilde;o de los sistemas que manejen datos de altas dimensiones y  bajo la asunci&oacute;n de <em>hubness</em>. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2"><em><font face="Verdana, Arial, Helvetica, sans-serif">Hubness</font></em><font face="Verdana, Arial, Helvetica, sans-serif">,  selecci&oacute;n de prototipos, generaci&oacute;n de prototipos, relaciones de similitud,  clasificaci&oacute;n.</font></font> </p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">The hubness phenomenon, is an aspect of the curse of  dimensionality recently described, that is related to the diminishment of  specificity in similarities between points in a high-dimensional space; which  is detrimental to the machine learning methods. This paper deals with  evaluating the impact of hubness phenomenon on classification based on the nearest  prototype. Experimental results show that the studied methods of generation and  selection of prototypes offer comparable results against others methods based  on kNN approach, found in the literature, which are hubness aware and are  specifically designed to deal with this problem. Based on these encouraging  results and the extensibility of methods based on prototypes, it is possible argue  that it might be beneficial to use them in order to improve system performance  in high dimensional data under the assumption of hubness.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>Hubness,  prototype selection, prototype generation, similarity relations,  classification.</font></p> <hr>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los datos de alta  dimensi&oacute;n plantean muchos desaf&iacute;os intr&iacute;nsecos para los problemas de  reconocimiento de patrones como por ejemplo la maldici&oacute;n de la dimensionalidad  que incluye la escasez, la redundancia, la concentraci&oacute;n de las distancias,  las estimaciones de densidad problem&aacute;ticas, los vecinos m&aacute;s pr&oacute;ximos menos  significativos (Bolei,  Khosla, Lapedriza, Oliva, &amp; Torralba, 2015; Gao, Song, Nie, et al., 2015;  Nguyen, Yosinski, &amp; Clune, 2015; B. Yao, Khosla, &amp; Fei-Fei, 2011; Zhou  et al., 2015); as&iacute; como la disminuci&oacute;n de la especificidad de las  similitudes entre los puntos en un espacio de alta dimensi&oacute;n (Choi,  Pantofaru, &amp; Savarese, 2013; Khosla, An, Lim, &amp; Torralba, 2014;  Wiskott, 2013). Espec&iacute;ficamente, la complejidad de muchos  algoritmos de miner&iacute;a de datos existentes es exponencial con respecto al n&uacute;mero  de dimensiones (Gao,  Song, Liu, et al., 2015). Con el aumento de la  dimensionalidad, los algoritmos existentes pronto se convierten en  computacionalmente intratables y por lo tanto inaplicables en muchas  aplicaciones reales (Gao,  Song, Liu, et al., 2015).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una alternativa para  mitigar la maldici&oacute;n de la dimensionalidad, que implica la reducci&oacute;n del n&uacute;mero  de ejemplos a tener en cuenta, es la clasificaci&oacute;n utilizando un enfoque basado  en prototipos (<em>Nearest Prototype</em>, NP)  (Bezdek  &amp; Kuncheva, 2001). La idea es determinar el valor  del rasgo de decisi&oacute;n de un nuevo objeto analizando su similitud respecto a un  conjunto de prototipos seleccionado o generado a partir del conjunto inicial de  instancias. El prop&oacute;sito del enfoque NP es decrecer los costos de  almacenamiento y procesamiento de las t&eacute;cnicas de aprendizaje basadas en instancias.  Para reducir la cantidad de instancias, hay dos estrategias: Selecci&oacute;n y  Remplazo (Jin,  Liu, &amp; Hou, 2010). En el primer caso, se conserva  una cantidad limitada de instancias del conjunto de datos original. En la  segunda alternativa, se reemplaza el conjunto de datos originales por un n&uacute;mero  de prototipos que no necesariamente coincide con alguna instancia original.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El otro desaf&iacute;o que  se deriva del aumento de la dimensionalidad de los datos y que est&aacute; relacionado  con la disminuci&oacute;n de la especificidad de las similitudes entre los puntos en  un espacio de alta dimensi&oacute;n es el conocido como: fen&oacute;meno <em>hubness</em>, y que se ha descrito recientemente. Este fen&oacute;meno consiste  en la observaci&oacute;n de que al aumentar la dimensionalidad de un conjunto de datos  la distribuci&oacute;n del n&uacute;mero de veces que un punto de datos se encuentra entre  los k vecinos m&aacute;s cercanos de otros puntos de datos se convierte en cada vez  m&aacute;s sesgada a la derecha. Como consecuencia, los llamados &ldquo;<em>hubs&rdquo;</em> emergen, es decir, los puntos de datos que aparecen en las  listas de los k vecinos m&aacute;s cercanos de otros puntos de datos con mucha mayor  frecuencia que otros. (Low,  Borgelt, Stober, &amp; N&uuml;rnberger, 2013) </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los m&eacute;todos de  construcci&oacute;n y selecci&oacute;n de prototipos no han sido estudiados bajo el supuesto  de la presencia del fen&oacute;meno de <em>hubness</em> en los datos y su impacto en el  aprendizaje de estos m&eacute;todos. Por otro lado,</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El enfoque m&aacute;s intuitivo de  la clasificaci&oacute;n de patrones est&aacute; basado en el concepto de similitud (Duda,  Hart, &amp; Stork, 2001; Weinberger &amp; Saul, 2009); obviamente patrones que son  similares en algunos sentidos tienen asignada la misma clase.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El objetivo  de este trabajo es analizar  experimentalmente c&oacute;mo se comportan los m&eacute;todos de construcci&oacute;n y selecci&oacute;n de  prototipos basados en relaciones de similitud <strong>NP-BASIR-CLASS</strong> y <strong>NPBASIR SEL-CLASS</strong> ante conjuntos de entrenamiento que  tengan &ldquo;<em>hubness</em>&rdquo;; compar&aacute;ndolos con  m&eacute;todos basados en kNN, enfoque m&aacute;s estudiado hasta el momento, pero que son &ldquo;<em>hubness-</em>consientes&rdquo;, es decir, que  tienen en cuenta la presencia de los &ldquo;malos<em> hubs</em>&rdquo; y utilizan diferentes mecanismos para eliminarlos o mitigar sus  efectos negativos en la clasificaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El algoritmo <strong>NP-BASIR-CLASS</strong> (Fern&aacute;ndez Hern&aacute;ndez et al., 2015) es  comparado en este propio articulo con 12 algoritmos mencionados en el art&iacute;culo  &ldquo;<em>Una taxonom&iacute;a y un estudio experimental  sobre la Generaci&oacute;n de Prototipos para la Clasificaci&oacute;n del vecino m&aacute;s cercano</em>&rdquo;  (Triguero, Derrac, Garcia, &amp; Herrera, 2012). Estos  algoritmos son los que ofrecen mejores resultados seg&uacute;n (Triguero et al., 2012). Los  resultados experimentales muestran que el m&eacute;todo NP-BASIR-CLASS tiene el mejor  ranking y es estad&iacute;sticamente superior a los otros en t&eacute;rminos de precisi&oacute;n de  la clasificaci&oacute;n. El factor de reducci&oacute;n y el tiempo de ejecuci&oacute;n alcanzado  tambi&eacute;n fueron analizados y muestran resultados satisfactorios superiores en el  caso del algoritmo NP-BASIR-CLASS (Fern&aacute;ndez Hern&aacute;ndez et al., 2015).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por su parte, el algoritmo <strong>NPBASIR SEL-CLASS</strong> (Frias,  Filiberto, Fern&aacute;ndez, Caballero, &amp; Bello, 2015) es comparado con los 4 algoritmos, mencionados  en el art&iacute;culo &ldquo;Selecci&oacute;n de Prototipos para la Clasificaci&oacute;n del Vecino m&aacute;s  Cercano: una Taxonom&iacute;a y un Estudio Emp&iacute;rico&rdquo; (Garcia, Derrac,  Cano, &amp; Herrera, 2012), que ofrecen mejores resultados. De acuerdo con  los resultados presentados en este trabajo, la propuesta es estad&iacute;sticamente  significativa a los m&eacute;todos de RMHC, SSMA, HMNEI RNG y ofrece resultados  comparables con NPBASIR-CLASS en cuanto a la precisi&oacute;n de la clasificaci&oacute;n. Tambi&eacute;n  se analiza el factor de reducci&oacute;n lograda, mostrando resultados satisfactorios  superiores para el m&eacute;todo NPBASIR SEL-CLASS (Frias et al.,  2015). </font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la clasificaci&oacute;n  supervisada, la reducci&oacute;n de datos es una tarea importante, especialmente para  clasificadores basados en instancias porque a trav&eacute;s de ella los tiempos de  ejecuci&oacute;n se pueden reducir y obtener igual o mejor exactitud en la  clasificaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En (Fern&aacute;ndez  Hern&aacute;ndez et al., 2015) y (Frias  et al., 2015) se proponen dos m&eacute;todos para la  generaci&oacute;n y selecci&oacute;n de prototipos respectivamente que muestran buenos  resultados. Estos trabajos proponen utilizar el m&eacute;todo NPBASIR-CLASS y NPBASIR  SEL-CLASS para construir y seleccionar los prototipos respectivamente para  problemas de clasificaci&oacute;n empleando los conceptos de Computaci&oacute;n Granular (Y.  Yao, 2000) basada en NPBASIR (Bello-Garc&iacute;a,  Garc&iacute;a-Lorenzo, &amp; Bello, 2012).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La granulaci&oacute;n de un  universo se realiza usando una relaci&oacute;n de similitud que genera clases de  similitud de objetos en el universo, y para cada clase de similitud se  construye/selecciona un prototipo. Para construir la relaci&oacute;n de similitud se  utiliza el m&eacute;todo propuesto en (Filiberto,  Caballero, Larrua, &amp; Bello, 2010).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>M&eacute;todo de construcci&oacute;n de prototipos </strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo propuesto en (Fern&aacute;ndez Hern&aacute;ndez et al., 2015) es un proceso iterativo en el cual los prototipos son  construidos de las clases de similitud de objetos en el universo: una clase de  similitud se construye usando la relaci&oacute;n de similitud R([Oi]R)    y para  esta clase de similitud se construye un prototipo. Cuando un objeto es incluido  en una clase de similitud, es marcado como usado y no se tiene en cuenta para  construir otra clase de similitud. Se utiliza un arreglo de n componentes,  llamado Usado[] donde  en Usado[i] tiene valor 1 &nbsp;si el objeto  fue utilizado o 2 &nbsp;en otro caso. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v11n2/fo0110217.jpg" target="_blank">Este algoritmo</a> utiliza un conjunto de instancias X={X1, X2, ....., Xn} cada  una de las cuales es descrita por un vector de a atributos descriptivos y  pertenece a una de k clases w = {w1, w2, ...wk} y una relaci&oacute;n de similitud R. La  relaci&oacute;n de similitud R es  construida acorde al m&eacute;todo propuesto en (Filiberto, Bello,  Caballero, &amp; Larrua, 2010; Filiberto, Caballero, et al., 2010); que est&aacute; basado en encontrar la relaci&oacute;n que  maximice la calidad de la medida de similitud. En este caso, la relaci&oacute;n R genera una  granulaci&oacute;n considerando los a atributos descriptivos, tan similares como  posibles para la granulaci&oacute;n acorde a las clases. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el  paso P4 la funci&oacute;n f denota  un operador de agregaci&oacute;n, por ejemplo: Si el valor en Vi es  real, se puede utilizar el promedio; si son discretos, el valor m&aacute;s com&uacute;n. El  prop&oacute;sito es construir un prototipo o centr&oacute;ide para un conjunto de objetos  similares. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El conjunto de  prototipos <em>ProtoSet </em>es la salida del <a href="/img/revistas/rcci/v11n2/fo0210217.jpg" target="_blank">algoritmo NPBASIR-C</a>. Este conjunto  es usado por el clasificador para clasificar nuevas instancias: </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el paso 3 la clase se calcula de igual forma que  en k-vecinos m&aacute;s similares (k-SN) para la clasificaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>M&eacute;todo para la selecci&oacute;n de prototipos</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo propuesto en (Frias et al., 2015) es un proceso iterativo en el cual los prototipos son  seleccionados de las clases de similitud de objetos en el universo: una clase  de similitud es construida usando la relaci&oacute;n de similitud R([Oi]R)  y un  prototipo es seleccionado para esta clase de similitud. </font></p>     <p><a href="/img/revistas/rcci/v11n2/fo0310217.jpg"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Algoritmo NPBASIR SEL-C </font></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  conjunto de prototipos ProtoSet es la salida del algoritmo <a href="/img/revistas/rcci/v11n2/fo0410217.jpg" target="_blank">NPBASIR SEL-CLASS</a>.  Este conjunto es usado por el clasificador para clasificar nuevas instancias:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el paso 3 la clase se calcula de igual forma que  en k-vecinos m&aacute;s similares (k-SN) para la clasificaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Clasificaci&oacute;n <em>hubness</em>-consiente </strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  clasificaci&oacute;n <em>hubness</em> consiente est&aacute; apoyada  en el modelo de aprendizaje basado en la ocurrencia de los vecinos m&aacute;s cercanos  en los datos de entrenamiento.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Luego, <img src="/img/revistas/rcci/v11n2/fo0510217.jpg" alt="fo05" width="217" height="23"> sea el  conjunto de entrenamiento de puntos de datos etiquetados dibujado i.i.d. a  partir de una distribuci&oacute;n conjunta <img src="/img/revistas/rcci/v11n2/fo0610217.jpg" alt="fo06" width="163" height="18"> sobre X x Y, donde X es el  espacio de rasgos y Y el  espacio finito de etiquetas, |Y| = C. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Denotamos  por <img src="/img/revistas/rcci/v11n2/fo0710217.jpg" alt="fo10" width="245" height="19"> a los  k-vecinos m&aacute;s cercanos de xi. Para  todo <img src="/img/revistas/rcci/v11n2/fo0810217.jpg" alt="fo08" width="74" height="17">es un  vecino de xi y viceversa, xi es  vecino de todo  <img src="/img/revistas/rcci/v11n2/fo0810217.jpg" alt="fo08" width="74" height="17">. Una  ocurrencia de un elemento en algunos <img src="/img/revistas/rcci/v11n2/fo0910217.jpg" alt="fo09" width="44" height="17"> se  conoce como una k-ocurrencia. El n&uacute;mero de k-ocurrencias de un punto x se  denota por Nk(x). Una  k-ocurrencia se considera buena si la etiqueta de su vecino coincide con la  etiqueta del punto de inter&eacute;s, por ejemplo <img src="/img/revistas/rcci/v11n2/fo1010217.jpg" alt="fo10" width="78" height="18"> es una  buena ocurrencia de x<font size="1">ij</font> si y<font size="1">ij</font> = y<font size="1">i</font>. Del  mismo modo, los desajustes de etiquetas corresponden a las malas ocurrencias de  puntos vecinos. El c&oacute;mputo total de ocurrencias consiste en una suma de las  buenas y malas ocurrencias, <img src="/img/revistas/rcci/v11n2/fo1110217.jpg" alt="fo10" width="381" height="21"> representa  las buenas ocurrencias y las malas respectivamente. El conteo de las buenas y  malas ocurrencias es tambi&eacute;n conocido como los buenos o malos <em>hubness</em> de un punto en particular.  Tambi&eacute;n es posible considerar la ocurrencia de la clase condicional que se  denota como <img src="/img/revistas/rcci/v11n2/fo1210217.jpg" alt="fo12" width="53" height="21"> y  representa el n&uacute;mero de k-ocurrencias de x<sub>i</sub> en el  vecindario de ejemplos que pertenecen a la clase c. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En  grandes vol&uacute;menes de datos, la distribuci&oacute;n <img src="/img/revistas/rcci/v11n2/fo1310217.jpg" alt="fo13" width="41" height="18"> es altamente  asim&eacute;trica, en el sentido de que es sesgada a la derecha. La asimetr&iacute;a de la  distribuci&oacute;n de la frecuencia de ocurrencia de los k-vecinos se define como se  expresa en la Ecuaci&oacute;n 2: </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo1410217.jpg" alt="fo14" width="470" height="57"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Formalmente,  se dice que los <em>hubs</em> son puntos <img src="/img/revistas/rcci/v11n2/fo1510217.jpg" alt="fo15" width="46" height="19"> tales  que <img src="/img/revistas/rcci/v11n2/fo1610217.jpg" alt="fo16" width="155" height="22"> En  otras palabras, sus frecuencias de ocurrencia exceden la media (k) por  m&aacute;s del doble de la desviaci&oacute;n est&aacute;ndar. Finalmente se denota el conjunto de  todos los <em>hubs </em>en T por <img src="/img/revistas/rcci/v11n2/fo1710217.jpg" alt="fo17" width="25" height="23"> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con el  objetivo de aliviar la negativa influencia de los malos <em>hubs </em>en los datos y de obtener una robusta clasificaci&oacute;n del  k-vecino m&aacute;s cercano bajo el supuesto de <em>hubness</em>,  recientemente se han propuesto varios m&eacute;todos kNN-<em>hubness-</em>consientes: <em>hubness</em>-weighted  kNN (hw-kNN) (Radovanovi&#263;,  Nanopoulos, &amp; Ivanovi&#263;, 2009), <em>hubness</em>-fuzzy  kNN (h-FNN) (Toma&scaron;ev,  Radovanovi&#263;, Mladeni&#263;, &amp; Ivanovi&#263;, 2014), <em>hubness</em>-information  kNN (HIKNN) (Toma&scaron;ev &amp;  Mladeni&#263;, 2012) y Naive <em>Hubness</em>-Bayesian  kNN (NHBNN) (Tomasev,  Radovanovi&#263;, Mladeni&#263;, &amp; Ivanovi&#263;, 2011).</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">hw-kNN: </font></strong><font face="Verdana, Arial, Helvetica, sans-serif">Este algoritmo de ponderaci&oacute;n es la forma m&aacute;s sencilla de reducir la  influencia de malos <em>hubs</em> donde  simplemente se le asignan pesos de voto inferiores. El voto de cada vecino se  pondera por <img src="/img/revistas/rcci/v11n2/fo1810217.jpg" alt="fo18" width="52" height="18">, donde <img src="/img/revistas/rcci/v11n2/fo1910217.jpg" alt="fo19" width="45" height="19"> es la mala puntuaci&oacute;n <em>hubness</em> estandarizada del vecino. Todos  los vecinos votan por su propio sello (a diferencia de los algoritmos  considerados m&aacute;s adelante), lo que podr&iacute;a resultar perjudicial en algunas  ocasiones.</font></font></p>     <p><img src="/img/revistas/rcci/v11n2/fo2010217.jpg" alt="fo20" width="187" height="46"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> (clase  <em>hubness</em> relativa) puede interpretarse  como la fuzificaci&oacute;n del evento de que xi haya  ocurrido como un vecino. Por esta raz&oacute;n, h-FNN integra la clase <em>hubness</em> en framework difuso de k-vecinos  m&aacute;s cercanos de votaci&oacute;n (Keller, Gray,  &amp; Givens, 1985). Esto significa que las probabilidades de la  etiqueta en el punto de inter&eacute;s se calculan como se expresa en la Ecuaci&oacute;n 3:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2110217.jpg" alt="fo21" width="294" height="55"></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">NHBNN: </font></strong><font face="Verdana, Arial, Helvetica, sans-serif">Cada  k-ocurrencia puede ser tratada como un evento aleatorio. Lo que NHBNN hace  esencialmente es que realiza una inferencia bayesiana (<em>Naive-Bayesian inference</em>) para estos k&nbsp;eventos tal  como se expresa en la Ecuaci&oacute;n 4.</font></font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2210217.jpg" alt="fo22" width="349" height="66"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aun cuando las k-ocurrencias  est&aacute;n altamente correlacionados, NHBNN todav&iacute;a ofrece algunas mejoras sobre el  kNN b&aacute;sico. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>HIKNN: </strong>Recientemente, la clase <em>hubness</em> tambi&eacute;n ha sido explorada con un  enfoque de la teor&iacute;a de la informaci&oacute;n aplicada a la clasificaci&oacute;n de los k-  vecinos m&aacute;s cercanos. Las ocurrencias raras tienen mayor auto-informaci&oacute;n (Ecuaci&oacute;n  5) y son favorecidos por el algoritmo. Los <em>hubs</em>,  por el contrario, se encuentran m&aacute;s cerca de los centros de grupos y llevan  menos informaci&oacute;n local relevante para la consulta en particular.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2310217.jpg" alt="fo23" width="262" height="91"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  auto-informaci&oacute;n de la ocurrencia se utiliza para definir los factores de relevancia  absolutos y relativos como se expresa en la Ecuaci&oacute;n 6:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2410217.jpg" alt="fo24" width="379" height="63"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La votaci&oacute;n difusa final combina  la informaci&oacute;n contenida en la etiqueta del vecino con la informaci&oacute;n contenida  en su perfil de ocurrencia. El factor de relevancia relativa se utiliza para  ponderar las dos fuentes de informaci&oacute;n. Esto se muestra en la Ecuaci&oacute;n 7:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2510217.jpg" alt="fo25" width="467" height="101"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La asignaci&oacute;n de la clase final  est&aacute; dada por la suma ponderada de estos votos difusos, como se muestra en la Ecuaci&oacute;n  8. El factor de ponderaci&oacute;n <img src="/img/revistas/rcci/v11n2/fo2610217.jpg" alt="fo26" width="50" height="19">&nbsp;produce  en su mayor&iacute;a mejoras poco significativas y puede no tomarse en cuenta en la  pr&aacute;ctica.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2710217.jpg" alt="fo27" width="509" height="57"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NHBNN, HIKNN y h-FNN  utilizan estimaciones de frecuencia de la ocurrencia de la clase condicional  para realizar una clasificaci&oacute;n basada en los modelos de los vecinos m&aacute;s  cercanos. En los datos de alta dimensi&oacute;n, esto podr&iacute;a ser un poco mejor que la  votaci&oacute;n por la etiqueta.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para calcular la  exactitud de los m&eacute;todos se utiliz&oacute; la m&eacute;trica Accuracy, t&iacute;picamente usada en estos casos por su  simplicidad y aplicaci&oacute;n exitosa y que se muestra en la expresi&oacute;n (9) dada en (Witten  &amp; Frank, 2005):</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2810217.jpg" alt="fo28" width="304" height="54"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <em>TP</em> son los  verdaderos positivos, <em>TN</em> los  verdaderos negativos, <em>FP</em> son los  falsos positivos, y <em>FN</em> son los falsos  negativos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el an&aacute;lisis estad&iacute;stico de los resultados  se utilizaron las t&eacute;cnicas de prueba de hip&oacute;tesis (Garc&iacute;a &amp;  Herrera, 2009). Para comparaciones m&uacute;ltiples, se utilizan las  pruebas de Friedman y de Iman-Davenport para detectar diferencias  estad&iacute;sticamente significativas entre un grupo de resultados. Se emplea adem&aacute;s  la prueba de Holm con el fin de encontrar los algoritmos significativamente  superiores (Alcal&aacute; et al.,  2010). Estas pruebas son sugeridas en los estudios presentados en (Dem&scaron;ar, 2006; Garc&iacute;a, Fern&aacute;ndez, Luengo, &amp;  Herrera, 2010), donde se  afirma que el uso de estas pruebas es muy recomendable para la validaci&oacute;n de  resultados en el campo del aprendizaje automatizado.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La exactitud de la clasificaci&oacute;n dada en la <a href="/img/revistas/rcci/v11n2/t0210217.jpg" target="_blank">Tabla  2</a> para los  m&eacute;todos <strong>kNN</strong>, <strong>hw-kNN</strong>, <strong>h-FNN</strong>,<strong> NHBNN</strong> y <strong>HIKNN</strong> ha sido reportada en trabajos anteriores (Toma&scaron;ev &amp; Mladeni&#263;, 2012, 2014) y servir&aacute;  como un punto de partida para su posterior an&aacute;lisis. Todos los algoritmos <em>hubness</em>-conscientes se probaron bajo sus  configuraciones de par&aacute;metros por defecto, de acuerdo a lo especificado en sus  respectivos art&iacute;culos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para  medir el desequilibrio de clases en un conjunto de datos concreto, se observan  dos cantidades: p(cM), que es  el tama&ntilde;o relativo de la clase mayoritaria y el desequilibrio relativo de la  distribuci&oacute;n de las etiquetas (RImb), que se  define como la desviaci&oacute;n est&aacute;ndar normalizada de la probabilidad de la clase  respecto al valor absoluto medio homog&eacute;neo de 1 / c para  cada clase. En otras palabras, seg&uacute;n la Ecuaci&oacute;n 10:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo2910217.jpg" alt="fo29" width="408" height="65"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los malos <em>hubs</em> no  son causados directamente por el desbalance de clases, pero si son resultado de  la interrelaci&oacute;n de varios factores. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#t01">Tabla 1</a> se resumen las caracter&iacute;sticas de los conjuntos de datos del mundo  real utilizados en la experimentaci&oacute;n (Conjuntos de datos del Repositorio de  Aprendizaje Autom&aacute;tico de la UCI). Cada  conjunto de datos esta descrito por las siguientes propiedades: n&uacute;mero de  ejemplos (e), n&uacute;mero de rasgos (d), n&uacute;mero de clases (c), asimetr&iacute;a de la distribuci&oacute;n de la frecuencia de  ocurrencia de los k-vecinos (SN5), porciento  de las malas 5-ocurrencias (BN5), el  grado del punto <em>hub</em> m&aacute;s grande (max N5), desequilibrio  relativo de la distribuci&oacute;n de las etiquetas (RImb)</font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">y el  tama&ntilde;o de la clase mayoritaria (p(cM)).</font></p>     ]]></body>
<body><![CDATA[<p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v11n2/t0110217.jpg" alt="t01" width="500" height="199"><a name="t01"></a></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v11n2/t0210217.jpg" target="_blank">Tabla  2</a> se muestra la  exactitud promedio de la clasificaci&oacute;n obtenida con los m&eacute;todos: kNN, <em>hubness-weighted</em> <em>kNN</em> (hw-kNN), <em>hubness-based  fuzzy nearest neighbor</em> (h-FNN), <em>naive  hubness-Bayesian k-NN</em> (NHBNN), <em>hubness  information k-NN</em> (HIKNN), construcci&oacute;n de prototipos NPBASIR-CLASS y selecci&oacute;n de  prototipos NPBASIR SEL-CLASS. Todos los experimentos fueron  desarrollados para k=5.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La <a href="#t03">Tabla 3</a> muestra el ranking obtenido por la prueba de  Friedman. En este caso el p-value asociado a dicha prueba es de 7.95, el cual  no es lo suficientemente bajo como para rechazar la hip&oacute;tesis de equivalencia,  por lo que podemos concluir que no existen diferencias significativas entre los  algoritmos comparados. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/t0310217.jpg" alt="t03" width="322" height="197"><a name="t03"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La prueba de Holm (<a href="/img/revistas/rcci/v11n2/t0410217.jpg" target="_blank">Tabla  4</a>), respecto a la  exactitud general de la clasificaci&oacute;n haciendo un todo contra todos rechaza  todas las hip&oacute;tesis con valor p &le; 0.002632: solo en el caso HIKNN vs.  NPBASIR-CLASS, HIKNN es ligeramente superior a NPBASIR-CLASS. Para el resto de  las combinaciones la hip&oacute;tesis nula no se rechaza, esto es equivalente a decir  que no hay diferencias significativas entre sus comportamientos y por lo tanto  se puede concluir que son igual de eficaces. Para la Tabla 4 solo se muestran  las filas donde aparece uno de los m&eacute;todos basados en prototipos por ser los de  inter&eacute;s para este estudio.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este trabajo es el  primer intento de relacionar el fen&oacute;meno de <em>hubness</em>,  un aspecto del curso de la dimensionalidad, con los m&eacute;todos de aprendizaje  autom&aacute;tico basados en prototipos. Estos m&eacute;todos permiten obtener un conjunto de  entrenamiento representativo con menor tama&ntilde;o comparado con el original y con  similar o incluso mayor exactitud en la clasificaci&oacute;n de los nuevos datos  recibidos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  estudio experimental realizado demuestra que los m&eacute;todos de generaci&oacute;n y  selecci&oacute;n de prototipos estudiados ofrecen resultados comparables con los  obtenidos en la literatura con los m&eacute;todos basados en el enfoque kNN, los  cuales son <em>hubness</em>-consientes y est&aacute;n  dise&ntilde;ados espec&iacute;ficamente para lidiar con este problema.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Teniendo en cuenta  los resultados alentadores de este estudio y las bondades de los m&eacute;todos  basados en prototipos es posible asegurar que la utilizaci&oacute;n de los mismos  permitir&aacute; mejorar el desempe&ntilde;o de los sistemas que manejen datos altas  dimensiones y bajo la asunci&oacute;n de <em>hubness</em>.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  fen&oacute;meno de <em>hubness</em> en los datos es  un desaf&iacute;o importante del curso de la dimensionalidad pues se conoce por ser  perjudicial para el aprendizaje automatizado y para las tareas de miner&iacute;a de  datos. Los resultados de este trabajo sugieren que los acercamientos probados  exhiben niveles prometedores de robustez y tolerancia ante el problema tratado.  Los m&eacute;todos estudiados de selecci&oacute;n y construcci&oacute;n de prototipos <strong>NPBASIR SEL-CLASS</strong> y <strong>NPBASIR-CLASS</strong> ofrecen resultados comparables con los obtenidos con  los m&eacute;todos HIKNN, h-FNN y hw-kNN y NHBNN, los cuales son <em>hubness</em>-consientes y est&aacute;n dise&ntilde;ados espec&iacute;ficamente para lidiar  con este problema.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El dise&ntilde;o  de estos m&eacute;todos debe extenderse para reducir el impacto negativo de los malos <em>hubs</em> en los datos. Una manera de hacer  esto ser&iacute;a emplear los m&eacute;todos basados en prototipos combin&aacute;ndolos con los  acercamientos <em>hubness-</em>conscientes  existentes. En trabajos futuros se intentar&aacute; probar que, si se modifican los  m&eacute;todos de construcci&oacute;n y selecci&oacute;n de prototipos basados en relaciones de similitud  para el caso de la presencia de &ldquo;<em>hubness</em>&rdquo;,  identificando los &ldquo;malos<em> hubs</em>&rdquo; y no  teni&eacute;ndolos en cuenta a la hora de seleccionar y construir los prototipos, se  obtendr&aacute;n resultados que superen a los encontrados en la bibliograf&iacute;a hasta el  momento. Adem&aacute;s, se pretende extender el enfoque anterior para dar tratamiento  tambi&eacute;n a los &ldquo;anti-<em>hubness</em>&rdquo;.</font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Alcal&aacute;, J., Fern&aacute;ndez, A., Luengo, J., Derrac, J.,  Garc&iacute;a, S., S&aacute;nchez, L., &amp; Herrera, F. (2010). Keel data-mining software tool:  Data set repository, integration of algorithms and experimental analysis  framework. <em>Journal of Multiple-Valued  Logic and Soft Computing, 17</em>(255-287), 11. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Bello-Garc&iacute;a,  M., Garc&iacute;a-Lorenzo, M. M., &amp; Bello, R. (2012). A method for building  prototypes in the nearest prototype approach based on similarity relations for  problems of function approximation <em>Advances  in Artificial Intelligence</em> (pp. 39-50): Springer.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Bezdek,  J. C., &amp; Kuncheva, L. I. (2001). Nearest prototype classifier designs: An  experimental study. <em>International Journal  of Intelligent Systems, 16</em>(12), 1445-1473. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Bolei,  Z., Khosla, A., Lapedriza, A., Oliva, A., &amp; Torralba, A. (2015). Object  detectors emerge in Deep Scene CNNs.     </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Choi,  W., Pantofaru, C., &amp; Savarese, S. (2013). A general framework for tracking  multiple people from a moving camera. <em>Pattern  Analysis and Machine Intelligence, IEEE Transactions on, 35</em>(7), 1577-1591. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dem&scaron;ar,  J. (2006). Statistical comparisons of classifiers over multiple data sets. <em>The Journal of Machine Learning Research, 7</em>,  1-30. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Duda,  R., Hart, P., &amp; Stork, D. (2001). Pattern classification. <em>International Journal of Computational  Intelligence and Applications, 1</em>, 335-339.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Fern&aacute;ndez Hern&aacute;ndez, Yumilka, B., Bello, R., Filiberto,  Y., Fr&iacute;as, M., Coello Blanco, L., &amp; Caballero, Y. (2015). An Approach for  Prototype Generation based on Similarity Relations for Problems of  Classification. <em>Computaci&oacute;n  y Sistemas, 19</em>(1), 109-118. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Filiberto, Y., Bello, R., Caballero, Y., &amp; Larrua, R.  (2010). Using  PSO and RST to predict the resistant capacity of connections in composite  structures <em>Nature Inspired Cooperative  Strategies for Optimization (NICSO 2010)</em> (pp. 359-370): Springer.    </font></p>     <!-- ref --><p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Filiberto, Y., Caballero, Y., Larrua, R., &amp; Bello, R.  (2010). <em>A method to build similarity  relations into extended rough set theory.</em> Paper presented at the  Intelligent Systems Design and Applications (ISDA), 2010 10th International  Conference on.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Frias, M., Filiberto, Y., Fern&aacute;ndez, Y., Caballero, Y.,  &amp; Bello, R. (2015). <em>Prototypes selection  based on similarity relations for classification problems </em>Paper presented at the  Engineering Applications - International Congress on Engineering (WEA), Bogota </font><!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Gao,  L., Song, J., Liu, X., Shao, J., Liu, J., &amp; Shao, J. (2015). Learning in  high-dimensional multimedia data: the state of the art. <em>Multimedia Systems,</em> 1-11.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Gao,  L., Song, J., Nie, F., Yan, Y., Sebe, N., &amp; Tao Shen, H. (2015). <em>Optimal Graph Learning with Partial Tags and  Multiple Features for Image and Video Annotation.</em> Paper presented at the  Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Garcia, S., Derrac, J., Cano, J. R., &amp; Herrera, F.  (2012). Prototype  selection for nearest neighbor classification: Taxonomy and empirical study. <em>Pattern Analysis and Machine Intelligence,  IEEE Transactions on, 34</em>(3), 417-435. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Garc&iacute;a,  S., Fern&aacute;ndez, A., Luengo, J., &amp; Herrera, F. (2010). Advanced nonparametric  tests for multiple comparisons in the design of experiments in computational  intelligence and data mining: Experimental analysis of power. <em>Information Sciences, 180</em>(10),  2044-2064. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Garc&iacute;a,  S., &amp; Herrera, F. (2009). Evolutionary undersampling for classification  with imbalanced datasets: Proposals and taxonomy. <em>Evolutionary computation, 17</em>(3), 275-306. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jin,  X.-B., Liu, C.-L., &amp; Hou, X. (2010). Regularized margin-based conditional  log-likelihood loss for prototype learning. <em>Pattern  Recognition, 43</em>(7), 2428-2438. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Keller,  J. M., Gray, M. R., &amp; Givens, J. A. (1985). A fuzzy k-nearest neighbor  algorithm. <em>Systems, Man and Cybernetics,  IEEE Transactions on</em>(4), 580-585.     </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Khosla,  A., An, B., Lim, J. J., &amp; Torralba, A. (2014). <em>Looking beyond the visible scene.</em> Paper presented at the Computer  Vision and Pattern Recognition (CVPR), 2014 IEEE Conference on.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Low,  T., Borgelt, C., Stober, S., &amp; N&uuml;rnberger, A. (2013). The Hubness  Phenomenon: Fact or Artifact? <em>Towards  Advanced Data Analysis by Combining Soft Computing and Statistics</em> (pp.  267-278): Springer.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Nguyen,  A., Yosinski, J., &amp; Clune, J. (2015). <em>Deep  neural networks are easily fooled: High confidence predictions for  unrecognizable images.</em> Paper presented at the Computer Vision and Pattern  Recognition (CVPR), 2015 IEEE Conference on.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Radovanovi&#263;, M., Nanopoulos, A., &amp; Ivanovi&#263;, M.  (2009). <em>Nearest neighbors in  high-dimensional data: The emergence and influence of hubs.</em> Paper presented at  the Proceedings of the 26th Annual International Conference on Machine  Learning.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Toma&scaron;ev,  N., &amp; Mladeni&#263;, D. (2012). Nearest neighbor voting in high dimensional  data: Learning from past occurrences. <em>Computer  Science and Information Systems, 9,</em> 691-712.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Toma&scaron;ev,  N., &amp; Mladeni&#263;, D. (2014). Hubness-aware shared neighbor distances for  high-dimensional k-nearest neighbor classification. <em>Knowledge and information systems, 39</em>(1), 89-122. </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Tomasev,  N., Radovanovi&#263;, M., Mladeni&#263;, D., &amp; Ivanovi&#263;, M. (2011). <em>A probabilistic approach to nearest-neighbor  classification: naive hubness bayesian kNN.</em> Paper presented at the  Proceedings of the 20th ACM international conference on Information and  knowledge management.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Toma&scaron;ev,  N., Radovanovi&#263;, M., Mladeni&#263;, D., &amp; Ivanovi&#263;, M. (2014). Hubness-based  fuzzy measures for high-dimensional k-nearest neighbor classification. <em>International Journal of Machine Learning  and Cybernetics, 5</em>(3), 445-458. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Triguero,  I., Derrac, J., Garcia, S., &amp; Herrera, F. (2012). A taxonomy and  experimental study on prototype generation for nearest neighbor classification. <em>Systems, Man, and Cybernetics, Part C:  Applications and Reviews, IEEE Transactions on, 42</em>(1), 86-100. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Weinberger,  K. Q., &amp; Saul, L. K. (2009). Distance metric learning for large margin  nearest neighbor classification. <em>The  Journal of Machine Learning Research, 10</em>, 207-244.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Wiskott,  L. (2013). How to solve classification and regression problems on high-dimensional  data with a supervised extension of slow feature analysis. <em>The Journal of Machine Learning Research, 14</em>(1), 3683-3719. </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Witten,  I. H., &amp; Frank, E. (2005). <em>Data  Mining: Practical machine learning tools and techniques</em>: Morgan Kaufmann.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yao, B., Khosla, A., &amp; Fei-Fei, L. (2011). Classifying actions  and measuring action similarity by modeling the mutual context of objects and  human poses. <em>a) A, 1</em>(D2), D3.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yao,  Y. (2000). <em>Granular computing: basic  issues and possible solutions.</em> Paper presented at the Proceedings of the  5th joint conference on information sciences.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Zhou, X., Chen, L., Zhang, Y., Cao, L., Huang, G.,  &amp; Wang, C. (2015). <em>Online video  recommendation in sharing community.</em> Paper presented at the Proceedings of  the 2015 ACM SIGMOD International Conference on Management of Data.    </font></p>     <p>&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 23/06/2016    <br> Aceptado: 23/01/2017</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Alcalá]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Luengo]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Derrac]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Keel data-mining software tool: Data set repository, integration of algorithms and experimental analysis framework]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>17</volume>
<numero>255-287</numero>
<issue>255-287</issue>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bello-García]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[García-Lorenzo]]></surname>
<given-names><![CDATA[M. M]]></given-names>
</name>
<name>
<surname><![CDATA[Bello]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[A method for building prototypes in the nearest prototype approach based on similarity relations for problems of function approximation Advances in Artificial Intelligence]]></source>
<year>2012</year>
<page-range>39-50</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bezdek]]></surname>
<given-names><![CDATA[J. C]]></given-names>
</name>
<name>
<surname><![CDATA[Kuncheva]]></surname>
<given-names><![CDATA[L. I]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nearest prototype classifier designs: An experimental study]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>16</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>1445-1473</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bolei]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[Khosla]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Lapedriza]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Oliva]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Torralba]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Object detectors emerge in Deep Scene CNNs.]]></source>
<year>2015</year>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Choi]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[Pantofaru]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Savarese]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A general framework for tracking multiple people from a moving camera.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>35</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>1577-1591</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dem&#353;ar]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical comparisons of classifiers over multiple data sets.]]></source>
<year>2006</year>
<volume>7</volume>
<page-range>1-30</page-range><publisher-name><![CDATA[The Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Duda]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Hart]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Stork]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern classification]]></source>
<year>2001</year>
<volume>1</volume>
<page-range>335-339</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fernández Hernández]]></surname>
<given-names><![CDATA[Yumilka]]></given-names>
</name>
<name>
<surname><![CDATA[Bello]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Filiberto]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Frías]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Coello Blanco]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Caballero]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An Approach for Prototype Generation based on Similarity Relations for Problems of Classification.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>19</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>109-118</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Filiberto]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Bello]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Caballero]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Larrua]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Using PSO and RST to predict the resistant capacity of connections in composite structures Nature Inspired Cooperative Strategies for Optimization (NICSO 2010)]]></source>
<year>2010</year>
<page-range>. 359-370</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Filiberto]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Caballero]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Larrua]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Bello]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[A method to build similarity relations into extended rough set theory]]></source>
<year>2010</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Frias]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Filiberto]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Caballero]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Bello]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Prototypes selection based on similarity relations for classification problems Paper presented at the Engineering Applications]]></source>
<year>2015</year>
<publisher-loc><![CDATA[^eBogota Bogota]]></publisher-loc>
<publisher-name><![CDATA[International Congress on Engineering (WEA),]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gao]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Song]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Shao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Shao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Learning in high-dimensional multimedia data: the state of the art]]></source>
<year>2015</year>
<page-range>1-11.</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Gao]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Song]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Nie]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[Yan]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Sebe]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Tao Shen]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Optimal Graph Learning with Partial Tags and Multiple Features for Image and Video Annotation]]></source>
<year>2015</year>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Garcia]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Derrac]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Cano]]></surname>
<given-names><![CDATA[J. R.]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prototype selection for nearest neighbor classification: Taxonomy and empirical study]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>34</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>417-435</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Fernández]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Luengo]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Advanced nonparametric tests for multiple comparisons in the design of experiments in computational intelligence and data mining: Experimental analysis of power]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>180</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>2044-2064</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evolutionary undersampling for classification with imbalanced datasets: Proposals and taxonomy]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>17</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>275-306</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jin]]></surname>
<given-names><![CDATA[X.-B]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[C.-L]]></given-names>
</name>
<name>
<surname><![CDATA[Hou]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Regularized margin-based conditional log-likelihood loss for prototype learning]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>43</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>2428-2438</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Keller]]></surname>
<given-names><![CDATA[J. M]]></given-names>
</name>
<name>
<surname><![CDATA[Gray]]></surname>
<given-names><![CDATA[M. R]]></given-names>
</name>
<name>
<surname><![CDATA[Givens]]></surname>
<given-names><![CDATA[J. A]]></given-names>
</name>
</person-group>
<source><![CDATA[A fuzzy k-nearest neighbor algorithm.]]></source>
<year>1985</year>
<volume>4</volume>
<page-range>580-585</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Khosla]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[An]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Lim]]></surname>
<given-names><![CDATA[J. J]]></given-names>
</name>
<name>
<surname><![CDATA[Torralba]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Looking beyond the visible scene. Paper presented at the Computer Vision and Pattern Recognition (CVPR),]]></source>
<year>2014</year>
<publisher-name><![CDATA[IEEE Conference]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Low]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Borgelt]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[Stober]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Nürnberger]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[The Hubness Phenomenon: Fact or Artifact?]]></source>
<year>2013</year>
<page-range>267-278</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nguyen]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Yosinski]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Clune]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Deep neural networks are easily fooled: High confidence predictions for unrecognizable images]]></source>
<year>2015</year>
<publisher-name><![CDATA[IEEE Conference]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Radovanovi&#263;]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Nanopoulos]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Ivanovi&#263;]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Nearest neighbors in high-dimensional data: The emergence and influence of hubs.]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Toma&#353;ev]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Mladeni&#263;]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Nearest neighbor voting in high dimensional data:: Learning from past occurrences]]></source>
<year>2012</year>
<volume>9</volume>
<page-range>691-712</page-range><publisher-name><![CDATA[Computer Science and Information Systems]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Toma&#353;ev]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Mladeni&#263;]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Hubness-aware shared neighbor distances for high-dimensional k-nearest neighbor classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>39</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>89-122</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tomasev]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Radovanovi&#263;]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Mladeni&#263;]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Ivanovi&#263;]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[A probabilistic approach to nearest-neighbor classification: naive hubness bayesian kNN]]></source>
<year>2011</year>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Toma&#353;ev]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Radovanovi&#263;]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Mladeni&#263;]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Ivanovi&#263;]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Hubness-based fuzzy measures for high-dimensional k-nearest neighbor classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>5</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>445-458</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Triguero]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Derrac]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Garcia]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Herrera]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A taxonomy and experimental study on prototype generation for nearest neighbor classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>42</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>86-100</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Weinberger]]></surname>
<given-names><![CDATA[K. Q]]></given-names>
</name>
<name>
<surname><![CDATA[Saul]]></surname>
<given-names><![CDATA[L. K]]></given-names>
</name>
</person-group>
<source><![CDATA[Distance metric learning for large margin nearest neighbor classification]]></source>
<year>2009</year>
<volume>10</volume>
<page-range>207-244</page-range><publisher-name><![CDATA[The Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wiskott]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[How to solve classification and regression problems on high-dimensional data with a supervised extension of slow feature analysis.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>14</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>3683-3719</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Witten]]></surname>
<given-names><![CDATA[I. H]]></given-names>
</name>
<name>
<surname><![CDATA[Frank]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<source><![CDATA[Data Mining: Practical machine learning tools and techniques]]></source>
<year>2005</year>
<publisher-name><![CDATA[Morgan Kaufmann.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yao]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Khosla]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Fei-Fei]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Classifying actions and measuring action similarity by modeling the mutual context of objects and human poses.]]></source>
<year>2011</year>
</nlm-citation>
</ref>
<ref id="B32">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yao]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[Granular computing: basic issues and possible solutions]]></source>
<year>2000</year>
</nlm-citation>
</ref>
<ref id="B33">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhou]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Cao]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[G]]></surname>
<given-names><![CDATA[Huang]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Online video recommendation in sharing community]]></source>
<year>2015</year>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
