<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992016000300009</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Evaluación del algoritmo KNN-SP para problemas de predicción con salidas compuestas]]></article-title>
<article-title xml:lang="en"><![CDATA[Evaluation of KNN-SP algorithm for multi-target prediction problems]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[González]]></surname>
<given-names><![CDATA[Héctor]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Santos]]></surname>
<given-names><![CDATA[Gabriela]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Campos]]></surname>
<given-names><![CDATA[Frank]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Morell Pérez]]></surname>
<given-names><![CDATA[Carlos]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de las Ciencias Informáticas (UCI)  ]]></institution>
<addr-line><![CDATA[ La Habana]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Central de las Villas Marta Abreu (UCLV)  ]]></institution>
<addr-line><![CDATA[ Villa Clara]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>09</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>09</month>
<year>2016</year>
</pub-date>
<volume>10</volume>
<numero>3</numero>
<fpage>119</fpage>
<lpage>129</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992016000300009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992016000300009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992016000300009&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN El presente trabajo pretende desarrollar una evaluación estadística del algoritmo KNN para problemas de predicción con salidas compuestas. Se utiliza el procedimiento de validación cruzada para ajustar el parámetro y la variante de peso inverso generando 4 variantes del KNN para predicción con salidas compuestas. El estudio de los métodos estadísticos para la comparación de múltiples clasificadores permitió identificar la prueba no paramétrica de Friedman como una de las más empleadas en la experimentación de algoritmos de aprendizaje automático. Se utilizaron 12 bases de datos estándares y la métrica aRRMSE para la evaluación experimental de los resultados. La aplicación de las pruebas de Friedman y el post-hoc de Nemenyi mostraron que el procedimiento de validación cruzada aplicados en las variantes IBKMTRCV y IBKMTRCVW es significativamente mejor que las variantes que no utilizan dicho procedimiento. Al utilizar los valores de los ranking promedios de la prueba de Friedman ubican a la variante IBKMTRCVW como la que mejores resultados arroja.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT This paper aims to develop a statistical evaluation of KNN algorithm for multi-target prediction problems. The cross-validation procedure is used to set the parameter and inverse distance as weigth to generate 4 variants of KNN for muti-target prediction. The study of statistical methods for comparison of multiple classifiers identified the non-parametric Friedman test as one of the most used in the testing of machine learning algorithms. In the experimental results, it employ 12 standards dataset and the metric aRRMSE. With application of the Nemenyi post-hoc and Friedman tests showed that cross-validation procedure applied in IBKMTRCV and IBKMTRCVW is significantly better than the variants that do not use this procedure. The values of the average ranking of the Friedman test, show that IBKMTRCVW algorithm returns the best results.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[aprendizaje automático]]></kwd>
<kwd lng="es"><![CDATA[comparación de múltiples clasificadores]]></kwd>
<kwd lng="es"><![CDATA[KNN]]></kwd>
<kwd lng="es"><![CDATA[Predicción con salidas compuestas]]></kwd>
<kwd lng="en"><![CDATA[machine learning]]></kwd>
<kwd lng="en"><![CDATA[comparisons of multiple classifiers]]></kwd>
<kwd lng="en"><![CDATA[KNN]]></kwd>
<kwd lng="en"><![CDATA[Multi-target prediction]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Evaluaci&oacute;n  del algoritmo KNN-SP para problemas de predicci&oacute;n con salidas compuestas</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><strong>Evaluation  of KNN-SP algorithm for multi-target prediction problems</strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">H&eacute;ctor Gonz&aacute;lez<strong><sup>1*</sup></strong>,Gabriela Santos<strong><sup>1</sup></strong>, Frank Campos</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><sup>1</sup></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">, Carlos Morell P&eacute;rez</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><sup>2</sup></strong></font></font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Universidad de las Ciencias Inform&aacute;ticas (UCI), La Habana, Cuba. {gsantos,  frcampos}@uci.cu    <br>   <sup>2</sup>Universidad Central de las Villas &ldquo;Marta Abreu&rdquo; (UCLV), Villa Clara,  Cuba. cmorellp@uclev.edu.cu</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br> </font></p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span><font size="2"><a href="mailto:hglez@uci.cu">hglez@uci.cu</a><a href="mailto:leclerc@matcom.uh.cu"></a> </font></font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El presente trabajo pretende desarrollar una evaluaci&oacute;n estad&iacute;stica del  algoritmo KNN para problemas de predicci&oacute;n con salidas compuestas. Se utiliza  el procedimiento de validaci&oacute;n cruzada para ajustar el par&aacute;metro y la variante de peso inverso generando 4 variantes del KNN para  predicci&oacute;n con salidas compuestas. El estudio de los m&eacute;todos estad&iacute;sticos para  la comparaci&oacute;n de m&uacute;ltiples clasificadores permiti&oacute; identificar la prueba no  param&eacute;trica de Friedman como una de las m&aacute;s empleadas en la experimentaci&oacute;n de  algoritmos de aprendizaje autom&aacute;tico. Se utilizaron 12 bases de datos  est&aacute;ndares y la m&eacute;trica aRRMSE para la evaluaci&oacute;n experimental de los  resultados. La aplicaci&oacute;n de las pruebas de Friedman y el post-hoc de Nemenyi mostraron  que el procedimiento de validaci&oacute;n cruzada aplicados en las variantes IBKMTRCV  y IBKMTRCVW es significativamente mejor que las variantes que no utilizan dicho  procedimiento. Al utilizar los valores de los ranking promedios de la prueba de  Friedman ubican a la variante IBKMTRCVW como la que mejores resultados arroja.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave: </span></b>aprendizaje autom&aacute;tico, comparaci&oacute;n de m&uacute;ltiples clasificadores, KNN,  Predicci&oacute;n con salidas compuestas</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">This paper aims to develop a statistical evaluation of KNN algorithm for  multi-target prediction problems. The cross-validation procedure is used to set  the parameter and inverse distance as weigth to generate 4 variants of KNN  for muti-target prediction. The study of statistical methods for comparison of  multiple classifiers identified the non-parametric Friedman test as one of the  most used in the testing of machine learning algorithms. In the experimental  results, it employ 12 standards dataset and the metric aRRMSE. With application  of the Nemenyi&nbsp; post-hoc and Friedman  tests showed that cross-validation procedure applied in IBKMTRCV and IBKMTRCVW  is significantly better than the variants that do not use this procedure. The  values of the average ranking of the Friedman test, show that IBKMTRCVW  algorithm returns the best results.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>machine learning, comparisons of multiple classifiers, KNN, Multi-target  prediction</font></p> <hr>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La evaluaci&oacute;n estad&iacute;stica de resultados experimentales es una parte  esencial para la validaci&oacute;n de los m&eacute;todos de aprendizaje autom&aacute;tico. En un  trabajo de aprendizaje autom&aacute;tico generalmente se propone un nuevo algoritmo,  un modelo o parte de estos y la hip&oacute;tesis impl&iacute;cita en este problema, que es  demostrar que esta nueva propuesta mejora significativamente lo reportado en el  estado del arte. Para ello se define un conjunto de datos de prueba  representativos del dominio de aplicaci&oacute;n para el cual fue dise&ntilde;ado el  algoritmo, el cual se utilizar&aacute; en la evaluaci&oacute;n de la propuesta. Luego se  ejecuta el algoritmo propuesto con los algoritmos de la competencia en igualdad  de condiciones y sobre los mismos conjuntos de datos. Se eval&uacute;an los resultados  de cada algoritmo con sus bases de datos usando una m&eacute;trica apropiada para  cuantificar su desempe&ntilde;o. Es importante resaltar que existe un n&uacute;mero  considerable de m&eacute;tricas para evaluar el desempe&ntilde;o de algoritmos sin embargo en  problemas de clasificaci&oacute;n lo m&aacute;s com&uacute;n es usar la precisi&oacute;n. Finalmente, se  debe verificar estad&iacute;sticamente la hip&oacute;tesis de un mejor desempe&ntilde;o de la nueva propuesta  con relaci&oacute;n a lo que est&eacute; reportado. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Existen diversos trabajos de  referencia dirigidos a estudiar, en el &aacute;rea de la estad&iacute;stica, los diversos  enfoques para contrastar los resultados de investigaci&oacute;n en el campo del  aprendizaje autom&aacute;tico (Dem&scaron;ar, 2006)(Garc&iacute;a, Fern&aacute;ndez, Luengo,  &amp; Herrera, 2009). En general, estos trabajos  se han encaminado a profundizar y evaluar diversos enfoques de pruebas  estad&iacute;sticas y recomendar para cada dise&ntilde;o experimental las mejores pr&aacute;cticas.  Existen esencialmente dos enfoques de pruebas estad&iacute;sticas ampliamente  utilizadas en la experimentaci&oacute;n de problemas de aprendizaje autom&aacute;tico que son  las pruebas param&eacute;tricas y las no param&eacute;tricas. En el caso de las pruebas  param&eacute;tricas asumen que los datos primarios se ajustan a una distribuci&oacute;n  te&oacute;rica de probabilidades y hacen inferencia sobre los par&aacute;metros de la  distribuci&oacute;n. De este modo al aplicar una prueba param&eacute;trica como es el caso de  la prueba ANOVA es necesario verificar independencia, normalidad y homogeneidad  de varianza de los datos. A pesar de que no siempre es posible que se cumplan  estas condiciones siempre es preferible aplicar pruebas param&eacute;tricas por encima  de las no param&eacute;tricas. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por otra parte la prueba no param&eacute;trica similar es la Prueba de Friedman (Friedman, 1940) la  cual jerarquiza los algoritmos por cada colecci&oacute;n de datos separadamente y en  caso de empate asigna un rango promedio. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los &uacute;ltimos a&ntilde;os, en la rama del aprendizaje autom&aacute;tico, han aparecido  problemas de la vida pr&aacute;ctica donde se hace necesario modelar la predicci&oacute;n a  trav&eacute;s de estructuras complejas en su salida. Estos problemas est&aacute;n relacionados  con la necesidad de predecir valores de salidas en forma de: grafos, jerarqu&iacute;as,  vectores con valores reales o binarios entre otras. Como t&eacute;rmino general este  tipo de tarea es conocida como problemas de predicci&oacute;n estructurada (Nowozin, Gehler, Jancsary, &amp; Lampert, 2014).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un ejemplo que ilustra la necesidad de estudiar la predicci&oacute;n con salidas  estructuradas se describe a continuaci&oacute;n. Para un problema de clasificaci&oacute;n de  objetos presentes en im&aacute;genes con predominio de paisajes no es posible  clasificar de forma independiente regiones de una imagen con nubes y al mismo  tiempo im&aacute;genes de &aacute;rboles sin tomar en cuenta la relaci&oacute;n que existe entre  estos objetos para este tipo de im&aacute;genes (Lam, Rao Doppa, Todorovic, &amp; Dietterich, 2015). Otras &aacute;reas de aplicaci&oacute;n donde se han modelado problemas de predicci&oacute;n  con salidas estructurados son en el procesamiento del lenguaje natural (Goldwasser, Srikumar, &amp; Roth, 2012) y la bioinform&aacute;tica (Savojardo, Fariselli, Martelli, &amp; Casadio, 2013)(Yang, Wang, &amp; Zuo, 2013). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como caso particular de problemas con salidas estructuradas se encuentran  los problemas de predicci&oacute;n con salidas compuestas donde se trata de predecir  un vector de salida (la variable objetivo es un vector con valores reales). Por  lo tanto, un problema de predicci&oacute;n con salidas compuesta intenta predecir de  forma simult&aacute;nea y con un &uacute;nico modelo todos los atributos del espacio de  salida expresados en forma vectorial. Los problemas de predicci&oacute;n con salidas  compuestas han sido estudiados desde diferentes enfoques dentro del aprendizaje  autom&aacute;tico. Una taxonom&iacute;a que ordena los diversos enfoques de aprendizaje con  salidas compuesta es propuesto en (Borchani, Varando, Bielza, &amp; Larra&ntilde;aga, 2015). En este trabajo se describen dos grandes familias de algoritmos, los  basados en adaptaci&oacute;n de m&eacute;todos y los basados en transformaci&oacute;n del problema.  En el primer caso, se hace extensi&oacute;n de manera natural de los algoritmos  cl&aacute;sicos de aprendizaje autom&aacute;tico para obtener un &uacute;nico modelo que prediga de  manera simult&aacute;nea cada salida. En el segundo caso se encuentran los algoritmos  que realizan alguna transformaci&oacute;n de las variables predictoras teniendo en  cuenta las variables objetivos para obtener uno o varios modelos de predicci&oacute;n.  En ambas familias de algoritmos se toma en cuenta la interdependencia entre las  variables de salidas.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por otra parte, el algoritmo de aprendizaje autom&aacute;tico -Vecinos m&aacute;s Cercanos (Cover &amp; Hart, 1967) (KNN por sus siglas en ingl&eacute;s) est&aacute; considerado uno de los de mejor  desempe&ntilde;o en el &aacute;mbito del aprendizaje autom&aacute;tico. Al mismo tiempo, el KNN  construye un modelo sencillo para resolver problemas de predicci&oacute;n el cual est&aacute;  basado en los objetos del conjunto de datos de entrenamiento. En KNN para un  nuevo ejemplo, se asigna al atributo de la clase, el valor medio de las clases  de los objetos que se encuentran dentro de la frontera de los &nbsp;vecinos m&aacute;s cercanos. En general la distancia  Euclidiana es empleada para medir la proximidad entre el nuevo ejemplo y los  que conforman el conjunto de datos de entrenamiento.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sin embargo, a pesar del buen desempe&ntilde;o del KNN para problemas de  predicci&oacute;n este no ha sido ampliamente utilizado para problemas donde se desee  predecir un vector de salida. Solo se encontr&oacute; reportado en la literatura el  trabajo (Pugelj &amp; D&#382;eroski, 2011) que utiliza el KNN con distancia Euclidiana y emplea distancia inversa  para manejar los pesos. Sin embargo en este trabajo no queda fuertemente  validado el KNN ya que de forma emp&iacute;rica los autores utilizan un valor fijo de K=25. Un an&aacute;lisis m&aacute;s profundo  explorar&iacute;a, para cada base de datos, la mejor configuraci&oacute;n del algoritmo KNN  usando procedimientos como el de validaci&oacute;n cruzada (Selecci&oacute;n del mejor K).  Por otra parte, no se hace una evaluaci&oacute;n de este algoritmo con un conjunto de  bases de datos existentes en la literatura para problemas de predicci&oacute;n con  salidas compuestas, as&iacute; como otras que han surgido recientemente. En la  definici&oacute;n b&aacute;sica del KNN-SP propuesto en (Pugelj &amp; D&#382;eroski, 2011) se considera una variante simple de modelo de transformaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Tomando en cuenta los  elementos anteriormente planteados nos proponemos en nuestra investigaci&oacute;n  desarrollar un estudio del algoritmo KNN para problemas de predicci&oacute;n con  salidas compuestas utilizando un mecanismo de validaci&oacute;n cruzada extendido para  este tipo de problemas, as&iacute; como el estudio de la influencia de la distancia  inversa como peso para este tipo de problemas. De igual manera la  experimentaci&oacute;n de este algoritmo en 12 bases de datos est&aacute;ndares y la  selecci&oacute;n de las mejores configuraciones para cada base de datos formaran parte  de los resultados de esta investigaci&oacute;n. </font></p>     <p>&nbsp;</p>     <p><strong><font size="3" face="Verdana, Arial, Helvetica, sans-serif">MATERIALES Y M&Eacute;TODOS </font></strong></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el presente trabajo usaremos las siguientes definiciones y notaciones  para describir nuestro problema de predicci&oacute;n con salidas compuestas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sea el conjunto de variables o  atributos de entrada   <img src="/img/revistas/rcci/v10n3/fo0109316.jpg" alt="fo01" width="48" height="19"> y el conjunto de atributos de salidas <img src="/img/revistas/rcci/v10n3/fo0209316.jpg" alt="fo09" width="47" height="21"> definidos para observaciones <img src="/img/revistas/rcci/v10n3/fo0309316.jpg" alt="fo03" width="224" height="22">. El objetivo en la tarea de predicci&oacute;n con salidas compuestas es aprender  un modelo &uacute;nico <img src="/img/revistas/rcci/v10n3/fo0409316.jpg" alt="fo04" width="76" height="20"> de modo que pueda predecir de forma simult&aacute;nea el conjunto de variables  de salidas. En este sentido cualquier objeto <img src="/img/revistas/rcci/v10n3/fo0509316.jpg" alt="fo05" width="91" height="23"> se puede predecir sus variables de salidas <img src="/img/revistas/rcci/v10n3/fo0609316.jpg" alt="fo06" width="20" height="21"> utilizando las variables predictoras <img src="/img/revistas/rcci/v10n3/fo0709316.jpg" alt="fo07" width="20" height="22"> a trav&eacute;s del modelo <img src="/img/revistas/rcci/v10n3/fo0609316.jpg" alt="fo06" width="20" height="21"> = h(<img src="/img/revistas/rcci/v10n3/fo0709316.jpg" alt="fo07" width="20" height="22"> ).  </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el caso del algoritmo KNN se predice una variable de salida a partir  de la media (Para datos num&eacute;ricos) de los -vecinos m&aacute;s cercanos sobre el conjunto de atributos de entrada. Su  generalizaci&oacute;n a problemas de predicci&oacute;n con salidas compuestas consiste en  determinar el valor medio para cada salida de los K-vecinos m&aacute;s cercanos. Formalmente podemos platear que, para cada objeto <img src="/img/revistas/rcci/v10n3/fo0509316.jpg" alt="fo05" width="91" height="23">a predecir y sus correspondientes conjuntos <img src="/img/revistas/rcci/v10n3/fo0809316.jpg" alt="fo08" width="258" height="24">de los k-vecinos m&aacute;s cercanos el valor que se predice para la variable de salida  ser&aacute;: </font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/fo0909316.jpg" alt="fo0909" width="227" height="67"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para determinar la proximidad entre cada objeto del conjunto de  entrenamiento y los objetos a predecir se emplea una funci&oacute;n de distancia (En  general distancia Euclidiana para datos num&eacute;ricos). Para determinar la  distancia Euclidiana entre dos vectores del espacio de entrada</font> <img src="/img/revistas/rcci/v10n3/fo1009316.jpg" alt="fo10" width="37" height="20"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">se calcula:</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v10n3/fo1109316.jpg" alt="fo11" width="344" height="150"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el proceso de predicci&oacute;n se puede utilizar como pesos la distancia  inversa d<sup>-1</sup>&nbsp;por cada objeto con respecto a  sus vecinos. En este enfoque el valor de los vectores de salidas se obtendr&iacute;a  como la media ponderada por la distancia de valores de salidas por cada vecino: </font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/fo1209316.jpg" alt="fo12" width="282" height="64"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Uno de los problemas esenciales en los algoritmos de aprendizaje  autom&aacute;tico es el ajuste de sus par&aacute;metros de entrada, ya que al aplicar estos  con diferentes configuraciones los resultados pueden sufrir cambios  considerables. En particular el algoritmo KNN requiere de conocer de antemano  el valor de k&nbsp;para determinar los K&nbsp;vecinos m&aacute;s cercanos. Un  procedimiento com&uacute;n para evaluar diferentes configuraciones de KNN es el conocido  como <em>Hold out cross validation</em>en el  cual se emplea el conjunto de datos de entrenamiento para clasificar cada  objeto de este seg&uacute;n el modelo obtenido. En este procedimiento se ejecuta  varias veces el algoritmo KNN para diferentes valores de k&nbsp;y se cuantifica una m&eacute;trica de  error que permite determinar la mejor configuraci&oacute;n. En nuestro problema de  predicci&oacute;n con salidas compuesta se utiliza la m&eacute;trica promedio del error  relativo cuadr&aacute;tico medio aRRMSE la cual es usado en la experimentaci&oacute;n del  trabajo (Spyromitros-Xioufis,  Tsoumakas, William, &amp; Vlahavas, 2014) referente del estado del arte  en este tipo de problemas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la implementaci&oacute;n del algoritmo se emple&oacute; la herramienta MULAN (Tsoumakas,  Spyromitros-Xioufis, Vilcek, &amp; Vlahavas, 2011) la cual incorpora varios  algoritmos de predicci&oacute;n con salidas compuestas en el paquete <em>mulan.regressor.transformation</em>. Mulan es  una plataforma de software libre para problemas de salidas m&uacute;ltiples  (clasificaci&oacute;n multi-etiqueta, clasificaci&oacute;n de salidas compuestas). La  herramienta MULAN contiene la mayor parte de los algoritmos de predicci&oacute;n con  salidas compuestas propuestos en la literatura. Solo el PCR y el PCT (Aho, &#381;enko, D&#382;eroski, &amp;  Elomaa, 2012) se encuentran en CLUS los  cuales pueden ser ejecutados e implementados en la herramienta MULAN a trav&eacute;s  del paquete <em>mulan.regressor.clus</em> contenido en ella. Se implement&oacute; la Clase <em>IBKMTR.</em>java  la cual considera 4 combinaciones del algoritmo relacionados con las variantes  de usar o no peso y usar o no validaci&oacute;n cruzada. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La <a href="#t01">tabla 1</a> muestra las diferentes variantes del algoritmo.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/t0109316.jpg" alt="t01" width="367" height="117"><a name="t01"></a></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Comparaci&oacute;n estad&iacute;stica de m&uacute;ltiples  clasificadores</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Siguiendo las  recomendaciones de (Dem&scaron;ar, 2006), el m&eacute;todo  estad&iacute;stico com&uacute;n para esta tarea es ANOVA para an&aacute;lisis param&eacute;trico. Una de  las desventajas de ANOVA es que est&aacute; basada en asunciones, las cuales, en el  &aacute;mbito experimental de los algoritmos de aprendizaje autom&aacute;tico, son  posiblemente violadas. Primeramente, ANOVA asume que las muestras son extra&iacute;das  de distribuciones normalizadas. La segunda y m&aacute;s importante asunci&oacute;n de ANOVA  es la esfericidad. La esfericidad es una propiedad que requiere que las  variables aleatorias tengan igual varianza y que debido a la naturaleza de los  algoritmos de aprendizaje y las colecciones de datos no se puede dar por hecho.  Violaciones de estas asunciones tiene un efecto a&uacute;n mayor en las Pruebas  post-hoc, por lo que ANOVA no es frecuente su uso para estudios experimentales  de aprendizaje autom&aacute;tico. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un equi</font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">valente no param&eacute;trico  de ANOVA es la Prueba de Friedman (Friedman, 1940) la cual jerarquiza los algoritmos por cada colecci&oacute;n  de datos separadamente y en caso de empate asigna un rango promedio. Tomando <img src="/img/revistas/rcci/v10n3/fo1309316.jpg" alt="fo13" width="15" height="25"> como el rango del algoritmo j&nbsp;de k&nbsp;posibles algoritmos en la i-&eacute;sima colecci&oacute;n de datos de &nbsp;colecciones de datos, la Prueba de Friedman  compara los rasgos promedios de los algoritmos</font> <img src="/img/revistas/rcci/v10n3/fo1409316.jpg" alt="fo14" width="81" height="31"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La hip&oacute;tesis nula afirma que todos  los algoritmos son equivalentes y por eso sus rangos R<sub>j</sub> deber&iacute;an ser iguales. Bajo  esta hip&oacute;tesis nula, la estad&iacute;stica de la Prueba de Friedman se calcula:</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v10n3/fo1509316.jpg" alt="fo15" width="291" height="69"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">De acuerdo a <img src="/img/revistas/rcci/v10n3/fo1609316.jpg" alt="fo16" width="18" height="22"> con k - 1 grados de libertad cuandok y N &nbsp;son lo suficientemente grandes k&gt;5, N&gt;10. Si la hip&oacute;tesis nula es rechazada se  puede proceder con una Prueba de <em>post-hoc</em>.  La Prueba de Nemenyi (Nemenyi, 1962) es similar a la  de Tukey para ANOVA y es usado cuando los clasificadores son comparados entre  s&iacute;. El desempe&ntilde;o de cualesquiera dos mediciones modeladas en el experimento es  significativamente diferente si la diferencia entre estas excede al menos la <em>Diferencia Cr&iacute;tica</em>. Los valores cr&iacute;ticos son determinados usando el  estad&iacute;stico del rango <em>Studentized</em> dividida por <img src="/img/revistas/rcci/v10n3/fo1709316.jpg" alt="fo17" width="26" height="27">. Esta diferencia cr&iacute;tica se calcula de la siguiente  manera:</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/fo1809316.jpg" alt="fo18" width="187" height="51"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Te&oacute;ricamente la Prueba de  Friedman no param&eacute;trica tiene menos poder que el ANOVA param&eacute;trico cuando las  asunciones de ANOVA se cumplen, en caso contrario no necesariamente. Friedman  en su trabajo (Friedman, 1940) realiz&oacute; 56 experimentos relacionados con diversos  problemas independientes y demostr&oacute; que ambos coincid&iacute;an generalmente. Cuando  uno encontraba un nivel de significaci&oacute;n en p&lt; 0.01 el otro en al menos p&lt; 0.5 respectivamente. Solamente en  dos casos ANOVA encontr&oacute; nivel de significaci&oacute;n que era insignificante para  Friedman, mientras que en caso contrario ocurri&oacute; en 4 pruebas.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el trabajo (Spyromitros-Xioufis et al., 2014) se proponen varios algoritmos de predicci&oacute;n con  salidas compuestas los cuales fueron evaluadas con 12 bases de datos est&aacute;ndares  que se han establecido en este &aacute;mbito. De estas bases datos 4 fueron propuestos  como resultado de este trabajo. En la validaci&oacute;n del algoritmo KNN-SP solo se  utilizaron 2 de estas bases de datos por lo que su evaluaci&oacute;n en el resto de  las bases de datos se hace necesario para comparar sus resultados con otros  algoritmos en este &aacute;mbito.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Estas bases de datos se relacionan en la <a href="/img/revistas/rcci/v10n3/t0209316.jpg" target="_blank">tabla2</a>. donde la primera  columna indica el nombre de la base de datos, la segunda se refiere al n&uacute;mero  de observaciones de la base de datos. En esta columna adem&aacute;s se indica si los  datos est&aacute;n particionados en datos de prueba (<em>test</em>) y datos de entrenamiento (<em>train</em>)  o si la base de datos contiene todos los datos los cuales deben ser  particionados para los experimentos. Para particionar los datos se utiliza un  m&eacute;todo de validaci&oacute;n cruzada el cual se conoce como <em>K-Fold Cross Validation</em> (lo se&ntilde;alamos como CV). La 3ra y 4ta  columna indica la cantidad de atributo en el espacio de entrada y salida  respectivamente. La &uacute;ltima columna brinda una breve explicaci&oacute;n del dominio de  aplicaci&oacute;n en el cual fueron colectados los datos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como medida de evaluaci&oacute;n se emple&oacute; el promedio del error relativo  cuadr&aacute;tico medio (aRRMSE) entre lo predicho por el algoritmo y lo medido en  cada base de datos para las variables de salidas. El mismo se determina de la  siguiente manera:</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/fo1909316.jpg" alt="fo19" width="344" height="71"></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para validar los resultados de la presente investigaci&oacute;n se ejecutaron <em>10-Fold Cross Validation</em> para las bases  de datos no particionadas. Se ejecutaron las cuatro variantes descritas  anteriormente del algoritmo IBMTR en los cuales para las variantes IBKMTR y  IBKMTRW se utiliz&oacute; k=25 &nbsp;similar a (Pugelj &amp; D&#382;eroski, 2011). En los casos de los algoritmos que requiere validaci&oacute;n cruzada se obtuvo  el valor del mejor &nbsp;y el aRRMSE para la mejor configuraci&oacute;n, sobre  el conjunto de datos de entrenamiento. Se utiliz&oacute; un conjunto de datos de  prueba diferentes al de entrenamiento para medir el error de predicci&oacute;n al  ejecutar cada algoritmo. La <a href="/img/revistas/rcci/v10n3/t0309316.jpg" target="_blank">tabla 3</a> muestra los resultados de ejecutar cada  algoritmo (filas) para las 12 bases de datos (columnas) midiendo el aRRMSE. En  el caso de las variantes del algoritmo con validaci&oacute;n cruzada se indica entre  par&eacute;ntesis el valor &oacute;ptimo de K. De igual manera se aplica el  test de Friedman tomando como hip&oacute;tesis nula que el ranking promedios entre  cada uno de los cuatro algoritmos es el mismo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados del test de Friedman rechazan la hip&oacute;tesis nula lo que  indica que existen diferencias significativas entre los cuatro algoritmos. Al  aplicar la prueba pos-hoc de Nemenyi se puede determinar el valor de la distancia  cr&iacute;tica &nbsp;con un 95 &nbsp;de confianza.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/fo2009316.jpg" alt="fo20" width="280" height="62"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como se puede  apreciar en la <a href="#f01">figura 1</a> los resultados de la prueba post-hoc indican que  existen diferencias significativas entre las variantes del algoritmo que  utilizan el procedimiento de validaci&oacute;n cruzada con respecto a las restantes.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n3/f0109316.jpg" alt="f01" width="485" height="201"><a name="f01"></a></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como  conclusiones de la presente investigaci&oacute;n podemos plantear que:</font></p> <ul>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">De la documentaci&oacute;n te&oacute;rica analizada se identifica a la prueba no  param&eacute;trica de Friedman como las m&aacute;s utilizadas en el dise&ntilde;o de experimentos  para validar algoritmos de aprendizaje autom&aacute;tico. </font></p>   </li>       ]]></body>
<body><![CDATA[<li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La aplicaci&oacute;n del procedimiento de validaci&oacute;n cruzada muestra mejores  resultados en la experimentaci&oacute;n del algoritmo KNN extendido para problemas de  predicci&oacute;n con salidas compuestas. </font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La aplicaci&oacute;n de una prueba post-hoc de Nemenyi muestra que las variantes  IBKMTRCV y IBKMTRCVW son significativamente mejores que cuando no es aplicado  el procedimiento con un 95&nbsp;de confianza.</font></p>   </li>     </ul>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS  BIBLIOGR&Aacute;FICAS</B></font>     <p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">AHO, T., &#381;ENKO, B., D&#381;EROSKI, S., &amp; ELOMAA, T. (2012). Multi-target  regression with rule ensembles. <em>The Journal of Machine Learning Research</em>, <em>13</em>(1), 2367&ndash;2407.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BORCHANI, H., VARANDO, G., BIELZA, C., &amp; LARRA&Ntilde;AGA,  P. (2015). A survey on multi-output regression. <em>Wiley  Interdisciplinary Reviews: Data Mining and Knowledge Discovery</em>, <em>5</em>(5),  216&ndash;233.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">COVER,  T., &amp; HART, P. (1967). Nearest neighbor pattern classification. <em>Information  Theory, IEEE Transactions on</em>, <em>13</em>(1), 21&ndash;27.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DEM&Scaron;AR,  J. (2006). Statistical comparisons of classifiers over multiple data sets. <em>The  Journal of Machine Learning Research</em>, <em>7</em>, 1&ndash;30.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">FRIEDMAN,  M. (1940). A comparison of alternative tests of significance for the problem of  m rankings. <em>The Annals of Mathematical Statistics</em>, <em>11</em>(1), 86&ndash;92.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GARC&Iacute;A,  S., FERN&Aacute;NDEZ, A., LUENGO, J., &amp; HERRERA, F. (2009). A study of statistical  techniques and performance measures for genetics-based machine learning:  accuracy and interpretability. <em>Soft Computing</em>, <em>13</em>(10), 959&ndash;977.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GOLDWASSER,  D., SRIKUMAR, V., &amp; ROTH, D. (2012). Predicting structures in NLP:  constrained conditional models and integer linear programming NLP. In <em>Proceedings  of the 2012 Conference of the North American Chapter of the Association for  Computational Linguistics: Human Language Technologies: Tutorials</em> (p. 8).  Association for Computational Linguistics.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">LAM,  M., RAO DOPPA, J., TODOROVIC, S., &amp; DIETTERICH, T. G. (2015). HC-Search for  structured prediction in computer vision. <em>Proceedings of the IEEE Conference  on Computer Vision and Pattern Recognition</em>, 4923&ndash;4932.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NEMENYI,  P. (1962). Distribution-free multiple comparisons. In <em>Biometrics</em> (Vol.  18, p. 263). INTERNATIONAL BIOMETRIC SOC 1441 I ST, NW, SUITE 700, WASHINGTON,  DC 20005-2210.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NOWOZIN,  S., GEHLER, P. V., JANCSARY, J., &amp; LAMPERT, C. H. (2014). <em>Advanced  Structured Prediction</em>. MIT Press.    </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PUGELJ,  M., &amp; D&#381;EROSKI, S. (2011). Predicting structured outputs k-nearest  neighbours method. In <em>Discovery Science</em> (pp.  262&ndash;276). Springer.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SAVOJARDO, C., FARISELLI, P., MARTELLI, P. L., &amp;  CASADIO, R. (2013). Prediction of disulfide connectivity in proteins with  machine-learning methods and correlated mutations. <em>BMC Bioinformatics</em>, <em>14</em>(1),  1.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SPYROMITROS-XIOUFIS,  E., TSOUMAKAS, G., WILLIAM, G., &amp; VLAHAVAS, I. (2014). Drawing Parallels  between Multi-Label Classification and Multi-Target Regression. <em>arXiv  Preprint arXiv:1211.6581v2</em>.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">TSOUMAKAS,  G., SPYROMITROS-XIOUFIS, E., VILCEK, J., &amp; VLAHAVAS, I. (2011). Mulan: A  java library for multi-label learning. <em>The Journal of Machine Learning  Research</em>, <em>12</em>, 2411&ndash;2414.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">YANG,  W., WANG, K., &amp; ZUO, W. (2013). Prediction of protein secondary structure  using large margin nearest neighbour classification. <em>International Journal  of Bioinformatics Research and Applications</em>, <em>9</em>(2), 207&ndash;219 </font></p>     <p>&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 24/02/2016    <br> Aceptado: 04/07/2016</font></p>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[AHO]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[&#381;ENKO]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[D&#381;EROSKI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[ELOMAA]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multi-target regression with rule ensembles.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>2367-2407</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BORCHANI]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[VARANDO]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[BIELZA]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[LARRAÑAGA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey on multi-output regression.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>5</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>216-233</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[COVER]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[HART]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nearest neighbor pattern classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>21-27</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DEM&#352;AR]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical comparisons of classifiers over multiple data sets]]></source>
<year>2006</year>
<volume>7</volume>
<page-range>1-30</page-range><publisher-name><![CDATA[The Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FRIEDMAN]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of alternative tests of significance for the problem of m rankings]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>11</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>86-92</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[FERNÁNDEZ]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[LUENGO]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A study of statistical techniques and performance measures for genetics-based machine learning: accuracy and interpretability]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>959-977</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GOLDWASSER]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[SRIKUMAR]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[ROTH]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Predicting structures in NLP: constrained conditional models and integer linear programming NLP.]]></source>
<year>2012</year>
<publisher-name><![CDATA[Association for Computational Linguistics]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LAM]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[RAO DOPPA]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[TODOROVIC]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[DIETTERICH]]></surname>
<given-names><![CDATA[T. G]]></given-names>
</name>
</person-group>
<source><![CDATA[HC-Search for structured prediction in computer vision.]]></source>
<year>2015</year>
<page-range>4923-4932</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NEMENYI]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Distribution-free multiple comparisons. In Biometrics]]></source>
<year>1962</year>
<volume>Vol. 18</volume>
<page-range>263</page-range><publisher-loc><![CDATA[^eWASHINGTON WASHINGTON]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NOWOZIN]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[GEHLER]]></surname>
<given-names><![CDATA[P. V]]></given-names>
</name>
<name>
<surname><![CDATA[JANCSARY]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[LAMPERT]]></surname>
<given-names><![CDATA[C. H]]></given-names>
</name>
</person-group>
<source><![CDATA[Advanced Structured Prediction]]></source>
<year>2014</year>
<publisher-name><![CDATA[MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PUGELJ]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[D&#381;EROSKI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Predicting structured outputs k-nearest neighbours method.]]></source>
<year>2011</year>
<page-range>pp. 262-276</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SAVOJARDO]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[FARISELLI]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[MARTELLI]]></surname>
<given-names><![CDATA[P. L]]></given-names>
</name>
<name>
<surname><![CDATA[CASADIO]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prediction of disulfide connectivity in proteins with machine-learning methods and correlated mutations.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>14</volume>
<numero>1</numero>
<issue>1</issue>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SPYROMITROS-XIOUFIS]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[TSOUMAKAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[G]]></surname>
<given-names><![CDATA[WILLIAM]]></given-names>
</name>
<name>
<surname><![CDATA[VLAHAVAS]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Drawing Parallels between Multi-Label Classification and Multi-Target Regression.]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TSOUMAKAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[SPYROMITROS-XIOUFIS]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[VILCEK]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[VLAHAVAS]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Mulan: A java library for multi-label learning]]></source>
<year>2011</year>
<volume>12</volume>
<page-range>2411-2414</page-range><publisher-name><![CDATA[The Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YANG]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[WANG]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[ZUO]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Prediction of protein secondary structure using large margin nearest neighbour classification.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>9</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>207-219</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
