<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992016000400013</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Regresión lineal local con reducción de rango para problemas de predicción con salidas compuestas]]></article-title>
<article-title xml:lang="en"><![CDATA[Local linear regression with reduce rank for multitarget regression]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[R. González]]></surname>
<given-names><![CDATA[Héctor]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Morell]]></surname>
<given-names><![CDATA[Carlos]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Blanco]]></surname>
<given-names><![CDATA[Antonio]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de las Ciencias Informáticas  ]]></institution>
<addr-line><![CDATA[ La Habana]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Central de las Villas Marta Abreu (UCLV)  ]]></institution>
<addr-line><![CDATA[ Villa Clara]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2016</year>
</pub-date>
<volume>10</volume>
<numero>4</numero>
<fpage>184</fpage>
<lpage>193</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992016000400013&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992016000400013&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992016000400013&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN El propósito de este trabajo es estudiar el algoritmo de regresión con pesado local LWR para su adaptación a problemas de predicción con salidas compuestas. La idea de estimar los parámetros de la regresión lineal multivariada, mediante la descomposición en valores singulares, muestra una solución estable que permite manejar, a través del rango, la capacidad predictiva del algoritmo. Los experimentos desarrollados muestran que el algoritmo LWR es competitivo en el contexto del aprendizaje local basado en instancia. Los resultados obtenidos son un punto de partida para la adaptación de este enfoque, usando diversas estrategias que tomen en cuenta la interdependencia entre las variables de salidas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT The purposes of this work is to study Local Weighted Regression LWR algorithm for multi-target prediction problems. The idea to estimate, the parameters of multivariate linear regression trough to singular value decomposition and reduced rank show stable solution to drive the predicting performance of this algorithm. The experimental results show that LWR is a competitive algorithm, in context to instance based learning, for multi-target prediction problems. The preliminary results are the started point for futures adaptations, to this algorithms, take into account the interdependency between outputs variables.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[KNN]]></kwd>
<kwd lng="es"><![CDATA[LWR, Regresión Lineal]]></kwd>
<kwd lng="es"><![CDATA[Predicción con salidas compuestas]]></kwd>
<kwd lng="es"><![CDATA[Aprendizaje con múltiples salidas]]></kwd>
<kwd lng="en"><![CDATA[KNN]]></kwd>
<kwd lng="en"><![CDATA[LWR]]></kwd>
<kwd lng="en"><![CDATA[Linear Regression]]></kwd>
<kwd lng="en"><![CDATA[Multi-target Regression]]></kwd>
<kwd lng="en"><![CDATA[Multi-Output Learning]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Regresi&oacute;n  lineal local con reducci&oacute;n de rango para problemas de predicci&oacute;n con salidas  compuestas</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Local  linear regression with reduce rank for multitarget regression </font></strong> </font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">H&eacute;ctor R. Gonz&aacute;lez<strong><sup>1*</sup></strong>, Carlos Morell<strong><sup>2 </sup></strong>, Antonio Blanco<strong><sup>1</sup></strong></font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Universidad de las Ciencias Inform&aacute;ticas. La Habana, Cuba. <a href="mailto:%7badblanco%7d@uci.cu">{adblanco}@uci.cu</a></font>    <br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>2</sup>Universidad  Central de las Villas &ldquo;Marta Abreu&rdquo; (UCLV), Villa Clara, Cuba. <a href="mailto:cmorellp@uclv.edu.cu">cmorellp@uclv.edu.cu</a></font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span><font size="2"><a href="mailto:hglez@uci.cu">hglez@uci.cu</a> </font></font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El prop&oacute;sito de este trabajo es  estudiar el algoritmo de regresi&oacute;n con pesado local LWR para su adaptaci&oacute;n a  problemas de predicci&oacute;n con salidas compuestas. La idea de estimar los  par&aacute;metros de la regresi&oacute;n lineal multivariada, mediante la descomposici&oacute;n en  valores singulares, muestra una soluci&oacute;n estable que permite manejar, a trav&eacute;s  del rango, la capacidad predictiva del algoritmo. Los experimentos  desarrollados muestran que el algoritmo LWR es competitivo en el contexto del  aprendizaje local basado en instancia. Los resultados obtenidos son un punto de  partida para la adaptaci&oacute;n de este enfoque, usando diversas estrategias que  tomen en cuenta la interdependencia entre las variables de salidas. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">KNN, LWR, Regresi&oacute;n Lineal, Predicci&oacute;n con salidas compuestas,  Aprendizaje con m&uacute;ltiples salidas</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">The purposes of this work is to study Local Weighted Regression LWR  algorithm for multi-target prediction problems. The idea to estimate, the  parameters of multivariate linear regression trough to singular value  decomposition and reduced rank show stable solution to drive the predicting  performance of this algorithm. The experimental results show that LWR is a  competitive algorithm, in context to instance based learning, for multi-target  prediction problems. The preliminary results are the started point for futures  adaptations, to this algorithms, take into account the interdependency between  outputs variables.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>KNN, LWR, Linear Regression, Multi-target Regression, Multi-Output  Learning</font></p> <hr>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Diversos problemas en reconocimiento de patrones y aprendizaje autom&aacute;tico,  han permitido la evoluci&oacute;n de estas disciplinas a nuevos enfoques no  convencionales de predicci&oacute;n o clasificaci&oacute;n. Entre los m&eacute;todos no  convencionales que mayor desarrollo han tenido en los &uacute;ltimos a&ntilde;os se encuentra  la predicci&oacute;n estructurada (<em>Structured  Prediction</em>) (Bakir et al., 2007; Pugelj &amp; D&#382;eroski, 2011), cuya diferencia con los m&eacute;todos convencionales radica en que, la variable  de salida, es modelada como una estructura de datos compleja. Estas  estructuras, para la variable de salida, pueden ser modeladas como Grafos,  Jerarqu&iacute;as, Secuencias, Cadenas de texto o Vectores, dependiendo del tipo de  problema que se desea estudiar. En particular, aquellos problemas que se  componen por vectores en la variable de salidas son conocidos como problemas de  clasificaci&oacute;n multietiqueta (Cuando son vectores con valores binarios) o  predicci&oacute;n con salidas compuestas (Cuando las salidas est&aacute;n formadas por  vectores reales)(Borchani, Varando, Bielza, &amp; Larra&ntilde;aga, 2015). Diversas aplicaciones han sido estudiadas en el &aacute;mbito de la predicci&oacute;n  con salidas compuestas: en el campo de la quimiometr&iacute;a para evaluar diversos  par&aacute;metros de calidad de agua (D&#382;eroski, Dem&scaron;ar, &amp; Grbovi&#263;, 2000), en el modelado de los componentes de sistemas ecol&oacute;gicos (D Kocev, 2009) o para  la venta de pasajes de cierta aerol&iacute;nea (Spyromitros-Xioufis, Tsoumakas, Groves, &amp; Vlahavas, 2012).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un art&iacute;culo de revisi&oacute;n publicado recientemente sobre los problemas de  predicci&oacute;n con salidas compuestas establece dos grandes categor&iacute;as (Borchani et al., 2015) para este tipo de tarea: El primer enfoque contiene los m&eacute;todos que  transforman el problemas de salidas m&uacute;ltiples en diferentes problemas de  predicci&oacute;n de una salida; mientras que el otro enfoque se basa en adaptar  m&eacute;todos cl&aacute;sicos conocidos de aprendizaje autom&aacute;tico para estimar de manera  simult&aacute;nea las m&uacute;ltiples salidas. En ambas categor&iacute;as los m&eacute;todos pueden tener  en cuenta o no la interdependencia entre las variables de salidas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una ausencia notable entre los m&eacute;todos que han sido adaptados, lo  constituye el de los <em>K</em>-Vecinos m&aacute;s  Cercanos (KNN) (Cover &amp; Hart, 1967) a pesar de su simplicidad y posibilidades de escalabilidad. Este m&eacute;todo ha  demostrado ser competitivo en la modelaci&oacute;n de problemas convencionales de  clasificaci&oacute;n y regresi&oacute;n para diversos dominios de aplicaci&oacute;n. En la  literatura consultada sobre predicci&oacute;n con salidas compuestas s&oacute;lo se encontr&oacute;  reportado el trabajo (Pugelj &amp; D&#382;eroski, 2011), que propone el algoritmo KNN-SP para tres tipos de tareas de predicci&oacute;n  estructurada. La propuesta de este algoritmo no toma en cuenta la  interdependencia entre las variables de salidas en ninguna fase de su  funcionamiento. Una evaluaci&oacute;n estad&iacute;stica de este algoritmo y su comparaci&oacute;n  con los principales m&eacute;todos reportados en el estado del arte arroj&oacute; que el  KNN-SP alcanzaba los peores resultados en el Ranking de Friedman, presentando  diferencias significativas con aquellos algoritmos que explotan la  interdependencia entre las variables de salida (Gonz&aacute;lez Diez, Santos, Campos, &amp; Morell P&eacute;rez, 2016). A pesar de estos resultados, se considera que el buen comportamiento del KNN  puede ser mejorado si se emplea un enfoque local de regresi&oacute;n con pesado,  usando la regla de los vecinos m&aacute;s cercanos, conocido como LWR (<em>Local Weighted Regression</em>) por sus  siglas en ingl&eacute;s (Frank, Hall, &amp; Pfahringer, 2002; Atkeson, Moore, &amp; Schaal, 1997).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El prop&oacute;sito del presente trabajo es adaptar la regla de los <em>K</em>-Vecinos m&aacute;s Cercanos al problema de  predicci&oacute;n con salidas compuestas mediante un enfoque de regresi&oacute;n local pesado  (LWR). En particular, para cada objeto a recuperar se aprende un modelo de  regresi&oacute;n lineal multivariado para predecir de manera simult&aacute;nea cada salida  real de esta instancia. Debido a que el problema de regresi&oacute;n posee mucho menos  instancias que atributos predictores, se utiliza para su soluci&oacute;n la  descomposici&oacute;n en valores singulares (SVD por sus siglas en ingles), lo cual  permite reducir el rango y solo tomar en cuenta aquellas variables predictoras  que son representativas. Nuestro estudio nos ayuda a evaluar el comportamiento  de este algoritmo para diferentes valores de rango.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>MATERIALES Y M&Eacute;TODOS </B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el presente trabajo usaremos las siguientes definiciones y notaciones  para describir nuestro problema de predicci&oacute;n con salidas compuestas.</font> </p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sea</font> <img src="/img/revistas/rcci/v10n4/fo0113416.jpg" alt="fo01" width="274" height="29"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">dos vectores aleatorios en el  espacio de entrada y salida respectivamente. Cada instancia de entrenamiento  queda escrita como</font> <img src="/img/revistas/rcci/v10n4/fo0213416.jpg" alt="fo02" width="124" height="26"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">, y el correspondiente problema  de predicci&oacute;n con salidas compuestas consiste en estimar un &uacute;nico modelo</font> <img src="/img/revistas/rcci/v10n4/fo0313416.jpg" alt="fo03" width="74" height="19"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">, de modo que, la  desviaci&oacute;n esperada entre los valores reales de la variable de salida y el  valor predicho, usando el modelo, se minimicen para todas las variables de  entrada. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La regla de los <em>K</em>-Vecinos m&aacute;s Cercanos para problemas  convencionales de predicci&oacute;n, utiliza la media de los vecinos sobre el conjunto  de atributos de entrada para estimar la variable de salida. Su generalizaci&oacute;n a  problemas de predicci&oacute;n con salidas compuesta consiste en determinar el valor medio  para cada salida en el conjunto de los <em>K</em>-Vecinos  m&aacute;s Cercanos. Una generalizaci&oacute;n a esta regla emplea una funci&oacute;n de pesos que  depende de la distancia del conjunto de vecinos a la instancia a recuperar. De  manera formal, para una instancia <img src="/img/revistas/rcci/v10n4/fo0413416.jpg" alt="fo04" width="53" height="23"> con valores de la variable de  salida desconocido y sus vecinos m&aacute;s cercanos N<sub>K</sub>(<img src="/img/revistas/rcci/v10n4/fo0513416.jpg" alt="fo05" width="17" height="20">) para la variable de entrada <img src="/img/revistas/rcci/v10n4/fo0513416.jpg" alt="fo05" width="17" height="20"> se estiman los valores de  salida <img src="/img/revistas/rcci/v10n4/fo0613416.jpg" alt="fo06" width="18" height="20">seg&uacute;n (1).</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo0713416.jpg" alt="fo07" width="373" height="84"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, w(d<img src="/img/revistas/rcci/v10n4/fo0413416.jpg" alt="fo04" width="53" height="23">) indica la funci&oacute;n de pesos que pondera los vecinos recuperados a partir de  los valores de distancias.    <br> En el algoritmo de regresi&oacute;n local pesado (LWR) se estiman, para cada  instancia a recuperar, un modelo de regresi&oacute;n lineal multivariada sobre el  conjunto de los <em>K-</em>Vecinos m&aacute;s Cercanos  y estimar cada vector de salida. Este modelo puede ser expresado seg&uacute;n la  funci&oacute;n lineal:</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo0813416.jpg" alt="fo13" width="261" height="36"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para estimar  el modelo de regresi&oacute;n lineal multivariado se trata de minimizar el error  cuadr&aacute;tico que se comete al estimar cada variable de salida del conjunto de  entrenamiento con relaci&oacute;n al valor real de dicha variable. En particular, LWR  introduce una funci&oacute;n de peso, que depende de la distancia entre el objeto a  recuperar y sus vecinos, para modelar un problema de optimizaci&oacute;n convexo en la  forma. </font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo0913416.jpg" alt="fo09" width="580" height="35"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde A<sub>:,q</sub> indica la columna <em>q </em>de dicha  matriz. Si realizamos la transformaci&oacute;n <img src="/img/revistas/rcci/v10n4/fo1013416.jpg" alt="fo10" width="376" height="35">, obtenemos un  problema de optimizaci&oacute;n similar a la regresi&oacute;n lineal multivariada sin pesos  en las nuevas variables y cuya soluci&oacute;n para estimar la matriz de regresi&oacute;n del  modelo lineal quedar&aacute; expresada en su forma normal como:</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo1113416.jpg" alt="fo11" width="267" height="38"></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el problema de LWR para la generalidad de las bases de datos se  cumple que, la cardinalidad del conjunto de vecinos es mucho menor que el  n&uacute;mero de atributos <img src="/img/revistas/rcci/v10n4/fo1213416.jpg" alt="fo12" width="117" height="30"> de ah&iacute; que Z<sup>T</sup>Z es una matriz  singular en la mayor&iacute;a de los casos y por lo tanto no inversible. Este problema  puede ser resuelto introduciendo un factor de contracci&oacute;n como regularizador,  sin embargo, algunos autores demuestran que la soluci&oacute;n a este problema,  utilizando el c&aacute;lculo de la inversa, puede ser inestable. Una alternativa para  dar soluci&oacute;n al problema de no invertir esta matriz, puede desarrollarse  mediante la descomposici&oacute;n de la matriz <em>Z</em> en valores singulares (SVD) (Golub &amp; Reinsch, 1970; Kleibergen &amp; Paap, 2006).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En general una matriz arbitraria A<sub>pxq</sub>, admite una descomposici&oacute;n en la forma <img src="/img/revistas/rcci/v10n4/fo1313416.jpg" alt="fo13" width="121" height="23"> Las matrices <em>U</em> y <em>V</em> son ortogonales y conforman el  conjunto de vectores singulares de <em>A</em>,  mientras que <em>S</em> es una matriz diagonal  de rango <img src="/img/revistas/rcci/v10n4/fo1413416.jpg" alt="fo14" width="101" height="22">, con valores positivos ordenados de mayor a menor.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para estimar los valores de la matriz <em>A</em>,  correspondiente al modelo de regresi&oacute;n lineal multivariado, se puede demostrar,  aprovechando las propiedades de las matrices ortogonales de la descomposici&oacute;n,  que la estimaci&oacute;n de esta se determina por la expresi&oacute;n (5):</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo1513416.jpg" alt="fo15" width="213" height="36"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, <img src="/img/revistas/rcci/v10n4/fo1613416.jpg" alt="fo16" width="240" height="37">. Para valores peque&ntilde;os de <img src="/img/revistas/rcci/v10n4/fo1713416.jpg" alt="fo17" width="18" height="19"> su inversa  puede crecer infinitamente por lo que estos valores pueden truncarse a cero y  por consiguiente reducir el rango. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>RESULTADOS Y DISCUSI&Oacute;N </B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En esta secci&oacute;n, describiremos la configuraci&oacute;n de  los experimentos dise&ntilde;ados y discutiremos los principales resultados relacionados  con el algoritmo propuesto. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como un primer elemento, se presentan los detalles  t&eacute;cnicos relacionados con las bases de datos, par&aacute;metros de ajustes de los  algoritmos y la implementaci&oacute;n. Posteriormente, se presenta una comparaci&oacute;n  entre el enfoque local de regresi&oacute;n pesado y el cl&aacute;sico KNN-SP sobre ocho bases  de datos p&uacute;blicas disponible para problemas de predicci&oacute;n con salidas  compuestas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la experimentaci&oacute;n se emplean diferentes cantidades del n&uacute;mero de  vecinos en la predicci&oacute;n final k<sub>p</sub>, cuyos valores se reportan en los resultados  experimentales para los algoritmos evaluados. Para los experimentos reportados  en este art&iacute;culo, los valores del n&uacute;mero de vecinos se encuentran en el  intervalo [7,37] donde solo se evaluaron los valores impares de este intervalo. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para el algoritmo KNN-SP, se emplea en la  predicci&oacute;n el pesado por el inverso de la distancia y por la funci&oacute;n Gaussiana  de la distancia como se muestra en la expresi&oacute;n (6), mientras que las mismas  funciones de pesos son empleadas en el algoritmo LWR. Para el LWR se reportan  los resultados para varios valores de rango y su influencia en la predicci&oacute;n.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo1813416.jpg" alt="fo18" width="444" height="62"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la experimentaci&oacute;n, se emplea la validaci&oacute;n cruzada con 10-folds para  cada base de datos, excepto las bases de datos de mayor dimensi&oacute;n (m&aacute;s de 1000  instancias), que han sido divididas en entrenamiento y prueba. La <a href="/img/revistas/rcci/v10n4/t0113416.jpg" target="_blank">Tabla (1)</a>  resume las principales caracter&iacute;sticas de estas bases de datos (Borchani et al., 2015; Spyromitros-Xioufis, Tsoumakas, William, &amp; Vlahavas, 2014). El procedimiento de validaci&oacute;n cruzada ha sido  integrado en el paquete de software MULAN (Tsoumakas, Spyromitros-Xioufis, Vilcek, &amp; Vlahavas, 2011).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como en trabajos similares, nosotros empleamos para  medir la efectividad de los algoritmos, la m&eacute;trica del error cuadr&aacute;tico medio  relativo (RRMSE), determinando su valor medio sobre el conjunto de salidas de  la siguiente manera:</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n4/fo1913416.jpg" alt="fo19" width="404" height="95"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para comparar estad&iacute;sticamente los resultados, en  el presente trabajo empleamos la prueba de Wilcoxon con rangos de signos para  comparar el par de algoritmos evaluados en la experimentaci&oacute;n, siguiendo las  recomendaciones realizadas en (Dem&scaron;ar, 2006) y sus extensiones propuestas en (Garc&iacute;a, Fern&aacute;ndez, Luengo, &amp; Herrera, 2009).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Estas bases de datos se relacionan en la <a href="/img/revistas/rcci/v10n4/t0113416.jpg" target="_blank">Tabla (1)</a> donde  la primera columna indica el nombre de la base de datos, la segunda se refiere  al n&uacute;mero de observaciones de la base de datos. En esta columna adem&aacute;s se  indica si los datos est&aacute;n particionados en datos de prueba (test) y datos de  entrenamiento (train) o si la base de datos contiene todos los datos los cuales  deben ser particionados para los experimentos. Para particionar los datos se  utiliza un m&eacute;todo de validaci&oacute;n cruzada el cual se conoce como <em>K-Fold Cross Validation</em> (lo se&ntilde;alamos  como CV). La 3ra y 4ta columna indica la cantidad de atributo en el espacio de  entrada y salida respectivamente. La &uacute;ltima columna brinda una breve  explicaci&oacute;n del dominio de aplicaci&oacute;n en el cual fueron colectados los datos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La<a href="/img/revistas/rcci/v10n4/f0113416.jpg" target="_blank"> Figura 1</a> contiene los resultados del aRRMSE versus  el rango de la descomposici&oacute;n en valores singulares <em>r</em>, para las 8 bases de datos consideradas en el trabajo. El mejor  valor del n&uacute;mero de vecinos para la predicci&oacute;n <em>k<sub>p</sub></em> es reportado en la gr&aacute;fica. Adicionalmente, los  mejores resultados son se&ntilde;alizados en las gr&aacute;ficas con un c&iacute;rculo y un diamante  de colores azul y rojo respectivamente seg&uacute;n el tipo de funci&oacute;n de peso.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como  se puede apreciar con un valor del rango relativamente peque&ntilde;o se obtienen los  mejores resultados. Los valores de rango superiores a 7 no fueron reportados en  la gr&aacute;fica pues estos arrojaban resultados muy desequilibrados y distorsionaba  la representaci&oacute;n visual de la misma.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v10n4/t0213416.jpg" target="_blank">tabla 2</a>, se detallan los mejores resultados  compar&aacute;ndolos con los alcanzados para el algoritmo KNN-SP. La aplicaci&oacute;n de la  prueba de Wilcoxon entre las variantes de LWR estudiadas y el KNN-SP, arroj&oacute; que  el valor cr&iacute;tico (p = 0.3828) es mayor que 0.05 para ambos casos por lo que se  acepta la Hip&oacute;tesis nula de esta prueba y por consiguiente afirmamos que no  existen diferencias significativas entre ambos algoritmos con un 95 % de  confianza.</font></p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados alcanzados en este trabajo, nos indican que los modelos  basados en regresi&oacute;n local son competitivos en el contexto de la predicci&oacute;n con  salidas compuestas. Por otra parte, los valores de regresi&oacute;n se ven fuertemente  afectados por el c&aacute;lculo de la inversa en el modelo de regresi&oacute;n. En caso de  emplear descomposici&oacute;n en valores singulares los resultados de predicci&oacute;n son  fuertemente dependientes del manejo del rango.&nbsp;&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El estudio y evaluaci&oacute;n de los algoritmos de regresi&oacute;n local con pesado LWR  para problemas de predicci&oacute;n con salidas compuestas, es un punto de partida a  futuras investigaciones. Estas direcciones de trabajo se enmarcan en adaptar  estos enfoques al tratamiento de la interdependencia entre las variables de  salidas empleando diversas estrategias.&nbsp; </font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ATKESON,  C. G., MOORE, A. W., &amp; SCHAAL, S. (1997). Locally weighted learning for  control. In <em>Lazy learning</em> (pp. 75&ndash;113). Springer.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BAKIR,  G. H., HOFMANN, T., SCH&Ouml;LKOPF, B., SMOLA, A. J., TASKAR, B., &amp;  VISHWANATHAN, S. V. N. (2007). <em>Predicting Structured Data (Neural  Information Processing)</em>. The MIT Press.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BORCHANI, H., VARANDO, G., BIELZA, C., &amp; LARRA&Ntilde;AGA,  P. (2015). A survey on multi-output regression. <em>Wiley  Interdisciplinary Reviews: Data Mining and Knowledge Discovery</em>, <em>5</em>(5),  216&ndash;233.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">COVER,  T., &amp; HART, P. (1967). Nearest neighbor pattern classification. <em>Information  Theory, IEEE Transactions on</em>, <em>13</em>(1), 21&ndash;27.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DEM&Scaron;AR,  J. (2006). Statistical comparisons of classifiers over multiple data sets. <em>The  Journal of Machine Learning Research</em>, <em>7</em>, 1&ndash;30.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D  KOCEV, P. G., S DZEROSKI, M D WHITE, G R NEWELL. (2009). Using single- and  multi-target regression trees and ensembles to model a compound index of vegetation  condition. <em>Ecological Modelling 220</em>.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D&#381;EROSKI,  S., DEM&Scaron;AR, D., &amp; GRBOVI&#262;, J. (2000). Predicting chemical parameters of  river water quality from bioindicator data. <em>Applied Intelligence</em>, <em>13</em>(1),  7&ndash;17.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">FRANK,  E., HALL, M., &amp; PFAHRINGER, B. (2002). Locally weighted naive bayes. In <em>Proceedings  of the Nineteenth conference on Uncertainty in Artificial Intelligence</em> (pp.  249&ndash;256). Morgan Kaufmann Publishers Inc.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GARC&Iacute;A,  S., FERN&Aacute;NDEZ, A., LUENGO, J., &amp; HERRERA, F. (2009). A study of statistical  techniques and performance measures for genetics-based machine learning:  accuracy and interpretability. <em>Soft Computing</em>, <em>13</em>(10), 959&ndash;977.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GOLUB,  G. H., &amp; REINSCH, C. (1970). Singular value decomposition and least squares  solutions. <em>Numerische Mathematik</em>, <em>14</em>(5), 403&ndash;420.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GONZ&Aacute;LEZ DIEZ, H. R., SANTOS, G., CAMPOS, F., &amp; MORELL P&Eacute;REZ, C. (2016,  July 13). Evaluaci&oacute;n del algoritmo KNN-SP para problemas de predicci&oacute;n con  salidas compuestas. <em>Revista Cubana de Ciencias  Inform&aacute;ticas</em>, <em>10</em>(3), 119&ndash;129.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">KLEIBERGEN,  F., &amp; PAAP, R. (2006). Generalized reduced rank tests using the singular  value decomposition. <em>Journal of Econometrics</em>, <em>133</em>(1), 97&ndash;126.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PUGELJ,  M., &amp; D&#381;EROSKI, S. (2011). Predicting structured outputs k-nearest  neighbours method. In <em>Discovery Science</em> (pp. 262&ndash;276). Springer.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SPYROMITROS-XIOUFIS,  E., TSOUMAKAS, G., GROVES, W., &amp; VLAHAVAS, I. (2012). multi-label  classification methods for multi-Target Regression. <em>arXiv Preprint  arXiv:1211.6581</em>.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SPYROMITROS-XIOUFIS,  E., TSOUMAKAS, G., WILLIAM, G., &amp; VLAHAVAS, I. (2014). Drawing Parallels  between Multi-Label Classification and Multi-Target Regression. <em>arXiv  Preprint arXiv:1211.6581v2</em>.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">TSOUMAKAS,  G., SPYROMITROS-XIOUFIS, E., VILCEK, J., &amp; VLAHAVAS, I. (2011). Mulan: A  java library for multi-label learning. <em>The Journal of Machine Learning  Research</em>, <em>12</em>, 2411&ndash;2414. </font></p>     <p>&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 15/05/2016    <br> Aceptado: 01/09/2016</font></p>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ATKESON]]></surname>
<given-names><![CDATA[C. G]]></given-names>
</name>
<name>
<surname><![CDATA[MOORE]]></surname>
<given-names><![CDATA[A. W]]></given-names>
</name>
<name>
<surname><![CDATA[S]]></surname>
<given-names><![CDATA[SCHAAL]]></given-names>
</name>
</person-group>
<source><![CDATA[Locally weighted learning for control]]></source>
<year>1997</year>
<page-range>75-113</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BAKIR]]></surname>
<given-names><![CDATA[G. H]]></given-names>
</name>
<name>
<surname><![CDATA[HOFMANN]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[SCHÖLKOPF]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[SMOLA]]></surname>
<given-names><![CDATA[A. J]]></given-names>
</name>
<name>
<surname><![CDATA[TASKAR]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[VISHWANATHAN]]></surname>
<given-names><![CDATA[S. V. N]]></given-names>
</name>
</person-group>
<source><![CDATA[Predicting Structured Data (Neural Information Processing).]]></source>
<year>2007</year>
<publisher-name><![CDATA[The MIT Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BORCHANI]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[VARANDO]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[BIELZA]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[LARRAÑAGA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey on multi-output regression.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>5</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>216-233</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[COVER]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[HART]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nearest neighbor pattern classification]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>21-27</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DEM&#352;AR]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical comparisons of classifiers over multiple data sets.]]></source>
<year>2006</year>
<volume>7</volume>
<page-range>1-30</page-range><publisher-name><![CDATA[The Journal of Machine Learning Research]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[D KOCEV]]></surname>
<given-names><![CDATA[P. G]]></given-names>
</name>
<name>
<surname><![CDATA[DZEROSKI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[WHITE]]></surname>
<given-names><![CDATA[M D]]></given-names>
</name>
<name>
<surname><![CDATA[NEWELL]]></surname>
<given-names><![CDATA[G R]]></given-names>
</name>
</person-group>
<source><![CDATA[Using single- and multi-target regression trees and ensembles to model a compound index of vegetation condition.]]></source>
<year>2009</year>
<publisher-name><![CDATA[Ecological Modelling]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[D&#381;EROSKI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[DEM&#352;AR]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[GRBOVI&#262;]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Predicting chemical parameters of river water quality from bioindicator data.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>7-17</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FRANK]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[HALL]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[PFAHRINGER]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[Locally weighted naive bayes.]]></source>
<year>2002</year>
<page-range>249-256</page-range><publisher-name><![CDATA[Morgan Kaufmann Publishers Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[FERNÁNDEZ]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[LUENGO]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A study of statistical techniques and performance measures for genetics-based machine learning: accuracy and interpretability]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>13</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>959-977</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GOLUB]]></surname>
<given-names><![CDATA[G. H]]></given-names>
</name>
<name>
<surname><![CDATA[REINSCH]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Singular value decomposition and least squares solutions]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>14</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>403-420</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GONZÁLEZ DIEZ]]></surname>
<given-names><![CDATA[H. R]]></given-names>
</name>
<name>
<surname><![CDATA[SANTOS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[CAMPOS]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[MORELL PÉREZ]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Evaluación del algoritmo KNN-SP para problemas de predicción con salidas compuestas]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>10</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>119-129</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KLEIBERGEN]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[PAAP]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Generalized reduced rank tests using the singular value decomposition]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>133</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>97-126</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PUGELJ]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[D&#381;EROSKI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Predicting structured outputs k-nearest neighbours method]]></source>
<year>2011</year>
<page-range>262-276</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SPYROMITROS-XIOUFIS]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[TSOUMAKAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[GROVES]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[VLAHAVAS]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[multi-label classification methods for multi-Target Regression]]></source>
<year>2012</year>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SPYROMITROS-XIOUFIS]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[TSOUMAKAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[WILLIAM]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[VLAHAVAS]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Drawing Parallels between Multi-Label Classification and Multi-Target Regression.]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TSOUMAKAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[SPYROMITROS-XIOUFIS]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[VILCEK]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[VLAHAVAS]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[Mulan: A java library for multi-label learning.]]></source>
<year>2011</year>
<volume>12</volume>
<page-range>2411-2414</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
