<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1684-1859</journal-id>
<journal-title><![CDATA[Revista Cubana de Informática Médica]]></journal-title>
<abbrev-journal-title><![CDATA[RCIM]]></abbrev-journal-title>
<issn>1684-1859</issn>
<publisher>
<publisher-name><![CDATA[Universidad de Ciencias Médicas de La Habana]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1684-18592013000200009</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Funciones de transferencia en el perceptrón multicapa: efecto de su combinación en entrenamiento local y distribuido]]></article-title>
<article-title xml:lang="en"><![CDATA[Transfer functions in the multilayer perceptron: effects of its combination on local and distributed training]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Mejías César]]></surname>
<given-names><![CDATA[Yuleidys]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Carrasco Velar]]></surname>
<given-names><![CDATA[Ramón]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Ochoa Izquierdo]]></surname>
<given-names><![CDATA[Isbel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Moreno Lemus]]></surname>
<given-names><![CDATA[Edel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de las Ciencias Informáticas  ]]></institution>
<addr-line><![CDATA[La Habana ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2013</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2013</year>
</pub-date>
<volume>5</volume>
<numero>2</numero>
<fpage>186</fpage>
<lpage>199</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S1684-18592013000200009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S1684-18592013000200009&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S1684-18592013000200009&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El perceptrón multicapa (PMC) figura dentro de los tipos de redes neuronales artificiales (RNA) con resultados útiles en los estudios de relación estructura-actividad. Dado que los volúmenes de datos en proyectos de Bioinformática son eventualmente grandes, se propuso evaluar algoritmos para acortar el tiempo de entrenamiento de la red sin afectar su eficiencia. Se desarrolló un algoritmo para el entrenamiento local y distribuido del PMC con la posibilidad de variar las funciones de transferencias para lo cual se utilizaron el Weka y la Plataforma de Tareas Distribuidas Tarenal para distribuir el entrenamiento del perceptrón multicapa. Se demostró que en dependencia de la muestra de entrenamiento, la variación de las funciones de transferencia pueden reportar resultados mucho más eficientes que los obtenidos con la clásica función Sigmoidal, con incremento de la g-media entre el 4.5 y el 17 %. Se encontró además que en los entrenamientos distribuidos es posible alcanzar eventualmente mejores resultados que los logrados en ambiente local.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[The multilayer perceptron (PMC) ranks among the types of artificial neural networks (ANN), which has provided better results in studies of structure-activity relationship. As the data volumes in Bioinformatics' projects are eventually big, it was proposed to evaluate algorithms to shorten the training time of the network without affecting its efficiency. There were evaluated different tools that work with ANN and were selected Weka algorithm for extracting the network and the Platform for Distributed Task Tarenal to distribute the training of multilayer perceptron. Finally, it was developed a training algorithm for local and distributed the MLP with the possibility of varying transfer functions. It was shown that depending on the training sample, the change of transfer functions can yield results much more efficient than those obtained with the classic sigmoid function with increased g-media between 4.5 and 17 %. Moreover, it was found that with distributed training can be achieved eventually, better results than those achieved in the local environment.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[funciones de transferencia]]></kwd>
<kwd lng="es"><![CDATA[perceptrón multicapa]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales]]></kwd>
<kwd lng="en"><![CDATA[transfer functions]]></kwd>
<kwd lng="en"><![CDATA[multi-layer perceptron]]></kwd>
<kwd lng="en"><![CDATA[neural networks]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <div align="right">        <p><font size="2" face="Verdana"> <strong>ART&Iacute;CULO ORIGINAL</strong></font></p>       <p>&nbsp;</p>       <p align="left"><font size="4" face="Verdana"><strong>Funciones de transferencia      en el perceptr&oacute;n multicapa: efecto de su combinaci&oacute;n en entrenamiento      local y distribuido</strong></font></p>       <p align="left">&nbsp;</p>       <p align="left"><font size="3" face="Verdana"><strong>Transfer functions in      the multilayer perceptron: effects of its combination on local and distributed      training</strong></font></p>       <p align="left">&nbsp;</p>       <p align="left">&nbsp;</p>       <p align="left"><font size="2" face="Verdana"><strong>MsC. Yuleidys Mej&iacute;as      C&eacute;sar,<sup>I</sup> Dr. Ram&oacute;n Carrasco Velar,<sup>II</sup> Ing.      Isbel Ochoa Izquierdo,<sup>III</sup> Ing. Edel Moreno Lemus<sup>III</sup></strong></font></p>       <p align="left"><font size="2" face="Verdana"><sup>I</sup>M&aacute;ster en Bioinform&aacute;tica.      Profesor Asistente. Universidad de las Ciencias Inform&aacute;ticas. La Habana,      Cuba. E-mail: <a href="mailto:ymejias@uci.cu">ymejias@uci.cu</a>    ]]></body>
<body><![CDATA[<br>     <sup>II</sup>Doctor en Ciencias Qu&iacute;micas. Profesor Auxiliar. Investigador      Titular. Universidad de las Ciencias Inform&aacute;ticas. La Habana, Cuba.      E-mail: <a href="mailto:rcarrasco@uci.cu">rcarrasco@uci.cu</a>    <br>     <sup>III</sup>Ingeniero. Profesor Instructor. Universidad de las Ciencias      Inform&aacute;ticas. La Habana, Cuba.    <br>     </font></p>       <p align="left">&nbsp;</p>       <p align="left">&nbsp;</p>   <hr>       <div align="left"><font size="2" face="Verdana"><strong>RESUMEN</strong></font>    </div> </div>     <P><font size="2" face="Verdana">El perceptr&oacute;n multicapa (PMC) figura dentro    de los tipos de redes neuronales artificiales (RNA) con resultados &uacute;tiles    en los estudios de relaci&oacute;n estructura-actividad. Dado que los vol&uacute;menes    de datos en proyectos de Bioinform&aacute;tica son eventualmente grandes, se    propuso evaluar algoritmos para acortar el tiempo de entrenamiento de la red    sin afectar su eficiencia. Se desarroll&oacute; un algoritmo para el entrenamiento    local y distribuido del PMC con la posibilidad de variar las funciones de transferencias    para lo cual se utilizaron el Weka y la Plataforma de Tareas Distribuidas Tarenal    para distribuir el entrenamiento del perceptr&oacute;n multicapa. Se demostr&oacute;    que en dependencia de la muestra de entrenamiento, la variaci&oacute;n de las    funciones de transferencia pueden reportar resultados mucho m&aacute;s eficientes    que los obtenidos con la cl&aacute;sica funci&oacute;n Sigmoidal, con incremento    de la g-media entre el 4.5 y el 17 %. Se encontr&oacute; adem&aacute;s que en    los entrenamientos distribuidos es posible alcanzar eventualmente mejores resultados    que los logrados en ambiente local. </font>      <P><font size="2" face="Verdana"><strong>Palabras clave:</strong> funciones de    transferencia, perceptr&oacute;n multicapa, redes neuronales.</font> <hr> <font size="2" face="Verdana"><strong>ABSTRACT</strong></font>      <P><font size="2" face="Verdana">The multilayer perceptron (PMC) ranks among the    types of artificial neural networks (ANN), which has provided better results    in studies of structure-activity relationship. As the data volumes in Bioinformatics'    projects are eventually big, it was proposed to evaluate algorithms to shorten    the training time of the network without affecting its efficiency. There were    evaluated different tools that work with ANN and were selected Weka algorithm    for extracting the network and the Platform for Distributed Task Tarenal to    distribute the training of multilayer perceptron. Finally, it was developed    a training algorithm for local and distributed the MLP with the possibility    of varying transfer functions. It was shown that depending on the training sample,    the change of transfer functions can yield results much more efficient than    those obtained with the classic sigmoid function with increased g-media between    4.5 and 17 %. Moreover, it was found that with distributed training can be achieved    eventually, better results than those achieved in the local environment. </font>      <P><font size="2" face="Verdana"><strong>Key words:</strong> transfer functions,    multi-layer perceptron, neural networks. </font> <hr>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana"> <strong>INTRODUCCI&Oacute;N</strong> </font>  </p>     <P><font size="2" face="Verdana">Las redes de neuronas artificiales (RNA) son    una aproximaci&oacute;n matem&aacute;tica al funcionamiento del cerebro que    pueden representarse esquem&aacute;ticamente para su mejor comprensi&oacute;n    (<a href="#figura1">Fig. 1</a>).</font>     <P align="center"><img src="/img/revistas/rcim/v5n2/f0109213.jpg" width="497" height="309"> <a name="figura1"></a>      <P><font size="2" face="Verdana">Su utilizaci&oacute;n se ha extendido a campos    tan dis&iacute;miles como la cromatograf&iacute;a,<sup>1,2</sup> para la selecci&oacute;n    de hiperpar&aacute;metros en <em>Least Squares Support Vector Machine (LS-SVM)    approximators with Gaussian Kernels</em>,<sup>3</sup> en estudios cuantitativos    de relaci&oacute;n estructura-actividad<sup>4</sup> y estructura-propiedad,<sup>5</sup>    para la selecci&oacute;n de aspectos,<sup>6</sup> entre otras diferentes y m&uacute;ltiples    aplicaciones. </font>      <P><font size="2" face="Verdana">Se conocen diferentes compuestos qu&iacute;micos    en el cerebro y otras partes del SNC que act&uacute;an como neurotrasmisores    a diferentes niveles, los cuales trasmiten se&ntilde;ales entre c&eacute;lulas    nerviosas que contienen informaci&oacute;n. A estos trasmisores de se&ntilde;ales    se les puede catalogar como peque&ntilde;os, aminas, amino&aacute;cidos y otros    seg&uacute;n su estructura qu&iacute;mica o como Inhibidores o excitadores por    la funci&oacute;n. Independientemente de los criterios de clasificaci&oacute;n,    es una realidad que el cumplimiento de su funci&oacute;n bioqu&iacute;mica est&aacute;    &iacute;ntimamente ligado a su estructura qu&iacute;mica y que la respuesta    o efecto depender&aacute; de un cierto valor de potencial que puede ser representado    mediante una determinada funci&oacute;n matem&aacute;tica. </font>     <P><font size="2" face="Verdana">Las redes de neuronas artificiales, como modelo    matem&aacute;tico, pretenden asemejar el comportamiento de dichos trasmisores    de informaci&oacute;n pero, seg&uacute;n se infiere de lo anteriormente expresado,    estas funciones no pueden ser iguales para cada mol&eacute;cula org&aacute;nica    que est&aacute;n actuando sistem&aacute;ticamente para mantener en equilibrio    las distintas funciones org&aacute;nicas. </font>     <P><font size="2" face="Verdana">Esa es la raz&oacute;n fundamental para iniciar    este tipo de trabajo en las RNA con vistas evaluar el comportamiento de los    modelos en situaciones particulares, variando las funciones de transferencia    de la red, como una aproximaci&oacute;n adicional al comportamiento del cerebro,    sin pretender vincular cada una de dichas funciones matem&aacute;ticas a un    neurotransmisor espec&iacute;fico. </font>     <P><font size="2" face="Verdana">Por otra parte, para describir la estructura    qu&iacute;mica se puede partir de enfoques diferentes entre los que se encuentra    la representaci&oacute;n molecular como un grafo conexo y la divisi&oacute;n    de la mol&eacute;cula o grafo molecular en fragmentos o subgrafos, que pueden    o no estar ponderados en las aristas (enlaces) o los v&eacute;rtices (&aacute;tomos).<sup>7</sup>    Atendiendo a la naturaleza del problema y las capacidades de las RNA de extraer    informaci&oacute;n no-lineal de un conjunto de datos, se decidi&oacute; ampliar    las investigaciones en este campo para incrementar las potencialidades de la    Plataforma en la b&uacute;squeda de modelos eficientes de relaci&oacute;n estructura-actividad    biol&oacute;gica. </font>      ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">Al enfrentar inicialmente el estudio de las RNA,    se identificaron dos interrogantes fundamentales. Una de ellas estaba relacionada    con el tiempo que requiere el entrenamiento de las redes y la capacidad de c&oacute;mputo    que consumen, m&aacute;xime cuando se cuenta con grandes vol&uacute;menes de    informaci&oacute;n, como es el caso de los proyectos de Bioinform&aacute;tica.    La otra interrogante estaba asociada a las funciones de transferencia de las    redes y c&oacute;mo su combinaci&oacute;n podr&iacute;a afectar la calidad de    la respuesta durante el entrenamiento de la red. La funci&oacute;n de transferencia,    o de activaci&oacute;n, como tambi&eacute;n se le conoce, es uno de los elementos    principales del funcionamiento de las RNA. La funci&oacute;n de activaci&oacute;n    de una neurona artificial simula la respuesta de una neurona biol&oacute;gica    ante un cierto est&iacute;mulo. Se conoce que el cerebro posee un comportamiento    diferente ante cada est&iacute;mulo, sin embargo, en la mayor&iacute;a de los    casos las RNA son entrenadas y utilizadas haciendo uso de una &uacute;nica funci&oacute;n    de transferencia. </font>     <P><font size="2" face="Verdana">Por todo ello se traz&oacute; como objetivo determinar    el efecto de la variaci&oacute;n de las funciones de transferencia en la calidad    de la respuesta del entrenamiento de un PMC, en ambiente local y distribuido.    </font>      <P><font size="2" face="Verdana">El &eacute;xito de esta propuesta permitir&aacute;    agilizar la etapa de desarrollo de nuevos f&aacute;rmacos, ya que a partir de    la descripci&oacute;n de la estructura de una mol&eacute;cula, la red neuronal    entrenada podr&aacute; predecir, con un porciento de error especificado por    el usuario, la actividad biol&oacute;gica asociada a una mol&eacute;cula nueva    a partir de sus descriptores. </font>      <P>&nbsp;     <P><font size="3" face="Verdana"> <strong>METODOLOG&Iacute;A</strong> </font>      <P><font size="2" face="Verdana"><strong>Herramientas utilizadas</strong> </font>      <P><font size="2" face="Verdana">Teniendo en cuenta las caracter&iacute;sticas    del trabajo a desarrollar, se escogi&oacute; Weka (Waikato Environment for Knowledge    Analysis) para la extracci&oacute;n del algoritmo de las RNA, ya que es un software    de c&oacute;digo abierto que posee una colecci&oacute;n de algoritmos de aprendizaje    autom&aacute;tico para la extracci&oacute;n de datos.<sup>8</sup> Se escogi&oacute; la Plataforma    de Tareas Distribuidas (Tarenal) para realizar la distribuci&oacute;n del entrenamiento    ya que ofrece una alternativa de c&oacute;mputo que aglutina en un solo conglomerado    un conjunto de estaciones de trabajo.<sup>9</sup> Se seleccion&oacute; Java como lenguaje    de programaci&oacute;n para realizar los cambios necesarios a los algoritmos    presentes en el Weka y en la plataforma Tarenal y as&iacute; ajustarlos al problema    presente en esta investigaci&oacute;n, puesto que es un lenguaje potente y con    grandes capacidades de interconexi&oacute;n TCP/IP, por lo cual se puede acceder    a la informaci&oacute;n disponible en red con mucha facilidad y seguridad. </font>      <P><font size="2" face="Verdana">Por otra parte se escogi&oacute; Eclipse como    herramienta IDE por ser un entorno de desarrollo integrado distribuido con el    c&oacute;digo abierto y multiplataforma. Se seleccion&oacute; el SPSS (Statistical    Package for the Social Sciences),<sup>10</sup> software estad&iacute;stico inform&aacute;tico    muy usado por las funcionalidades que brinda; el m&oacute;dulo utilizado en    la presente investigaci&oacute;n fue el de Pruebas no Param&eacute;tricas, el    cual permite realizar distintas pruebas estad&iacute;sticas especializadas en    distribuciones no normales.<sup>11</sup> El SPSS fue empleado con el objetivo de comparar    los resultados de los 2 algoritmos utilizados, o sea, el algoritmo para el entrenamiento    local de un perceptr&oacute;n multicapa y el algoritmo distribuido, y de esta    forma conocer si son significativas las diferencias entre las respuestas dadas    por dichos algoritmos. Para ello se realizaron pruebas no param&eacute;tricas    utilizando la medida de evaluaci&oacute;n (g-media) de los algoritmos para realizar    las comparaciones. </font>     <P><font size="2" face="Verdana">Se realizaron diferentes estudios sobre el funcionamiento    y rendimiento del perceptr&oacute;n multicapa, tanto en ambientes locales como    distribuidos. Todos las pruebas o experimentos que se llevaron a cabo fueron    realizados en computadores personales con un procesador Pentium 4 a 1.86 GHz    de frecuencia y con 1Gb de RAM. </font>     <P><font size="2" face="Verdana"><strong>Arquitectura del perceptr&oacute;n multicapa</strong>    </font>      ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">La arquitectura del perceptr&oacute;n multicapa    se compone de un n&uacute;mero de neuronas en la capa de entrada, el cual depende    de la cantidad de componentes del vector de entrada. Depende tambi&eacute;n    de la cantidad de capas ocultas y del n&uacute;mero de neuronas de cada una    de ellas as&iacute; como del n&uacute;mero de neuronas en la capa de la salida,    el cual depende a su vez del n&uacute;mero de componentes del vector de salida    o patr&oacute;n objetivo. </font>     <P><font size="2" face="Verdana">Tanto el vector de entrada como el de salida    est&aacute;n definidos por el problema a resolver, por lo que la cantidad de    neuronas en la capa de entrada es la cantidad de descriptores de la muestra    escogida. En todos los casos, la cantidad de neuronas en la capa de salida ser&aacute;    1, ya que la funci&oacute;n objetivo tendr&aacute; como salida una &uacute;nica    respuesta (componentes activos o inactivos para las 2 primeras muestras y componentes    de clase 1 o clase 2 para la &uacute;ltima muestra). </font>     <P><font size="2" face="Verdana">Respecto al criterio a tener en cuenta para la    selecci&oacute;n de las neuronas de las capas ocultas surge una interrogante,    este n&uacute;mero en general debe ser lo suficientemente grande como para que    se forme una regi&oacute;n compleja que pueda resolver el problema, sin embargo    no debe ser muy grande pues la estimaci&oacute;n de los pesos puede ser no confiable    para el conjunto de los patrones de entrada disponibles. </font>     <P><font size="2" face="Verdana">La mayor eficiencia del perceptr&oacute;n multicapa    en cuanto a su arquitectura se logra principalmente con una mayor experiencia    de su dise&ntilde;ador, aunque tambi&eacute;n existen varios criterios para    realizar esta selecci&oacute;n. </font>      <P><font size="2" face="Verdana">A partir de una serie de criterios consultados    en la bibliograf&iacute;a, se decidi&oacute; trabajar con una sola capa de neuronas    ocultas, ya que de esta manera se pueden representar todas las funciones matem&aacute;ticas    conocidas hasta el momento.<sup>12</sup> </font>      <P><font size="2" face="Verdana">Para determinar la cantidad de neuronas en las    capas ocultas existen varios criterios, de ellos se seleccion&oacute; el que    plantea que la cantidad de neuronas ocultas debe ser las dos terceras partes    de la cantidad de neuronas de entrada m&aacute;s la cantidad de neuronas de    salida.<sup>12</sup> </font>     <P><font size="2" face="Verdana"><strong>Entrenamiento del perceptr&oacute;n multicapa    </strong> </font>      <P><font size="2" face="Verdana">Inicialmente se fijaron algunos valores necesarios    en el entrenamiento de la red como es el caso del momentum, con 0.001 y la velocidad    de aprendizaje, con 0.003. </font>     <P><font size="2" face="Verdana">Luego de seleccionados los valores con los que    se van a entrenar, y de definir la arquitectura de la red, la velocidad de aprendizaje    y el momentum, adem&aacute;s de la cantidad de patrones de entrada con que se    va a realizar el entrenamiento, la aplicaci&oacute;n genera aleatoriamente los    pesos sin&aacute;pticos. </font>     <P><font size="2" face="Verdana">Cada patr&oacute;n de entrada se hace pasar a    trav&eacute;s de la estructura activando cada neurona y generando salidas en    estas, dichas salidas son multiplicadas por los pesos sin&aacute;pticos y constituyen    la entrada de las neuronas de la capa siguiente, as&iacute; sucesivamente hasta    llegar a la capa de salida donde el resultado final se compara con el resultado    esperado, generando un error el cual es propagado por toda la red (backpropagation)    hasta llegar al origen, corrigiendo los valores sin&aacute;pticos. As&iacute;    sucede con cada patr&oacute;n hasta que todos hayan pasado a trav&eacute;s de    la red, esto constituye una iteraci&oacute;n o epoch. </font>     ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">El criterio para establecer la condici&oacute;n    de parada para el entrenamiento estuvo dado por la cantidad de iteraciones o    epochs, o sea, el investigador define la cantidad de iteraciones que considere    necesaria para obtener una red neuronal lo suficientemente entrenada para procesar    sus datos de manera satisfactoria. </font>     <P><font size="2" face="Verdana"> <strong>Muestras utilizadas durante la investigaci&oacute;n.    Caracter&iacute;sticas fundamentales </strong></font>      <P><font size="2" face="Verdana">Para realizar los estudios se utilizaron 3 muestras,    dos de ellas de naturaleza bioinform&aacute;tica, que se utilizaron fundamentalmente    para analizar el efecto que podr&iacute;a ocasionar la variaci&oacute;n de las    funciones de transferencia en la eficiencia de la respuesta de la red. Para    realizar el entrenamiento estas muestras se dividieron en 2 partes, el 80 %    para realizar el entrenamiento del perceptr&oacute;n y el 20 % restante para    realizar las pruebas de la red entrenada. Las muestras se relacionan a continuaci&oacute;n:    </font>      <P><font size="2" face="Verdana"><em>- Muestra 1: Cefalosporinas</em> </font>      <P><font size="2" face="Verdana">Las cefalosporinas son potentes compuestos antibacteriales    pertenecientes a la familia de los &szlig;-lact&aacute;micos que poseen bajan    toxicidad. Estos antibi&oacute;ticos pueden utilizarse para el tratamiento incluso    de ni&ntilde;os con fallos renales o hep&aacute;ticos.<sup>13</sup></font>      <P><font size="2" face="Verdana">La muestra utilizada contiene 179 descriptores    y 104 instancias (o patrones de entrenamiento). Se conoce que todos los compuestos    de la muestra son activos, es por ello que la investigaci&oacute;n va enfocada    a determinar los aspectos estructurales descritos por las variables independientes,    en la actividad. Para ello se tuvo que adaptar la variable dependiente (actividad    biol&oacute;gica) para que pudiera ser tratada como un problema de clasificaci&oacute;n.    El procedimiento seguido fue el de determinar el promedio de los valores de    la actividad biol&oacute;gica (AB) reportada para cada compuesto de la muestra    y considerar como muy activos aquellos cuya AB fuera mayor o igual que el promedio,    y como poco activos los que no cumplieran con este criterio. De esta manera    la muestra qued&oacute; dividida en 52 elementos muy activos y 52 poco activos.    </font>     <P><font size="2" face="Verdana"><em>- Muestra 2: Inhibidores del Factor 1 del    receptor esteroidog&eacute;nico (SF-1) </em></font>      <P><font size="2" face="Verdana">La segunda muestra corresponde a los Inhibidores    del Factor 1 del receptor nuclear esteroidog&eacute;nico (SF-1). Este es un    ensayo de dosis-respuesta basado en c&eacute;lulas para la inhibici&oacute;n    del receptor hu&eacute;rfano. La muestra utilizada contiene 311 descriptores,    315 instancias (o patrones de entrenamiento) y la actividad biol&oacute;gica    a predecir va a estar dividida en 175 elementos activos y 140 no activos. </font>     <P><font size="2" face="Verdana"><em>- Muestra 3: Reconocimiento facial </em></font>      <P><font size="2" face="Verdana">La tercera muestra utilizada es de reconocimiento    facial. Est&aacute; destinada a la identificaci&oacute;n autom&aacute;tica de    una persona en una imagen digital, mediante la comparaci&oacute;n de determinadas    caracter&iacute;sticas faciales a partir de una imagen digital o un fotograma    de un video. A pesar de no ser de la rama de bioinform&aacute;tica se decidi&oacute;    trabajar con esta muestra por la cantidad de patrones que contiene. La muestra    contiene 70 mil patrones de entrenamiento con 376 descriptores, de los cuales    63175 pertenecen a la clase 1 y 6825 a la clase 2. </font>      ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana"> <strong>Reducci&oacute;n del n&uacute;mero de    variables </strong> </font>      <P><font size="2" face="Verdana">Para realizar la reducci&oacute;n de variables    se emplearon como m&eacute;todos de b&uacute;squeda los Algoritmos Gen&eacute;ticos,    el Enfriamiento Simulado y un Algoritmo H&iacute;brido (compuesto por el Greddy    y Algoritmos Gen&eacute;ticos). Tambi&eacute;n se tuvieron en cuenta las medidas    de evaluaci&oacute;n CFS y Consistencia. La combinaci&oacute;n de los m&eacute;todos    de b&uacute;squeda con las medidas de evaluaci&oacute;n permiti&oacute; obtener    varias posibles muestras de entrenamiento, las cuales fueron utilizadas para    seleccionar las de entrenamiento. </font>     <P>&nbsp;     <P><font size="3" face="Verdana"> <strong>RESULTADOS Y DISCUSI&Oacute;N </strong></font>      <P><font size="2" face="Verdana">A continuaci&oacute;n se muestran los resultados    experimentales obtenidos, tanto en las pruebas realizadas en una computadora    personal como en la plataforma de tareas distribuidas Tarenal. Se realiza una    comparaci&oacute;n de los resultados obtenidos en la calidad del modelo medido    por la g-media, y el tiempo de ejecuci&oacute;n del entrenamiento. Tambi&eacute;n    se comparan los valores de la g-media al entrenar las redes con diferentes funciones    de transferencia. </font>     <P><font size="2" face="Verdana"> <strong>Resultados experimentales del entrenamiento    del perceptr&oacute;n para la muestra de cefalosporinas </strong></font>      <P><font size="2" face="Verdana">De los 104 patrones de entrenamiento se utilizaron    83 para realizar el entrenamiento y los 21 restantes para desarrollar la validaci&oacute;n.    Se mantuvieron constantes los siguientes par&aacute;metros: </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa de entrada: 47    </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa oculta: 32 </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa de salida: 1    </font>     ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">Velocidad de aprendizaje: 0.003 </font>     <P><font size="2" face="Verdana">Momentum: 0.001 </font>     <P><font size="2" face="Verdana">Algoritmo de B&uacute;squeda: Algoritmo Gen&eacute;tico    con 0,6 de probabilidad de cruzamiento y CFS como Medida de Evaluaci&oacute;n.<sup>14</sup></font>      <P><font size="2" face="Verdana">Los par&aacute;metros que se variaron fueron:    cantidad de iteraciones y las funciones de transferencia utilizadas en la capa    oculta y en la capa de salida. En la <a href="/img/revistas/rcim/v5n2/t0109213.gif">tabla    1</a> se muestran los resultados obtenidos. </font>      <P><font size="2" face="Verdana">Como se puede apreciar en la <a href="/img/revistas/rcim/v5n2/t0109213.gif">tabla    1</a>, el aumento del n&uacute;mero de las iteraciones es directamente proporcional    al aumento del tiempo (lo cual es bastante predecible), no siendo as&iacute;    con el valor de la G-Media, ya que en algunos casos este valor puede aumentar    (aumenta la eficiencia de la respuesta del algoritmo, la red aprende m&aacute;s),    puede disminuir (la red no aprende) o simplemente mantenerse constante. </font>      <P><font size="2" face="Verdana">De estos resultados se puede inferir que los    mejores resultados de la red para la muestra analizada no se obtienen precisamente    con la funci&oacute;n de transferencia <em>Sigmoidal</em> en todas las capas,    sino con la combinaci&oacute;n de funciones <em>Tangente-Sigmoidal</em> en la    capa oculta y <em>Sigmoidal</em> en la capa de salida, para la que se obtuvo    un valor de G-Media igual a 0.9534. Se puede apreciar en la matriz de confusi&oacute;n    asociada al ensayo 3-b (<a href="#tabla2">tabla 2</a>) que se solo se clasific&oacute;    incorrectamente un valor del conjunto de validaci&oacute;n. </font>     <P align="center"><img src="/img/revistas/rcim/v5n2/t0209213.gif" width="311" height="120"> <a name="tabla2"></a>     <P><font size="2" face="Verdana">Otro aspecto a resaltar es que para la muestra    en cuesti&oacute;n no es conveniente utilizar la combinaci&oacute;n de funciones    <em>Lineal</em> (en la capa oculta) y <em>Sigmoidal</em> (en la capa de salida),    ya que la red &quot;no aprende&quot;. El valor de la G-Media igual a cero indica    que la red no clasific&oacute; correctamente los patrones muy activos (+1) o    ninguno de los pocos activos (-1) presentes en la muestra de validaci&oacute;n.    Se puede apreciar en la matriz de confusi&oacute;n asociada a este ensayo (<a href="#tabla3">tabla    3</a>) que a pesar de que se clasificaron bien 7 de los 10 elementos muy activos,    no se clasific&oacute; correctamente ning&uacute;n valor de los elementos poco    activos. </font>      <P align="center"><img src="/img/revistas/rcim/v5n2/t0309213.gif" width="318" height="122"> <a name="tabla3"></a>     <P><font size="2" face="Verdana">Es importante destacar tambi&eacute;n el resultado    obtenido con la combinaci&oacute;n de funciones <em>Sigmoidal</em> y <em>Lineal</em>,    ya que con solo 1500 iteraciones se obtuvo el segundo mejor valor de G-Media    de las pruebas realizadas, al igual que con la combinaci&oacute;n de funciones    (b) del experimento 2. </font>      ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">Otro aspecto a observar es que en muchos casos    no es necesario realizar muchas iteraciones de la red, ya que el mejor valor    de la G-Media se logra con pocas iteraciones, como es el caso del ensayo 1-c.    </font>     <P><font size="2" face="Verdana"> <strong>Resultados experimentales del entrenamiento    del perceptr&oacute;n para la muestra de SF-1 </strong></font>      <P><font size="2" face="Verdana">Inicialmente se hizo un agrupamiento (clusterizaci&oacute;n)    de la muestra debido a la diversidad estructural que pose&iacute;a. De los 4    cl&uacute;ster resultantes se seleccionaron aleatoriamente los cl&uacute;steres    0 y 3 para realizar las pruebas. A estos dos cl&uacute;steres se les aplicaron    los algoritmos de b&uacute;squeda y las medidas de evaluaci&oacute;n explicadas    anteriormente para realizar la reducci&oacute;n del espacio muestral. En este    caso se seleccion&oacute; el cl&uacute;ster 0 para realizar las pruebas a la    red. De los 56 patrones de entrenamiento resultantes de la selecci&oacute;n    de variables, se utilizaron 45 para realizar el entrenamiento y el 20 % restante    se utiliz&oacute; para desarrollar la validaci&oacute;n. </font>      <P><font size="2" face="Verdana">Para la realizaci&oacute;n de los experimentos    se mantuvieron constantes las siguientes variables: </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa de entrada: 20    </font>      <P><font size="2" face="Verdana">Cantidad de neuronas en la capa oculta: 14 </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa de salida: 1    </font>     <P><font size="2" face="Verdana">Velocidad de aprendizaje: 0,03 </font>     <P><font size="2" face="Verdana">Momentum: 0,05 </font>     <P><font size="2" face="Verdana">Algoritmo de B&uacute;squeda: Enfriamiento Simulado    con un valor de alfa igual a 0,7 y Consistencia como Medida de Evaluaci&oacute;n.    </font>     ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">Los par&aacute;metros que se variaron fueron:    cantidad de iteraciones y las funciones de transferencias utilizadas en la capa    oculta y en la capa de salida. En la <a href="/img/revistas/rcim/v5n2/t0409213.gif">tabla 4</a> se muestran    los resultados obtenidos. </font>     <P><font size="2" face="Verdana">Los resultados obtenidos con la muestra SF-1    no superan los de la muestra de cefalosporinas. Sin embargo, se aprecia nuevamente    c&oacute;mo los mejores resultados de la G-Media se obtienen con combinaciones    de funciones de transferencia distintas, que en este caso, a diferencia de los    resultados de la muestra de cefalosporinas, se logra colocando la funci&oacute;n    Sigmoidal en la capa oculta y Lineal en la capa de salida. El mejor valor de    la G-Media obtenido fue de 0.8660 en el ensayo 1-e, al clasificar el 100 % de    los valores activos y el 60 % de los valores inactivos (<a href="#tabla5">tabla    5</a>). El peor resultado se le atribuye a la combinaci&oacute;n de Sigmoidea-Tangente    Sigmoidea para el cual se obtuvo un valor de G-Media de 0.5270; en este caso    se clasifican correctamente casi todos los valores activos, no siendo as&iacute;    con los valores inactivos (<a href="#tabla6">tabla 6</a>). Esta diferencia se    le atribuye al desbalance entre las clases presentes en la muestra (2 activos    por cada inactivo). </font>     <P align="center"><font size="2" face="Verdana"><img src="/img/revistas/rcim/v5n2/t0509213.gif" width="310" height="128"></font>    <a name="tabla5"></a>     <P align="center"><img src="/img/revistas/rcim/v5n2/t0609213.gif" width="304" height="135"><a name="tabla6"></a>     <P><font size="2" face="Verdana"> Por otro lado, se aprecia que con todas las    combinaciones de funciones de transferencia utilizadas la red aprende, no hay    ning&uacute;n caso en que el valor de la G-Media resultante sea cero. </font>     <P><font size="2" face="Verdana"><strong>Resultados experimentales del entrenamiento    del perceptr&oacute;n para la muestra de reconocimiento facial </strong></font>      <P><font size="2" face="Verdana">De los 70 000 patrones de entrenamiento se utilizaron    60 000 para realizar el entrenamiento y los 10 000 restantes para la validaci&oacute;n.    Se mantuvieron constantes los siguientes par&aacute;metros: </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa de entrada: 20    </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa oculta: 14 </font>     <P><font size="2" face="Verdana">Cantidad de neuronas en la capa de salida: 1    </font>     ]]></body>
<body><![CDATA[<P><font size="2" face="Verdana">Velocidad de aprendizaje: 0.003 </font>     <P><font size="2" face="Verdana">Momentum: 0.001 </font>     <P><font size="2" face="Verdana">Los par&aacute;metros que se variaron fueron:    cantidad de iteraciones y las funciones de transferencia utilizadas en la capa    oculta y de salida. En la <a href="/img/revistas/rcim/v5n2/t0709213.gif">tabla    7</a> se muestran los resultados obtenidos. </font>      <P><font size="2" face="Verdana">De la <a href="/img/revistas/rcim/v5n2/t0709213.gif">tabla 7</a> se puede    apreciar que el valor de la G-Media en un entorno local se mantiene relativamente    estable; inicialmente aumenta su valor y luego disminuye en cada iteraci&oacute;n    realizada, lo que sugiere que en este caso no es conveniente aumentar el n&uacute;mero    de iteraciones, pues la red no aprende m&aacute;s. El mejor valor de la G-Media    que se obtiene es de 0.7151 y se logra en un entorno local. </font>      <P><font size="2" face="Verdana">Para conocer la eficiencia de la distribuci&oacute;n    del algoritmo para entrenamiento local se hicieron pruebas a los ensayos 3,    5 y 6 y al 4, 7 y 8. La comparaci&oacute;n de los valores de G-media del algoritmo    local y el distribuido, se obtuvo un valor de 0,180 para el primer grupo de    ensayos (3,5,6) el cual revela que no es significativa la diferencia entre las    respuestas dadas por los algoritmos. No obstante, no se recomienda hacer la    distribuci&oacute;n en 2 PC, sino en 4, ya que como se aprecia en el ensayo    5 la calidad de la respuesta para 2 PC es peor que la obtenida por el algoritmo    en un entorno local, no siendo as&iacute; en el caso de la distribuci&oacute;n    en 4 PC. </font>     <P><font size="2" face="Verdana">Por otra parte, en las pruebas a los ensayos    4, 7 y 8 el valor obtenido con el test estad&iacute;stico fue 0.655, el cual    revela que tampoco hay diferencias significativas entre los resultados obtenidos.    A pesar de ello no se recomienda hacer la distribuci&oacute;n en m&aacute;s    de 2 computadoras, ya que como se puede apreciar en el ensayo 8, el valor de    la G-Media disminuy&oacute; al aumentar el n&uacute;mero de iteraciones. </font>     <P><font size="2" face="Verdana">Los resultados de la <a href="/img/revistas/rcim/v5n2/t0809213.gif">tabla    8</a> muestran que el aumento del n&uacute;mero de iteraciones en los entrenamientos    realizados en un entorno local, no se corresponde con una mejor&iacute;a en    el valor de la G-Media, ya que mejor resultado se logra con 2000 iteraciones,    con un valor de G-Media de 0.6998. </font>     <P><font size="2" face="Verdana">Los resultados alcanzados sugieren que, para    esta combinaci&oacute;n de funciones, no es aconsejable hacer la distribuci&oacute;n    en m&aacute;s de 2 computadoras, ya que como se puede apreciar de esa misma    tabla, el valor de la G-Media disminuy&oacute; (ensayo 6). Adem&aacute;s, debe    valorarse cuidadosamente la distribuci&oacute;n en 2 PC, ya que aunque el valor    de la G-Media obtenido no difiere considerablemente con el obtenido en un entorno    local, la p&eacute;rdida de dos unidades de precisi&oacute;n, puede resultar    relevante para el resultado que se desea obtener. </font>      <P><font size="2" face="Verdana">Un resultado similar se obtiene al realizar las    pruebas a los ensayos 4, 7 y 8 en que el valor obtenido con el test de Wilcoxon    fue tambi&eacute;n de 0.180. A pesar de ello, tampoco se recomienda hacer la    distribuci&oacute;n en m&aacute;s de 2 computadoras, ya que como se puede apreciar,    el valor de la G-Media disminuy&oacute; (ensayo 8) al pasar de 2 a 4 computadoras.    </font>     <P><font size="2" face="Verdana">Resulta interesante la diferencia entre los resultados    obtenidos al aplicar diferentes combinaciones de funciones de transferencia    a esta muestra. Solo con variar las combinaciones durante el entrenamiento de    la red, se mejoraron los resultados en muchos casos, con lo que se demostr&oacute;    nuevamente el peso fundamental que tienen dichas funciones y sus combinaciones    en la eficiencia de la respuesta de la red. En la actualidad no se cuenta con    una respuesta definitiva de la raz&oacute;n por la cual algunas combinaciones    de funciones reportan mejores resultados que otras, lo que ser&aacute; objeto    de estudio en futuras investigaciones. </font>     ]]></body>
<body><![CDATA[<P>&nbsp;     <P><font size="3" face="Verdana"> <strong>CONCLUSIONES </strong></font>      <P><font size="2" face="Verdana">Se reportan resultados diferentes con la variaci&oacute;n    de funciones de transferencia en el perceptr&oacute;n multicapa, medibles por    el valor de la G-Media. La sustituci&oacute;n de la combinaci&oacute;n cl&aacute;sica    Sigmoidea-Sigmoidea por la combinaci&oacute;n de funciones Sigmoidea-Lineal    o Lineal-Sigmoidea mejora los resultados en el orden del 4.5 al 17 %. </font>      <P><font size="2" face="Verdana">Se desarrollaron dos procedimientos que permiten    realizar el entrenamiento del perceptr&oacute;n multicapa en ambiente local    y distribuido respectivamente, variando las funciones de transferencia para    realizar el entrenamiento. </font>     <P><font size="2" face="Verdana">Se disminuy&oacute; el tiempo de entrenamiento    aproximadamente entre un 30-60 % al entrenar la red en un ambiente distribuido.    El test estad&iacute;stico aplicado sugiri&oacute; que la calidad de los resultados    en ambiente distribuido no se afecta de manera apreciable en comparaci&oacute;n    con los resultados en un entorno local. </font>     <P>&nbsp;     <P><font size="3" face="Verdana"><strong>REFERENCIAS BIBLIOGR&Aacute;FICAS</strong></font>      <!-- ref --><P><font size="2" face="Verdana">1. Sremac S, Skrbk B, Onjia A. Artificial neural    network prediction of quantitative structure - retention relationships of polycyclic    aromatic hydocarbons in gas chromatography. J Serb Chem Soc. 2005;70(11):1291-300.        </font>     <!-- ref --><P><font size="2" face="Verdana">2. Bolanca T, Cerjan-Stefanovic S, Ukic S, Rogosic    M, Lusa M. Application of different training methodologies for the development    of a back propagation artificial neural network retention model in ion chromatography.    J Chemometrics. 2008;22:106-13.     </font>     <!-- ref --><P><font size="2" face="Verdana">3. Lendasse A, Ji Y, Reyhani N, Verleysen M.    LS-SVM Hyperparameter Selection with a Nonparametric Noise Estimator. In: Artificial    Neural Networks: Formal Models and Their Applications-ICANN 2005. Springer Berlin    Heidelberg; 2005:625-30.     </font>      <!-- ref --><P><font size="2" face="Verdana">4. Sutherland JJ, O'Brien LA, Weaver DF. A Comparison    of Methods for Modeling Quantitative Structure-Activity Relationships. J Med    Chem. 2004;47(22):5541-54.     </font>     <!-- ref --><P><font size="2" face="Verdana">5. Lucic B, Nadramija D, Basic I, Trinajstic    N. Toward Generating Simpler QSAR Models: Nonlinear Multivariate Regression    versus Several Neural Network Ensembles and Some Related Methods. J Chem Inf    Comput Sci. 2003;43:1094-102.     </font>     <!-- ref --><P><font size="2" face="Verdana">6. Huang L, Lu H-M, Dai Y. Feature Selection    of Support Vector Regression for Quantitative Structure-Activity Relationships    (QSAR). The International Conference on Mathematics and Engineering Techniques    in Medicine and Biological Sciences (METMBS'03) (Paper ID # : 269ME); 2003.        </font>     <!-- ref --><P><font size="2" face="Verdana">7. Escalona-Arranz JC, Carrasco-Velar R, Padr&oacute;n-Garc&iacute;a    JA. Introducci&oacute;n al dise&ntilde;o racional de f&aacute;rmacos. La Habana:    Editorial Universitaria, Ministerio de Educaci&oacute;n Superior; 2008.     </font>     <!-- ref --><P><font size="2" face="Verdana">8. Hall M, Frank E, Holmes G, Pfahringer B, Reutemann    P, Witten IH. The WEKA Data Mining Software: An Update. ACM SIGKDD Explorations    Newsletter. 2009;11(1):10-18.     </font>     <!-- ref --><P><font size="2" face="Verdana">9. Colectivo de Autores. Tarenal, Plataforma    de Tareas Distribuidas, Proyecto Grid. Manual del desarrollador. La Habana:    Universidad de las Ciencias Inform&aacute;ticas; 2009.     </font>      <!-- ref --><P><font size="2" face="Verdana">10. SPSS Inc. SPSS 13 for Windows. 13.0 ed: Copyrigth    (c) SPSS Inc. 1989-2004. All rigths reserved; 2004.     </font>     <!-- ref --><P><font size="2" face="Verdana">11. Universidad Complutense de Madrid. Departamento    de Sociolog&iacute;a. Introducci&oacute;n al an&aacute;lisis de datos [citado    el 15 Marzo 2013] Disponible en: <a href="http://www.ucm.es/info/socivmyt/paginas/D_departamento/materiales/analisis_datosyMultivariable/19nparam_SPSS.pdf" target="_blank">http://www.ucm.es/info/socivmyt/paginas/D_departamento/materiales/analisis_datosyMultivariable/19nparam_SPSS.pdf</a></font>     <!-- ref --><P><font size="2" face="Verdana">12. Heaton J. Introduction to Neural Networks    for Java. 2nd ed. St. Louis, Missouri: Heaton Research, Inc.; 2008.     </font>     ]]></body>
<body><![CDATA[<!-- ref --><P><font size="2" face="Verdana">13. Carrasco-Velar R. Nuevos descriptores at&oacute;micos    y moleculares para estudios de estructura-actividad: Aplicaciones [PhD. Thesis].    La Habana: Universidad de La Habana; 2008.     </font>     <!-- ref --><P><font size="2" face="Verdana">14. Hern&aacute;ndez-D&iacute;az Y. Desarrollo    de modelos de clasificaci&oacute;n de actividad biol&oacute;gica empleando M&aacute;quinas    de Soporte Vectorial [Master]. La Habana: Universidad de las Ciencias Inform&aacute;ticas;    2010.     </font>     <P>&nbsp;     <P>&nbsp;     <P><font size="2" face="Verdana">Recibido: 14 de octubre de 2013.    <br>   Aprobado: 16 de noviembre de 2013. </font>       ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sremac]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Skrbk]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Onjia]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Artificial neural network prediction of quantitative structure - retention relationships of polycyclic aromatic hydocarbons in gas chromatography]]></article-title>
<source><![CDATA[J Serb Chem Soc]]></source>
<year>2005</year>
<volume>70</volume>
<numero>11</numero>
<issue>11</issue>
<page-range>1291-300</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bolanca]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Cerjan-Stefanovic]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Ukic]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Rogosic]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Lusa]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of different training methodologies for the development of a back propagation artificial neural network retention model in ion chromatography]]></article-title>
<source><![CDATA[J Chemometrics]]></source>
<year>2008</year>
<volume>22</volume>
<page-range>106-13</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lendasse]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Ji]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Reyhani]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[Verleysen]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[LS-SVM Hyperparameter Selection with a Nonparametric Noise Estimator]]></article-title>
<source><![CDATA[Artificial Neural Networks: Formal Models and Their Applications-ICANN 2005]]></source>
<year>2005</year>
<page-range>625-30</page-range><publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sutherland]]></surname>
<given-names><![CDATA[JJ]]></given-names>
</name>
<name>
<surname><![CDATA[O'Brien]]></surname>
<given-names><![CDATA[LA]]></given-names>
</name>
<name>
<surname><![CDATA[Weaver]]></surname>
<given-names><![CDATA[DF]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Comparison of Methods for Modeling Quantitative Structure-Activity Relationships]]></article-title>
<source><![CDATA[J Med Chem]]></source>
<year>2004</year>
<volume>47</volume>
<numero>22</numero>
<issue>22</issue>
<page-range>5541-54</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lucic]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Nadramija]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Basic]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Trinajstic]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Toward Generating Simpler QSAR Models: Nonlinear Multivariate Regression versus Several Neural Network Ensembles and Some Related Methods]]></article-title>
<source><![CDATA[J Chem Inf Comput Sci]]></source>
<year>2003</year>
<volume>43</volume>
<page-range>1094-102</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="confpro">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Huang]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Lu]]></surname>
<given-names><![CDATA[H-M]]></given-names>
</name>
<name>
<surname><![CDATA[Dai]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[Feature Selection of Support Vector Regression for Quantitative Structure-Activity Relationships (QSAR)]]></source>
<year></year>
<conf-name><![CDATA[ The International Conference on Mathematics and Engineering Techniques in Medicine and Biological Sciences (METMBS'03) (Paper ID # : 269ME)]]></conf-name>
<conf-date>2003</conf-date>
<conf-loc> </conf-loc>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Escalona-Arranz]]></surname>
<given-names><![CDATA[JC]]></given-names>
</name>
<name>
<surname><![CDATA[Carrasco-Velar]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Padrón-García]]></surname>
<given-names><![CDATA[JA]]></given-names>
</name>
</person-group>
<source><![CDATA[Introducción al diseño racional de fármacos]]></source>
<year>2008</year>
<publisher-loc><![CDATA[La Habana ]]></publisher-loc>
<publisher-name><![CDATA[Editorial Universitaria, Ministerio de Educación Superior]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hall]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Frank]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Holmes]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Pfahringer]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Reutemann]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Witten]]></surname>
<given-names><![CDATA[IH]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The WEKA Data Mining Software: An Update]]></article-title>
<source><![CDATA[ACM SIGKDD Explorations Newsletter]]></source>
<year>2009</year>
<volume>11</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>10-18</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="book">
<source><![CDATA[Tarenal, Plataforma de Tareas Distribuidas, Proyecto Grid. Manual del desarrollador]]></source>
<year>2009</year>
<publisher-loc><![CDATA[La Habana ]]></publisher-loc>
<publisher-name><![CDATA[Universidad de las Ciencias Informáticas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="book">
<collab>SPSS Inc</collab>
<source><![CDATA[SPSS 13 for Windows]]></source>
<year>2004</year>
<publisher-name><![CDATA[SPSS Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="">
<collab>Universidad Complutense de Madrid^dDepartamento de Sociología</collab>
<source><![CDATA[Introducción al análisis de datos]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Heaton]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Introduction to Neural Networks for Java]]></source>
<year>2008</year>
<edition>2nd</edition>
<publisher-loc><![CDATA[St. Louis^eMissouri Missouri]]></publisher-loc>
<publisher-name><![CDATA[Heaton Research, Inc.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Carrasco-Velar]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<source><![CDATA[Nuevos descriptores atómicos y moleculares para estudios de estructura-actividad: Aplicaciones]]></source>
<year></year>
</nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hernández-Díaz]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[Desarrollo de modelos de clasificación de actividad biológica empleando Máquinas de Soporte Vectorial]]></source>
<year>2010</year>
<publisher-loc><![CDATA[La Habana ]]></publisher-loc>
<publisher-name><![CDATA[Universidad de las Ciencias Informáticas]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
