<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1815-5928</journal-id>
<journal-title><![CDATA[Ingeniería Electrónica, Automática y Comunicaciones]]></journal-title>
<abbrev-journal-title><![CDATA[EAC]]></abbrev-journal-title>
<issn>1815-5928</issn>
<publisher>
<publisher-name><![CDATA[Universidad Tecnológica de La Habana José Antonio Echeverría, Cujae]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1815-59282014000300006</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Propuesta de procedimiento para configurar una red neuronal artificial de Base Radial con aplicaciones en el diagnóstico de fallos]]></article-title>
<article-title xml:lang="en"><![CDATA[Proposal of a procedure for setting an artificial neural network of Radial Basis with applications in fault diagnosis.]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Barrero Viciedo]]></surname>
<given-names><![CDATA[Egly]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Fernández Díaz]]></surname>
<given-names><![CDATA[Beatriz]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Llanes Santiago]]></surname>
<given-names><![CDATA[Orestes]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Superior Politécnico José Antonio Echeverría, Cujae  ]]></institution>
<addr-line><![CDATA[La Habana ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Empresa Productora de Software para la Técnica Electrónica (Softel)  ]]></institution>
<addr-line><![CDATA[La Habana ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2014</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2014</year>
</pub-date>
<volume>35</volume>
<numero>3</numero>
<fpage>60</fpage>
<lpage>75</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S1815-59282014000300006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S1815-59282014000300006&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S1815-59282014000300006&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En este artículo se presenta un procedimiento que permite la configuración de los parámetros de una arquitectura de red neuronal artificial de Base Radial para tareas de diagnóstico de fallos, luego de establecer un orden lógico para la selección de los mismos. Dicho procedimiento garantiza la obtención del número necesario de neuronas ocultas a partir de fijar el error de diagnóstico deseado por los expertos para cada proceso, permitiendo también seleccionar el método para estimar los anchos de las neuronas ocultas y la ecuación de distancia para la propagación del espacio de entradas. El procedimiento se aplica al proceso de prueba «Tanque Reactor Continuamente Agitado» para demostrar su efectividad. Como resultado de los experimentos realizados, se concluye que la elección de la función de distancia no influye sobre la selección del método para estimar los anchos. Se comprueba que esta arquitectura, con el entrenamiento adecuado, exhibe buenas propiedades de sensibilidad y robustez para el diagnóstico de fallos.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In this article a procedure is shown up for allowing the configuration of parameters of artificial neuronal network architecture of Radial Basis for failure diagnosis tasks after stablishing a logical order for their selection. Such procedure guarantees the procurance of a necessary number of hidden neurons starting from fixing the diagnosis error desired by the experts for each process, also allowing the selection of the method for esteeming the widths of the hidden neurons and the equation of distance for the propagation of the inlets vector. The procedure applies to the testing process of «Reactor Tank Constantly Agitated» searching to demonstrate its effectiveness. As a result of the realized experiments, it is confirmed that within the topology of the Radial Basis net, the calculation of the centers and widths of the hidden neurons intervene decisively in its execution, as well as the fixed-distance equation, but the election of the function of distance does not act on the selection of the method for esteeming the widths. It is verified that this architecture, with the adequate training, shows good properties of sensibility and robustness.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[red neuronal artificial de Base Radial]]></kwd>
<kwd lng="es"><![CDATA[diagnóstico de fallos]]></kwd>
<kwd lng="es"><![CDATA[robustez]]></kwd>
<kwd lng="en"><![CDATA[radial Basic artificial neural networks]]></kwd>
<kwd lng="en"><![CDATA[fault diagnosis]]></kwd>
<kwd lng="en"><![CDATA[robustness]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[   <font size="2" face="verdana">  </font>     <P align="right"><font size="2" face="verdana"><strong>ARTICULO ORIGINAL</strong> </font></p>     <p>&nbsp;</p>     <p><font size="4" face="verdana"><B>Propuesta de procedimiento para configurar una red neuronal artificial    de Base Radial con aplicaciones en el diagn&oacute;stico de fallos</B></font></p>     <p>&nbsp;</p>     <p><font size="3" face="verdana"><b>Proposal of a procedure for setting an artificial neural network of Radial Basis with applications in fault diagnosis.</b></font></p>     <P></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana"><strong>Ing. Egly Barrero Viciedo<sup>1</sup>, Ing. Beatriz Fern&aacute;ndez D&iacute;az<sup>2</sup>, Dr .Orestes Llanes Santiago</strong></font><font size="2" face="verdana"><strong><sup>1</sup></strong></font></p>     <P>1. <font size="2" face="Verdana">Instituto Superior Polit&eacute;cnico Jos&eacute; Antonio Echeverr&iacute;a, Cujae, La Habana, Cuba. E-mail:</font><font size="2" face="verdana"><U><FONT  COLOR="#0000ff"><a href="mailto:egly@electrica.cujae.edu.cu">egly@electrica.cujae.edu.cu</a></FONT></U> </font>, <font size="2" face="verdana"><U><FONT COLOR="#0000ff"><a href="mailto:orestes@electrica.cujae.edu.cu">orestes@electrica.cujae.edu.cu</a></FONT></U></font><font size="2" face="Verdana">    ]]></body>
<body><![CDATA[<br> </font><font size="2" face="verdana">2. Empresa Productora de Software para la T&eacute;cnica Electr&oacute;nica (Softel),  La Habana, Cuba.</font> <font size="2" face="Verdana">E-mail:</font><font size="2" face="verdana"><U><FONT COLOR="#0000ff"><a href="mailto:bettyf1989@yahoo.com">bettyf1989@yahoo.com</a></FONT></U></font></p>     <P>&nbsp;</p>     <P>&nbsp;</p> <hr>     <P><font size="2" face="verdana"><strong>RESUMEN</strong></font></p>     <P><font size="2" face="verdana">En este art&iacute;culo se presenta un procedimiento que permite la configuraci&oacute;n de los par&aacute;metros de una arquitectura  de red neuronal artificial de Base Radial para tareas de diagn&oacute;stico de fallos, luego de establecer un orden l&oacute;gico para  la selecci&oacute;n de los mismos. Dicho procedimiento garantiza la obtenci&oacute;n del n&uacute;mero necesario de neuronas ocultas  a partir de fijar el error de diagn&oacute;stico deseado por los expertos para cada proceso, permitiendo tambi&eacute;n seleccionar  el m&eacute;todo para estimar los anchos de las neuronas ocultas y la ecuaci&oacute;n de distancia para la propagaci&oacute;n del espacio  de entradas. El procedimiento se aplica al proceso de prueba &#171;Tanque Reactor Continuamente Agitado&#187; para  demostrar su efectividad. Como resultado de los experimentos realizados, se concluye que la elecci&oacute;n de la funci&oacute;n de  distancia no influye sobre la selecci&oacute;n del m&eacute;todo para estimar los anchos. Se comprueba que esta arquitectura, con  el entrenamiento adecuado, exhibe buenas propiedades de sensibilidad y robustez para el diagn&oacute;stico de fallos. </font></p>     <P><font size="2" face="verdana"><strong>Palabras claves:</strong> red neuronal artificial de Base Radial, diagn&oacute;stico de fallos,  robustez.</font>    <br> </p>   <hr>     <P><font size="2" face="verdana"><strong>ABSTRACT</strong></font></p>     <P><font size="2"><font face="verdana">In this article a procedure is shown up for allowing the configuration of parameters of artificial neuronal    network architecture of Radial Basis for failure diagnosis tasks after stablishing a logical order for their selection.    Such procedure guarantees the procurance of a necessary number of hidden neurons starting from fixing the    diagnosis error desired by the experts for each process, also allowing the selection of the method for esteeming the widths    of the hidden neurons and the equation of distance for the propagation of the inlets vector. The procedure applies    to the testing process of &#171;Reactor Tank Constantly Agitated&#187; searching to demonstrate its effectiveness. As a result    of the realized experiments, it is confirmed that within the topology of the Radial Basis net, the calculation of    the centers and widths of the hidden neurons intervene decisively in its execution, as well as the fixed-distance    equation, but the election of the function of distance does not act on the selection of the method for esteeming the widths. It    is verified that this architecture, with the adequate training, shows good properties of sensibility and robustness. </font> </font></p>     <P>   <font size="2" face="verdana"><b>Keywords: </b>radial Basic artificial neural networks, fault diagnosis, robustness. </font>    ]]></body>
<body><![CDATA[<br> </p> <hr>     <P>&nbsp;</p>     <P>&nbsp;</p>     <P><font size="3" face="verdana"><B>INTRODUCCI&Oacute;N</B> </font></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">Con el paso del tiempo se van desarrollando cada vez m&aacute;s las industrias, volvi&eacute;ndose m&aacute;s complejos los procesos    que tienen lugar en las mismas [24], por lo cual se hace necesario mejorar las t&eacute;cnicas para determinar los fallos que    afectan dichos sistemas. Se considera un fallo a cualquier desviaci&oacute;n no permitida, de al menos un par&aacute;metro del sistema, de    su condici&oacute;n usual, aceptable o est&aacute;ndar [25]. Un temprano diagn&oacute;stico de las afectaciones de un proceso, mientras    la planta continua operando en una regi&oacute;n controlable, puede ayudar a evitar la progresi&oacute;n de eventos anormales    y reducir las p&eacute;rdidas en la producci&oacute;n, reportando beneficios en la econom&iacute;a, en la seguridad de los procesos y en    la mejora de las labores de mantenimiento [1, 22, 23, 25].    Por otra parte, tambi&eacute;n es fundamental evitar la ocurrencia    de falsas alarmas debido a la presencia de ruidos o alteraciones temporales en proceso, ya que esto puede provocar    paros innecesarios y desconfianza de los operadores en el sistema de diagn&oacute;stico, trayendo consigo que pasado un    tiempo prefieran ignorar las indicaciones que resulten del mismo. </font></p>     <P><font size="2" face="verdana">Desde el punto de vista del control autom&aacute;tico, el t&eacute;rmino robustez es usado para describir el grado de  independencia entre el rendimiento de un sistema de control y la influencia de las perturbaciones o de la variaci&oacute;n de sus  par&aacute;metros. En el campo del diagn&oacute;stico de fallos se sigue el mismo principio, sin que esto implique una p&eacute;rdida de  sensibilidad ante los fallos para los que se dise&ntilde;a el diagnosticador. Se hace entonces necesario establecer un compromiso pues  al beneficiar una de estas propiedades puede verse afectada la otra. Tambi&eacute;n es fundamental no supeditar ni robustez  ni sensibilidad a una situaci&oacute;n an&oacute;mala en particular, sino que deben tratar de fijarse de igual manera para todos los  fallos que se incluyan en el dise&ntilde;o del sistema de diagn&oacute;stico de fallos [21]. </font></p>     <P><font size="2" face="verdana">Se tiene entonces que las caracter&iacute;sticas deseadas de un sistema de diagn&oacute;stico de fallos (SDF) son: el r&aacute;pido  diagn&oacute;stico de los fallos del proceso, teniendo en cuenta que si el umbral de detecci&oacute;n se fija muy bajo puede ser sensible al  ruido y por tanto provocar falsas alarmas durante la operaci&oacute;n normal; el aislamiento del fallo para hacer al sistema capaz  de distinguir entre distintos fallos; la robustez ante el ruido; y la adaptabilidad ante cambios en las condiciones  de operaci&oacute;n del proceso [25]. </font></p>     <P><font size="2" face="verdana">Desde hace varios a&ntilde;os y hasta la actualidad se han realizado investigaciones en el campo del diagn&oacute;stico de  fallos, abog&aacute;ndose por las redes neuronales artificiales como una posible t&eacute;cnica a emplear, arrojando resultados  satisfactorios [2, 8, 20, 22, 24, 26, 28,30]. Se han estudiado un n&uacute;mero de posibles arquitecturas y se conoce que el dise&ntilde;o de  la topolog&iacute;a de la red [3, 5,11, 18, 29] y la selecci&oacute;n del algoritmo de aprendizaje [11, 27] influyen sobre la capacidad  de diagn&oacute;stico de dicha herramienta, y por ende, en la calidad del mismo. La forma usual de aplicar las redes  neuronales artificiales al diagn&oacute;stico de fallos es para clasificar los datos del proceso de acuerdo con la operaci&oacute;n del mismo.  Este m&eacute;todo de clasificaci&oacute;n no toma en cuenta las propiedades din&aacute;micas del proceso porque solo utiliza patrones  de mediciones individuales y no tiene informaci&oacute;n sobre la direcci&oacute;n o magnitud del cambio en las mediciones [23]. </font></p>     <P><font size="2" face="verdana">Dentro de las arquitecturas de redes neuronales que m&aacute;s auge han tenido en aplicaciones de diagn&oacute;stico de fallos  se encuentran las redes neuronales artificiales de Base Radial, ya que su estructura b&aacute;sicamente est&aacute; concebida para  que de forma natural agrupe los patrones en regiones del espacio, acorde a las clases a la cual pertenecen. Su  empleo generalmente se realiza con su arquitectura cl&aacute;sica: una capa de entrada, una capa oculta con una funci&oacute;n de  activaci&oacute;n gaussiana y una capa de salida con una funci&oacute;n de activaci&oacute;n lineal [13, 22]. Esta arquitectura presenta mayormente  un buen desempe&ntilde;o en problemas de clasificaci&oacute;n de patrones, sin embargo, para esto se necesitan muchas neuronas  en la capa oculta, lo que hace que la red sea muy extensa y el tiempo de c&oacute;mputo en fase de ejecuci&oacute;n elevado [18].  Se considera que el n&uacute;mero necesario de neuronas ocultas crece exponencialmente con el aumento del n&uacute;mero de  variables de entrada de la red (cantidad de componentes del espacio de entradas), es decir, con el aumento de las  dimensiones del espacio de entradas [6, 21, 24]. Se conoce que ha sido utilizada como diagnosticador en problemas que  presentan un intercambiador de calor y un tanque reactor continuamente agitado [13, 22], observ&aacute;ndose la necesidad de un  buen ajuste de sus par&aacute;metros para que los resultados puedan ser satisfactorios. </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana">Debido a lo anterior, se ha mostrado inter&eacute;s en la comunidad cient&iacute;fica por reformular la red de Base Radial  entren&aacute;ndola mediante algoritmos supervisados como el &#171;gradiente descendiente&#187;, con el objetivo de mejorar su aprendizaje y  por tanto su desempe&ntilde;o. Las comparaciones entre una red neuronal artificial de Base Radial cl&aacute;sica y una  reformulada, aplicadas al mismo caso de estudio, demuestran que la red reformulada tiene igual o menor por ciento de error en  la clasificaci&oacute;n y necesita un menor n&uacute;mero de neuronas en la capa oculta [11]. Se han propuesto nuevos m&eacute;todos  de aprendizaje basados principalmente en el algoritmo de Retropropagaci&oacute;n del Error  (<I>Backpropagation</I> (BP)), que proveen un n&uacute;mero m&iacute;nimo de neuronas ocultas en problemas de diagn&oacute;stico de fallos, pero para lograrlo  necesitan tiempos de entrenamiento elevados [3]. Se han implementado nuevos m&eacute;todos que permiten optimizar la  arquitectura de Base Radial con el objetivo de disminuir el n&uacute;mero de neuronas necesarias en la capa oculta, logrando reducir  el tiempo de respuesta de la misma. Para ello, se ha usado un aprendizaje secuencial de la funci&oacute;n de Base Radial, en  el cual se combina el criterio de crecimiento de la Asignaci&oacute;n de Recursos de la Red Neuronal (RAN) de Platt, con  una estrategia reducida basada en la contribuci&oacute;n relativa de cada neurona oculta a la salida general de la red (MRAN).  Esta aplicaci&oacute;n demostr&oacute; que la red de Base Radial entrenada con este algoritmo es m&aacute;s compacta y obtiene un error  de clasificaci&oacute;n similar al de una red Perceptr&oacute;n Multicapa  (<I>Multilayer Perceptron</I> (MLP)), entrenada con una  variante del algoritmo de aprendizaje BP, en un tiempo computacional mucho menor [8, 29]. </font></p>     <P><font size="2" face="verdana">Como se aprecia en [19] se han utilizado algoritmos evolutivos para determinar de forma autom&aacute;tica, en un  problema espec&iacute;fico, par&aacute;metros de las redes de Base Radial como la cantidad de neuronas ocultas y sus respectivos centros  y anchos, demostr&aacute;ndose que esta t&eacute;cnica es capaz de encontrar valores &oacute;ptimos de dichos par&aacute;metros manteniendo  un peque&ntilde;o error de generalizaci&oacute;n. </font></p>     <P><font size="2" face="verdana">Sin embargo a pesar de las investigaciones realizadas en el campo de las redes de Base Radial, espec&iacute;ficamente en  la configuraci&oacute;n de sus par&aacute;metros, no existe una soluci&oacute;n generalizable que permita configurar los par&aacute;metros de la  red de Base Radial, por lo que este sigue siendo un problema sin soluci&oacute;n definitiva en el campo de aplicaci&oacute;n de  esta arquitectura al diagn&oacute;stico de fallos. A pesar de los muchos algoritmos y m&eacute;todos que se siguen investigando, con  el objetivo de perfeccionar esta arquitectura, no se encontr&oacute; en la literatura un procedimiento, o forma similar, que  brinde      <BR> una v&iacute;a para configurar completamente una red de Base Radial con el objetivo de emplearla en la clasificaci&oacute;n de  los estados de un proceso (diagn&oacute;stico de fallos). Otra dificultad es que muchos de los m&eacute;todos propuestos en  la literatura, y las modificaciones que se realizan a los mismos, se centran generalmente en la capa oculta de esta  red (anchos, centros y n&uacute;meros de neuronas) y no incluyen en el entrenamiento la variaci&oacute;n de otros par&aacute;metros de  esta arquitectura. </font></p>     <P><font size="2" face="verdana">Por tanto el objetivo del presente trabajo es desarrollar un procedimiento que permita, luego de establecer los  par&aacute;metros que m&aacute;s influyen en el desempe&ntilde;o de esta arquitectura en el diagn&oacute;stico de fallos, proponer una v&iacute;a l&oacute;gica basada  en pruebas estad&iacute;sticas para determinarlos, de manera que se garanticen adecuadas propiedades de sensibilidad y  robustez. El art&iacute;culo est&aacute; estructurado en cinco secciones adem&aacute;s de introducci&oacute;n y conclusiones. La secci&oacute;n &#171;Redes  neuronales artificiales de base radial&#187; aborda los aspectos te&oacute;ricos b&aacute;sicos relacionados con las redes de Base Radial. En  la secci&oacute;n &#171;Procedimiento para la obtenci&oacute;n de una arquitectura de red neuronal artificial de base radial aplicada  al diagn&oacute;stico de fallos&#187; se presentan los pasos del procedimiento para obtener una arquitectura de Base Radial  con aplicaci&oacute;n en el diagn&oacute;stico de fallos con adecuadas propiedades de sensibilidad y robustez. En las secciones  &#171;Caso de Estudio&#187; y &#171;Experimentos Realizados&#187; se explica brevemente el caso de estudio empleado y los  experimentos realizados con los principales resultados obtenidos; y la secci&oacute;n &#171;An&aacute;lisis de los Resultados&#187; est&aacute; dedicada  al an&aacute;lisis de los resultados alcanzados en los experimentos efectuados. </font></p>     <P>&nbsp;</p>     <P><font size="3" face="verdana"><B>REDES NEURONALES ARTIFICIALES DE BASE RADIAL</B> </font></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">Es un modelo de red unidireccional que puede considerarse de tipo h&iacute;brido por incorporar aprendizaje supervisado    y no supervisado. La arquitectura de una red neuronal artificial de Base Radial    (<I>Radial Basis Function</I>, (RBF)) (<a href="#f1">Figura 1</a>) cuenta con tres capas de neuronas: una de entrada, una oculta y otra de salida. En las neuronas de la capa oculta    es donde radica la mayor diferencia de esta arquitectura con respecto a las dem&aacute;s, y es que su funci&oacute;n de activaci&oacute;n es    de simetr&iacute;a radial y opera en base a la distancia que separa al espacio de entradas con respecto al vector de    pesos sin&aacute;pticos que almacena cada neurona, evaluando la funci&oacute;n radial en dicha diferencia. Las neuronas de la capa    de salida son lineales y esencialmente calculan la suma ponderada de las salidas que proporciona la capa oculta [6, 15, 27]. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/f0106314.jpg" width="461" height="238"><a name="f1"></a></p>     
]]></body>
<body><![CDATA[<P>&nbsp;</p>     <P><font size="2" face="verdana">En las neuronas ocultas de la RBF la respuesta es localizada, es decir, solo responden con una intensidad  apreciable cuando el espacio de entradas presentado y los pesos sin&aacute;pticos de la neurona (tambi&eacute;n conocidos como  centros) pertenecen a una zona pr&oacute;xima, como se muestra en la <a href="#f2">Figura 2</a>. Cada neurona oculta se ocupa de una zona del  espacio de entradas y el conjunto de neuronas debe cubrir totalmente la zona de inter&eacute;s, pero debe hacerse  suavemente, controlando el n&uacute;mero de neuronas de la capa oculta y el ancho de cada una, para evitar aumentos innecesarios en  la cantidad de neuronas ocultas. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/f0206314.jpg" width="545" height="302"><a name="f2"></a></p>     
<P><font size="2" face="verdana">En las neuronas ocultas figuran dos par&aacute;metros que son esenciales para un buen desempe&ntilde;o de la red neuronal  en general, el centro <I>c</I> y el ancho  <I>&oacute;</I>, los cuales tomar&aacute;n su valor definitivo una vez realizado el aprendizaje de la  red neuronal artificial. As&iacute;, si el espacio de entrada coincide con el centro de una neurona esta responde con la  unidad (m&aacute;xima salida). Cuando el espacio de entrada se encuentra en una regi&oacute;n cercana al centro de una neurona  la respuesta de la misma tiende a uno, lo que significa que est&aacute; activa, indicando que reconoce el patr&oacute;n de entrada;  por el contrario, si el patr&oacute;n de entrada es muy diferente del centro la respuesta tiende a cero, indicando que la neurona  est&aacute; inactiva. Por otra parte las neuronas ocultas pueden tomar diferentes formas, aunque en la mayor&iacute;a de los casos  se asumen formas circulares. </font></p>     <P><font size="2" face="verdana"><B>Aprendizaje de las Redes Neuronales Artificiales de Base Radial</B> </font></p>     <P><font size="2" face="verdana">El aprendizaje de las redes neuronales artificiales de Base Radial generalmente es de tipo h&iacute;brido, realiz&aacute;ndose en  dos etapas. Primeramente, se lleva a cabo un entrenamiento no supervisado en la capa oculta y posteriormente  un entrenamiento supervisado en la capa de salida. Con esta divisi&oacute;n se consigue acelerar notablemente el proceso  de aprendizaje con respecto a otros algoritmos [6, 24]. Este proceso de aprendizaje se realiza de forma iterativa, pues  el ajuste final de los par&aacute;metros se logra a partir de aproximaciones sucesivas de los mismos. </font></p>     <P><font size="2" face="verdana">En esta arquitectura es imprescindible elegir la cantidad de neuronas radiales, ya que cada una cubre una parte  del espacio de entrada, siendo preciso buscar el n&uacute;mero adecuado para que se cubra completamente dicho espacio. En  la  pr&aacute;ctica se emplean diferentes t&eacute;cnicas para determinar el n&uacute;mero adecuado de neuronas ocultas en dependencia de  la aplicaci&oacute;n, por ejemplo la mostrada en [29], y las propuestas m&aacute;s recientes de algoritmos de entrenamiento se  preocupan mucho por este par&aacute;metro. El valor de los centros se puede obtener empleando alg&uacute;n algoritmo supervisado  para agrupamiento (<I>clustering</I>) como el algoritmo de Kohonen simple [6], o el conocido algoritmo de las k-medias [6, 17]. Una vez determinado el valor de los centros se procede al c&aacute;lculo de los anchos de cada neurona. Para obtener  los valores de los anchos usualmente se utilizan criterios heur&iacute;sticos. </font></p>     <P><font size="2" face="verdana">El funcionamiento de las redes neuronales artificiales de Base Radial se basa en gran medida en la distancia que  existe entre los patrones de entrada y las neuronas de la capa oculta, de ah&iacute; la connotaci&oacute;n del aprendizaje no supervisado  de su capa intermedia. La funci&oacute;n para el c&aacute;lculo de dicha distancia no fija ning&uacute;n m&eacute;todo para la obtenci&oacute;n de  los restantes par&aacute;metros de la arquitectura y viceversa. </font></p>     <P><font size="2" face="verdana">Como se mencion&oacute; anteriormente, para garantizar un buen desempe&ntilde;o de esta arquitectura es necesario determinar  la cantidad de neuronas ocultas, con el valor de sus centros y anchos, aplicada al problema espec&iacute;fico donde se  desea utilizar. Hasta el momento no se conoce ning&uacute;n procedimiento determin&iacute;stico que facilite la obtenci&oacute;n de dicha  cantidad. Sin embargo, fijar el tama&ntilde;o de la capa oculta constituye el punto de partida para determinar los centros y anchos  de la misma, no teniendo sentido realizar el proceso a la inversa. Luego de determinar el tama&ntilde;o de la capa oculta  es necesario calcular los valores de sus restantes par&aacute;metros (centros y anchos) y para esto se parte de la obtenci&oacute;n  de uno de ellos y se halla el restante, pudiendo realizarse esta operaci&oacute;n en cualquier orden. Otro par&aacute;metro de la  capa oculta que puede ser ajustado es el umbral, haciendo uso generalmente del m&eacute;todo de prueba y error. </font></p>     <P><font size="2" face="verdana">Los m&eacute;todos recomendados en la literatura para el c&aacute;lculo de los centros, han demostrado ser efectivos en esta  tarea. Por otro lado, los m&eacute;todos utilizados para determinar los anchos brindan estimaciones que pueden ser valores m&aacute;s  o menos acertados, por lo que el par&aacute;metro que generalmente se busca mejorar es este &uacute;ltimo. </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana">El &uacute;ltimo paso en el aprendizaje de la red de Base Radial es el entrenamiento de la capa de salida, el cual es de  tipo supervisado. En este momento las salidas de la capa  oculta ya son cantidades conocidas, puesto que son halladas  en funci&oacute;n de los valores de entrada, centros, anchos y umbrales de las neuronas ocultas. A partir de este punto  solo queda calcular los pesos sin&aacute;pticos y umbrales de la capa de salida. </font></p>     <P>&nbsp;</p>     <P><font size="3" face="verdana"><B>PROCEDIMIENTO PARA LA OBTENCI&Oacute;N DE UNA ARQUITECTURA DE    RED NEURONAL ARTIFICIAL DE BASE RADIAL APLICADA AL DIAGN&Oacute;STICO    DE FALLOS</B> </font></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">A partir de contar con los datos hist&oacute;ricos de un proceso se plantea un procedimiento, al cual se denomin&oacute;    &#171;Configuraci&oacute;n de una RBF para el diagn&oacute;stico de fallos&#187;, para obtener la disposici&oacute;n de los par&aacute;metros de una red de Base Radial con el    fin de diagnosticar los fallos presentes en el sistema bajo estudio, satisfaciendo el error de clasificaci&oacute;n deseado y las    propiedades de sensibilidad y robustez. Para la concepci&oacute;n del procedimiento se tuvieron en cuenta los siguientes aspectos: </font></p>     <P><font size="2" face="verdana">-     Los estados a diagnosticar usualmente se agrupan por clases, de forma tal que todos los datos identificativos de  un mismo estado del proceso, por ejemplo un fallo, pertenecer&aacute;n a la misma clase. Visto de esta forma y teniendo en cuenta  el funcionamiento de la capa oculta de las redes RBF lo l&oacute;gico ser&iacute;a tratar de agrupar el espacio de entradas de forma tal  que cada neurona de la capa oculta cubra totalmente una clase y de esto no ser posible, ir aumentando la cantidad de  neuronas de la capa oculta por clases (todas a la vez en cada iteraci&oacute;n), hasta que grupos iguales de neuronas cubran cada clase. </font></p>     <P><font size="2" face="verdana">-     Usualmente en el diagn&oacute;stico de fallos se asocia cada neurona de la capa de salida con cada clase que se  desea reconocer, as&iacute; solamente es necesario verificar qu&eacute; neurona de la capa de salida est&aacute; activa para saber a qu&eacute; clase  pertenece el dato presente en la entrada de la red. De igual forma el tama&ntilde;o de la capa de entrada se fija acorde a la cantidad de  variables necesarias para realizar el diagn&oacute;stico de fallos. </font></p>     <P><font size="2" face="verdana">-     Otro aspecto importante es la influencia del m&eacute;todo de estimaci&oacute;n de los anchos de las neuronas ocultas. Si  las neuronas de la capa oculta no tienen correctamente hallados sus anchos, el n&uacute;mero necesario de neuronas ocultas que  se obtenga mediante cualquier procedimiento no ser&aacute; el m&aacute;s adecuado. Por tanto es fundamental el m&eacute;todo que se  seleccione para calcular dichos anchos, y el mismo debe ser escogido antes de preocuparse por buscar el n&uacute;mero de neuronas de la  capa oculta. Ya luego de seleccionado el m&eacute;todo de estimaci&oacute;n se procede a calcular los valores de los anchos en dependencia  de la cantidad de neuronas de la capa oculta ya que estos son dos par&aacute;metros que guardan una estrecha relaci&oacute;n entre s&iacute;. </font></p>     <P><font size="2" face="verdana">-     El empleo de una funci&oacute;n de distancia u otra puede influir en la cantidad de neuronas necesarias en la capa oculta  para agrupar los patrones pertenecientes a una clase, ya que es precisamente esta funci&oacute;n la encargada de &#171;medir&#187; la  distancia existente entre el patr&oacute;n de entrada y el centro de cada clase. Por lo tanto este par&aacute;metro tambi&eacute;n est&aacute; vinculado con el  valor de los anchos de las neuronas de la capa oculta, pero no influye en la elecci&oacute;n del m&eacute;todo que se emplee para obtener  dichos anchos.  </font></p>     <P><font size="2" face="verdana">-     Buscar el n&uacute;mero m&iacute;nimo de neuronas en la capa oculta es el proceso m&aacute;s lento del ajuste, ya que conlleva  una b&uacute;squeda exhaustiva a partir de realizar peque&ntilde;os cambios en esta capa. Sin embargo, puede hallarse un n&uacute;mero  adecuado de neuronas en la capa oculta, que permita a la red cumplir con los requerimientos para los cuales se dise&ntilde;a, y garantizar  que si bien no es el m&iacute;nimo al menos no aumenta excesivamente el tama&ntilde;o de esta capa. </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana">-     Se conoce de la literatura que la b&uacute;squeda de la cantidad de neuronas ocultas se realiza usualmente de forma  iterativa a partir de realizar aumentos (o disminuciones) de la cantidad de neuronas hasta obtener el desempe&ntilde;o adecuado.  Partiendo entonces de que la funci&oacute;n de distancia influye en el tama&ntilde;o de la capa oculta, es l&oacute;gico pensar que no tiene por qu&eacute;  coincidir la cantidad de neuronas ocultas, por clase, que provocan un cambio significativo en el error de clasificaci&oacute;n con el empleo  de diferentes funciones de distancia. Si primeramente se determina esta cantidad m&iacute;nima necesaria, se ahorra tiempo  de entrenamiento pues se reduce el proceso de buscar la cantidad de neuronas necesarias en la capa oculta ya que los  aumentos (o disminuciones) que se realicen siempre provocar&aacute;n un cambio en el error de clasificaci&oacute;n de la red. </font></p>     <P><font size="2" face="verdana">El procedimiento de forma general contempla tres etapas que se describen a continuaci&oacute;n: </font></p>     <P><font size="2" face="verdana"><B>Etapa 1:</B> Conformaci&oacute;n de la arquitectura inicial. </font></p>     <P><font size="2" face="verdana"><B>Paso 1.1: </B>Establecer la cantidad de neuronas en la capa de entrada  (N<SUB>e</SUB>) igual al n&uacute;mero de variables del proceso que  son empleadas en el diagn&oacute;stico  (X<SUB>i</SUB>). </font></p>     <P><font size="2" face="verdana"><B>Paso 1.2: </B>Establecer la cantidad de neuronas en la capa oculta y la cantidad de neuronas en la capa de salida igual al  n&uacute;mero de fallos que se deseen diagnosticar m&aacute;s un estado de funcionamiento normal. </font></p>     <P><font size="2" face="verdana"><B>Paso 1.3: </B>Seleccionar una funci&oacute;n de distancia para la propagaci&oacute;n del espacio de entrada hacia la capa oculta. </font></p>     <P><font size="2" face="verdana"><B>Paso 1.4:</B> Seleccionar una funci&oacute;n de activaci&oacute;n con dependencia radial para las neuronas de la capa oculta. </font></p>     <P><font size="2" face="verdana"><B>Paso 1.5:</B> Seleccionar un algoritmo de entrenamiento para la capa de salida. </font></p>     <P><font size="2" face="verdana">La secuencia para realizar la segunda etapa se describe de forma general a continuaci&oacute;n y se muestra en forma algor&iacute;tmica  en la <a href="/img/revistas/eac/v35n3/f0306314.jpg">Figura 3</a>: </font></p>     
<P><font size="2" face="verdana"><B>Etapa 2:</B> Selecci&oacute;n del m&eacute;todo de estimaci&oacute;n para los anchos de las neuronas ocultas. </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana"><B>     Paso 2.1:</B> Seleccionar un algoritmo supervisado de agrupamiento para el c&aacute;lculo de los centros de las  neuronas ocultas. </font></p>     <P><font size="2" face="verdana"><B>     Paso 2.2:</B> Determinar el m&eacute;todo de estimaci&oacute;n adecuado para calcular el ancho de las neuronas ocultas. </font></p>     <P><font size="2" face="verdana"><B>          Paso 2.2.1:</B> Establecer m&eacute;todos a competir. </font></p>     <P><font size="2" face="verdana"><B>          Paso 2.2.2:</B> Estimar los anchos de las neuronas ocultas y calcular el error de clasificaci&oacute;n de la red para  cada m&eacute;todo. </font></p>     <P><font size="2" face="verdana"><B>          Paso 2.2.3:</B> Mediante el test de Friedman establecer si existen diferencias significativas en el empleo de  los m&eacute;todos. </font></p>     <P><font size="2" face="verdana"><B>          Paso 2.2.4:</B> Si existen diferencias utilizar el test de Wilcoxon para fijar el mejor m&eacute;todo mediante el  voto mayoritario. </font></p>     <P><font size="2" face="verdana">A partir de esta etapa se introduce el empleo de los test estad&iacute;sticos con el objetivo de tener pruebas v&aacute;lidas que  permitan interpretar los resultados [10, 14]. Primeramente es necesario decidir si existen diferencias significativas entre los  m&eacute;todos propuestos, porque de no existir se ahorra tiempo en la comparaci&oacute;n uno a uno, para lo cual se seleccion&oacute; el test de  Friedman. Para el caso de que existan diferencias significativas entre los m&eacute;todos es necesario contar con un test que permita  demostrar si existen o no diferencias significativas en la comparaci&oacute;n m&eacute;todo a m&eacute;todo, para lo cual se propuso el test de Wilcoxon,  que permite demostrar si existen o no diferencias significativas entre las medias de dos muestras relacionadas. </font></p>     <P><font size="2" face="verdana">La secuencia para realizar la tercera etapa se describe de forma general a continuaci&oacute;n y se muestra en forma algor&iacute;tmica  en la <a href="/img/revistas/eac/v35n3/f0406314.jpg">Figura 4</a>: </font></p>     
<P><font size="2" face="verdana"><B>Etapa 3:</B> Configuraci&oacute;n de la capa oculta. </font></p>     <P><font size="2" face="verdana"><B>     Paso 3.1:</B> Aplicar el m&eacute;todo para estimar los anchos de las neuronas ocultas seleccionado en la etapa 2. </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana"><B>     Paso 3.2:</B> Determinar la funci&oacute;n para la propagaci&oacute;n del espacio de entradas que mejor se adecua al proceso. </font></p>     <P><font size="2" face="verdana"><B>          Paso 3.2.1:</B> Establecer las funciones de distancia a competir y un criterio para el error de clasificaci&oacute;n deseado. </font></p>     <P><font size="2" face="verdana"><B>          Paso 3.2.2:</B> Determinar los aumentos significativos en la cantidad de neuronas ocultas para cada funci&oacute;n  de distancia. </font></p>     <P><font size="2" face="verdana"><B>Paso 3.2.3: </B>Aumentar en cantidades significativas las neuronas en la capa oculta hasta cumplir con el  error fijado. </font></p>     <P><font size="2" face="verdana">Para evitar caer en lazos infinitos en esta &uacute;ltima etapa se proponen los siguientes criterios: </font></p>     <P><font size="2" face="verdana">-     En el paso 3.2.2 fijar el n&uacute;mero m&aacute;ximo de neuronas en la capa oculta que provocan un cambio significativo en el  error como 10 veces el tama&ntilde;o inicial (10*N&#186;Clases). Si en el proceso de buscar los aumentos de neuronas que sean  significativos para el error de clasificaci&oacute;n de la red se llega a esta cantidad m&aacute;xima se detiene el paso y se toma dicho n&uacute;mero para  comenzar a realizar los aumentos en la capa oculta buscando obtener el error de clasificaci&oacute;n m&aacute;ximo deseado para la red.  </font></p>     <P><font size="2" face="verdana">-     En el paso 3.2.3 fijar un l&iacute;mite m&iacute;nimo de iteraciones consecutivas (se sugiere 10) durante las cuales no se aprecie  un cambio en el error de clasificaci&oacute;n y una vez alcanzado dicho l&iacute;mite detener el algoritmo y tomar ese menor error alcanzado  ya que no es posible obtener el deseado. </font></p>     <P>&nbsp;</p>     <P><font size="2"><b><font size="3" face="verdana">CASO DE ESTUDIO</font></b></font></p>     <P>&nbsp;</p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana">Para realizar los experimentos se seleccion&oacute; el proceso de prueba Tanque Reactor Continuamente Agitado (TRCA)    por ser un proceso aplicado en la literatura para la evaluaci&oacute;n de diagnosticadores [13, 22,23], siendo el mismo un sistema donde ocurre una reacci&oacute;n exot&eacute;rmica irreversible, convirti&eacute;ndose el reactivo A en el producto B y est&aacute; compuesto    por un tanque, una chaqueta enfriadora, un agitador y una bomba. La instrumentaci&oacute;n del mismo cuenta con dos    v&aacute;lvulas de control, un transmisor de nivel, dos transmisores de flujo, un transmisor de temperatura y cuatro controladores    de tipo PI. En este proceso las variables controladas son temperatura de la reacci&oacute;n (T) y el nivel se soluci&oacute;n en el    tanque (h), y las variables manipuladas son flujo de alimentaci&oacute;n del refrigerante de la chaqueta    (Q<SUB>C</SUB>) y el flujo de salida del reactor (Q). Toda la descripci&oacute;n del proceso y sus caracter&iacute;sticas, as&iacute; como los fallos empleados, su generaci&oacute;n y    otros aspectos importantes aparecen en [4, 9]. El esquema general se muestra en la <a href="#f5">Figura 5</a>. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/f0506314.jpg" width="447" height="310"><a name="f5"></a></p>     
<P><font size="2" face="verdana"><B>Fallos del proceso</B> </font></p>     <P><font size="2" face="verdana">Del conjunto de fallos que permite estudiar el proceso fueron seleccionados ocho, de los  cuales cuatro son positivos y el resto negativos. Los fallos se encuentran numerados seg&uacute;n aparece en  la literatura donde se aborda este caso de estudio [4, 9], correspondiendo cada n&uacute;mero con  una descripci&oacute;n particular de la situaci&oacute;n de fallo, y adicionalmente a continuaci&oacute;n del n&uacute;mero  se identifica el signo del fallo, positivo o negativo, con las letras &#171;p&#187; y &#171;n&#187; respectivamente.  El origen de los fallos tomados en consideraci&oacute;n est&aacute; en perturbaciones externas al proceso y  ninguno es debido a fallo en los sensores o en los componentes propios del proceso [4, 9]. Las  caracter&iacute;sticas de cada uno de los fallos tomados en cuenta se muestran en la <a href="/img/revistas/eac/v35n3/t0106314.jpg">Tabla 1</a>. </font></p>     
<P><font size="2" face="verdana"><U>De la <a href="/img/revistas/eac/v35n3/t0106314.jpg">Tabla 1</a>:</U> </font></p>     
<P><font size="2" face="verdana">Q<SUB>F</SUB>: Flujo de alimentaci&oacute;n del reactor </font></p>     <P><font size="2" face="verdana">C<SUB>AF</SUB>: Concentraci&oacute;n de alimentaci&oacute;n. </font></p>     <P><font size="2" face="verdana">T<SUB>F</SUB>: Temperatura de alimentaci&oacute;n </font></p>     <P><font size="2" face="verdana">T<SUB>CF</SUB>: Temperatura de alimentaci&oacute;n del refrigerante </font></p>     <P><font size="2" face="verdana"><B>Generaci&oacute;n de los datos hist&oacute;ricos</B> </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana">Los datos hist&oacute;ricos se generaron por medio de simulaci&oacute;n, utilizando el software Simulink del asistente matem&aacute;tico  Matlab&#174; 2011. La condici&oacute;n normal de operaci&oacute;n y cada uno de los fallos fueron simulados para un tiempo de 100 minutos. El  n&uacute;mero de observaciones generadas para cada fallo fue de 1190 por cada una de las variables. Tambi&eacute;n se obtuvo un conjunto  de datos adicionales donde el tama&ntilde;o de los fallos fue cambiado respecto al valor inicial visto en la tabla 1, con el fin de  probar la capacidad de generalizaci&oacute;n del diagnosticador propuesto. Se realizaron simulaciones donde se contaminaron las  se&ntilde;ales con ruido, con el objetivo de emular la variabilidad presente en un proceso real. </font></p>     <P>&nbsp;</p>     <P><font size="3" face="verdana"><B>EXPERIMENTOS REALIZADOS.</B> </font></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">Durante la aplicaci&oacute;n del procedimiento propuesto se hace uso de la validaci&oacute;n cruzada para    calcular el error de clasificaci&oacute;n, por lo que se dividieron los datos de los fallos y de la operaci&oacute;n normal    en 10 particiones. La aplicaci&oacute;n del voto mayoritario en la etapa dos    consisti&oacute; en la adici&oacute;n de puntos al m&eacute;todo que se seleccione como el mejor en cada prueba, siguiendo las siguientes pautas: </font></p>     <P><font size="2" face="verdana">-     Las comparaciones entre los m&eacute;todos se realizan por pares, asign&aacute;ndole un punto al  m&eacute;todo con mejores resultados, seg&uacute;n el test aplicado, y cero puntos al restante.  </font></p>     <P><font size="2" face="verdana">-     Si los resultados del test no permiten diferenciar entre los dos m&eacute;todos se le otorgan  0.5 puntos a cada m&eacute;todo. </font></p>     <P><font size="2" face="verdana">Al concluir la aplicaci&oacute;n del test para todas las combinaciones posibles, se dice que el mejor  m&eacute;todo es el que m&aacute;s puntos obtiene. </font></p>     <P><font size="2" face="verdana"><B><I>1: Aplicaci&oacute;n del procedimiento al proceso de prueba para los datos de los fallos  y la operaci&oacute;n normal sin ruido</I></B> </font></p>     <P><font size="2" face="verdana"><U>Etapa 1</U>: Inicialmente la RBF est&aacute; compuesta por diez neuronas en la capa de entrada, acorde a las  diez variables que se miden en el proceso, nueve neuronas en la capa oculta, correspondiendo a un  criterio inicial donde se le asigna una neurona a cada clase (fallo) y otra para el funcionamiento normal,  y nueve neuronas en la capa de salida siguiendo el criterio anterior. Esta arquitectura se expresa  de forma sintetizada como 10-9-9. Se escogi&oacute; la funci&oacute;n de la distancia Eucl&iacute;dea para la propagaci&oacute;n  del espacio de entrada y la funci&oacute;n gaussiana como funci&oacute;n de activaci&oacute;n de la capa oculta [13, 15, 16, 17, 19, 22, 24], por ser lasm&aacute;s com&uacute;nmente utilizadas. El algoritmo de entrenamiento seleccionado para la capa  de salida fue el de M&iacute;nimos Cuadrados (<I>Least Mean  Square</I> (LMS)), por ser com&uacute;nmente utilizado en las  capas lineales [6, 7, 12, 16, 18, 27]. </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana"><U>Etapa 2</U>: Para el c&aacute;lculo de los centros de las neuronas ocultas se seleccion&oacute; el algoritmo de las k-medias. Partiendo de  los centros obtenidos se emplearon las siguientes alternativas para calcular los anchos: </font></p>     <P><font size="2" face="verdana">A) Teniendo en cuenta los centros de las neuronas que est&aacute;n m&aacute;s pr&oacute;ximas a la neurona que se calcula (<a href="#e1">ecuaci&oacute;n 1</a>). </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/e0106314.jpg" width="428" height="66"><a name="e1"></a></p>     
<P><font size="2" face="verdana">donde: </font></p>     <P><font size="2" face="verdana">-     c<SUB>l </SUB>son los N centros cercanos a la neurona j. </font></p>     <P><font size="2" face="verdana">-     c<SUB>j</SUB> es el centro de la neurona j. </font></p>     <P><font size="2" face="verdana">-     N es la cantidad de centros que se tienen en cuenta para calcular el ancho de la neurona j. </font></p>     <P><font size="2" face="verdana">-     &oacute;<SUB>j </SUB>es el ancho de la neurona j. </font></p>     <P><font size="2" face="verdana">B) Teniendo en cuenta los patrones que se desean clasificar en la neurona que se calcula (<a href="#e2">ecuaci&oacute;n 2</a>). </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/e0206314.jpg" width="342" height="61"><a name="e2"></a></p>     
]]></body>
<body><![CDATA[<P><font size="2" face="verdana">donde: </font></p>     <P><font size="2" face="verdana">-     N<SUB>j</SUB> es la cantidad de patrones correspondientes a cada centro  c<SUB>j</SUB>. </font></p>     <P><font size="2" face="verdana">C) Mediante la implementaci&oacute;n de un algoritmo gen&eacute;tico que estime este par&aacute;metro en base al error de clasificaci&oacute;n  que comete la RBF aplicando la validaci&oacute;n cruzada. Para la selecci&oacute;n de los par&aacute;metros del algoritmo se tomaron varios  trabajos consultados en la literatura donde se aplicaba este algoritmo luego de una selecci&oacute;n previa de sus par&aacute;metros.  Partiendo entonces de estas configuraciones se probaron en el problema abordado realizando 25 experimentos con cada  una. Posteriormente se promediaron los errores obtenidos para cada configuraci&oacute;n de los par&aacute;metros y finalmente se  seleccion&oacute; la que logr&oacute; como promedio minimizar m&aacute;s la funci&oacute;n objetivo (error de clasificaci&oacute;n de la red). Dicha configuraci&oacute;n de  los par&aacute;metros del algoritmo se muestra en la <a href="/img/revistas/eac/v35n3/t0206314.jpg">Tabla 2</a>. </font></p>     
<P><font size="2" face="verdana">Una vez obtenidos los anchos de las neuronas gaussianas, empleando cada uno de los m&eacute;todos propuestos, se calcula  el error de clasificaci&oacute;n de la red para cada variante. Los resultados se muestran en la <a href="/img/revistas/eac/v35n3/t0306314.jpg">Tabla 3</a>. </font></p>     
<P><font size="2" face="verdana">La aplicaci&oacute;n del test de Friedman arroj&oacute; que s&iacute; existen diferencias significativas entre las diferentes v&iacute;as de c&aacute;lculo de  los anchos, por tanto, se procede a la aplicaci&oacute;n del test de Wilcoxon para determinar cu&aacute;l es la que mejores resultados  brinda. Ambos test fueron aplicados con una probabilidad del cinco por ciento. Los resultados de la aplicaci&oacute;n del voto  mayoritario (<a href="#t4">Tabla 4</a>) evidencian que, para este caso, la mejor forma de calcular los anchos de las neuronas ocultas es mediante el uso  del algoritmo gen&eacute;tico. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/t0406314.jpg" width="467" height="109"><a name="t4"></a></p>     
<P>&nbsp;</p>     <P><font size="2" face="verdana"><U>Etapa 3</U>: Configuraci&oacute;n de la capa oculta. </font></p>     <P><font size="2" face="verdana">Para la propagaci&oacute;n del espacio de entradas se proponen las siguientes funciones: </font></p>     <P><font size="2" face="verdana">-     Funci&oacute;n de la distancia Eucl&iacute;dea </font></p>     ]]></body>
<body><![CDATA[<P><font size="2" face="verdana">-     Funci&oacute;n de la distancia de Mahalanobis    </font></p>     <P><font size="2" face="verdana">Se fija el error de clasificaci&oacute;n de la red en un 95% de aciertos. Se procede a determinar cu&aacute;l de estas funciones de  distancia permite que la arquitectura cumpla con el error de clasificaci&oacute;n establecido, utilizando un menor n&uacute;mero de neuronas  ocultas. Aplicando el algoritmo gen&eacute;tico para la obtenci&oacute;n de los anchos de las neuronas gaussianas se alcanzaron las  arquitecturas que se muestran en la <a href="#t5">Tabla 5</a>. No fue necesario determinar la cantidad de neuronas ocultas por clase que representan  un cambio significativo en el error de clasificaci&oacute;n debido a que con la  arquitectura inicial fijada se logra cumplir con el  criterio de error establecido. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/t0506314.jpg" width="506" height="127"><a name="t5"></a></p>     
<P><font size="2" face="verdana">Como las dos arquitecturas presentan la misma cantidad de neuronas ocultas el uso de una funci&oacute;n de distancia u  otra depender&aacute; de otros criterios, tales como, el m&iacute;nimo error obtenido, la sencillez de la arquitectura, el tiempo de  procesamiento, etc. En este caso se seleccion&oacute; la RBF que utiliza la funci&oacute;n de la distancia Eucl&iacute;dea porque esta funci&oacute;n es m&aacute;s sencilla  de implementar y por tanto la red presenta una menor complejidad. </font></p>     <P><font size="2"><b><font face="verdana">Comparaci&oacute;n de la arquitectura obtenida mediante el procedimiento con una RBF creada por Matlab&#174;</font></b></font></p>     <P><font size="2" face="verdana">La herramienta matem&aacute;tica Matlab&#174; 2011 posee una funci&oacute;n llamada <I>newrb</I> que crea y entrena una red neuronal artificial  de Base Radial. Se conoce que este comando, por defecto, fija la dispersi&oacute;n de las neuronas ocultas en 1 y el n&uacute;mero  m&aacute;ximo posible lo limita con la cantidad de datos que contenga el vector de entrada, aunque ambos par&aacute;metros pueden variarse.  No proporciona ninguna forma de estimaci&oacute;n para el ancho de las neuronas ocultas, recomendando que se prueben  diferentes valores hasta lograr el resultado deseado. Tampoco brinda ninguna forma de ajuste para el n&uacute;mero de neuronas en la  capa oculta que no sea &#171;prueba y error&#187;. </font></p>     <P><font size="2" face="verdana">Se emple&oacute; este comando con el objetivo de comparar, en cuanto al n&uacute;mero de neuronas en la capa oculta,  la RBF obtenida mediante la aplicaci&oacute;n del procedimiento propuesto con la obtenida mediante la herramienta matem&aacute;tica. El empleo de  la funci&oacute;n <I>newrb</I> se realiz&oacute; con los valores que trae por defecto, excepto el error que se fij&oacute; en un 5 %. Como se puede  observar en la <a href="/img/revistas/eac/v35n3/t0606314.jpg">Tabla 6</a>, la RBF creada por  Matlab&#174; necesit&oacute; un mayor n&uacute;mero de neuronas en su capa oculta que la obtenida  aplicando el procedimiento propuesto, para cumplir con el criterio del 5 % de error de clasificaci&oacute;n. </font></p>     
<P><font size="2"><b><font face="verdana">2: Aplicaci&oacute;n del procedimiento al proceso de prueba para los datos de los fallos y la operaci&oacute;n normal con un 2 % de ruido</font></b></font></p>     <P><font size="2" face="verdana"><U>Etapa 1:</U> La conformaci&oacute;n de la arquitectura inicial de la RBF, para este caso, arroj&oacute; los mismos resultados que para los  datos del proceso sin ruido, por lo que se obtuvo una red con igual configuraci&oacute;n de partida. Fue seleccionado el mismo  algoritmo de entrenamiento para la capa de salida que el empleado para los datos del proceso sin ruido. </font></p>     <P><font size="2" face="verdana"><U>Etapa 2:</U> En la segunda etapa se propusieron los mismos m&eacute;todos que los aplicados a los datos del proceso sin ruido,  tanto para hallar los centros de las neuronas ocultas como para el c&aacute;lculo de los anchos de las mismas, manteniendo la  configuraci&oacute;n de los par&aacute;metros del algoritmo gen&eacute;tico empleada anteriormente. Los resultados se muestran en la <a href="/img/revistas/eac/v35n3/t0706314.jpg">Tabla 7</a>. </font></p>     
]]></body>
<body><![CDATA[<P><font size="2" face="verdana">Nuevamente se evidenci&oacute; (<a href="#t8">Tabla 8</a>) que el algoritmo gen&eacute;tico es el m&eacute;todo que mejores resultados brinda en el c&aacute;lculo de  los anchos de las neuronas gaussianas para esta aplicaci&oacute;n. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/t0806314.jpg" width="443" height="105"><a name="t8"></a></p>     
<P><font size="2" face="verdana"><U>Etapa 3:</U> En la tercera etapa se propusieron las mismas funciones de distancia para la propagaci&oacute;n del espacio de entradas  que en el experimento anterior. Utilizando el algoritmo gen&eacute;tico para la obtenci&oacute;n de los anchos de las neuronas gaussianas y  las funciones de distancia planteadas, se evidenci&oacute; que para la distancia Eucl&iacute;dea el aumento de nueve neuronas en la  capa oculta representa un cambio significativo en el error de clasificaci&oacute;n de la RBF, mientras que con el uso de la distancia  de Mahalanobis se necesitan aumentos de 18 neuronas en la capa oculta para lograr un cambio significativo en el error  de clasificaci&oacute;n de la red. </font></p>     <P><font size="2" face="verdana">Al continuar aumentando las neuronas de la capa oculta en cantidades significativas, para obtener una arquitectura de    red que cumpla con el criterio de error fijado, se obtuvieron los resultados que se muestran en la <a href="#t9">Tabla 9</a>. </font></p>     <P align="center"><img src="/img/revistas/eac/v35n3/t0906314.jpg" width="445" height="125"><a name="t9"></a></p>     
<P><font size="2" face="verdana">En este caso la RBF que mejores resultados brinda es la que utiliza la distancia de Mahalanobis como funci&oacute;n de  propagaci&oacute;n del espacio de entrada, ya que solo necesit&oacute; 45 neuronas en la capa oculta para lograr el error de clasificaci&oacute;n deseado. </font></p>     <P><font size="2" face="verdana"><B>Comparaci&oacute;n de la arquitectura obtenida mediante el procedimiento con una RBF creada por Matlab&#174;</B> </font></p>     <P><font size="2" face="verdana">En la <a href="/img/revistas/eac/v35n3/t1006314.jpg">Tabla 10</a> se muestra la comparaci&oacute;n entre la RBF obtenida mediante la aplicaci&oacute;n del procedimiento propuesto y  la desarrollada por la herramienta matem&aacute;tica Matlab&#174; haciendo uso de su funci&oacute;n <I>newrb</I>, cuya aplicaci&oacute;n se realiz&oacute; igual  que en el experimento anterior. </font></p>     
<P><font size="2" face="verdana">Nuevamente, la RBF creada por Matlab&#174; necesit&oacute; un mayor n&uacute;mero de neuronas en su capa oculta que la  obtenida aplicando el procedimiento propuesto, para cumplir con el criterio del 5 % de error de clasificaci&oacute;n. </font></p>     <P>&nbsp;</p>     ]]></body>
<body><![CDATA[<P><font size="3" face="verdana"><B>AN&Aacute;LISIS DE LOS RESULTADOS. </B> </font></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">Se conoce que el proceso de aprendizaje de las redes neuronales artificiales se basa en la informaci&oacute;n contenida en    los patrones de entrenamiento, por lo que resulta de vital importancia verificar la correcta asimilaci&oacute;n de la informaci&oacute;n    presentada, y tambi&eacute;n la capacidad de la red de generalizar el conocimiento adquirido. Estos procesos se llevan a cabo cuando se    simula la red neuronal, luego de entrenada, ante patrones no vistos en el proceso de aprendizaje. </font></p>     <P><font size="2" face="verdana">Por otra parte dentro del campo del diagn&oacute;stico de fallos es importante que la herramienta seleccionada, en este caso la    RBF, sea robusta ante el ruido presente en las mediciones y la variabilidad en los datos que el mismo provoca, pero que    tambi&eacute;n presente sensibilidad ante los fallos para los que fue dise&ntilde;ada cuando estos comienzan a presentarse y su representaci&oacute;n    en las mediciones no es tan evidente. Para comprobar estas dos caracter&iacute;sticas se realizan pruebas tomando datos  contaminados con diferentes niveles de ruido as&iacute; como tambi&eacute;n datos con cambios en la magnitud de los fallos que representan. </font></p>     <P><font size="2" face="verdana">Teniendo en cuenta lo anterior se toman las dos RBF ya entrenadas obtenidas mediante la aplicaci&oacute;n del  procedimiento propuesto y se simulan con nuevos patrones del proceso que presentan variaciones en su magnitud y por ciento de  ruido, con el objetivo de observar c&oacute;mo se afecta el desempe&ntilde;o de dichas redes en la clasificaci&oacute;n del estado del sistema. </font></p>     <P><font size="2" face="verdana"><B>Resultados para la RBF entrenada con los datos sin ruido.</B> </font></p>     <P><font size="2" face="verdana">Seguidamente se muestran los resultados de las simulaciones realizadas para la RBF entrenada con los datos de los fallos  y operaci&oacute;n normal del proceso sin ruido y empleando como funci&oacute;n de propagaci&oacute;n la distancia Eucl&iacute;dea (ver <a href="#t5">Tabla 5</a>),  ante variaciones en la magnitud (<a href="/img/revistas/eac/v35n3/t1206314.jpg">Tabla 12</a>), adici&oacute;n de ruido a los datos del proceso (<a href="/img/revistas/eac/v35n3/t1106314.jpg">Tabla 11</a>) y ambas afectaciones a la vez  (<a href="/img/revistas/eac/v35n3/t1306314.jpg">Tabla 13</a>). </font></p>     
<P><font size="2" face="verdana">Observando la <a href="/img/revistas/eac/v35n3/t1106314.jpg">Tabla 11</a> se puede afirmar que la red presenta un deterioro considerable en su capacidad de  clasificaci&oacute;n cuando procesa datos afectados por diferentes niveles de ruido, lo cual significa que si fue entrenada con datos  que presentan poca variabilidad (sin ruido) no responder&aacute; adecuadamente en su funcionamiento cuando clasifique datos que  si est&eacute;n afectados por perturbaciones. Esto quiere decir que la red aprendi&oacute; los valores y no los patrones presentes en  los datos empleados durante el entrenamiento. </font></p>     
<P><font size="2" face="verdana">En cuanto a los resultados mostrados en la <a href="/img/revistas/eac/v35n3/t1206314.jpg">Tabla 12</a> se puede observar que la sensibilidad de la red para reconocer los  fallos para los cuales fue dise&ntilde;ada sigue siendo adecuada cuando las mediciones reflejan menos la presencia del fallo en el  proceso (menor magnitud) pues el error de clasificaci&oacute;n no se deterior&oacute; de forma considerable como sucedi&oacute; con el ruido. </font></p>     
<P><font size="2" face="verdana">Con respecto a los resultados mostrados en la <a href="/img/revistas/eac/v35n3/t1306314.jpg">Tabla 13</a> se puede finalmente concluir que la red entrenada con datos  del proceso sin ruido no es adecuada para el diagn&oacute;stico de los fallos del proceso si posteriormente las mediciones  presentar&aacute;n afectaciones por el ruido, aunque pueda ser sensible a los fallos de menor magnitud. La variabilidad de los datos  afecta evidentemente su desempe&ntilde;o. </font></p>     
]]></body>
<body><![CDATA[<P><font size="2" face="verdana"><B>Resultados para la RBF entrenada con un 2 % de ruido en los datos.</B> </font></p>     <P><font size="2" face="verdana">Seguidamente se muestran los resultados de las simulaciones realizadas para la RBF entrenada con los datos de los fallos  y operaci&oacute;n normal del proceso con un 2 % de ruido y empleando como funci&oacute;n de propagaci&oacute;n la distancia de  Mahalanobis (ver <a href="#t9">Tabla 9</a>), ante variaciones en la magnitud (<a href="/img/revistas/eac/v35n3/t1506314.jpg">Tabla 15</a>), cambios en el por ciento de ruido de los datos del proceso (<a href="/img/revistas/eac/v35n3/t1406314.jpg">Tabla  14</a>) y ambas afectaciones a la vez (<a href="/img/revistas/eac/v35n3/t1606314.jpg">Tabla 16</a>). </font></p>     
<P><font size="2" face="verdana">Observando la <a href="/img/revistas/eac/v35n3/t1406314.jpg">Tabla 14</a> se puede apreciar que la red responde adecuadamente cuando procesa datos que o bien no  presentan ruido o bien est&aacute;n afectados por un mayor por ciento de ruido que el contenido en los datos de entrenamiento.  Este comportamiento es el deseado, por lo que esta selecci&oacute;n de los datos de entrenamiento (con ruido) es m&aacute;s adecuada  para lograr un buen desempe&ntilde;o de la red en su posterior funcionamiento. En esencia estos resultados representan que la red  fue capaz de asimilar los patrones presentes en los datos que emple&oacute; durante el entrenamiento. </font></p>     
<P><font size="2" face="verdana">Con respecto a su sensibilidad se puede apreciar (<a href="/img/revistas/eac/v35n3/t1506314.jpg">Tabla 15</a>) que el desempe&ntilde;o de la red sigue siendo adecuado  cuando procesa datos en los cuales el fallo afecta de forma menos evidente a las variables medidas. Se observa adem&aacute;s que el  error aument&oacute; un poco con respecto a la red anterior (entrenada sin ruido) pero aun as&iacute; sigue teniendo un desempe&ntilde;o  satisfactorio. Es bueno considerar que esta red est&aacute; clasificando datos que no solo tiene cierta variabilidad (ruido) sino que adem&aacute;s  ahora reflejan menos la presencia del fallo (disminuci&oacute;n de la magnitud). </font></p>     
<P><font size="2" face="verdana">En los resultados de la &uacute;ltima prueba realizada a esta red (<a href="/img/revistas/eac/v35n3/t1606314.jpg">Tabla 16</a>) se puede ver que su desempe&ntilde;o sufri&oacute; bastante  deterioro pues aument&oacute; su error en la clasificaci&oacute;n. Sin embargo, si tenemos en cuenta que esta simulaci&oacute;n combina una variaci&oacute;n  en los datos de entrada (ruido) no vista en el entrenamiento con el cambio en la magnitud de los fallos (disminuci&oacute;n)  podemos decir que la red todav&iacute;a responde de manera aceptable ya que en aproximadamente el 80% de los casos en que los  datos presenten ambas afectaciones la clasificaci&oacute;n ser&aacute; correcta. </font></p>     
<P><font size="2" face="verdana"><B>Evaluaci&oacute;n de la influencia de los par&aacute;metros de la red neuronal artificial de Base Radial en el diagn&oacute;stico de fallos. </B> </font></p>     <P><font size="2" face="verdana">Al simular la RBF entrenada con los datos que presentan ruido se evidenci&oacute; una mejora considerable en la robustez  del diagn&oacute;stico. El empleo de la distancia de Mahalanobis demostr&oacute; superioridad en cuanto al n&uacute;mero de neuronas  necesarias en la capa oculta, para poder diagnosticar con el por ciento de error de clasificaci&oacute;n deseado. Lo anterior es un  resultado l&oacute;gico debido a que esta distancia tiene en cuenta las relaciones entre las variables de entrada, logrando extraer con  mayor facilidad el patr&oacute;n dentro de la informaci&oacute;n con ruido. Es entonces evidente que la funci&oacute;n de distancia influye sobre  el rendimiento de esta arquitectura en el diagn&oacute;stico de fallos y es un par&aacute;metro importante a tener en cuenta. </font></p>     <P><font size="2" face="verdana">La significancia del m&eacute;todo de estimaci&oacute;n de los anchos de las neuronas ocultas, as&iacute; como la cantidad adecuada de  neuronas en la capa oculta, son aspectos ya conocidos y probados en la literatura consultada, y se reafirman con los  resultados obtenidos en este trabajo. </font></p>     <P><font size="2" face="verdana">Por tanto, la selecci&oacute;n de los par&aacute;metros de esta arquitectura tomados en cuenta en el procedimiento para buscar  su adecuada elecci&oacute;n (m&eacute;todo de estimaci&oacute;n de los anchos de las neuronas ocultas, funci&oacute;n de distancia y cantidad  de neuronas ocultas), resulta correcta ya que afectan su desempe&ntilde;o como clasificador del estado de un proceso. </font></p>     <P>&nbsp;</p>     ]]></body>
<body><![CDATA[<P><font size="3" face="verdana"><B>CONCLUSIONES</B> </font></p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">Como resultado del trabajo se obtuvo un procedimiento general que permite configurar los par&aacute;metros de inter&eacute;s    establecidos en esta investigaci&oacute;n para una red de Base Radial, con el prop&oacute;sito de aplicarla al diagn&oacute;stico de los fallos presentes en    un proceso industrial. Dicho procedimiento garantiza la adecuada selecci&oacute;n de par&aacute;metros tan importantes como la funci&oacute;n    de distancia y el m&eacute;todo de estimaci&oacute;n de los ancho de las neuronas ocultas, a partir de poner a competir las  diferentes propuestas y basando la selecci&oacute;n en pruebas estad&iacute;sticas reconocidas.</font></p>     <P><font size="2" face="verdana">La aplicaci&oacute;n del procedimiento propuesto permite reducir la cantidad de experimentos a realizar en el proceso de    configurar una red de Base Radial para tareas de diagn&oacute;stico de fallos ya que plantea una selecci&oacute;n secuencial de los par&aacute;metros    m&aacute;s importantes de la arquitectura basado en un orden de configuraci&oacute;n l&oacute;gico, lo cual se demostr&oacute; mediante los    experimentos realizados. </font></p>     <P><font size="2" face="verdana">Con el principal aporte de este trabajo, el procedimiento de configuraci&oacute;n, se resuelve parcialmente la carencia de  m&eacute;todos o procedimientos generales que gu&iacute;en en la configuraci&oacute;n de una red de Base Radial para aplicarla al diagn&oacute;stico de los  fallos de un proceso industrial. </font></p>     <P><font size="2" face="verdana">Esta arquitectura demuestra seguir siendo una buena herramienta para realizar tareas de diagn&oacute;stico de fallos ya que con  un adecuado entrenamiento y una correcta selecci&oacute;n de los datos de entrenamiento se garantizan buenas propiedades  de sensibilidad y robustez. La aplicaci&oacute;n del procedimiento para configurar la red no limita ni disminuye dichas propiedades,  y si potencia seleccionar los par&aacute;metros m&aacute;s adecuados para cada proceso en particular, lo que trae buscar el mejor  rendimiento de la red para cada caso. </font></p>     <P><font size="2" face="verdana">Aunque los resultados mostrados en los experimentos son v&aacute;lidos solo para el proceso empleado como ejemplo, se  considera que el procedimiento propuesto es, en general, aplicable a la configuraci&oacute;n de una red de Base Radial para realizar tareas  de diagn&oacute;stico de fallos en cualquier proceso que se desee, ya que el mismo no toma en cuenta particularidades de  una aplicaci&oacute;n espec&iacute;fica y si se centra en la herramienta a emplear, en este caso, las redes de Base Radial. </font></p>     <P>&nbsp;</p>     <P><font size="3" face="verdana"><strong>REFERENCIAS</strong></font></p>     <P>&nbsp;</p>     ]]></body>
<body><![CDATA[<!-- ref --><P><font size="2" face="verdana">1.     C. Angeli and A. Chatzinikolaou, On-line fault detection techniques for technical systems: A survey,    International Journal of Computer Science &amp; Applications 1 (2004), no. 1, 12-30.     </font></p>     <!-- ref --><P><font size="2" face="verdana">2.     W. R. Becraft and P. L. Lee, An integrated neural network/expert system approach for fault diagnosis, Computers    and Chemical Engineering 17 (1993), no. 10, 100-1014 </font><!-- ref --><P><font size="2" face="verdana">3.     A. G. Bors and M. Gabbouj, Minimal topology for a radial basis functions neural network for pattern    classification, Digital Signal Processing 4 (1994), no. 3, 173-188.     </font></p>     <!-- ref --><P><font size="2" face="verdana">4.     O. Camacho, D. Padilla, and J. L. Gouveia, Diagn&oacute;stico de fallas utilizando t&eacute;cnicas estad&iacute;sticas    multivariantes, Revista T&eacute;cnica de Ingenier&iacute;a. Luz 30 (2007), no. 3, 253-262.     </font></p>     <!-- ref --><P><font size="2" face="verdana">5.     H. Cevikalp, D. Larlus, and F. Jurie, A supervised clustering algorithm for the initialization of rbf neural    network classifiers, IEEE 15th Signal Processing and Communications Applications, (2007), 1-4.     </font></p>     <!-- ref --><P><font size="2" face="verdana">6.     B. Mart&iacute;n del Br&iacute;o and A. Sanz Molina, Redes neuronales y sistemas difusos, 2 ed., RA-MA, Marzo 2001.     </font></p>     <!-- ref --><P><font size="2" face="verdana">7.     S. Elanayar and Y. C. Shin, Radial basis function neural network for approximation and estimation of    nonlinear stochastic dynamic systems, IEEE Transactions on Neural Networks 5 (1994), no. 4, 594-603.     </font></p>     <!-- ref --><P><font size="2" face="verdana">8.     F. Gu, PJ. Jacob, and A.D. Ball, A rbf neural network model for cylinder pressure reconstruction in internal    combustion engines, IEE Colloquium on Modeling and Signal Processing for Fault Diagnosis (1996), 1-11.     </font></p>     <!-- ref --><P><font size="2" face="verdana">9.     M. C. Johannesmeyer, A. Singhal, and D. E. Seborg, Pattern matching in historical data, AICHE 48 (2002), no. 9,    2022-2038.     </font></p>     <!-- ref --><P><font size="2" face="verdana">10.     D. J.Sheskin, Parametric and nonparametric statistical procedures, 2 ed., Chapman &amp; Hall/CRC, 2000.     </font></p>     <!-- ref --><P><font size="2" face="verdana">11.     N. B. Karayiannis, Reformulated radial basis neural networks trained by gradient descent, IEEE Transactions    on Neural Networks 10 (1999), no. 3, 657-671.     </font></p>     <!-- ref --><P><font size="2" face="verdana">12.     V. Kecman, Learning and soft computing. Support vectors machines, neural networks and fuzzy logic models, 2001.     </font></p>     <!-- ref --><P><font size="2" face="verdana">13.     H.N. Koivo, Artificial neural networks in fault diagnosis and control, Control Engineering Practice 2 (1994), no. 1,    89-101.     </font></p>     <!-- ref --><P><font size="2" face="verdana">14.     J. Luengo, S. Garc&iacute;a, and F. Herrera, A study on the use of statistical tests for experimentation with neural    networks: Analysis of parametric test conditions and non-parametric tests, Expert Systems with Applications 36 (2009), no. 4,    7798-7808.     </font></p>     <!-- ref --><P><font size="2" face="verdana">15.     A. C. McCormick and A. K. Nandi, A comparison of artificial neural networks and other statistical methods for    rotating machine condition classification, IEE Colloquium on Modeling and Signal Processing for Fault Diagnosis (1996), 2/1 - 2/6.     </font></p>     <!-- ref --><P><font size="2" face="verdana">16.     S.W. Park and B.T. Zhang, Learning constructive rbf networks by active data selection, Proceedings of the    International Conference on Neural Information Processing, 2000, 1411-1415.     </font></p>     <!-- ref --><P><font size="2" face="verdana">17.     K. Patan., Artificial neural networks for the modelling and fault diagnosis of technical processes, vol. 377,    Springer, 2008.     </font></p>     <!-- ref --><P><font size="2" face="verdana">18.     H. Peng, T. Ozaki, V. Haggan, and Y. Toyoda, A parameter optimization method for radial basis function type    models, IEEE Transactions on Neural Networks 14 (2003), no. 2, 432-438.     </font></p>     <!-- ref --><P><font size="2" face="verdana">19.     V.M. Rivas, J.J. Merelo, P.A. Castillo, M.G. Arenas, and J.G. Castellano, Evolving rbf neural networks for    time-series forecasting with evrbf, Information Sciences 165 (2004), no. 3-4, 107-220.     </font></p>     <!-- ref --><P><font size="2" face="verdana">20.     S. Sina Tayarani-Bathaie, Z.N. Sadough Vanini and K. Khorasani, Dynamic neural network-based fault diagnosis    of gas turbine engines, Neurocomputing, 2014, 153-165 </font><!-- ref --><P><font size="2" face="verdana">21.     S. Simani, C. Fantuzzi, and R. J. Patton, Model-based fault diagnosis in dynamic systems using identification    techniques, Springer, 2002.     </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><P><font size="2" face="verdana">22.     T. Sorsa and H. N. Koivo, Application of artificial neural networks in process fault diagnosis, Automatica. 29    (1993), no. 4, 843-849.     </font></p>     <!-- ref --><P><font size="2" face="verdana">23.     T. Sorsa, H. N. Koivo, and H. Koivisto, Neural networks in process fault diagnosis, IEEE Transactions on    Systems and Cybernetics 21 (1991), no. 4, 815-825.     </font></p>     <!-- ref --><P><font size="2" face="verdana">24.     S.G. Tzafestas and P. J. Dalianis, Fault diagnosis in complex systems using artificial neural networks, Proceedings    of the Third IEEE Conference on Control Applications, vol. 2, IEE, 1994, 877-882.     </font></p>     <!-- ref --><P><font size="2" face="verdana">25.     V. Venkatasubramanian, R. Rengaswamy, K. Yin, and S. N. Kavuri, A review of process fault detection and    diagnosis part 1: Quantitative model-based methods, Computers and Chemical Engineering 27 (2003), no. 3, 293-311.     </font></p>     <!-- ref --><P><font size="2" face="verdana">26.     S. Verron, T. Tiplica, and A. Kobi, Fault diagnosis of industrial systems by conditional Gaussian network including    a distance rejection criterion, Engineering Applications of Artificial Intelligence, 2010, 1229-1235 </font><!-- ref --><P><font size="2" face="verdana">27.     M. Weerasinghe, J. B. Gonun, and D. Williams, Fault diagnosis of a nuclear processing plant at diferent    operating points using neural networks, IEE Colloquium on Fault Diagnosis in Process Systems, vol. 1997, Abril 1997, 8/1-8/4.     </font></p>     <!-- ref --><P><font size="2" face="verdana">28.     Ch. Xinyi and Y. Xuefeng, Fault Diagnosis in Chemical Process Based on Self-organizing Map Integrated with    Fisher Discriminant Analysis, Process Systems Engineering and Process Safety, 2013, vol. 21, no. 4, 382-387 </font><!-- ref --><P><font size="2" face="verdana">29.     L. Yingwei and N. Sundararajan, Performance evaluation of a sequential minimal radial basis function (rbf)    neural network learning algorithm, IEEE Transactions on Neural Networks 9 (1998), no. 2, 308-318.     </font></p>     <!-- ref --><P><font size="2" face="verdana">30.     H. Zayandehroodi, A. Mohamed, M. Farhoodnea and M. Mohammadjafari, An optimal radial basis function    neural network for fault location in a distribution network with high penetration of DG units, Measurement, 2013, 3319-3327</font><P>&nbsp;</p>     <P>&nbsp;</p>     <P><font size="2" face="verdana">Recibido: Julio 2014     <br> Aprobado: Septiembre 2014</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[C.]]></surname>
<given-names><![CDATA[Angeli]]></given-names>
</name>
<name>
<surname><![CDATA[A.]]></surname>
<given-names><![CDATA[Chatzinikolaou]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On-line fault detection techniques for technical systems: A survey]]></article-title>
<source><![CDATA[International Journal of Computer Science & Applications]]></source>
<year>2004</year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>12-30</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[W. R.]]></surname>
<given-names><![CDATA[Becraft]]></given-names>
</name>
<name>
<surname><![CDATA[P. L.]]></surname>
<given-names><![CDATA[Lee]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An integrated neural network/expert system approach for fault diagnosis]]></article-title>
<source><![CDATA[Computers and Chemical Engineering]]></source>
<year>1993</year>
<volume>17</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>100-1014</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[A. G.]]></surname>
<given-names><![CDATA[Bors]]></given-names>
</name>
<name>
<surname><![CDATA[M.]]></surname>
<given-names><![CDATA[Gabbouj]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Minimal topology for a radial basis functions neural network for pattern classification]]></article-title>
<source><![CDATA[Digital Signal Processing]]></source>
<year>1994</year>
<volume>4</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>173-188</page-range></nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[O.]]></surname>
<given-names><![CDATA[Camacho]]></given-names>
</name>
<name>
<surname><![CDATA[D.]]></surname>
<given-names><![CDATA[Padilla]]></given-names>
</name>
<name>
<surname><![CDATA[J. L.]]></surname>
<given-names><![CDATA[Gouveia]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Diagnóstico de fallas utilizando técnicas estadísticas multivariantes]]></article-title>
<source><![CDATA[Revista Técnica de Ingeniería. Luz]]></source>
<year>2007</year>
<volume>30</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>253-262</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[H.]]></surname>
<given-names><![CDATA[Cevikalp]]></given-names>
</name>
<name>
<surname><![CDATA[D.]]></surname>
<given-names><![CDATA[Larlus]]></given-names>
</name>
<name>
<surname><![CDATA[F.]]></surname>
<given-names><![CDATA[Jurie]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A supervised clustering algorithm for the initialization of rbf neural network classifiers]]></article-title>
<source><![CDATA[IEEE 15th Signal Processing and Communications Applications]]></source>
<year>2007</year>
<page-range>1-4</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[B.]]></surname>
<given-names><![CDATA[Martín del Brío]]></given-names>
</name>
<name>
<surname><![CDATA[A.]]></surname>
<given-names><![CDATA[Sanz Molina]]></given-names>
</name>
</person-group>
<source><![CDATA[Redes neuronales y sistemas difusos]]></source>
<year>Marz</year>
<month>o </month>
<day>20</day>
<edition>2</edition>
<publisher-name><![CDATA[RA-MA]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[S.]]></surname>
<given-names><![CDATA[Elanayar]]></given-names>
</name>
<name>
<surname><![CDATA[Y. C.]]></surname>
<given-names><![CDATA[Shin]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Radial basis function neural network for approximation and estimation of nonlinear stochastic dynamic systems]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>1994</year>
<volume>5</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>594-603</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[F.]]></surname>
<given-names><![CDATA[Gu]]></given-names>
</name>
<name>
<surname><![CDATA[PJ.]]></surname>
<given-names><![CDATA[Jacob]]></given-names>
</name>
<name>
<surname><![CDATA[A.D.]]></surname>
<given-names><![CDATA[Ball]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A rbf neural network model for cylinder pressure reconstruction in internal combustion engines]]></article-title>
<source><![CDATA[IEE Colloquium on Modeling and Signal Processing for Fault Diagnosis]]></source>
<year>1996</year>
<page-range>1-11</page-range></nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[M. C.]]></surname>
<given-names><![CDATA[Johannesmeyer]]></given-names>
</name>
<name>
<surname><![CDATA[A.]]></surname>
<given-names><![CDATA[Singhal]]></given-names>
</name>
<name>
<surname><![CDATA[D. E.]]></surname>
<given-names><![CDATA[Seborg]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Pattern matching in historical data]]></article-title>
<source><![CDATA[AICHE]]></source>
<year>2002</year>
<volume>48</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>2022-2038</page-range></nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[D. J.]]></surname>
<given-names><![CDATA[Sheskin]]></given-names>
</name>
</person-group>
<source><![CDATA[Parametric and nonparametric statistical procedures]]></source>
<year>2000</year>
<edition>2</edition>
<publisher-name><![CDATA[Chapman & Hall/CRC]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[N. B.]]></surname>
<given-names><![CDATA[Karayiannis]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Reformulated radial basis neural networks trained by gradient descent]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>1999</year>
<volume>10</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>657-671</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[V.]]></surname>
<given-names><![CDATA[Kecman]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Learning and soft computing]]></article-title>
<source><![CDATA[Support vectors machines, neural networks and fuzzy logic models]]></source>
<year>2001</year>
</nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[H.N.]]></surname>
<given-names><![CDATA[Koivo]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Artificial neural networks in fault diagnosis and control]]></article-title>
<source><![CDATA[Control Engineering Practice]]></source>
<year>1994</year>
<volume>2</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>89-101</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[J.]]></surname>
<given-names><![CDATA[Luengo]]></given-names>
</name>
<name>
<surname><![CDATA[S.]]></surname>
<given-names><![CDATA[García]]></given-names>
</name>
<name>
<surname><![CDATA[F.]]></surname>
<given-names><![CDATA[Herrera]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A study on the use of statistical tests for experimentation with neural networks: Analysis of parametric test conditions and non-parametric tests]]></article-title>
<source><![CDATA[Expert Systems with Applications]]></source>
<year>2009</year>
<volume>36</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>7798-7808</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[A. C.]]></surname>
<given-names><![CDATA[McCormick]]></given-names>
</name>
<name>
<surname><![CDATA[A. K.]]></surname>
<given-names><![CDATA[Nandi]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparison of artificial neural networks and other statistical methods for rotating machine condition classification]]></article-title>
<source><![CDATA[IEE Colloquium on Modeling and Signal Processing for Fault Diagnosis]]></source>
<year>1996</year>
</nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[S.W.]]></surname>
<given-names><![CDATA[Park]]></given-names>
</name>
<name>
<surname><![CDATA[B.T.]]></surname>
<given-names><![CDATA[Zhang]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Learning constructive rbf networks by active data selection]]></article-title>
<source><![CDATA[Proceedings of the International Conference on Neural Information Processing]]></source>
<year>2000</year>
<page-range>1411-1415</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[K.]]></surname>
<given-names><![CDATA[Patan]]></given-names>
</name>
</person-group>
<source><![CDATA[Artificial neural networks for the modelling and fault diagnosis of technical processes]]></source>
<year>2008</year>
<volume>37</volume>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[H.]]></surname>
<given-names><![CDATA[Peng]]></given-names>
</name>
<name>
<surname><![CDATA[T.]]></surname>
<given-names><![CDATA[Ozaki]]></given-names>
</name>
<name>
<surname><![CDATA[V.]]></surname>
<given-names><![CDATA[Haggan]]></given-names>
</name>
<name>
<surname><![CDATA[Y.]]></surname>
<given-names><![CDATA[Toyoda]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A parameter optimization method for radial basis function type models]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>2003</year>
<volume>14</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>432-438</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[V.M.]]></surname>
<given-names><![CDATA[Rivas]]></given-names>
</name>
<name>
<surname><![CDATA[J.J.]]></surname>
<given-names><![CDATA[Merelo]]></given-names>
</name>
<name>
<surname><![CDATA[P.A.]]></surname>
<given-names><![CDATA[Castillo]]></given-names>
</name>
<name>
<surname><![CDATA[M.G.]]></surname>
<given-names><![CDATA[Arenas]]></given-names>
</name>
<name>
<surname><![CDATA[J.G.]]></surname>
<given-names><![CDATA[Castellano]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evolving rbf neural networks for time-series forecasting with evrbf]]></article-title>
<source><![CDATA[Information Sciences]]></source>
<year>2004</year>
<volume>165</volume>
<numero>3-4</numero>
<issue>3-4</issue>
<page-range>107-220</page-range></nlm-citation>
</ref>
<ref id="B20">
<label>20</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[S. Sina]]></surname>
<given-names><![CDATA[Tayarani-Bathaie]]></given-names>
</name>
<name>
<surname><![CDATA[Z.N.]]></surname>
<given-names><![CDATA[Sadough Vanini]]></given-names>
</name>
<name>
<surname><![CDATA[K.]]></surname>
<given-names><![CDATA[Khorasani]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Dynamic neural network-based fault diagnosis of gas turbine engines]]></article-title>
<source><![CDATA[Neurocomputing]]></source>
<year>2014</year>
<page-range>153-165</page-range></nlm-citation>
</ref>
<ref id="B21">
<label>21</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[S.]]></surname>
<given-names><![CDATA[Simani]]></given-names>
</name>
<name>
<surname><![CDATA[C.]]></surname>
<given-names><![CDATA[Fantuzzi]]></given-names>
</name>
<name>
<surname><![CDATA[R. J.]]></surname>
<given-names><![CDATA[Patton]]></given-names>
</name>
</person-group>
<source><![CDATA[Model-based fault diagnosis in dynamic systems using identification techniques]]></source>
<year>2002</year>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<label>22</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[T.]]></surname>
<given-names><![CDATA[Sorsa]]></given-names>
</name>
<name>
<surname><![CDATA[H. N.]]></surname>
<given-names><![CDATA[Koivo]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of artificial neural networks in process fault diagnosis]]></article-title>
<source><![CDATA[Automatica]]></source>
<year>1993</year>
<volume>29</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>843-849</page-range></nlm-citation>
</ref>
<ref id="B23">
<label>23</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[T.]]></surname>
<given-names><![CDATA[Sorsa]]></given-names>
</name>
<name>
<surname><![CDATA[H. N.]]></surname>
<given-names><![CDATA[Koivo]]></given-names>
</name>
<name>
<surname><![CDATA[H.]]></surname>
<given-names><![CDATA[Koivisto]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Neural networks in process fault diagnosis]]></article-title>
<source><![CDATA[IEEE Transactions on Systems and Cybernetics]]></source>
<year>1991</year>
<volume>21</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>815-825</page-range></nlm-citation>
</ref>
<ref id="B24">
<label>24</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[S.G.]]></surname>
<given-names><![CDATA[Tzafestas]]></given-names>
</name>
<name>
<surname><![CDATA[P. J.]]></surname>
<given-names><![CDATA[Dalianis]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fault diagnosis in complex systems using artificial neural networks]]></article-title>
<source><![CDATA[Proceedings of the Third IEEE Conference on Control Applications]]></source>
<year>1994</year>
<volume>2</volume>
<page-range>877-882</page-range><publisher-name><![CDATA[IEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<label>25</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[V.]]></surname>
<given-names><![CDATA[Venkatasubramanian]]></given-names>
</name>
<name>
<surname><![CDATA[R.]]></surname>
<given-names><![CDATA[Rengaswamy]]></given-names>
</name>
<name>
<surname><![CDATA[K.]]></surname>
<given-names><![CDATA[Yin]]></given-names>
</name>
<name>
<surname><![CDATA[S. N.]]></surname>
<given-names><![CDATA[Kavuri]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A review of process fault detection and diagnosis part 1: Quantitative model-based methods]]></article-title>
<source><![CDATA[Computers and Chemical Engineering]]></source>
<year>2003</year>
<volume>27</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>293-311</page-range></nlm-citation>
</ref>
<ref id="B26">
<label>26</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[S.]]></surname>
<given-names><![CDATA[Verron]]></given-names>
</name>
<name>
<surname><![CDATA[T.]]></surname>
<given-names><![CDATA[Tiplica]]></given-names>
</name>
<name>
<surname><![CDATA[A.]]></surname>
<given-names><![CDATA[Kobi]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fault diagnosis of industrial systems by conditional Gaussian network including a distance rejection criterion]]></article-title>
<source><![CDATA[Engineering Applications of Artificial Intelligence]]></source>
<year>2010</year>
<page-range>1229-1235</page-range></nlm-citation>
</ref>
<ref id="B27">
<label>27</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[M.]]></surname>
<given-names><![CDATA[Weerasinghe]]></given-names>
</name>
<name>
<surname><![CDATA[J. B.]]></surname>
<given-names><![CDATA[Gonun]]></given-names>
</name>
<name>
<surname><![CDATA[D.]]></surname>
<given-names><![CDATA[Williams]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fault diagnosis of a nuclear processing plant at diferent operating points using neural networks]]></article-title>
<source><![CDATA[IEE Colloquium on Fault Diagnosis in Process Systems]]></source>
<year>Abri</year>
<month>l </month>
<day>19</day>
<volume>1997</volume>
</nlm-citation>
</ref>
<ref id="B28">
<label>28</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ch.]]></surname>
<given-names><![CDATA[Xinyi]]></given-names>
</name>
<name>
<surname><![CDATA[Y.]]></surname>
<given-names><![CDATA[Xuefeng]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fault Diagnosis in Chemical Process Based on Self-organizing Map Integrated with Fisher Discriminant Analysis]]></article-title>
<source><![CDATA[Process Systems Engineering and Process Safety]]></source>
<year>2013</year>
<volume>21</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>382-387</page-range></nlm-citation>
</ref>
<ref id="B29">
<label>29</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[L.]]></surname>
<given-names><![CDATA[Yingwei]]></given-names>
</name>
<name>
<surname><![CDATA[N.]]></surname>
<given-names><![CDATA[Sundararajan]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Performance evaluation of a sequential minimal radial basis function (rbf) neural network learning algorithm]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>1998</year>
<volume>9</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>308-318</page-range></nlm-citation>
</ref>
<ref id="B30">
<label>30</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[H.]]></surname>
<given-names><![CDATA[Zayandehroodi]]></given-names>
</name>
<name>
<surname><![CDATA[A.]]></surname>
<given-names><![CDATA[Mohamed]]></given-names>
</name>
<name>
<surname><![CDATA[M.]]></surname>
<given-names><![CDATA[Farhoodnea]]></given-names>
</name>
<name>
<surname><![CDATA[M.]]></surname>
<given-names><![CDATA[Mohammadjafari]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An optimal radial basis function neural network for fault location in a distribution network with high penetration of DG units]]></article-title>
<source><![CDATA[Measurement]]></source>
<year>2013</year>
<page-range>3319-3327</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
