<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>1815-5944</journal-id>
<journal-title><![CDATA[Ingeniería Mecánica]]></journal-title>
<abbrev-journal-title><![CDATA[Ingeniería Mecánica]]></abbrev-journal-title>
<issn>1815-5944</issn>
<publisher>
<publisher-name><![CDATA[Facultad de Ingeniería Mecánica. Instituto Superior Politécnico "José Antonio Echeverría"]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S1815-59442011000200001</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Estudio comparativo de clasificadores empleados en el diagnóstico de fallos de sistemas industriales]]></article-title>
<article-title xml:lang="en"><![CDATA[A comparative study of clasification methods used in the fault diagnosis of industrial systems]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bernal-de Lázaro]]></surname>
<given-names><![CDATA[José M.]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Prieto-Moreno]]></surname>
<given-names><![CDATA[Alberto]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Llanes-Santiago]]></surname>
<given-names><![CDATA[Orestes]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[García-Moreno]]></surname>
<given-names><![CDATA[Emilio]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Superior Politécnico José Antonio Echeverría Facultad de Ingeniería Eléctrica ]]></institution>
<addr-line><![CDATA[La Habana ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Politécnica de Valencia Departamento de Ingeniería de Sistemas y Automática ]]></institution>
<addr-line><![CDATA[Valencia ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>08</month>
<year>2011</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>08</month>
<year>2011</year>
</pub-date>
<volume>14</volume>
<numero>2</numero>
<fpage>87</fpage>
<lpage>98</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S1815-59442011000200001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S1815-59442011000200001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S1815-59442011000200001&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En este artículo se presenta un estudio comparativo del desempeño de cuatro de las técnicas de clasificación más usadas para el diagnóstico de fallos en procesos industriales. Dentro de las técnicas seleccionadas se encuentran los clasificadores Vecinos más Cercanos (VMC), Mínimos Cuadrados Parciales (MCP), Redes Neuronales Artificiales (RNA) y Máquinas de Soporte Vectorial (MSV). El estudio comparativo se realiza con el objetivo de determinar las técnicas con mayor capacidad para clasificar de forma correcta los patrones que identifican fallos en procesos industriales a partir de los datos históricos provenientes de los mismos. Para el estudio se utilizaron los datos obtenidos de la simulación del modelo del proceso industrial Tennessee Eastman. La comparación permitió comprobar cómo la capacidad de generalización de las técnicas de clasificación se incrementa con el aumento de la complejidad en los clasificadores sin que esto implique necesariamente un mayor esfuerzo computacional en el diagnóstico.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This paper, presents a comparative study of the performance of four classification techniques very used in fault diagnosis of industrial processes. The selected techniques were: k-Nearest neighbor (k-NN), Partial least-squares (PLS), Artificial Neuronal Networks (ANN) and Support Vector Machines (SVM). The comparison is based in the classification capacity of the historical data and the generalization using new observations. The four techniques are applied to historical data of the known benchmark Tennessee Eastman industrial process. The comparison permitted to prove as the generalization capacity of the classification techniques grow with the complexity of classifiers without to increase the computational effort in the fault diagnosis.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[procesos industriales]]></kwd>
<kwd lng="es"><![CDATA[diagnóstico de fallos]]></kwd>
<kwd lng="es"><![CDATA[mantenimiento industrial]]></kwd>
<kwd lng="es"><![CDATA[máquinas de soporte vectorial]]></kwd>
<kwd lng="es"><![CDATA[redes neuronales artificiales]]></kwd>
<kwd lng="es"><![CDATA[mínimos cuadrados parciales]]></kwd>
<kwd lng="es"><![CDATA[vecinos más cercanos]]></kwd>
<kwd lng="en"><![CDATA[industrial process]]></kwd>
<kwd lng="en"><![CDATA[fault diagnosis]]></kwd>
<kwd lng="en"><![CDATA[industrial maintenance]]></kwd>
<kwd lng="en"><![CDATA[support vector machines]]></kwd>
<kwd lng="en"><![CDATA[artificial neural networks]]></kwd>
<kwd lng="en"><![CDATA[partial least-squares]]></kwd>
<kwd lng="en"><![CDATA[k-nearest neighbor method]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <div align="right">       <p><font face="Verdana" size="2"> <b>ART&Iacute;CULO ORIGINAL</b></font></p>       <p>&nbsp;</p>   </div>     <P><font face="Verdana" size="4"><b>Estudio comparativo de clasificadores empleados    en el diagn&oacute;stico de fallos de sistemas industriales</b></font>      <P>&nbsp;     <P><font face="Verdana" size="2"><b><font size="3">A comparative study of clasification    methods used in the fault diagnosis of industrial systems</font></b></font>      <P>&nbsp;     <P>&nbsp;     <P><font face="Verdana" size="2"><b>Jos&eacute; M. Bernal-de L&aacute;zaro<sup>I</sup>,    Alberto Prieto-Moreno<sup>I</sup>, Orestes Llanes-Santiago<sup>I</sup>, Emilio    Garc&iacute;a-Moreno<sup>II</sup></b></font>     <P><font face="Verdana" size="2">I Instituto Superior Polit&eacute;cnico Jos&eacute;    Antonio Echeverr&iacute;a. Facultad de Ingenier&iacute;a El&eacute;ctrica. La    Habana. Cuba<b><sup>.</sup></b></font>    ]]></body>
<body><![CDATA[<br>   II <font face="Verdana" size="2">Universidad Polit&eacute;cnica de Valencia.    Departamento de Ingenier&iacute;a de Sistemas y Autom&aacute;tica. Valencia.    Espa&ntilde;a</font>     <P>&nbsp;     <P>&nbsp; <hr>     <p><font face="Verdana" size="2"><b>RESUMEN</b></font></p>     <p><font face="Verdana" size="2">En este art&iacute;culo se presenta un estudio    comparativo del desempe&ntilde;o de cuatro de las t&eacute;cnicas de clasificaci&oacute;n    m&aacute;s usadas para el diagn&oacute;stico de fallos en procesos industriales.    Dentro de las t&eacute;cnicas seleccionadas se encuentran los clasificadores    Vecinos m&aacute;s Cercanos (VMC), M&iacute;nimos Cuadrados Parciales (MCP),    Redes Neuronales Artificiales (RNA) y M&aacute;quinas de Soporte Vectorial (MSV).    El estudio comparativo se realiza con el objetivo de determinar las t&eacute;cnicas    con mayor capacidad para clasificar de forma correcta los patrones que identifican    fallos en procesos industriales a partir de los datos hist&oacute;ricos provenientes    de los mismos. Para el estudio se utilizaron los datos obtenidos de la simulaci&oacute;n    del modelo del proceso industrial Tennessee Eastman. La comparaci&oacute;n permiti&oacute;    comprobar c&oacute;mo la capacidad de generalizaci&oacute;n de las t&eacute;cnicas    de clasificaci&oacute;n se incrementa con el aumento de la complejidad en los    clasificadores sin que esto implique necesariamente un mayor esfuerzo computacional    en el diagn&oacute;stico.</font></p>     <P><font face="Verdana" size="2"><b>Palabras claves:</b> procesos industriales,    diagn&oacute;stico de fallos, mantenimiento industrial, m&aacute;quinas de soporte    vectorial, redes neuronales artificiales, m&iacute;nimos cuadrados parciales,    vecinos m&aacute;s cercanos.</font> <hr>     <p><font face="Verdana" size="2"><b>ABSTRACT</b></font>  </p>    <P><font face="Verdana" size="2">This paper, presents a comparative study of the    performance of four classification techniques very used in fault diagnosis of    industrial processes. The selected techniques were: k-Nearest neighbor (k-NN),    Partial least-squares (PLS), Artificial Neuronal Networks (ANN) and Support    Vector Machines (SVM). The comparison is based in the classification capacity    of the historical data and the generalization using new observations. The four    techniques are applied to historical data of the known benchmark Tennessee Eastman    industrial process. The comparison permitted to prove as the generalization    capacity of the classification techniques grow with the complexity of classifiers    without to increase the computational effort in the fault diagnosis. </font>      <P><font face="Verdana" size="2"><b>Key words:</b> industrial process, fault diagnosis,    industrial maintenance, support vector machines, artificial neural networks,    partial least-squares, k-nearest neighbor method.</font> <hr>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <P><font face="Verdana" size="2"><b><font size="3">INTRODUCCI&Oacute;N</font></b></font>      <P>&nbsp;      <P>     <P>     <P>     <P>     <P>     <P>     <P>     ]]></body>
<body><![CDATA[<P>     <P>     <P>      <P>     <P>     <P>     <P>     <P>     <P>     <P>     ]]></body>
<body><![CDATA[<P>     <P>     <P>     <P>     <P>     <P>     <P>     <P>     <P>     <P><font face="Verdana" size="2">En los &uacute;ltimos 30 a&ntilde;os, el diagn&oacute;stico    de fallos ha adquirido gran importancia debido a las ventajas potenciales que    pueden obtenerse en la reducci&oacute;n de los costes de mantenimiento y reparaci&oacute;n,    el mejoramiento de la productividad y el aumento de la seguridad y disponibilidad    de los procesos industriales. En este sentido, una r&aacute;pida detecci&oacute;n    del problema puede ayudar a tomar decisiones correctivas y reducir el da&ntilde;o    potencial que los fallos pueden ocasionar al sistema. Para estos casos, las    t&eacute;cnicas de diagn&oacute;stico permiten mejorar no s&oacute;lo la eficiencia    del proceso, sino adem&aacute;s, la operatividad, mantenibilidad y fiabilidad    de dichos sistemas. </font>      ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2">Al revisar la literatura propia de este tema,    se pueden encontrar m&uacute;ltiples enfoques los cuales puede ser clasificados    de manera general en m&eacute;todos basados en modelos [1, 2] y m&eacute;todos    basados en datos hist&oacute;ricos [3, 4]. </font>     <P><font face="Verdana" size="2">Debido al avance de la automatizaci&oacute;n    en la industria, los m&eacute;todos basados en datos hist&oacute;ricos adquieren    una gran importancia por la elevada cantidad de informaci&oacute;n que existe    de los procesos, almacenada en las bases de datos de los sistemas de supervisi&oacute;n,    control y adquisici&oacute;n de datos (SCADA por sus siglas en ingl&eacute;s).    Dado que existe una gran cantidad de m&eacute;todos para el an&aacute;lisis    de la informaci&oacute;n almacenada, es importante realizar un estudio comparativo    entre las t&eacute;cnicas de clasificaci&oacute;n m&aacute;s utilizadas hist&oacute;ricamente    para el diagn&oacute;stico de fallos en procesos industriales, y otras t&eacute;cnicas    de reciente surgimiento con excelente desempe&ntilde;o en el reconocimiento    de patrones. El objetivo es determinar las t&eacute;cnicas con mayor capacidad    para clasificar de forma correcta patrones de fallos en los procesos industriales    a partir del an&aacute;lisis de los datos hist&oacute;ricos provenientes de    los mismos. Lo anterior permitir&aacute; a los especialistas ganar en elementos    para evaluar y decidir qu&eacute; t&eacute;cnica utilizar a partir de la aplicaci&oacute;n    que se est&eacute; analizando. </font>     <P><font face="Verdana" size="2">Para realizar este estudio comparativo, se emplearon    cuatro herramientas de clasificaci&oacute;n muy difundidas en la literatura:    Vecino m&aacute;s Cercano (VMC) [5], M&iacute;nimos Cuadrados Parciales (MCP)    [3], Redes Neuronales Artificiales (RNA) [6, 7, 8, 9] y M&aacute;quinas de Soporte    Vectorial (MSV) [10] y se utiliz&oacute; el conocido caso de prueba Tennessee    Eastman Process (TEP). [3] </font>     <P><font face="Verdana" size="2">La estructura de este art&iacute;culo es la siguiente,    en la secci&oacute;n 2 se aborda las caracter&iacute;sticas generales de los    clasificadores usados para el diagn&oacute;stico. En la Secci&oacute;n 3 se    presentan los elementos fundamentales del problema de prueba que se usa para    evaluar el comportamiento de los clasificadores. En la secci&oacute;n 4 se realiza    el an&aacute;lisis del desempe&ntilde;o de los diagnosticadores y finalmente    se presentan las conclusiones y recomendaciones para trabajos futuros. </font>     <P>&nbsp;     <P><font face="Verdana" size="2"><b><font size="3">Clasificadores para el diagn&oacute;stico</font></b></font>     <P>&nbsp;      <P><font face="Verdana" size="2">Para lograr diagnosticar el estado actual de    un proceso es necesario realizar tareas de clasificaci&oacute;n. Para esto,    un patr&oacute;n de las variables representando la operaci&oacute;n actual,    es clasificado como: normal, defectuoso u operaci&oacute;n desconocida. La clasificaci&oacute;n    involucra la comparaci&oacute;n de los patrones actuales con los patrones que    son representativos de cada uno de los fallos conocidos. De esta manera, se    clasifica el patr&oacute;n actual de acuerdo con el tipo de fallo con el que    tiene mayor similitud. </font>      <P><font face="Verdana" size="2">El proceso de clasificaci&oacute;n no es m&aacute;s    que decidir a cu&aacute;l de las clases disponibles pertenece un patr&oacute;n    determinado. Esto es, a partir de particionar el espacio caracter&iacute;stico    de las observaciones en <i>i</i> = {1,..., <i>p</i>} preregiones mutuamente    excluyentes, asignar la observaci&oacute;n actual a la regi&oacute;n que m&aacute;s    se parece. </font>      <P><font face="Verdana" size="2">Desde el punto de vista del diagn&oacute;stico    de fallos, el diagnosticador es un clasificador que asigna a un patr&oacute;n    espec&iacute;fico una determinada etiqueta que identifica el estado de funcionamiento    actual. Para lograr esto son necesarias dos etapas: aprendizaje y reconocimiento.    Dada la disponibilidad de datos hist&oacute;ricos, que reflejan todos los estados    que se desean diagnosticar, el aprendizaje de los clasificadores seleccionados    es conocido como aprendizaje supervisado. </font>     ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2">A continuaci&oacute;n se presentan las caracter&iacute;sticas    fundamentales de 4 de los clasificadores utilizados en la literatura para el    diagn&oacute;stico de fallos. </font>     <P><font face="Verdana" size="2"><b>Vecino m&aacute;s cercano</b> </font>      <P><font face="Verdana" size="2">La clasificaci&oacute;n mediante este algoritmo    es una de las primeras investigaciones que proporciona reglas basadas en m&eacute;todos    no param&eacute;tricos para la manipulaci&oacute;n de un conjunto de datos.    Actualmente, es una de las m&aacute;s utilizadas en reconocimiento de patrones,    principalmente por su simplicidad conceptual y por la sencillez de su implementaci&oacute;n    [5]. La idea b&aacute;sica del m&eacute;todo considera la utilizaci&oacute;n    de un conjunto de patrones hist&oacute;ricos como todo el conocimiento a priori    del sistema. Esta regla basa su operaci&oacute;n en el supuesto de considerar    a los patrones cercanos, como aquellos que tienen la mayor probabilidad de pertenecer    a la misma clase. El m&eacute;todo com&uacute;n para realizar la b&uacute;squeda    del vecino m&aacute;s cercano consiste en realizar la clasificaci&oacute;n de    un nuevo caso mediante el c&aacute;lculo de la distancia entre y los patrones    contenidos en el conjunto de datos hist&oacute;ricos , guardando aquel que es    m&aacute;s cercano hasta el momento. Al concluir el proceso se asigna la etiqueta    correspondiente al patr&oacute;n que obtuvo la menor distancia a <font face="Symbol"><i><font size="3">g</font></i></font>.    Ver <a href="#fi">figura 1</a>. Matem&aacute;ticamente lo anterior se expresa    como:</font>      <P><img src="/img/revistas/im/v14n2/e0101211.gif" width="255" height="24" alt="Ecuaci&oacute;n 1">      
<P><font face="Verdana" size="2">donde <b>dist</b> es cualquier medida de similaridad,    <font face="Symbol"><i><font size="3">g</font></i></font> es la observaci&oacute;n    actual no evaluada por el clasificador, y <i>x<sub>i</sub></i> es el conjunto    de observaciones hist&oacute;ricas con <i>i</i> = {1,..., <i>n</i>}. Entre las    medidas de similaridad m&aacute;s frecuentes se encuentran: la Distancia Eucl&iacute;dea,    la Distancia Manhattan y la Distancia Hamming. Para este trabajo se seleccion&oacute;    la Distancia Eucl&iacute;dea por el bajo costo computacional, la sencillez de    su implementaci&oacute;n y los tipos de datos utilizados.</font>     <P align="center"><a name="fi"></a><img src="/img/revistas/im/v14n2/f0101211.gif" width="376" height="264" alt="Figura 1. Clasificaci&oacute;n a partir del vecino m&aacute;s cercano">      
<P>      <P><b><font face="Verdana" size="2">M&iacute;nimos Cuadrados Parciales</font></b><font face="Verdana" size="2">    </font>      <P><font face="Verdana" size="2">La herramienta de MCP puede ser considerada como    una metodolog&iacute;a matem&aacute;tica usada para establecer un modelo que    relacione la informaci&oacute;n de dos conjuntos de datos que presentan una    relaci&oacute;n subyacente. El modelo de MCP encuentra las variables latentes    que maximizan la covarianza entre dos conjuntos de datos <b>X</b> y <b>Y</b>    o sea, la varianza explicada de <b>X</b> y <b>Y</b>, m&aacute;s la correlaci&oacute;n    entre <b>X</b> y <b>Y</b> [3]. </font>      <P><font face="Verdana" size="2">MCP como herramienta discriminante selecciona    la matriz <b>X</b> ordenada de una forma particular, como se ilustra en la <a href="#f2">figura    2</a>. Es decir, para <b><i>p</i></b> clases que representan diferentes estados    de funcionamiento, las observaciones de cada clase se agrupan de forma tal que    N<sub>1</sub> representa las observaciones para el estado 1, N<sub>2</sub> representa    las observaciones para el estado 2 y as&iacute; sucesivamente para el resto    de los estados. Luego, para identificar la clase a la que pertenece una observaci&oacute;n,    se simula una matriz Y. Existen dos m&eacute;todos conocidos como PLS1 y PLS2    [3], para modelar el bloque previsto <b>Y</b>. En PLS1, cada una de las <i><b>p</b></i>    variables previstas es modelada separadamente, resultando en un modelo para    cada clase. En PLS2, todas las </font><font face="Verdana" size="2">variables    previstas son modeladas simult&aacute;neamente tal como se ilustra en la <a href="#f2">figura    2</a>. </font>     ]]></body>
<body><![CDATA[<P align="center"><a name="f2"></a><img src="/img/revistas/im/v14n2/f0201211.gif" width="422" height="285" alt="Figura 2: Estructura de las Matrices X y Y empleadas por MCP">      
<P>      <P>      <P><b><font face="Verdana" size="2">Redes Neuronales Artificiales</font></b><font face="Verdana" size="2">    </font>      <P><font face="Verdana" size="2">Las RNA son herramientas de aprendizaje y procesamiento    autom&aacute;tico que imitan a las neuronas del cerebro humano, haciendo uso    de modelos matem&aacute;ticos que forman un sistema de procesamiento de informaci&oacute;n    paralelo capaz de obtener soluciones adaptivas luego de sucesivas etapas de    aprendizaje. Este conocimiento es captado mediante el ajuste de los par&aacute;metros    libres de la red, concretamente de sus pesos, minimizando de forma simult&aacute;nea    el error existente entre la salida de la red neuronal y el objetivo asociado.    Algunas caracter&iacute;sticas fundamentales de estos sistemas son su capacidad    para generalizar la informaci&oacute;n y su tolerancia al ruido, razones por    las cuales en el reconocimiento de patrones son consideradas herramientas efectivas    para manejar datos incompletos, ambiguos e imperfectos. En adici&oacute;n, se    puede decir que son computacionalmente eficientes y requieren de poca capacidad    de memoria. </font>     <P><font face="Verdana" size="2">Las cualidades anteriormente descritas son aprovechadas    para el diagn&oacute;stico, ya sea a trav&eacute;s de la implementaci&oacute;n    de algoritmos de reconocimiento de patrones correspondientes a situaciones de    fallos, o como sistema de evaluaci&oacute;n de los residuos sensibles a los    diferentes modos de fallo [6, 7]. En cualquiera de los dos casos, las etapas    de aprendizaje y reconocimiento, se combinan para lograr el diagn&oacute;stico    deseado. </font>     <P><font face="Verdana" size="2">Existen diversos algoritmos de aprendizaje y    estos pueden clasificarse b&aacute;sicamente en dos grandes categor&iacute;as:    Aprendizaje supervisado y Aprendizaje no supervisado. En muchos casos, la propia    arquitectura de la red seleccionada est&aacute; directamente relacionada a un    algoritmo de aprendizaje, dando lugar a un modelo de red neuronal. Entre estos,    podemos destacar por su importancia y uso en el diagn&oacute;stico de fallos,    las arquitecturas de Perceptr&oacute;n Multicapa y la de Redes competitivas    o de <i>Kohonen</i> [7, 8]. </font>      <P><font face="Verdana" size="2">Adicionalmente, es posible encontrar aplicaciones    en las que seg&uacute;n el objetivo y el tipo de problema a resolver se empleen    otras arquitecturas como las redes de base radial o las redes Hopfield. Siguiendo    el criterios de los autores [8, 9], en cuanto a la capacidad de generalizaci&oacute;n    y buenos resultados en el entrenamiento, se seleccion&oacute; como una tercera    opci&oacute;n para llevar a cabo el experimento, una red &quot;<i>feedforward</i>&quot;    con estructura multicapa </font>      <P><font face="Verdana" size="2"><b>M&aacute;quinas de Soporte Vectorial</b> </font>      <P><font face="Verdana" size="2">Los fundamentos te&oacute;ricos de las MSV se    encuentran en los trabajos de <i>Vapnik</i> sobre la teor&iacute;a de aprendizaje    estad&iacute;stico [10]. Las MSV son consideradas algoritmos de c&oacute;mputo    emergente que han demostrado un excelente desempe&ntilde;o en aplicaciones de    clasificaci&oacute;n y regresi&oacute;n. </font>      ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2">La idea que hay detr&aacute;s de la clasificaci&oacute;n    binaria con MSV consiste en hallar una superficie de decisi&oacute;n que maximice    la distancia <i>m</i> (margen) entre los patrones clasificados con el m&iacute;nimo    error de generalizaci&oacute;n. Por tanto, hallar el hiperplano de separaci&oacute;n    &oacute;ptimo equivale a minimizar la norma eucl&iacute;dea de <i>w</i> que    representa la distancia entre el hiperplano y las clases. </font>      <P>      <P><font face="Verdana" size="2">De manera que el problema de hallar el hiperplano    equidistante a dos clases se reduce a encontrar la soluci&oacute;n del siguiente    problema de optimizaci&oacute;n con restricciones: </font>     <P><font face="Verdana" size="2"> <img src="/img/revistas/im/v14n2/e0201211.gif" width="141" height="42" alt="Ecuaci&oacute;n 2"></font>      
<P><font face="Verdana" size="2">A diferencia de las ya conocidas RNA, las MSV    implementan el principio de minimizaci&oacute;n del riesgo estructural (<i>R<sub>est</sub></i>)    el cual busca minimizar un l&iacute;mite superior del error de generalizaci&oacute;n    en lugar del principio de minimizaci&oacute;n de riesgo emp&iacute;rico (<i>R<sub>emp</sub></i>    ), que minimiza el error de entrenamiento usado en RNA. El <i>R<sub>est</sub></i>    permite que las MSV logren una estructura de red &oacute;ptima con un balance    muy preciso entre el error emp&iacute;rico y el intervalo de confidencia o dimensi&oacute;n    de <i>Vapnik-Chervonenkis</i> [10]. El funcional que debe minimizar la MSV es    convexo con restricciones lineales, por ello su soluci&oacute;n es &uacute;nica,    sin m&iacute;nimos locales a diferencia de las RNA que durante el entrenamiento    requieren optimizaci&oacute;n no lineal, corriendo el riesgo de ser atrapadas    por m&iacute;nimos locales. </font>      <P><font face="Verdana" size="2">Cuando el conjunto de muestras etiquetadas no    es linealmente separable, el objetivo ser&aacute;, transformar mediante funciones    <i>kernel</i> los vectores de entrada <i>x<sub>i</sub></i> de <i>n</i>-dimensiones    en vectores de dimensi&oacute;n m&aacute;s alta donde las clases puedan ser    linealmente separables. Ver <a href="#f3">figura 3</a>.</font>     <P align="center"><a name="f3"></a><img src="/img/revistas/im/v14n2/f0301211.gif" width="534" height="174" alt="Figura 3. Transformaci&oacute;n mediante la funci&oacute;n kernel para separabilidad lineal">      
<P>      <P><font face="Verdana" size="2">Algunas de las funciones<i> kernel</i> que frecuentemente    son encontradas en la literatura son: kernel polinomial, kernel gaussiano y    kernel sigmoidal. </font>      <P><font face="Verdana" size="2">Las MSV han sido aplicadas con &eacute;xito a    un gran n&uacute;mero de esferas t&eacute;cnicas [11, 12]. Recientemente se    han publicado trabajos que incorporan las MSV al diagn&oacute;stico de fallos,    tales como [13, 14, 15, 16, 17, 18], donde las MSV se estudian a partir de distintos    enfoques. Otros trabajos como [19] muestran resultados prometedores en cuanto    a la clasificaci&oacute;n de patrones de fallos en procesos industriales complejos.</font>     ]]></body>
<body><![CDATA[<P>&nbsp;      <P><font face="Verdana" size="3"><b>Descripci&oacute;n del problema de prueba</b></font>      <P>&nbsp;     <P><font face="Verdana" size="2">El modelo del proceso industrial de prueba (TEP)    de <i>Tennessee Eastman</i> constituye un problema de control de una planta    qu&iacute;mica hipot&eacute;tica que la compa&ntilde;&iacute;a de <i>Eastman    Chemical</i> desarroll&oacute; con el objetivo de evaluar t&eacute;cnicas de    control de procesos y m&eacute;todos de supervisi&oacute;n y diagn&oacute;stico.    En la planta se representa un proceso qu&iacute;mico formado por varias unidades    de operaci&oacute;n, entre ellas: un reactor, un condensador, un compresor,    un generador de vapor, y un separador que se interconectan seg&uacute;n indica    el diagrama tecnol&oacute;gico de la <a href="/img/revistas/im/v14n2/f0401211.gif">figura    4</a>. Los objetivos de control, sugerencias de aplicaciones potenciales y caracter&iacute;sticas    de la simulaci&oacute;n del proceso se describen con m&aacute;s detalle en [3].    </font>      
<P>      <P><font face="Verdana" size="2">En el proceso se obtiene un subproducto, F y    dos productos, G y H, partiendo de cuatro reactivos: A, C, D y E, m&aacute;s    un componente inerte B. La simulaci&oacute;n de la planta proporciona un total    de 52 variables: 22 variables de proceso, 19 variables de estado y 11 variables    manipuladas. A partir de distintas perturbaciones al sistema, el TEP puede generar    21 tipos de fallos diferentes. El conjunto de datos usado para llevar a cabo    los experimentos se presentan en la <a href="#t1">tabla 1</a>. </font>     <P align="center"><a name="t1"></a><img src="/img/revistas/im/v14n2/t0101211.gif" width="555" height="191" alt="Tabla 1: Fallos simulados en el TEP">      
<P>&nbsp;     <P><b><font face="Verdana" size="3">An&aacute;lisis del desempe&ntilde;o de los    diagnosticadores</font></b><font face="Verdana" size="2"> </font>      <P>&nbsp;     ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2"><b>Herramientas para evaluar el desempe&ntilde;o    del diagnosticador </b></font>     <P><font face="Verdana" size="2">Cada uno de los ocho conjuntos de datos de que    se dispone, representa uno y s&oacute;lo uno de los posibles estados de la planta    que son los siete estados de fallo y el estado de funcionamiento normal (EFN).    Estos conjuntos est&aacute;n formados por 480 valores muestreados que por las    caracter&iacute;sticas del proceso son suficientes para asegurar la validez    del an&aacute;lisis. Por lo anterior se decidi&oacute; usar 240 muestras para    entrenar y otras 240 muestras para realizar la validaci&oacute;n de los diagnosticadores.    La selecci&oacute;n de las muestras se realiza de forma aleatoria de forma tal    que al finalizar el proceso de selecci&oacute;n, tendremos un total de 1920    observaciones de entrenamiento y 1920 observaciones de prueba que representan    los ocho estados que se desean detectar. </font>      <P><font face="Verdana" size="2">Tanto en la etapa de aprendizaje como en la de    validaci&oacute;n, es necesario contar con elementos que permitan evaluar la    eficiencia de los diagnosticadores. Para realizar este an&aacute;lisis, se emplean    m&eacute;todos conocidos como estimadores del error. Su objetivo es calcular    la proporci&oacute;n de los patrones discriminados de forma incorrecta por el    clasificador. Lo m&aacute;s com&uacute;n es utilizar la precisi&oacute;n general    para evaluar el desempe&ntilde;o del mismo. No obstante, este criterio no debe    ser el &uacute;nico empleado para cuantificar la eficiencia o no del diagnosticador.    Para encontrar la precisi&oacute;n general, se hace uso de la media aritm&eacute;tica    de los <i><b>p</b></i> patrones presentados para clasificar, teniendo en cuenta    los <i><b>e</b></i> patrones correctamente clasificados: </font>      <P><font face="Verdana" size="2"> <img src="/img/revistas/im/v14n2/e0301211.gif" width="89" height="40" alt="Ecuaci&oacute;n 3"></font>      
<P><font face="Verdana" size="2">A pesar de que este criterio de evaluaci&oacute;n    resulta sencillo en su principio e implementaci&oacute;n, resulta poco adecuado    por considerar de manera conjunta las precisiones individuales de las clases,    por lo tanto se recomienda que sea acompa&ntilde;ado por el an&aacute;lisis    de la Matriz de Confusi&oacute;n [3]. Esta &uacute;ltima, es ampliamente utilizada    para la presentaci&oacute;n y el an&aacute;lisis del resultado de una clasificaci&oacute;n,    por su capacidad de plasmar los conflictos entre las clases. La matriz de confusi&oacute;n,    no s&oacute;lo muestra el porcentaje correcto de clasificaci&oacute;n, sino    adem&aacute;s la fiabilidad para cada una de las clases y las principales confusiones    entre ellas. </font>     <P><font face="Verdana" size="2">En esta matriz, a lo largo de la diagonal principal,    se indican los patrones que fueron clasificados de manera correcta. En la columna    &quot;Cant&quot; se presenta el total de patrones de cada clase que fueron evaluados    por el diagnosticador. La columna &quot;% de Aciertos&quot; (%A) indica el porcentaje    de patrones asignados de forma correcta de esa clase. </font>     <P><font face="Verdana" size="2"><b>An&aacute;lisis de cada diagnosticador de    forma individual</b> </font>      <P><font face="Verdana" size="2">A continuaci&oacute;n se presentar&aacute;n los    resultados del an&aacute;lisis realizado con cada una de las t&eacute;cnicas    utilizadas para el diagn&oacute;stico de los fallos del TEP enunciados en la    <a href="#t1">tabla 1</a>. </font>      <P><font face="Verdana" size="2">Es necesario precisar que como se conoce, las    t&eacute;cnicas de M&iacute;nimos Cuadrados Parciales, Redes Neuronales y M&aacute;quinas    de Soporte Vectorial necesitan un entrenamiento previo para el ajuste de sus    par&aacute;metros. Es por esta raz&oacute;n que en el caso de estas t&eacute;cnicas    aparecer&aacute;n dos matrices de confusi&oacute;n, una que eval&uacute;a el    nivel de clasificaci&oacute;n si se utiliza el conjunto de datos de entrenamiento    y otra que eval&uacute;a el nivel de clasificaci&oacute;n cuando se utiliza    el conjunto de datos de validaci&oacute;n. </font>     <P><font face="Verdana" size="2">Como en el caso de Vecinos m&aacute;s cercanos    no hay entrenamiento previo solo se presenta la matriz de confusi&oacute;n del    conjunto de datos escogidos para la validaci&oacute;n. </font>     ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2"><b>Vecinos m&aacute;s cercanos 1-NN</b> </font>      <P><font face="Verdana" size="2">El resultado que se presenta a continuaci&oacute;n    corresponde a la Regla de clasificaci&oacute;n 1-NN implementada utilizando    como funci&oacute;n de similitud la Distancia Eucl&iacute;dea. Esta se seleccion&oacute;    despu&eacute;s de comprobarse que no hab&iacute;a diferencias sustanciales en    la clasificaci&oacute;n cuando se usaban otros tipos de distancias o diferentes    cantidades de vecinos lo cual aumentaba el tiempo de c&oacute;mputo. Finalmente    los resultados que se muestran en la <a href="#t2">tabla 2</a> corresponden    a la clasificaci&oacute;n de los datos durante la etapa de validaci&oacute;n    del diagnosticador.</font>     <P align="center"><a name="t2"></a><img src="/img/revistas/im/v14n2/t0201211.gif" width="419" height="204" alt="Tabla 2. MC Validaci&oacute;n VMC">      
<P>      <P><font face="Verdana" size="2"> Un enfoque individual de los resultados permite    detectar que en los Fallos 3, 4 y 5 el error de la clasificaci&oacute;n es muy    elevado, llevando el porciento de acierto por debajo de 70%. En la fila uno    correspondiente a dicha matriz, se refleja que el diagnosticador emite una clasificaci&oacute;n    tipo &quot;Fallo&quot; en un 63.33% cuando realmente no ha ocurrido ninguno.    </font>     <P>      <P><b><font face="Verdana" size="2">M&iacute;nimos Cuadrados Parciales</font></b><font face="Verdana" size="2">    </font>      <P><font face="Verdana" size="2">El algoritmo de PLS2 empleado en este trabajo,    corresponde a un m&eacute;todo multivariado de regresi&oacute;n que es ampliamente    utilizado para la clasificaci&oacute;n de fallos en procesos industriales [7].    La <a href="#t3">tabla 3</a> presenta la Matriz de Confusi&oacute;n (MC) obtenida    cuando se clasific&oacute; el conjunto de datos usados en el entrenamiento y    la <a href="#t4">tabla 4</a> la MC cuando se clasific&oacute; el conjunto de    datos seleccionados para la validaci&oacute;n. </font>     <P align="center"><a name="t3"></a><img src="/img/revistas/im/v14n2/t0301211.gif" width="415" height="199" alt="Tabla 3. MC Entrenamiento MCP">      
<P align="center"><a name="t4"></a><img src="/img/revistas/im/v14n2/t0401211.gif" width="421" height="201" alt="Tabla 4. MC Validaci&oacute;n MCP">      
]]></body>
<body><![CDATA[<P><font face="Verdana" size="2">La precisi&oacute;n individual por clase, evidencia    que cuando se clasific&oacute; el conjunto de datos de entrenamiento los estados    que presentaron m&aacute;s dificultades en la clasificaci&oacute;n fueron: el    Estado Estable y el Fallo 3. </font>      <P><font face="Verdana" size="2">Al verificar la fila uno en la MC correspondiente    a la validaci&oacute;n (<a href="#t4">tabla 4</a>) se determina que el diagnosticador    contin&uacute;a clasificando observaciones del Estado Funcionamiento Normal    como Fallos cuando no ha ocurrido ninguno, sin embargo, como consecuencia de    un incremento en la robustez, la cantidad de falsos fallos es menor que los    emitidos por el diagnosticador anterior. </font>      <P><font face="Verdana" size="2"><b>Redes Neuronales Artificiales</b> </font>      <P><font face="Verdana" size="2">Para ejecutar la variante de RNA, se seleccion&oacute;    una <i>Red Feed-Forward</i> con estructura multicapa y aprendizaje conocido    como propagaci&oacute;n del error hacia atr&aacute;s. Como principio de dise&ntilde;o    de la RNA, se decidi&oacute; mantener un compromiso entre error de entrenamiento    y capacidad de generalizaci&oacute;n, intentando que esta &uacute;ltima fuese    lo mayor posible. Se evaluaron varias arquitecturas de este tipo de red, obteni&eacute;ndose    los mejores resultados con la configuraci&oacute;n de 7 neuronas en la capa    oculta y 8 neuronas en la capa de salida que permite discriminar entre el EFN    del sistema y 7 fallos. La <a href="#t5">tabla 5</a> presenta la MC obtenida    al clasificar el conjunto de datos de entrenamiento y la <a href="#t6">tabla    6</a> muestra la MC resultante de la clasificaci&oacute;n del conjunto de datos    de validaci&oacute;n. </font>     <P align="center"><a name="t5"></a><img src="/img/revistas/im/v14n2/t0501211.gif" width="422" height="198" alt="Tabla 5: MC Entrenamiento RNA">      
<P align="center"><a name="t6"></a><img src="/img/revistas/im/v14n2/t0601211.gif" width="424" height="204" alt="Tabla 6. MC Validaci&oacute;n 	RNA">     
<P>      <P><font face="Verdana" size="2"> El valor total de aciertos durante la clasificaci&oacute;n    con el conjunto de datos de entrenamiento es de 91,3%, lo que supone una mejor    desempe&ntilde;o con respecto a MCP. Un estudio de la precisi&oacute;n individual    por clase ilustra que el diagnosticador tiende a confundir el EFN con el Fallo    3, presentando una certeza de clasificaci&oacute;n suficientemente elevada en    el resto de los casos. Comparando ambas MC (<a href="#t5">Tabla 5</a> y <a href="#t6">6</a>)    se refleja una similitud entre la clasificaci&oacute;n correcta por clase cuando    se utilizan los conjuntos de datos de entrenamiento y los de validaci&oacute;n.    Como resultado, el porciento de certeza del diagnosticador con el conjunto de    datos de validaci&oacute;n aumenta a un 87.40%, superando a los anteriores.    </font>      <P><font face="Verdana" size="2"><b>M&aacute;quinas de Soporte Vectorial</b> </font>      <P><font face="Verdana" size="2">Tradicionalmente, cuando se realiza el desarrollo    te&oacute;rico de una M&aacute;quina de Aprendizaje, si &eacute;sta ha sido    especialmente dise&ntilde;ada para casos binarios como las MSV, la soluci&oacute;n    a problemas que requieren clasificaci&oacute;n de m&uacute;ltiples patrones,    se aborda suponiendo que el mismo est&aacute; formado por la fusi&oacute;n de    clasificaciones binarias de menor tama&ntilde;o. Este tipo de problemas puede    resolverse empleando t&eacute;cnicas tales como 1 <i>vs.</i> 1 o 1 <i>vs. all</i>    [10]. Para el caso en cuesti&oacute;n, se emple&oacute; la variante 1 <i>vs</i>.    1 situando <i><b>L</b></i> clasificadores del tipo MSV. </font>      ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2"> <img src="/img/revistas/im/v14n2/e0401211.gif" width="163" height="22" alt="Ecuaci&oacute;n 4"></font>      
<P><font face="Verdana" size="2">donde <b><i>N<sub>C</sub></i></b> representa    las clases a diagnosticar. Cada M&aacute;quina es entrenada con s&oacute;lo    dos de las <i><b>N<sub>C</sub></b></i> implicadas, emitiendo un voto de clasificaci&oacute;n.    Por &uacute;ltimo se aplica una t&eacute;cnica de conteo de votos por mayor&iacute;a    simple que permite asignar la etiqueta de tipo Fallo a la clase que mayor n&uacute;mero    de votos obtuvo. Es importante destacar que se evaluaron varias funciones <i>kernel</i>    para las MSV, obteni&eacute;ndose los mejores resultados con un kernel gaussiano    de base radial, cuyo par&aacute;metro var&iacute;a de acuerdo a la naturaleza    de los datos. La <a href="#t7">tabla 7</a> presenta la MC obtenida con la clasificaci&oacute;n    del conjunto de datos de entrenamiento y la <a href="#t8">tabla 8</a> muestra    la MC de la clasificaci&oacute;n del conjunto de datos de validaci&oacute;n.</font>     <P align="center"><a name="t7"></a><img src="/img/revistas/im/v14n2/t0701211.gif" width="423" height="202" alt="Tabla 7. MC Entrenamiento MSV">      
<P align="center"><a name="t8"></a><img src="/img/revistas/im/v14n2/t0801211.gif" width="439" height="203" alt="Tabla 8. MC Validaci&oacute;n 	MSV">     
<P>      <P><font face="Verdana" size="2"> Los resultados de clasificaci&oacute;n del conjunto    de datos de entrenamiento son muy satisfactorios, con un 99.84% de acierto del    diagnosticador. Igualmente altos, son los porcientos de clasificaci&oacute;n    para cada fallo individual durante esta etapa. A partir del an&aacute;lisis    de la MC obtenida para la etapa de validaci&oacute;n, el diagnosticador basado    en MSV presenta una precisi&oacute;n individual para cada clase superior a los    diagnosticadores anteriores. En cuanto a la robustez, se logra disminuir el    porciento de clasificaciones err&oacute;neas en el EFN a un 14.6%. Adicionalmente,    el n&uacute;mero de fallos no detectados por ser considerados como EFN tambi&eacute;n    disminuye. </font>     <P><font face="Verdana" size="2"><b>An&aacute;lisis conjunto</b> </font>      <P><font face="Verdana" size="2">Posterior al an&aacute;lisis de los diagnosticadores    de forma individual, se realiza un breve an&aacute;lisis de los resultados obtenidos    de forma global. En la <a href="#t9">tabla 9</a> se muestra las respuestas de    los diagnosticadores implementados respecto a la clasificaci&oacute;n obtenida    cuando se utiliz&oacute; el conjunto de datos de entrenamiento y el conjunto    de datos de validaci&oacute;n respectivamente. </font>     <P align="center"><a name="t9"></a><img src="/img/revistas/im/v14n2/t0901211.gif" width="375" height="91" alt="Tabla 9. Resultados generales de la clasificaci&oacute;n">      
<P><font face="Verdana" size="2">Como puede apreciarse, el clasificador VMC no    presenta resultados con el conjunto de datos de la fase de entrenamiento. Esto    se debe al principio de funcionamiento de este clasificador, el cual, para ser    aplicado, no necesita una fase previa de estimaci&oacute;n de par&aacute;metros.    </font>      ]]></body>
<body><![CDATA[<P><font face="Verdana" size="2">Los resultados durante la etapa de validaci&oacute;n    de los diagnosticadores, refleja el poder de generalizaci&oacute;n de cada uno    de ellos y la robustez frente a nuevas observaciones. En este caso, las MSV    reflejan una mayor robustez que permite al diagnosticador realizar una mejor    clasificaci&oacute;n de patrones de fallos no vistos durante el entrenamiento.</font>     <P>&nbsp;      <P><b><font face="Verdana" size="3">CONCLUSIONES</font></b>      <P>&nbsp;     <P><font face="Verdana" size="2">En este trabajo se ha presentado una evaluaci&oacute;n    comparativa de las herramientas de clasificaci&oacute;n: VMC, MCP, RNA y MSV.    Para esta evaluaci&oacute;n se estableci&oacute; como criterio de comparaci&oacute;n:    la capacidad de clasificaci&oacute;n y el poder de generalizaci&oacute;n. El    estudio realizado mostr&oacute; el poco poder de generalizaci&oacute;n que posee    el clasificador basado en VMC, ya que, ante nuevas observaciones present&oacute;    un desempe&ntilde;o de un 65% de acierto en la clasificaci&oacute;n. Por su    parte, el clasificador basado en MCP mostr&oacute; mejores resultados, pero    solo alcanz&oacute; un 80% de acierto en las pruebas de generalizaci&oacute;n.    Herramientas de clasificaci&oacute;n m&aacute;s potentes, como lo son las RNA    y las MSV, mostraron mejores resultados como lo demuestran el 87% y el 94% alcanzados    por estos clasificadores respectivamente. </font>      <P><font face="Verdana" size="2">Este resultado valida la conveniencia de enfrentar    los problemas de diagn&oacute;stico por medio de m&eacute;todos de clasificaci&oacute;n    m&aacute;s potentes y elaborados, que permitan incrementar el poder de generalizaci&oacute;n    de los sistemas de diagn&oacute;stico en procesos industriales. Es necesario    destacar que, para los casos particulares de RNA y MSV, no se incrementa grandemente    el costo computacional debido a que su complejidad radica en el entrenamiento,    fase que se realiza fuera de l&iacute;nea y que no limita el desempe&ntilde;o    del diagnosticador en l&iacute;nea. </font>     <P><font face="Verdana" size="2">A partir de los resultados obtenidos es necesario    evaluar el comportamiento de estos clasificadores si previamente se aplican    t&eacute;cnicas de reducci&oacute;n de datos como podr&iacute;an ser el An&aacute;lisis    Discriminante de Fisher y An&aacute;lisis de Componentes Principales. Adem&aacute;s    es necesario evaluar cuales ser&iacute;an los resultados si se utilizan varios    m&eacute;todos trabajando en forma cooperativa para enfrentar problemas en los    que decrezca el porciento de clasificaci&oacute;n correcto.</font>     <P>&nbsp;      <P><font face="Verdana" size="3"><b>REFERENCIAS</b></font>      <P>&nbsp;      ]]></body>
<body><![CDATA[<!-- ref --><p><font face="Verdana" size="2">1. Iserman, R. &quot;Process Fault Detection    Based on Modeling and Estimation Methods-A Survey&quot;. <i>Automatica</i>,    1984, vol. 20, n&#186;. 4, p. 387-404. ISSN 0005-1098+ </font>      <p>      <p><font face="Verdana" size="2">2. Iserman, R., Ball&eacute;, P. &quot;Trends    in the Application of Model-Based Fault Detection and Diagnosis of Technical    Processes&quot;. <i>Control Engineering Practice</i>, 1997, vol. 5, n&#186;.    5, p. 709-719. ISSN 0967-0661 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">3. Chiang, H. L., Russel, E. y Braatz, D. R.    <i>Fault Detection and Diagnosis in Industrial Systems</i>. 1st Edition, Ed.    Springer, 2001, 279 p., ISBN 978-1-85233-327-0.     </font>      <p>      <p><font face="Verdana" size="2">4. Venkatasubramanian, V., Rengaswamy, R. y&#160;Kavury,    N. S. &quot;A Review of Process Fault Detection and Diagnosis - Part III&quot;.    <i>Computers &amp; Chemical Engineering</i>, 2003, vol. 27, pp. 327-346. ISSN    0098-1354 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">5. Cover, M., Hart, P.E. &quot;Nearest neighbour    pattern classification&quot;. <i>IEEE Transaction on Information Theory</i>,    1967, vol. 13, n&#186;. 1, p. 21-27. ISSN 0018-9448 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">6. Sorsa, T., Koivo, N. H. &quot;Application    of artificial neural networks in process fault diagnosis&quot;. <i>Automatica</i>,    1993, vol. 29, n&#186;. 4, p. 843-849. ISSN 0005-1098 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">7. Demetgul, M., Tansel, I.N. y Taskin, S. &quot;Fault    diagnosis of pneumatic systems with artificial neural networks algorithms&quot;.    <i>Expert Systems with Applications</i>, 2009, vol. 36, n&#186;. 7, p. 10512-10519.    ISSN 0957- 4174 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">8. Patan, K. <i>Artificial neural networks for    the modeling and fault diagnosis of technical processes</i>. Ed. Springer, 2008,    206 p., Series Lecture Notes in Control and Information Sciences, ISBN 3540798714    </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">9. Graupe, D. l. <i>Principles of Artificial    Neural Networks</i>. 2nd Edition, Ed. World Scientific Publishing, 2007, 319    p.     </font>      <p>      ]]></body>
<body><![CDATA[<!-- ref --><p><font face="Verdana" size="2">10. Vapnick, N. V. <i>Statistical Learning Theory</i>.    Ed. John Wiley, 1998.     </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">11. Shih, P. y Liu, C. &quot;Face detection using    discriminating feature analysis and Support Vector Machine&quot;. <i>Pattern    Recognition</i>, 2006, vol. 39, n&#186;. 2, p. 260-276. ISSN 0031-3203 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">12. Drucker, H., Wu, D. y Vapnick, N. V. &quot;Support    Vector Machines for Spam Categorization&quot;. <i>IEEE Transactions on Neural    Networks</i>, 1999, vol. 10, n&#186;. 5, p. 1048-1054. ISSN 1045-9227 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">13. Kulkarni, A., Jayamaran, V. K. y Kulkarni,    B.D. &quot;Knowledge incorporated support vector machines to detect faults in    Tennessee Eastman Process&quot;. <i>Computers &amp; Chemical Engineering</i>,    2005, vol. 29, n&#186;. 10, p. 2128-2133. ISSN 0098-1354 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">14. Davy, M., Desobry, F., Gretton, A. et al.    &quot;An online support vector machine for abnormal events detection&quot;.    <i>Signal Processing</i>, 2006, vol. 86, n&#186;. 8, p. 2009-2025. ISSN 0165-1684    </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">15. Hongdong, L., Liang, Y. y Xu, Q. &quot;Support    vector machines and its applications in chemistry&quot;. <i>Chemometrics and    Intelligent Laboratory Systems</i>, 2009, vol. 95, n&#186;. 2, p. 188-198. ISSN    0169-7439 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">16. Kurek, J. y Osowski, S. &quot;Support vector    machine for fault diagnosis of the broken rotor bars of squirrel-cage induction    motor&quot;. <i>Neural Computing &amp; Applications</i>, 2010, vol. 19, n&#186;.    4, p. 557-564. ISSN 1433-3058 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">17. Fang, R. &quot;Induction machine rotor diagnosis    using support vector machines and rough set&quot;. <i>Lecture Notes in Computer    Sciences</i>, 2006, vol. 4114, p. 631-636. DOI: 10.1007/978-3-540-37275-2_78    </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">18. Horng-Yuan, W., Chin-Yuan, H., Tsair-Fwu,    L., et al. &quot;Improved SVM and ANN in incipient fault diagnosis of power    transformers using clonal selection algorithms&quot;. <i>International Journal    of Innovative Computing, Information and Control</i>, 2009, vol. 5, n&#186;.    7, p. 1959-1974. ISSN 1349-4198 </font>      <p>      <!-- ref --><p><font face="Verdana" size="2">19. Mahadevan, S. y Shah, L. S. &quot;Fault detection    and diagnosis in process data using one-class support vector machines&quot;.    Journal of Process Control, 2009, vol. 19, n&#186;. 10, p. 1627-1639. ISSN 0959-1524</font>      <P>&nbsp;     <P>&nbsp;     <P><font face="Verdana" size="2">Recibido: 3 de agosto de 2010.    <br>   Aceptado: 25 de marzo de 2011.</font>      <P>&nbsp;     <P>&nbsp;     <P>      <P><i><font face="Verdana" size="2">Jos&eacute; M. Bernal-de L&aacute;zaro. </font></i><font face="Verdana" size="2">Instituto    Superior Polit&eacute;cnico Jos&eacute; Antonio Echeverr&iacute;a</font><i><font face="Verdana" size="2">.    </font></i><font face="Verdana" size="2">Facultad de Ingenier&iacute;a El&eacute;ctrica.    La Habana. Cuba<b><sup>.    <br>   </sup></b></font><font face="Verdana" size="2">Correo electr&oacute;nico: <a href="mailto:jose.b@feestudiantes.cujae.edu.cu">jose.b@feestudiantes.cujae.edu.cu</a></font>       ]]></body><back>
<ref-list>
<ref id="B1">
<label>1</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Iserman]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Process Fault Detection Based on Modeling and Estimation Methods-A Survey]]></article-title>
<source><![CDATA[Automatica]]></source>
<year>1984</year>
<volume>20</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>387-404</page-range></nlm-citation>
</ref>
<ref id="B2">
<label>2</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Iserman]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Ballé]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Trends in the Application of Model-Based Fault Detection and Diagnosis of Technical Processes]]></article-title>
<source><![CDATA[Control Engineering Practice]]></source>
<year>1997</year>
<volume>5</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>709-719</page-range></nlm-citation>
</ref>
<ref id="B3">
<label>3</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chiang]]></surname>
<given-names><![CDATA[H. L.]]></given-names>
</name>
<name>
<surname><![CDATA[Russel]]></surname>
<given-names><![CDATA[E.]]></given-names>
</name>
<name>
<surname><![CDATA[Braatz]]></surname>
<given-names><![CDATA[D. R.]]></given-names>
</name>
</person-group>
<source><![CDATA[Fault Detection and Diagnosis in Industrial Systems]]></source>
<year>2001</year>
<edition>1st</edition>
<publisher-name><![CDATA[Ed. Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<label>4</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Venkatasubramanian]]></surname>
<given-names><![CDATA[V.]]></given-names>
</name>
<name>
<surname><![CDATA[Rengaswamy]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
<name>
<surname><![CDATA[Kavury]]></surname>
<given-names><![CDATA[N. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Review of Process Fault Detection and Diagnosis - Part III]]></article-title>
<source><![CDATA[Computers & Chemical Engineering]]></source>
<year>2003</year>
<volume>27</volume>
<page-range>327-346</page-range></nlm-citation>
</ref>
<ref id="B5">
<label>5</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cover]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Hart]]></surname>
<given-names><![CDATA[P.E.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Nearest neighbour pattern classification]]></article-title>
<source><![CDATA[IEEE Transaction. on Information Theory]]></source>
<year>1967</year>
<volume>13</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>21-27</page-range></nlm-citation>
</ref>
<ref id="B6">
<label>6</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sorsa]]></surname>
<given-names><![CDATA[T.]]></given-names>
</name>
<name>
<surname><![CDATA[Koivo]]></surname>
<given-names><![CDATA[N. H.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Application of artificial neural networks in process fault diagnosis]]></article-title>
<source><![CDATA[Automatica]]></source>
<year>1993</year>
<volume>29</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>843-849</page-range></nlm-citation>
</ref>
<ref id="B7">
<label>7</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Demetgul]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Tansel]]></surname>
<given-names><![CDATA[I.N.]]></given-names>
</name>
<name>
<surname><![CDATA[Taskin]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fault diagnosis of pneumatic systems with artificial neural networks algorithms]]></article-title>
<source><![CDATA[Expert Systems with Applications]]></source>
<year>2009</year>
<volume>36</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>10512-10519</page-range></nlm-citation>
</ref>
<ref id="B8">
<label>8</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Patan]]></surname>
<given-names><![CDATA[K.]]></given-names>
</name>
</person-group>
<source><![CDATA[Artificial neural networks for the modeling and fault diagnosis of technical processes]]></source>
<year>2008</year>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<label>9</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Graupe]]></surname>
<given-names><![CDATA[D. l.]]></given-names>
</name>
</person-group>
<source><![CDATA[Principles of Artificial Neural Networks]]></source>
<year>2007</year>
<edition>2nd</edition>
<publisher-name><![CDATA[World Scientific Publishing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<label>10</label><nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vapnick]]></surname>
<given-names><![CDATA[N. V.]]></given-names>
</name>
</person-group>
<source><![CDATA[Statistical Learning Theory]]></source>
<year>1998</year>
<publisher-name><![CDATA[John Wiley]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<label>11</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shih]]></surname>
<given-names><![CDATA[P.]]></given-names>
</name>
<name>
<surname><![CDATA[Liu]]></surname>
<given-names><![CDATA[C.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Face detection using discriminating feature analysis and Support Vector Machine]]></article-title>
<source><![CDATA[Pattern Recognition]]></source>
<year>2006</year>
<volume>39</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>260-276</page-range></nlm-citation>
</ref>
<ref id="B12">
<label>12</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Drucker]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Wu]]></surname>
<given-names><![CDATA[D.]]></given-names>
</name>
<name>
<surname><![CDATA[Vapnick]]></surname>
<given-names><![CDATA[N. V.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support Vector Machines for Spam Categorization]]></article-title>
<source><![CDATA[IEEE Transactions on Neural Networks]]></source>
<year>1999</year>
<volume>10</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1048-1054</page-range></nlm-citation>
</ref>
<ref id="B13">
<label>13</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kulkarni]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
<name>
<surname><![CDATA[Jayamaran]]></surname>
<given-names><![CDATA[V. K.]]></given-names>
</name>
<name>
<surname><![CDATA[Kulkarni]]></surname>
<given-names><![CDATA[B.D.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Knowledge incorporated support vector machines to detect faults in Tennessee Eastman Process]]></article-title>
<source><![CDATA[Computers & Chemical Engineering]]></source>
<year>2005</year>
<volume>29</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>2128-2133</page-range></nlm-citation>
</ref>
<ref id="B14">
<label>14</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Davy]]></surname>
<given-names><![CDATA[M.]]></given-names>
</name>
<name>
<surname><![CDATA[Desobry]]></surname>
<given-names><![CDATA[F.]]></given-names>
</name>
<name>
<surname><![CDATA[Gretton]]></surname>
<given-names><![CDATA[A.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[An online support vector machine for abnormal events detection]]></article-title>
<source><![CDATA[Signal Processing]]></source>
<year>2006</year>
<volume>86</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>2009-2025</page-range></nlm-citation>
</ref>
<ref id="B15">
<label>15</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hongdong]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
<name>
<surname><![CDATA[Liang]]></surname>
<given-names><![CDATA[Y.]]></given-names>
</name>
<name>
<surname><![CDATA[Xu]]></surname>
<given-names><![CDATA[Q.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support vector machines and its applications in chemistry]]></article-title>
<source><![CDATA[Chemometrics and Intelligent Laboratory Systems]]></source>
<year>2009</year>
<volume>95</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>188-198</page-range></nlm-citation>
</ref>
<ref id="B16">
<label>16</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kurek]]></surname>
<given-names><![CDATA[J.]]></given-names>
</name>
<name>
<surname><![CDATA[Osowski]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Support vector machine for fault diagnosis of the broken rotor bars of squirrel-cage induction motor]]></article-title>
<source><![CDATA[Neural Computing & Applications]]></source>
<year>2010</year>
<volume>19</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>557-564</page-range></nlm-citation>
</ref>
<ref id="B17">
<label>17</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fang]]></surname>
<given-names><![CDATA[R.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Induction machine rotor diagnosis using support vector machines and rough set]]></article-title>
<source><![CDATA[Lecture Notes in Computer Sciences]]></source>
<year>2006</year>
<volume>4114</volume>
<page-range>631-636</page-range></nlm-citation>
</ref>
<ref id="B18">
<label>18</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Horng-Yuan]]></surname>
<given-names><![CDATA[W.]]></given-names>
</name>
<name>
<surname><![CDATA[Chin-Yuan]]></surname>
<given-names><![CDATA[H.]]></given-names>
</name>
<name>
<surname><![CDATA[Tsair-Fwu]]></surname>
<given-names><![CDATA[L.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Improved SVM and ANN in incipient fault diagnosis of power transformers using clonal selection algorithms]]></article-title>
<source><![CDATA[International Journal of Innovative Computing, Information and Control]]></source>
<year>2009</year>
<volume>5</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>1959-1974</page-range></nlm-citation>
</ref>
<ref id="B19">
<label>19</label><nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Mahadevan]]></surname>
<given-names><![CDATA[S.]]></given-names>
</name>
<name>
<surname><![CDATA[Shah]]></surname>
<given-names><![CDATA[L. S.]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Fault detection and diagnosis in process data using one-class support vector machines]]></article-title>
<source><![CDATA[Journal of Process Control]]></source>
<year>2009</year>
<volume>19</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1627-1639</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
