SciELO - Scientific Electronic Library Online

 
vol.40 número1Desarrollo de un estimulador eléctrico transcraneal para monitoreo intraoperatorioAntena omnidireccional tipo arreglo colineal usando la técnica de microcinta para la banda ISM de 2,4 GHz índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ingeniería Electrónica, Automática y Comunicaciones

versión On-line ISSN 1815-5928

EAC vol.40 no.1 La Habana ene.-abr. 2019

 

Artículo Original

Clasificador automático de imágenes de muestras de sangre basado en redes neuronales profundas

Automatic Classifier of blood sample images based on deep neural networks

Gilbert Pla Martínez1 

Mirtha Irizar Mesa1 

1Universidad Tecnológica de La Habana José Antonio Echeverría, La Habana, Cuba

RESUMEN

El tamizaje neonatal masivo es una prueba que se realiza a todos los recién nacidos para detectar y prevenir enfermedades congénitas, hereditarias y metabólicas que afectan el crecimiento y desarrollo normal del niño. Esta prueba consiste en realizar una pequeña punción en el talón del bebé para tomar unas pocas gotas de sangre y colocarlas en un papel filtro para ser analizadas en el laboratorio. Una de las etapas de este análisis es la evaluación de la calidad de las muestras basándose en elementos como la coloración de las muestras, el secado, la presencia de impurezas y la presencia de coágulos. Debido a que esta etapa requiere de elevada experiencia, agilidad y memoria visual de los especialistas, en ocasiones se llevan muestras al laboratorio que no brindan los mejores resultados por la baja calidad que presentan. Este trabajo presenta un estudio para desarrollar un clasificador automático basado en redes neuronales profundas que evalúe la calidad de las muestras de sangre analizadas. Este clasificador se basa en el reconocimiento de patrones asociados a los momentos de color y a las componentes de matiz, saturación y valor del brillo, extraídos de las imágenes de las muestras de sangre. Para esto se seleccionó una red neuronal profunda compuesta por dos autocodificadores profundos más un clasificador softmax, entrenada con ejemplos de imágenes de muestras de sangre, obteniéndose resultados satisfactorios en la validación del método con la clasificación correcta de las muestras sometidas a análisis.

Palabras claves: tamizaje neonatal; momentos de color; componentes HSV; autocodificadores profundos

ABSTRACT

Massive neonatal screening is a test performed on all newborns to detect and prevent congenital, hereditary and metabolic diseases that affect the child's normal growth and development. This test consists of making a small puncture in the heel of the baby to take a few drops of blood and place them on a filter paper to be analyzed in the laboratory. One of the stages of this analysis is the quality evaluation of the samples based on elements such as the coloring of the samples, the drying, the presence of impurities and the presence of clots. Because this stage requires high experience, agility and visual memory of the specialists, sometimes samples are taken to the laboratory and they do not provide the best results due to the low quality they present. This paper presents a study to develop an automatic classifier based on deep artificial neural networks that evaluates the quality of the blood samples analyzed. This classifier is based on pattern recognition associated to the color moments and the HSV components, extracted from the images of blood samples. For this, a deep neural network formed by two deep autoencoders and a softmax classifier is trained with examples of images of blood samples, obtaining satisfactory results in the validation of the method with the correct classification of the samples submitted for analysis

Key words: neonatal screening; color moments; HSV components; deep autoencoders

1.-INTRODUCCIÓN

Para prevenir enfermedades congénitas que afectan el sistema metabólico humano y que causan problemas posteriores como retardo mental e incluso la muerte, se recomienda realizar el tamizaje neonatal a todos los recién nacidos. El tamizaje neonatal es una prueba que consiste en hacer una pequeña punción en el talón para tomar unas pocas gotas de sangre del recién nacido. Estas gotas son colocadas en un papel especial y son analizadas en el laboratorio en busca de alteraciones metabólicas, inmunológicas o endocrinológicas que pueden afectar el crecimiento del niño y su desarrollo como persona.

El tamizaje neonatal brinda la oportunidad de identificar enfermedades como el Hipotiroidismo Congénito, la Hiperplasia Suprarrenal, la Fenilcetonuria, la Galactosemia, la Fibrosis Quística y otras afecciones, que no permiten el normal funcionamiento de los procesos bioquímicos en el cuerpo y que complicarían el desarrollo del niño. Muchas de estas enfermedades son poco frecuentes pero son tratables si se detectan antes de que se manifiesten y causen daños irreversibles.

La posibilidad de realizar pruebas de laboratorio en una pequeña muestra de sangre que se conserva por largo tiempo en un papel filtro, se desarrolló gracias al trabajo del pionero Robert Guthrie, lo que permitió el inicio de programas como el tamizaje neonatal de forma masiva. En Cuba, desde 1983, se realizan estas pruebas a los recién nacidos y se van incorporando paulatinamente nuevas pruebas para la prevención y tratamiento de las enfermedades congénitas.

En el sistema de salud pública cubano se emplea una tarjeta con papel filtro como la mostrada en la Figura 1. En esta tarjeta se toman las muestras de sangre y posteriormente se lleva esta tarjeta al laboratorio para su análisis por los especialistas. Una de las etapas de este análisis es la identificación de la calidad de las muestras de sangre basándose en la coloración, el secado, la presencia de impurezas, anillos, coágulos y sueros, entre otros elementos analizados. Este proceso requiere de un alto entrenamiento y especialización que permiten a los especialistas determinar la calidad de las muestras con criterios basados en la experiencia, agilidad y memoria visual en la actividad para poder comparar estas muestras con otras analizadas anteriormente.

Figura 1 Tarjeta utilizada en el tamizaje neonatal en Cuba. 

Estos motivos justifican el procesamiento digital de la tarjeta para eliminar los errores cometidos e identificar de manera automática la calidad de cada muestra de sangre. Este procesamiento estará basado en técnicas de procesamiento digital de imágenes, reconocimiento de patrones y la inteligencia artificial con el aprendizaje profundo. Por tanto, este trabajo tiene como objetivo desarrollar un clasificador basado en redes neuronales artificiales profundas que determine la calidad de las muestras de sangre.

1.1.- TRABAJOS RELACIONADOS

En la medicina actual, los análisis realizados para la detección de enfermedades están validados por normas de calidad o pruebas de calidad desarrolladas por los científicos e investigadores. A continuación se describen algunos trabajos donde se desarrollan estas técnicas o pruebas de calidad.

Por ejemplo, en Brown et. al. se realizan análisis estadísticos de imágenes de microarreglos de ADN [1], mostrando que el conteo de la cantidad de ADN fluorescente está sujeto a una considerable inexactitud, debido a las grandes y pequeñas fluctuaciones de la intensidad en las manchas, a ambientes no aditivos y a los dispositivos de fabricación. Con la realización de pruebas mediante esquemas simples de balanceo basados en estos estimados, se logra un mejoramiento significativo de la calidad de la imagen de la mancha y, por consiguiente, mejorar la calidad de los datos del microarreglo.

En Chen et. al. se plantea que para cada mancha en un microarreglo se deben extraer de sus respectivos fondos las señales en dos canales [2], (las señales de las intensidades de los colores rojo y verde), por eso enfocan el trabajo en la estimación de las señales de los dos canales y su significado, fundamentalmente en el efecto de una baja razón señal/ ruido. Con estos datos, se crea una métrica para determinar la calidad de las manchas, que es usada para determinar si se elimina o no una proporción de datos y para reflejar más confianza en la calidad de las mediciones. Además, se desarrollan métricas para medir la calidad de la intensidad fluorescente, la calidad del área de la mancha y la calidad de la señal.

En Smyth et. al. se plantea que existen dos grandes aproximaciones para la medición de la calidad de manchas individuales en los microarreglos de ADN [3]. La primera es acertar la calidad de una mancha de acuerdo a sus características físicas (como el área de la mancha, perímetro, localización, heterogeneidad, circularidad, etc). La segunda es determinar la calidad de la mancha de acuerdo a una comparación empírica con otras ya conocidas del mismo gen estudiado. Se plantea que una aproximación integral de la calidad de la mancha en el microarreglo de ADN debe tomar ambas aproximaciones.

En Chimka et. al. se realiza la descripción de parámetros físicos que están asociados a los datos de la mancha del microarreglo en la imagen [4] como el fondo que recubre el centro, la diferencia de la intensidad de los pixeles entre el fondo y el primer plano de la imagen, entre otros. Con estos datos se realiza la estimación de parámetros límites para determinar los errores de clasificación de los modelos independientes de medición de calidad. Por otra parte, Wu y Chimka [5] muestran una descripción de un método multivariable basado en regresión logística y análisis de curvas de ROC, que distingue entre imágenes digitales de manchas utilizables y otras con baja calidad, de acuerdo a los datos asociados al microarreglo de ADN.

Soloviev y Timothy [6] realizan una revisión de más de 20 métodos, herramientas y expresiones para la medición de la calidad de las manchas de ADN en un microarreglo, brindando especial atención al método de la matriz de expresión de control de calidad como un método universal para el control de calidad, tomando en cuenta las diversas maneras de expresar los datos.

En Yu et.al. se utiliza una delgada capa de cromatografía y técnicas simples de procesamiento digital de imágenes para evaluar la calidad e identidad de los medicamentos para diferenciarlos de aquellos que son falsos [7]. Se concluye que la calidad del fármaco es evaluada por la intensidad de la mancha en la imagen de acuerdo a la concentración del componente activo, pues mientras mayor sea la intensidad de la mancha mayor será la concentración del componente activo.

Los trabajos anteriores se basan en la detección de la calidad de la mancha por sus características físicas y la intensidad de la mancha en su generalidad. Este trabajo realiza una propuesta basada en las relaciones estadísticas de los momentos de color y las componentes de HSV junto a un autocodificador profundo para determinar la calidad de la mancha analizada. Se introducen las componentes de HSV y el aprendizaje profundo como elementos novedosos en estos análisis de calidad.

2.- MATERIALES Y MÉTODOS

2.1.- METODOLOGÍA

La Figura 2 muestra la metodología utilizada para el logro de la identificación de la calidad de las muestras de sangre. La imagen de la tarjeta es tomada por una cámara digital de resolución estándar y es almacenada en el espacio de color RGB para su procesamiento.

Después de obtenida la imagen de la tarjeta, se realiza el proceso de segmentación para la identificación y extracción de las imágenes de las muestras de sangre en la tarjeta. En esta etapa se identifica la región de interés de trabajo dentro de la tarjeta y se realiza el proceso de detección de bordes de las muestras de sangre, utilizándose para ello el algoritmo de Canny y la transformada circular de Hough para la detección de la forma elíptica de las muestras.

En la Figura 3 (a) se encuentran representadas cada una de las cuatro regiones de interés, así como las muestras de sangre encerradas en la forma elíptica como resultado de la transformada de Hough. Por otra parte, la Figura 3 (b) muestra la imagen de la tarjeta en la máscara binaria, filtrada y libre de ruido.

La sangre tiene un color predominantemente rojo en su estado natural, con rangos propios de valores de matiz, saturación y valor de brillo. Sin embargo, cuando la sangre contiene coágulos, sueros y demás impurezas, su color puede variar, así como sus componentes de matiz, saturación y valor de brillo. En ocasiones, las variaciones de estas propiedades son apreciables por el especialista y desecha la muestra, pero en otras no se notan con facilidad pues pueden ser poco perceptibles por el ojo humano, por lo que se puede incurrir después en un error de diagnóstico. De ahí que las características extraídas de las imágenes de las muestras de sangre para la clasificación de la calidad sean, en lo fundamental, los momentos de color y las componentes de matiz, saturación y valor de brillo. Con estas propiedades del color de la sangre se logra determinar con buena precisión la calidad de las muestras de sangre. Por esta razón se escogen como los elementos para el aprendizaje de las redes neuronales profundas que realizarán la clasificación de las imágenes de las muestras de sangre.

Figura 2 Metodología aplicada para detectar la calidad de las muestras de sangre. 

Figura 3 Proceso de segmentación de la imagen de la tarjeta. (a) Identificación de las muestras de sangre. (b) Resultado de la segmentación utilizando la transformada circular de Hough. 

Todo este proceso de segmentación, de identificación de las regiones de interés, de aplicación de la transformada circular de Hough y la extracción de características de las imágenes de las muestras de sangre, se realiza empleando técnicas y métodos presentes en la librería de código abierto EMGU CV (versión 3.1). Esta biblioteca se especializa en el procesamiento digital de imágenes para el desarrollo de aplicaciones en lenguajes de alto nivel como C# y es muy utilizada por las potencialidades y la robustez de sus métodos.

El resto del trabajo se organiza de la siguiente manera: en la sección 2.2 se describen las premisas teóricas de los momentos de color, utilizados para la caracterización de las imágenes mediante el color. En la sección 2.3 se describen las componentes de matiz, saturación y valor del brillo para la descripción del color de las imágenes en un espacio de color más cercano al ojo humano. La sección 2.4 describe los principales elementos de una red neuronal perceptrón multicapa convencional. La sección 2.5 describe las características fundamentales de los autocodificadores profundos. Por último, la sección 3 establece los fundamentos teóricos fundamentales sobre el análisis de las curvas de característica de receptor operativo, así como de los índices estadísticos de sensibilidad, especificidad, eficacia y área bajo la curva, utilizados para determinar el rendimiento de los clasificadores basados en inteligencia artificial. Además aquí se exponen los principales resultados obtenidos en el trabajo.

2.2.- MOMENTOS DE COLOR

La caracterización del color es una de las técnicas visuales más usadas en el análisis de imágenes debido a su simplicidad y rápido poder de cálculo [8]. Uno de los principales aspectos de la extracción de propiedades de color es la elección de un espacio de color, como el espacio RGB, que asigna a cada pixel un vector con tres elementos que poseen las intensidades de color de cada uno de los tres colores primarios: Rojo, Verde y Azul. Este espacio describe completamente los valores de todos los colores visibles y constituye un espacio útil en la representación de las propiedades de una imagen. El color no depende del tamaño de la imagen y brinda una medida de la similitud entre dos o varias imágenes [9,10].

Cada distribución de color puede ser caracterizada por sus momentos y la mayor parte de la información está concentrada en los momentos de orden bajo. Solo el primer momento (Media), el segundo momento (Desviación estándar) y el tercer momento (Oblicuidad) son tomados como los vectores característicos y se calculan para cada uno de los canales de la imagen [11]. Luego, en el espacio RGB una imagen está caracterizada entonces por nueve momentos de color, tres momentos por cada uno de los colores primarios que la componen.

El principio básico de los momentos de color está en que asumen que la distribución de colores de una imagen puede ser interpretada como una distribución de probabilidades. Si los colores de una imagen siguen una cierta distribución de probabilidades, los momentos de esa distribución pueden ser usados como propiedades para identificar a esa imagen basadas en el color [11].

Los momentos centrales media ( Mi ), desviación estándar ( σi ) y oblicuidad ( si ) pueden ser definidos por las siguientes ecuaciones [12]:

Mi=1Nj=1Npi,j (1)

σi=1Nj=1N(pij-Mi)2 (2)

si=1Nj=1N(pij-Mi)33 (3)

donde:

p ij

- Valor de la intensidad del color R, G o B,

i

- Valor del canal de color i-ésimo,

j

- Valor del pixel j-ésimo de la imagen,

N

- Cantidad total de pixeles.

2.3.- COMPONENTES DE MATIZ, SATURACIÓN Y VALOR DE BRILLO

El modelo de color HSV define el color en término de 3 componentes: matiz (en inglés hue), saturación (en inglés saturation) y el valor (en inglés value). Este modelo de color es aproximadamente un espacio de color de percepción uniforme que se relaciona muy bien con el sentido humano de percepción del color [8,13].

El matiz (H) representa un color verdadero como el rojo, verde, amarillo, etc y sus valores puros contienen los colores primarios, secundarios y las combinaciones lineales de ellos para formar otros colores. Como una medida física, el matiz es relacionado con la longitud de onda de la luz [13].

La saturación (S) representa la pureza del color y brinda una medida de la cantidad de color verdadero que ha sido diluido por el blanco. La diminución de la saturación viene en correspondencia con un aumento directo del color blanco [13].

El valor (V) es una componente análoga al brillo. Esta componente brinda una medida de la separación del color verdadero sobre el negro. Una disminución del valor del brillo corresponde con un aumento de la oscuridad [13].

El espacio de color HSV fue diseñado como una deformación del cubo de color RGB. En otras palabras, es un sistema de coordenadas diferentes describiendo el modelo RGB, pero que se acerca más a la forma de pensamiento humano en cuanto a la identificación del color se refiere.

2.4.- REDES NEURONALES ARTIFICIALES

Una red neuronal es un sistema adaptativo que puede cambiar los parámetros de su estructura para clasificar un problema basado en la información interna o externa que fluye a través de la red. Una red neuronal también puede clasificarse como un instrumento de modelación no lineal y puede usarse para modelar sistemas con entradas y salidas complejas, por lo que existen numerosas conexiones entre los nodos de los datos [14,15].

Las redes perceptrón multicapa (MLP) son las redes neuronales feedforward más comúnmente usadas debido a su rápida operación, fácil implementación y requieren pequeños conjuntos de datos para el entrenamiento. Una red feedforward está compuesta por una o más capas de neuronas con un alto grado de interconectividad: la capa de entrada, las capas ocultas y la capa de salida. La propagación de la información fluye en un solo sentido: desde la capa de entrada hacia las neuronas de la capa de salida [14,16].

Considérese una red feedforward de una sola capa oculta con u neuronas de entradas, r neuronas ocultas y v neuronas de salida. La propagación de las entradas a la capa oculta se describe como [14]:

x11xr1=fw111w1u1wr11wru1x10xu0 (4)

Donde:

x j 0

- número de neuronas de entrada,

j

=1,2,…,u,

xi 1

- número de neuronas ocultas,

I

=1,2,…, r,

w ru 1

- pesos entre la capa de entrada y la capa oculta,

f

- función de activación de las neuronas ocultas,

r, u

- tamaños de la capa oculta y de entrada respectivamente.

La función f es una función de transferencia no lineal de tipo sigmoidea. Esta función hace a la red neuronal altamente flexible para el ajuste de los pesos y desplazamientos (en inglés bias) durante el aprendizaje, con el objetivo de capturar las características no lineales de los datos de entrada salida. En muchos casos, las bias son también incluidas en la red con el objetivo de incrementar la eficiencia durante el entrenamiento de la red [14,17]. Al incorporar las unidades correspondientes a las bias en la capa oculta, la ecuación (4) puede ser reescrita y simplificada como:

xi1=fj=1uwijxj+bi (5)

donde:

br

- son las bias.

I

=1,2,…, r ,

j

=1,2,…, u.

Los algoritmos de entrenamiento son una parte importante de las redes neuronales. Una estructura apropiada puede fallar en dar un modelo mejor a menos que sea entrenada por un algoritmo de entrenamiento adecuado Uno usado muy frecuente para el entrenamiento de las redes MLP es el algoritmo de retropropagación del error, a pesar de que no garantiza encontrar el error mínimo global de la función desde que el gradiente desciende porque puede quedarse atascado en un mínimo local donde permanece indefinidamente. Por lo tanto, muchas variaciones para mejorar este algoritmo y su convergencia han sido propuestas, como los métodos de segundo orden (gradiente conjugado, quasi-Newton, Levenberg-Marquardt) que han sido muy utilizados en los últimos tiempos.

2.5.- AUTOCODIFICADORES PROFUNDOS

Las redes neuronales profundas son redes perceptrón multicapa con muchas capas ocultas, cuyos pesos están completamente conectados y son frecuentemente inicializados usando técnicas de pre-entrenamiento supervisadas o no supervisadas [18].

Un autocodificador es un tipo especial dentro de las redes neuronales profundas, cuyos vectores de salida tienen la misma dimensión que los vectores de entrada. Es usado frecuentemente para el aprendizaje de una representación o la codificación efectiva de datos originales. Los autocodificadores son métodos de extracción de características no lineales sin el uso de etiquetamiento de clases, en los que los datos en la salida se corresponden con los de la entrada, a pesar de ser un modelo de aprendizaje no supervisado [18,19].

Un autocodificador típicamente posee una capa de entrada, que representa los datos o características originales en forma de vectores de entrada, una o más capas ocultas que representan la transformación de los datos y una capa de salida que se empareja con la capa de entrada para la reconstrucción. Cuando el número de capas ocultas es superior a uno, el autocodificador es considerado profundo y se entrena usualmente con uno de los tantos algoritmos de retropropagación del error [18].

La red codificadora es definida explícitamente como una función codificadora fθ , esta función se conoce como el codificador. Para un conjunto de datos {xm}m=1M , se define entonces [20]:

hm=fθ(xm) (6)

Donde:

h m

- vector codificado obtenido desde x m .

La red decodificadora se define como una función de reconstrucción gθ' nombrada el decodificador. Esta función realiza un mapeo de hm en esta dimensión hacia la dimensión original de los datos de entrada, produciéndose de esta manera una reconstrucción de los datos. Este mapeo es representado como [20]:

x^m=gθ'(hm) (7)

Los conjuntos de parámetros del codificador y el decodificador son aprendidos al mismo tiempo durante la tarea de reconstruir tan bien como sea posible la entrada original, intentando cometer el menor error posible de reconstrucción L(x,x^) de las M muestras de entrenamiento [20], siendo Lx,x^ una función de pérdidas que mide las discrepancias entre x y x^ .

Las formas más usuales del codificador y el decodificador son funciones de mapeo seguidas casi siempre de no linealidades. Las ecuaciones siguientes muestran estos mapeos [20]:

fθx=sf(Wx+b) (8)

gθ'x=sg(WTx+d) (9)

Lx,x^=x-x^ (10)

Donde:

s f

- función de activación del codificador.

s g

- función de activación del decodificador.

b,d

- vectores de desplazamientos o bias.

W,W T

- matrices de los pesos.

3.- RESULTADOS Y ANÁLISIS

3.1- ANÁLISIS DE CURVAS DE ROC

Una curva clásica de Característica de Receptor Operativo (ROC por sus siglas en inglés) es generada al representar los valores de las proporciones de verdaderos positivos en el eje vertical contra los valores de las razones de falsos positivos en el eje horizontal para varios valores del conjunto de prueba. Esta curva es invariante ante estrictos aumentos o cambios de las razones de verdaderos positivos [21-23].

La curva de ROC brinda una vista simple de forma gráfica del espacio posible de decisión de una determinada variable y, además, el poder de discriminación de una variable ante la detección de entradas positivas/negativas independientemente del rango del evento. Por eso, se utiliza la curva de ROC como una técnica para visualizar, organizar y seleccionar clasificadores de acuerdo a sus rendimientos [24].

Los índices de verdaderos positivos (TP) y verdaderos negativos (TN) representan “el acuerdo” en la clasificación del experto humano y el clasificador. Los índices de falsos positivos (FP) y falsos negativos (FN) representan “los desacuerdos” en la clasificación. Al final de cada época de entrenamiento, cuando todos los patrones de clasificación son presentados al clasificador neuronal, los índices estadísticos de la época (e) son calculados para cada umbral (t), incluyendo la sensibilidad y especificidad [17,25], representadas en las ecuaciones (11) y (12):

sensibilidade,t=TP(e,t)TPe,t+FN(e,t) (11)

especificidade,t=TN(e,t)TNe,t+FP(e,t) (12)

eficacia=TP+TNTP+FN+TN+FP (13)

La sensibilidad es la habilidad del clasificador de identificar los patrones positivos dentro de todos los patrones verdaderos positivos [26]. La sensibilidad puede variar entre 0 y 1, alcanzando valores cercanos a 1 cuando disminuye el número de falsos negativos.

Por otra parte, la especificidad es la habilidad del clasificador de identificar los patrones negativos dentro de todos los patrones verdaderos negativos [26]. La especificidad varía entre 0 y 1, alcanzando valores próximos a 1 cuando disminuye el número de falsos positivos.

De esta manera se puede plantear que el gráfico de ROC es una unión de todos los pares de sensibilidad/especificidad como resultado de la variación continua del umbral sobre el rango completo de resultados observados [23].

La ecuación (13) muestra la eficacia de un clasificador de acuerdo a los índices de verdaderos positivos, verdaderos negativos, falsos positivos y falsos negativos, logrados durante el proceso de entrenamiento de la red [25].

Una vez obtenida la eficacia del clasificador se puede calcular el error de clasificación buscando la diferencia de esta eficiencia con la clasificación perfecta:

Error=1-eficacia*100% (14)

El valor más comúnmente usado para determinar la precisión o exactitud del clasificador es el área bajo la curva (AUC por sus siglas en inglés) de ROC. Por definición, el AUC es un valor entre 0 y 1 y corresponde con la probabilidad de que una muestra positiva cualquiera sea ubicada por encima de una muestra cualquiera escogida negativa. Mientras mayor sea el valor de AUC mayor será la precisión del clasificador [21-23].

El área bajo la curva de ROC puede ser pensada como una medida simple de probabilidad de ubicar correctamente un par de decisión positivo/negativo [23]. Existen diferentes métodos para determinar el área bajo la curva de ROC, siendo el método binormal uno de los más usados.

La ecuación (15) representa el modelo matemático de la curva de ROC [22] en el método binormal:

ROCt=Φ(a+bΦ-1(t)) (15)

Donde:

Φ

- función de distribución normal acumulativa,

Φ

-1 - función inversa de distribución normal acumulativa,

a

=(μ10)/σ1 ,

b

01 ,

μ 0

- media de los valores de los eventos negativos,

μ 1

- media de los valores de los eventos positivos,

σ 0

- desviación estándar de los valores de los eventos negativos,

σ 1

- desviación estándar de los valores de los eventos positivos.

Por su parte, la ecuación (16) plantea la forma de realizar el cálculo del área bajo la curva de ROC [22] en el método binormal. Nótese que tanto la modelación de la curva de ROC como su área se determinan mediante el cálculo de la distribución normal acumulativa.

AUC=Φ(a1+b2) (16)

3.2- DISCUSIÓN DE LOS RESULTADOS

La realización de los experimentos estuvo compuesta por dos etapas: el entrenamiento y la validación de la red neuronal perceptrón multicapa convencional y el entrenamiento y validación de los autocodificadores en cascada más el clasificador softmax. La red feedforward está compuesta por una capa de entrada con 12 neuronas, una capa oculta con 24 neuronas y una capa de salida.

Figura 4 Sistema de clasificación de aprendizaje profundo formado por dos autocodificadores en cascada y un clasificador softmax en la salida. 

La Figura 4 muestra el sistema de clasificación obtenido por los autocodificadores junto al clasificador softmax. Ambos codificadores presentan ocho capas ocultas. En el primer codificador se procesan los vectores de entrada formados por los momentos de color y las componentes de matiz, saturación y valor de brillo, mientras que en el segundo codificador se descifra el mapeo generado por el primero. La salida del segundo codificador se conecta a un clasificador softmax y se logra entonces la clasificación final de las imágenes de las muestras de sangre con buena calidad o no.

Para el aprendizaje de la red se utilizaron los momentos de color y las componentes de matiz, saturación y valor de brillo de 720 imágenes de muestras de sangre, de las cuales 249 tienen la calidad requerida y 471 presentan limitaciones para proseguir con los análisis. El entrenamiento y validación de la red convencional, así como del clasificador de aprendizaje profundo se realizaron mediante la validación cruzada, dividiéndose el total de muestras en cinco bloques de datos para ello.

Tabla 1 Resultados obtenidos de la validación de la red feedforward convencional. 

  Eficacia (%) Sensibilidad (%) Especificidad (%) AUC
1 94.3 91.3 96.7 0.9601
2 90.2 83.6 94.8 0.9199
3 92.9 89.7 95.4 0.9389
4 91.8 86.9 95.8 0.9323
5 93.5 90.7 93.4 0.9429
Media 92.54 88.44 95.22 0.9388

La Tabla 1 muestra los resultados de la etapa de validación de la red feedforward convencional. Esta red presenta buenos valores de eficacia, comportándose generalmente sobre el 90%, con una eficacia media de 92.54%. Este valor muestra una buena capacidad de la red para clasificar las muestras en positivas o negativas, aunque incurre en un error medio de clasificación de 7.46%.

Los valores de sensibilidad de la red durante la validación varían entre el 83% y el 91%, alcanzando el valor más bajo en el segundo experimento. La sensibilidad media del clasificador en esta etapa es de 88.44%, lo que indica la habilidad media de la red para identificar los patrones positivos dentro de todos los patrones entrados para la clasificación.

La especificidad tiene un comportamiento con poca variación en esta etapa, manteniendo los valores entre 93.4% y 96.7%, con un valor medio de 95.22%. Este valor medio de especificidad representa la habilidad media del clasificador para identificar los patrones negativos dentro de todos los patrones sometidos a la clasificación.

Por otra parte, los valores de área bajo la curva de ROC se comportan entre 0.9199 y 0.9601, con una media de 0.9388 en la etapa de validación de la red. Este índice brinda una precisión media para el clasificador de un 93.88%, indicando la capacidad de la red para ubicar correctamente los pares de decisión positivos/ negativos.

Tabla 2 Resultados obtenidos de la validación del clasificador basado en autocodificadores. 

Eficacia (%) Sensibilidad (%) Especificidad (%) AUC
1 97.5 96.4 99 0.985
2 96.6 95.3 98.1 0.9799
3 99.1 100 98.4 0.9963
4 97.4 96.6 100 0.9839
5 98.3 98.9 95.8 0.9921
Media 97.78 97.44 98.26 0.9874

La Tabla 2 muestra los resultados obtenidos en la etapa de validación del clasificador de aprendizaje profundo. La eficacia se comporta entre el 97% y el 99%, con un valor medio de 97.78%. Este valor es aproximadamente unos 5 puntos porcentuales superior al obtenido con la red feedforward convencional, por lo que este clasificador posee un rendimiento superior al de la red perceptrón multicapa, incurriendo en un error medio para la clasificación de solo 2.22%.

Los valores de sensibilidad del clasificador de aprendizaje profundo oscilan entre 95% y el 100%, con una valor medio de 97.44%, mostrando una mejoría de aproximadamente 9 puntos porcentuales respecto a la red perceptrón multicapa convencional. Este valor medio de sensibilidad muestra una magnífica habilidad para detectar los patrones positivos dentro de todos los patrones en la entrada del clasificador.

La especificidad de este clasificador oscila entre 95% y el 100%, teniendo un valor medio de especificidad de 98.26%, mostrando mejoría de aproximadamente 3 puntos porcentuales respecto a la red feedforward. Con este valor de especificidad, el clasificador posee una estupenda habilidad para identificar los patrones negativos dentro de todos los patrones entrados al clasificador.

Los valores del área bajo la curva de ROC están comprendidos entre 0.9799 y 0.9963, teniendo un valor medio de AUC de 0.9874, siendo aproximadamente 5 puntos porcentuales por encima del valor medio de AUC para la red feedforward. El valor medio de AUC indica un 98.74% de precisión del clasificador para ubicar correctamente los pares de decisión positivos/ negativos.

La Figura 5 (a) muestra un gráfico de las eficacias obtenidas durante la validación de la red perceptrón multicapa y del clasificador basado en autocodificadores profundos. Las barras azules representan las eficacias obtenidas para la red neuronal convencional, mientras que las barras rojas corresponden con las eficacias obtenidas para el clasificador basado en autocodificadores. Aquí se observa que el experimento con menor valor de eficacia para ambos modelos corresponde con el experimento 2, mientras que la mayor diferencia en puntos porcentuales corresponde también con el experimento 2, con una diferencia por encima de 6.4 puntos porcentuales del clasificador basado en autocodificadores respecto a la red feedforward convencional.

La Figura 5 (b) muestra las áreas bajo la curva de ROC en las etapas de validación para ambos modelos de clasificación. Nuevamente, el experimento 2 registra la mayor diferencia en puntos porcentuales de AUC del clasificador basado en autocodificadores respecto a la perceptrón multicapa convencional, además de poseer también la menor tasa de valor de AUC para ambos clasificadores.

Figura 5 Gráficos de la eficacia y el área bajo la curva de ROC del clasificador basado en autocodificadores y la red feedforward convencional. (a) Eficacia, (b) AUC. 

Figura 6 Gráficos de la sensibilidad y especificidad del clasificador basado en autocodificadores y la red feedforward convencional. (a) Sensibilidad, (b) Especificidad. 

La figura 6 muestra los gráficos de sensibilidad y especificidad para las etapas de validación del clasificador basado en aprendizaje profundo y la red neuronal convencional. La sensibilidad presenta la mayor diferencia en puntos porcentuales entre ambos clasificadores en el experimento 2, esta diferencia adquiere el valor de 11.7 puntos porcentuales.

Por su parte, la especificidad toma los valores más bajos en el experimento 5 para ambos clasificadores, aunque la mayor diferencia en puntos porcentuales se obtiene en el experimento 4, con un valor de 4.2 puntos porcentuales por encima del clasificador de aprendizaje profundo sobre la red neuronal perceptrón multicapa convencional.

4.- CONCLUSIONES

La importancia de desarrollar el clasificador de muestras de sangre mediante redes neuronales profundas radica en que se logra eliminar los errores cometidos al obtener las muestras de sangre. Este clasificador neuronal discrimina con buena eficacia aquellas muestras que presentan limitantes como coágulos, presencia de anillos, sueros, etc. de aquellas que poseen una buena calidad para proseguir con los análisis especializados en el laboratorio médico.

El clasificador obtenido es una red neuronal profunda compuesta por dos autocodificadores y un clasificador softmax. Esta red neuronal profunda es entrenada para que reconozca patrones de propiedades que describen las imágenes. Los parámetros de entrada a la red son los momentos de color y las componentes de matiz, saturación y valor de brillo.

Este clasificador posee una estupenda eficacia para detectar la calidad de las muestras de sangre, aunque se pueden probar otros métodos basados también en aprendizaje profundo, como las redes neuronales convolucionales, que pueden mejorar el procesamiento de las imágenes de muestras de sangre, pues estas redes realizan todo el procesamiento de extracción de características y aprendizaje de los patrones extraídos.

REFERENCIAS

1. Brown CS, Goodwin PC, Sorger PK. Image Metrics in the Statistical Analysis of DNA Microarray Data. PNAS. 2001;98(16):8944-8949. [ Links ]

2. Chen Y, Kamat V, Dougherty E, Bittner M, Meltzer P, Trent J. Ratio Statistics of Gene Expression Levels and Applications to Microarray Data Analisys. BioInformatics. 2002;18(9):1207-1215. [ Links ]

3. Smyth G, Yang YH, Speed T. Stattiscal Issues in cDNA Microarray Data Analysis. Methods in Molecular Biology. 2003;224:111-136. [ Links ]

4. Chimka JR, Wu J, Hong Q. On quality control standards to evaluate microarray studies. Int J Quality Engineering and Technology. 2011;2(1):45-53. [ Links ]

5. Wu J, Chimka JR. Similarity of Multivariate Methods to Establish Microarray Quality Control Standards. Quality Engineering. 2012;24(3):381-385. [ Links ]

6. Soloviev M, Milnthorpe AT. Quality Control of Expression Profiling Data. Journal of Proteomics & Bioinformatics. 2015;9(7):176-187. [ Links ]

7. Yu H, Le HM, Kaale E, Long K, Layloff T, Lumetta SS, et al. Characterization of drug authenticity using thin layer chromatography imaging with a mobile phone. Journal of Pharmaceutical and Biomedical Analysis. 2016;125(2016):85-93. [ Links ]

8. Soleimanizadeh S, Mohamad D, Saba T, Rehman A. Recognition of Partially Occluded Objects Based on the Three Different Color Spaces (RGB, YCbCr, HSV). 3D Res. 2015;6(22):1-10. [ Links ]

9. Lumb M, Sethi P. Texture Feature Extraction of RGB, HSV, YIQ and Dithered Images using GLCM, Wavelet Decomposition Techniques. International Journal of Computer Applications. 2013;68(11):25-31. [ Links ]

10. Aiswarya V, Senthil Kumar T. Survey on Content Based Image Retrieval Techniques. International Journal of Research in Engineering and Technology. 2014;03(Special Issue 07):754-757. [ Links ]

11. Malakar A, Mukherjee J. Image Clustering using Color Moments, Histogram, Edge and K-means Clustering. International Journal of Science and Research. 2013;2(Issue 1):532-537. [ Links ]

12. Choudhary R, Raina N, Chaudhary N, Chauhan R, Goudar RH. An Integrated Approach to Content Based Image Retrieval. International Conference on Advances in Computing, Communications and Informatics (ICACCI); 2014; New Delhi, India. [ Links ]

13. Chernov V, Alander J, Bochko V. Integer-based accurate conversion between RGB and HSV color spaces. Computers and Electrical Engineering. 2015;46(2015):328-337. [ Links ]

14. Najib MS, Mohd Ali NA, Mat Arip MN, Abd Jalil M, Taib MN. Classification of Agarwood using ANN. International Journal of Electrical and Electronic Systems Research. 2012;5:20-34. [ Links ]

15. Kumar Mohanta R, Sethi B, Bhutia S. Review on Classification of Digital Images using Artificial Neural Network. International Journal of Engineering Science Invention. 2017;2017(Special Issue):152-156. [ Links ]

16. Orhan U, Hekim M, Ozer M. EEG signals classi?cation using the K-means clustering and a multilayer perceptron neural network model. Expert Systems with Applications. 2011;38(Issue 10):13475-13481. [ Links ]

17. Sovierzoski MA, Marques Argoud FI, Mendes de Azevedo F. Evaluation of ANN Classi?ers During Supervised Training with ROC Analysis and Cross Validation. Proceedings of International Conference on BioMedical Engineering and Informatics, 2008 BMEI 2008; 2008; Sanya, China: IEEE Computer Society. [ Links ]

18. Deng L, Yu D. Deep Learning: Methods and Applications. Foundations and Trends in Signal Processing. 2013;7(3-4):197-387. [ Links ]

19. Oktay O, Ferrante E, Kamnitsas K, Heinrich M, Bai W. Anatomically Constrained Neural Networks (ACNNs): Application to Cardiac Image Enhancement and Segmentation. IEEE Transactions on Medical Imaging. 2018;37(2):384-395. [ Links ]

20. Jia F, Lei Y, Lin J, Zhou X, Lu N. Deep neural networks: A promising tool for fault characteristic. Mechanical Systems and Signal Processing. 2015;72(2015):1-13. [ Links ]

21. Bilello JA, Thurmond LM, Smith KM, Pi B, Rubin R, Wright SM, et al. MDDScore: Confirmation of a Blood Test to Aid in the Diagnosis of Major Depressive Disorder. J Clin Psychiatry 2015;76(2):199-206. [ Links ]

22. Colak E, Mutlu F, Bal C, Oner S, Ozdamar K, Gok B, et al. Comparison of Semiparametric, Parametric, and Nonparametric ROC Analysis for Continuous Diagnostic Tests Using a Simulation Study and Acute Coronary Syndrome Data. Computational and Mathematical Methods in Medicine. 2012;2012:1-8. [ Links ]

23. Rácz A, Bajusz D, Fodor M, Héberger K. Comparison of classi?cation methods with "n-class" receiver operating characteristic curves: A case study of energy drinks. Chemometrics and Intelligent Laboratory Systems. 2016;151(2016):34-43. [ Links ]

24. Mossman D, Peng H. Using Dual Beta Distributions to Create "Proper" ROC Curves Based on Rating Category Data. Medical Decision Making. 2016;36(3):349-365. [ Links ]

25. Ismail N, Hezri M, Rahiman F, Nasir M, Mohd Ali NA, Nizam Tajuddin S. Application of ANN in Agarwood Oil Grade Classification 10th International Colloquium on Signal Processing & its Applications (CSPA2014); 2014; Kuala Lumpur, Malaysia: IEEE. [ Links ]

26. Mert A, Kiliç N, Bilgili E, Akan A. Breast Cancer Detection with Reduced Feature Set. Computational and Mathematical Methods in Medicine. 2015;2015:1-11. [ Links ]

Recibido: 06 de Marzo de 2018; Aprobado: 02 de Octubre de 2018

Gilbert Pla Martínez: Graduado en el año 2013 de Ingeniería en Automática en la Universidad Tecnológica de La Habana José Antonio Echeverría. Profesor en el Departamento de Física de la Facultad de Automática y Biomédica. Investiga en las áreas de Procesamiento Digital de Imágenes, Reconocimiento de Patrones y la Inteligencia Artificial. E-mail: gpla@automatica.cujae.edu.cu

Mirtha Irizar Mesa: Prof. Titular del Dpto. de Automática y Computación, Facultad de Automática y Biomédica, Universidad Tecnológica de La Habana José Antonio Echeverría. Pertenece a la disciplina Sistemas de Computación y ha realizado investigaciones sobre la aplicación de dichos sistemas y de inteligencia computacional a la solución de diversos problemas directos e inversos. E-mail: mirtha@automatica.cujae.edu.cu

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons