SciELO - Scientific Electronic Library Online

 
vol.40 número3Propuesta para la monitorización de estados de sedación en señales electroencefalográficasIris Recognition in the Visible Spectrum Based on Eye Image Quality Evaluation índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Ingeniería Electrónica, Automática y Comunicaciones

versión On-line ISSN 1815-5928

EAC vol.40 no.3 La Habana sept.-dic. 2019  Epub 08-Sep-2019

 

Artículo Original

Normalización de imágenes de orejas para el reconocimiento biométrico

Ears Images Normalization for Biometric Recognition

Elaine Grenot Castellano1  , Ernesto Carballea Alonso1  , Francisco José Silva Mata1  , Yoanna Martínez Díaz1  , Rubén Sánchez Rivero1 

1Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV), La Habana, Cuba.

RESUMEN

La alineación de imágenes es un paso crucial en los sistemas de reconocimiento basado en imágenes biométricas, ya que facilita su análisis y comparación. En particular, las imágenes de la oreja pueden presentar problemas de oclusión por el pelo, pendientes o sombreros. Estas oclusiones disminuyen la zona de reconocimiento de este objeto biométrico; así como la variación de la iluminación en el proceso de captura aumenta la dificultad de extracción de rasgos o puntos fiduciales. La información mutua es una técnica estadística basada en la información proporcionada por la distribución de las intensidades en las imágenes. El método propuesto basado en esta técnica no depende de los valores reales de los píxeles sino de cómo están distribuidos en la imagen, esto le permite enfrentar problemas de oclusión, efectos de la iluminación, y ruido. En este trabajo, mostraremos la utilidad de la información mutua entre las imágenes de orejas para su alineación. Para ello, se realizaron varios experimentos comparando este método con otros de carácter estadístico, como los de PCA y otros basados en puntos fiduciales, tales como el proceso de interpolación y muestreo warping. La evaluación de resultados se realiza mediante secuencias de reconocimiento utilizando la representación funcional de la oreja.

Palabras-clave: Oreja; alineación; información mutua

ABSTRACT

Image alignment is a crucial step in recognition systems based on biometric images, since it facilitates image analysis and comparison. In particular, ear biometric images may present occlusion problems because of hair, earrings or hats. These occlusions decrease the ear recognition zone; as well as the variation of lighting in the capture process increases difficulty of extracting traits or fiducial points. Mutual information is a statistical technique based on the information provided by the distribution of the intensities in images. The proposed method based on this technique does not depend on the actual values of the pixels but on how they are distributed in the image, this allows you to deal with problems of occlusion, effects of lighting, and noise. In this paper, we will show the usefulness of mutual information between ear images for their alignment. To do this, several experiments were conducted comparing this method with others of a statistical nature, such as those in PCA and other based on fiducial points, such as warping. The evaluation of results is made through recognition sequences by representing the ear with functions.

Key words: Ear; alignment; mutual information

1.-INTRODUCCIÓN

La forma de la oreja es una importante herramienta para la identificación de personas. Su uso como característica biométrica proporciona ventajas, como la posibilidad de usarlo de forma remota (por ejemplo, sobre videos de videovigilancia). A diferencia de otras imágenes biométricas, las orejas no se ven afectadas por las expresiones faciales [11] y su reconocimiento puede tratar con variaciones de poses de hasta 13 grados y oclusiones de hasta un 18% [3]. Sin embargo, en muchos sistemas biométricos para la identificación de orejas, es importante un paso de normalización geométrica y fotométrica de forma automatizada [7].

Es en esta etapa de normalización donde se corrigen los desplazamientos en las imágenes resultantes y, en los procesos espaciales, como la corrección de la posición del origen, los ejes de referencia y la escala en el espacio. Estos desplazamientos y las variaciones en la posición y la pose afectan significativamente los resultados en las etapas posteriores del reconocimiento. En el caso de representaciones que dependen de las posiciones del origen y los ejes de coordenadas, como las representaciones funcionales, es fundamental una etapa de alineación [4]. Algunas desviaciones pueden ser corregidas por transformaciones afines o rígidas. Sin embargo, en casos donde existen variaciones de poses, las transformaciones no rígidas son comúnmente requeridas.

El proceso de alineación incluye un paso de preprocesamiento para el suavizado y la eliminación del ruido. Los métodos y pasos para alinear son diferentes para cada tipo de datos y están relacionados con su propia geometría [4]. Una de las formas más populares de trabajo consiste en la detección de puntos, curvas o formas para obtener una correspondencia entre ellos mediante una transformación conocida como “detección de características”. La peculiar forma de la oreja dificulta la detección precisa de los puntos característicos para la alineación, específicamente cuando se pierden uno o más puntos. Otro método es el basado en intensidades, que no necesita la detección de puntos característicos, curvas o formas. Este método se basa en la correlación en el dominio de la frecuencia (Dominio de Fourier) [2] o en la Información mutua [8].

En este trabajo, se propone aplicar un método basado en información mutua entre imágenes de orejas para su alineación. Esta solución es robusta ante la presencia de los efectos de la variación de la iluminación, y ante las diferencias en la región de interés resultantes de la segmentación, oclusión y ruido. El documento está organizado de la siguiente manera: en la sección 2 se explican algunos de los métodos de alineación incluyendo el propuesto; los experimentos realizado para evaluar este método, así como los resultados y discusión, se informa en la sección 3 y, por último, las conclusiones en la Sección 4.

2.- ALINEACIÓN DE IMÁGENES DE OREJAS

Existen desviaciones durante el registro de las imágenes debido a errores instrumentales en los procesos de captura de información o a la propia naturaleza física de los fenómenos en estudio, lo que dificulta su análisis y comparación. Por esta razón, dentro de los pasos del procesamiento de la imagen, la alineación es esencial para lograr buenos resultados en los sistemas reconocimiento. La alineación persigue, como objetivo, tanto la corrección fotométrica como geométrica de las imágenes, que incluyen la normalización de las intensidades de los píxeles, la corrección de las posiciones del origen de coordenadas, de los ejes de referencia y de las escalas lo que hace posible que los objetos en cuestión sean comparables.

En el proceso de alineación de orejas se usa comúnmente curvas o puntos característicos para hacerlos corresponder con una plantilla definida [13]. En muchos de los trabajos de la literatura, estos puntos característicos son detectados manualmente [13], pero existen técnicas de alineación automatizadas; que incluye modelos de formas activas (en inglés active shape models) [14] o combinaciones de modelos de contornos activos y ovoides sobre contornos de oreja [15]. El método propuesto en [16] se basa en un algoritmo que intenta crear una transformación de homografía entre dos imágenes utilizando la coincidencia de puntos característicos encontrados utilizando una transformación de la característica invariante a la escala (SIFT, por sus siglas en inglés) [30]. Otros métodos se basan en la detección del borde externo de la oreja (hélice) para rotar o normalizar la oreja según la mayor distancia representada por el eje dominante de la oreja [17,18].

En otros trabajos se explota la forma elíptica de la oreja, utilizando la Regresión de la postura en cascada (en inglés CPR) [19]. Este es un método donde se aproxima la forma externa de la oreja a una elipse, y su posición es, a su vez, transformada para normalizar la oreja. Una limitante de este método es que solo resuelve problemas de rotación de la cara cuando esta se mueve en la dirección del cabeceo (en inglés pitch). Sin embargo, avances recientes en la alineación de puntos de referencia basados en cascada [20,21], también se pueden usar para las imágenes de orejas siempre que se disponga de datos debidamente anotados para el entrenamiento [22]. En [23] se introduce una base de datos anotada con puntos de referencia que se utilizan para crear modelos de oreja estadísticamente deformables [24] (ej. active appearance models [25], active shape models [26]) para imágenes tomadas desde entornos no controlados. En un trabajo más reciente [7] se utiliza la llamada técnica Muestra Aleatoria de Consenso (RANSAC por sus siglas en inglés) que estima la transformación en el plano de cada imagen de oreja, a una imagen promedio.

En este trabajo, se utilizan y comparan tres métodos de normalización de imágenes: el primero se basa en análisis de componentes principales (PCA), el segundo se basa en puntos de referencia o puntos fiduciales de la imagen utilizada en un proceso de interpolación y muestreo (warping), y el tercero es el método propuesto, basado en la información mutua (MI) de las imágenes.

2.1.- DOS TÉCNICAS BASADAS EN PUNTOS DE LA IMAGEN: PCA Y WARPING

Para el caso de PCA (del inglés, Principal Component Analysis), una vez que la imagen de la oreja está segmentada, se normaliza geométricamente analizando sus componentes principales [6], y estas serán los nuevos ejes de coordenadas de los puntos en el plano que caracterizan la imagen, siendo su centroide el origen de este sistema de coordenadas. En la figura 1, se muestra un ejemplo de detección de las componentes principales y la rotación de la imagen. Es trivial que los ejes de coordenadas, así como su origen dependen de la región segmentada, y pueden cambiar, en particular, cuando se producen oclusiones o partes perdidas.

Figura 1 Secuencia de la rotación de una imagen utilizando PCA 

Figura 2 Ejemplo de resultado del proceso de warping 

Figura 3 Ejemplo de errores en el proceso de warping 

Otro método de alineación se basa en puntos característicos o puntos fiduciales, utilizados en un proceso de interpolación y muestreo (” warping”) [5]. El warping de una imagen es una transformación que mapea todas las posiciones en un plano de imagen a posiciones en un segundo plano. Surge en muchos problemas de análisis de imágenes, ya sea para eliminar las distorsiones ópticas introducidas por cámaras, o para alinear dos o más imágenes. Se seleccionó como patrón la oreja que respecto a las restantes logró la correlación más alta, siendo alineadas mediante el algoritmo COW (Correlation Optimized Warping, por sus siglas en inglés). La extracción incorrecta de puntos fiduciales trae consigo resultados erróneos en el proceso de alineación (Véase en la figura 3). En la figura 2 se muestran ejemplos de resultados en el proceso de alineación.

2.2.- INFORMACIÓN MUTUA

Los métodos de información mutua tienen su origen en la teoría de la información y es una medida de la dependencia estadística entre dos conjuntos de datos. Comienza con la estimación de la probabilidad conjunta de las intensidades de los píxeles correspondientes en las dos imágenes [12]. La información mutua (MI) entre dos variables aleatorias discretas X e Y es definido como:

MI(X,Y)=yYxXp(x,y)log(p(x,y)p(x)p(y) )

donde p(x, y) es la función de distribución de probabilidad conjunta de X e Y , y p(x) y p(y) son las funciones de distribución de probabilidad marginal de X e Y respectivamente. Esta medición brinda una información de cuan similares son las imágenes. Una MI mayor implica una reducción en la incertidumbre(entropía) entre las dos distribuciones, señalando que las imágenes estén mejor registradas. Por lo tanto, el método se basa en maximizar este valor de MI [12].

Los primeros en proponerlo para la alineación de imágenes fueron Viola y Wells [8] en 1997 aplicado a imágenes médicas de resonancia magnética, las cuales tienen la característica de ser multimodales. Esta es una técnica estadística que se basa en la información que brinda la distribución de las intensidades en la imagen. Por lo tanto, es un método que no depende de que la imagen posea rasgos distintivos y es robusto ante efectos de iluminación, oclusión y ruido.

En el presente trabajo se propone un método de normalización geométrico con una métrica basada en la información mutua y se presenta un diagrama mostrado en la figura 4, representando el método de alineación de imágenes basados en la intensidad.

Figura 4 Secuencia del método de alineación de orejas propuesto 

Un problema típico de alineación involucra una imagen de referencia y una imagen a alinear (imagen censada). Los métodos de normalización geométrica buscan determinar una transformación que aumente lo más posible la similitud (en el sentido de coincidencia en la posición y pose) entre la imagen censada y la imagen de referencia [14]. El objetivo del método es buscar iterativamente la transformación geométrica que, al ser aplicada a la imagen censada, maximice o minimice la métrica de similitud. La métrica de similitud, también conocida como función de costo, se basa en la distribución de las intensidades de los píxeles y se determina en las regiones superpuestas de las imágenes de entrada. La función del optimizador es determinar la estrategia de búsqueda [6].

Modelo de transformación e Interpolación

Un factor clave para el éxito del algoritmo presentado es la elección correcta del modelo de transformación, que depende en gran medida de la naturaleza de los datos. Existen dos tipos de transformaciones: rígida (preserva todas las distancias y ángulos internos) y no rígidas (pueden deformar la imagen) y dentro de estas encontramos las transformaciones de: traslación, rotación, similitud, afín (Véase en la figura 5). De nuestro interés son las transformaciones afines (incluye traslación, rotación, escala e inclinación).

Figura 5 Ejemplos de tipos de transformaciones para alinear orejas 

Cuando una imagen es transformada, en ocasiones es necesario interpolar para determinar el valor del pixel cuya posición no es entera (posiciones no rígidas). La interpolación es realizada para aproximar los valores de los puntos transformados [28]. Entre las más comunes existen la interpolación del vecino más cercano, la bilineal, y la bicúbica. La interpolación del vecino más cercano no brinda una buena aproximación. La interpolación bicúbica, en ocasiones puede generar valores fuera del rango deseado. Por lo tanto, el más indicado es el interpolador bilineal.

Métrica de similitud

La eficacia de las transformaciones antes señaladas se evalúa calculando una métrica de similitud que mida la semejanza entre dos imágenes. Un buen indicador de similitud depende de la naturaleza del enfoque de la alineación. Cuando este proceso de alineación se realiza entre imágenes provenientes de diferentes sensores es común que haya mucha diferencia entre las intensidades de los píxeles. La información mutua es una de las técnicas más adecuadas para comparar la información entre las distribuciones de los píxeles [30]. La Información Mutua Normalizada (NMI, por sus siglas en inglés del término Normalized Mutual Information) da una mejor medida de similitud y se obtiene [27]:

MNI(A,B) = H(A) + H(B)H(A + B) 

Donde H(A) y H(B) son las entropías marginales de las imágenes A y B respectivamente, y H (A, B) la entropía conjunta definidas como

H(A)=aApA(a)logpA(a)

H(B)=bBpB(b)logpB(b)

H(A,B)=aAbBpAB (a,b)logpAB(a,b)

donde pAB , pA y pB son las distribuciones de probabilidad conjunta y marginal de los valores de intensidad de las imágenes respectivamente; H(a) y H(b) son las medidas de incertidumbre promedio de una variable aleatoria.

Para obtener los valores de las distribuciones de probabilidad se suelen utilizar los histogramas. En el caso del histograma de una imagen se calcula el número de coincidencias de las intensidades dentro de un conjunto de intervalos definidos [27]

Figura 6 Representación de las imágenes utilizadas para graficar los histogramas conjuntos y sus respectivos valores de NMI. 

Procedimiento de optimización

La métrica de similitud se puede entender como una función de n-dimensiones, donde n representa los grados de libertad de la transformación utilizada [31]. Para una buena alineación, se supone que el óptimo de esta función corresponde a la transformación que realiza correctamente la alineación. La función del método de optimización es encontrar el mínimo de la medida de similitud empleada. Cada algoritmo de optimización emplea una estrategia de búsqueda diferente que depende de la naturaleza del algoritmo [30]. El enfoque utilizado en esta investigación es realizar la búsqueda directamente en el espacio de los parámetros de transformación. Para ello fue empleado un método procedente de los algoritmos evolutivos. Estos son métodos de optimización especialmente útiles cuando nos encontramos con problemas de alta dimensionalidad, multimodalidad, fuerte no linealidad y cuando se requiere de una solución global [32]. La estructura general de los algoritmos evolutivos responde al esquema mostrado en la Figura 6:

Figura 6 Estructura general de los algoritmos evolutivos. 

El optimizador empleado es conocido como Estrategia Evolutiva (1+1) [33]. El algoritmo de este optimizador puede ser implementado fácilmente, donde se itera hasta encontrar un conjunto de parámetros que produzcan el mejor resultado posible. Siguiendo los pasos del esquema general mostrado en la Figura 6, el algoritmo comienza con un vector de parámetros llamado padre inicial o generación 0 que puede ser introducido por el usuario. Este parámetro inicial es evaluado en la alineación de las imágenes para establecer una referencia. El siguiente paso es mutar los parámetros del padre dado por:

xt+1=xt+atrt

donde at es el factor de mutación y rt denota un vector aleatorio multidimensional de una distribución con media cero y varianza igual a 1. La etapa de mutación genera una descendencia denominada hijo. Este nuevo vector entra a la etapa de selección y reemplazo para determinar el próximo padre xopt definido como:

En este paso se evalúa los resultados del hijo. Si mejora, pasa a ser el nuevo padre cuyos parámetros han sido mutados, quizás de forma más agresiva. Si el padre produce un mejor resultado, sigue siendo el padre y la siguiente mutación es menos agresiva. De esta forma solo tienen descendencia los que brinden buenos resultados. El factor de mutación at viene dado por:

donde ccrece y creduce son los factores de crecimiento y reducción que indican qué tan agresiva será la siguiente mutación at+1 . De esta forma el nuevo vector de parámetros padre o generación + 1 es vuelto a evaluar en la alineación de las imágenes y el resultado es comparado con el valor de referencia. El proceso termina cuando se encuentra el vector de parámetros que brinda el mejor resultado de alineación o cuando se alcanza el número máximo de iteraciones dado.

3.- RESULTADOS EXPERIMENTALES Y DISCUSIÓN

Se compararon los métodos de alineación explicados en las anteriores secciones utilizando la base de datos UBEAR. Estos experimentos se explican con más detalles es las siguientes subsecciones

3.1.- BASE DE DATO

Las imágenes de oreja utilizadas en este documento corresponden a la base de datos UBEAR [9]. Esta base de datos tiene imágenes en escala de grises, lo que implica que solo se trabajarán los espacios de las intensidades incluidas entre 0 y 255. Las orejas con oclusiones superiores al 18% (considerando que quedan al descubierto las partes fundamentales de la oreja) y las variaciones de poses mayores de 13 grados se descartaron. Tras los procesos de detección y segmentación de la oreja, quedan 2023 imágenes de 127 sujetos, para su posterior alineación. Para evaluar los resultados de la alineación anterior, cada imagen se dividió 16 secciones iguales para que las partes no ocluidas entre las diferentes imágenes coincidieran.

3.2.- REPRESENTACIÓN FUNCIONAL

Cada sección de la imagen estaba representada por un B-spline de productor tensorial [29] dado por la fórmula 2,

i=1nj=1mBi,k(xi) aiBj,l(yj)bj

donde z = f(x, y) es la intensidad del pixel en la posición  (x, y) , ai y bj los coeficientes correspondientes a los B-splines de órdenes k y l respectivamente. En la fórmula 2 , Br,h = B(·|tr, ..., tr+h) es la parte polinomial de grado menor que h con los nodos tr, , t (r + h) tal que si Br,h(xr)0 r , se cumple la recurrencia

Br,h(x)=xtrtr+h1trBr,h1(x)+tr+hxtr+htr+1Br+1,h1(x)

3.3.- RESULTADOS EXPERIMENTALES

Los experimentos de identificación se llevaron a cabo comparando los coeficientes de las funciones correspondientes de las imágenes de la oreja. Las imágenes se alinearon utilizando como patrón la imagen con la mayor correlación con el resto del conjunto de datos. Los resultados experimentales de identificación de las orejas derechas e izquierdas se presentan en las tablas 1 y 2, respectivamente. Las filas corresponden a los métodos de normalización PCA y geometrías de MI y las columnas corresponden a sus respectivos valores de éxito, fallos y porcentaje de eficiencia. Para cada región disjunta de la imagen, se calcularon 72 coeficientes de la función.

Tabla 1 Precisión de identificación de rango 1 en 1027 orejas izquierdas de 127 sujetos en la base de datos UBEAR 

Métodos Genuinos Impostores Precisión (%)
PCA-Warping 897 130 87.34
Método Propuesto 908 119 88.41

Tabla 2 Precisión de identificación de rango 1 en 970 orejas derechas de 127 sujetos en la base de datos UBEAR 

Métodos Genuinos Impostores Precisión (%)
PCA-Warping 808 162 83.29
Método Propuesto 836 134 86.28

Como se muestran en estas tablas, el método propuesto obtuvo mejores resultados que la combinación del PCA y warping en ambas orejas. Debido a problemas de oclusión, de manera general, los resultados no fueron elevados, aunque el método propuesto es menos sensible a estos problemas, ya que PCA depende de toda la región visible para encontrar sus componentes principales, y en el caso del warping, si los puntos fiduciales que se requieren, son de regiones oclusas no será posible obtenerlos y afectará seriamente el resultado final. El resultado de los experimentos muestra un incremento de aproximadamente del 3 % en la precisión de la identificación; sin embargo, el proceso de normalización para una imagen toma aproximadamente 1.5 segundos, lo que representa un aspecto a tener en cuenta al utilizar este método en un sistema de reconocimiento; aunque se pudiera valorar la posibilidad de utilizar otros optimizadores con el objetivo de reducir el tiempo de procesamiento del método.

4.- CONCLUSIONES

La alineación de la imagen es un paso fundamental en los sistemas de reconocimiento. La iluminación variable, las oclusiones y las variaciones de poses son problemas que afectan seriamente los resultados del reconocimiento en sistemas biométricos. En este documento, presentamos una solución de alineación basada en información mutua de imágenes de orejas para tratar estos problemas, mejorando así la precisión del proceso de reconocimiento cuando se utiliza la representación funcional.

Los resultados experimentales muestran que, ante los problemas de oclusión y variaciones de poses, el método propuesto es más factible para la etapa de alineación de imágenes de orejas, no siendo así para la de identificación. Esto se debe a que la PCA y los métodos de deformación son más sensibles cuando alguna parte importante de la oreja no está presente en la imagen. En contraste, la propuesta basada en información mutua no depende de tener características o regiones distintivas en la imagen y es robusta a los efectos de la iluminación, la oclusión y el ruido.

Además, anteriormente se ha utilizado información mutua para registrar imágenes de satélites, imágenes médicas, etc. [8], donde, por lo general, las imágenes que deben alinearse corresponden al mismo objeto o región original, a diferencia del método propuesto en este trabajo, donde las imágenes de la oreja de referencia y de la oreja censada pueden no ser de la misma persona, y aun así se obtienen resultados satisfactorios.

Para trabajos futuros, se surgiere comparar el método propuesto con otros métodos de alineación de la última generación, así como mejorar la eficiencia del método.

REFERENCIAS

1.  Ares M, Royo S, Caum J, Pizarro C. Comparison of b-spline and Zernike fitting techniques in complex wave front surfaces. In: Osten, Wolfgang, Christophe Gorecki, and Erik L. Novak, editors. Optical Measurement Systems for Industrial Inspection IV. Munich; Germany; 2005.p. 169-179 [ Links ]

2.  Reddy BS, Chatterji, BN. An FFT-based technique for translation rotation and scale-invariant image registration. IEEE transactions on image processing. 1996;5(8): 1266-1271. [ Links ]

3.  Bustard JD, Nixon MS. Toward unconstrained ear recognition from two-dimensional images. IEEE transactions on systems, man, and cybernetics-Part A: Systems and Humans. 2010;40(3):486-94. [ Links ]

4.  Silva FJ, Muñoz D, Berretti S, Mendiola V, Martínez Y, Augier A et al. Signal and image alignment during the application of functional data analysis. Practical examples of chemometrics and biometrics. Revista Cubana de Física.2016;33(1): E52-E59. [ Links ]

5.  Glasbey CA, Mardia KV. A review of image-warping methods. Journal of applied statistics. 1998;25(2):155-71. [ Links ]

6.  Jolliffe IT, Cadima J. Principal component analysis: a review and recent developments. Philosophical Transactions of the Royal Society A: Mathematical, Physical and Engineering Sciences. 2016;374(2065):20150202. [ Links ]

7.  Ribič M, Emeršič Ž, Štruc V. Influence of Alignment on Ear Recognition: Case Study on AWE Dataset. International Electrotechnical and Computer Science Conference 25. 2016. [ Links ]

8.  Viola P, Wells III WM. Alignment by maximization of mutual information. International journal of computer vision. 1997 Sep 1;24(2):137-54. [ Links ]

9.  Raposo R, Hoyle E, Peixinho A, Proença H. UBEAR: A dataset of ear images captured on-the-move in uncontrolled conditions. In: 2011 IEEE Workshop on Computational Intelligence in Biometrics and Identity Management (CIBIM). Paris; France; 2011; p. 84-90. [ Links ]

10.  Stearns CC, Kannappan K, inventors; LSI Corp, assignee. Method for 2-D affine transformation of images. United States patent US 5,475,803. 1995. [ Links ]

11.  Du Y, Li W, Hu W, Tong X, Zhang Y. Adaptive facial expression calibration. US Patent 9,886,622. 2018. [ Links ]

12.  Zitova B, Flusser J. Image registration methods: a survey. Image and vision computing. 2003;21(11):977-1000. [ Links ]

13.  Yan P, Bowyer K. Empirical evaluation of advanced ear biometrics. In: 2005 IEEE Computer Society Conference on Computer Vision and Pattern Recognition (CVPR’05). 2005; 41(00): 41-41 [ Links ]

14.  Yuan L, Mu ZC. Ear recognition based on 2D images. In: 2007 First IEEE International Conference on Biometrics: Theory, Applications, and Systems. Washington DC; USA; 2007.p. 1-5. [ Links ]

15.  Yazdanpanah AP, Faez K. Normalization and feature extraction on ear images. In: 2012 IEEE International Carnahan Conference on Security Technology (ICCST). Massachusetts; USA; 2012.p.97-104 [ Links ]

16.  Bustard JD, Nixon MS. Robust 2d ear registration and recognition based on sift point matching. In: 2008 IEEE Second International Conference on Biometrics: Theory, Applications and Systems. Washington DC; USA; 2008. p. 1-6. [ Links ]

17.  Yazdanpanah, A.P., Faez, K.: Normalizing human ear in proportion to size and rotation. In International Conference on Intelligent Computing. Berlin; Heidelberg; 2009.p. 37-45 [ Links ]

18.  Shu-zhong W. An improved normalization method for ear feature extraction. International Journal of Signal Processing, Image Processing and Pattern Recognition. 2013;6(5):49-56. [ Links ]

19.  Pflug, A, Busch, C. Segmentation and normalization of human ears using cascaded pose regression. In: Secure IT Systems. Tromsø; Norway; 2014.p. 261-272 [ Links ]

20.  Frigieri E, Borghi G, Vezzani R, Cucchiara R. Fast and accurate facial landmark localization in depth images for in-car applications. In Battiato S, Gallo G, Schettini R, Stanco F, editors.: Image Analysis and Processing -ICIAP 2017, Cham, Springer International Publishing. 2017.p. 539-549 [ Links ]

21.  Cihan Camgoz N, Struc V, Gokberk B, Akarun L, Alp Kindiroglu A. Facial landmark localization in depth images using supervised ridge descent. In: Proceedings of the IEEE International Conference on Computer Vision Workshops. Santiago; Chile; 2015.p. 136-141. [ Links ]

22.  Pflug A, Paul PN, Busch C. A comparative study on texture and surface descriptors for ear biometrics. In: 2014 International Carnahan Conference on Security Technology (ICCST). Rome; Italy; 2014.p. 1-6 [ Links ]

23.  Zhou Y, Zaferiou S. Deformable models of ears in-the-wild for alignment and recognition. In: 2017 12th IEEE International Conference on Automatic Face and Gesture Recognition (FG 2017). Washington; DC; 2017.p. 626-633 [ Links ]

24.  Saragih, JM, Lucey S, Cohn JF. Deformable model fitting by regularized landmark mean-shift. International journal of computer vision . 2011; 91(2): 200-215 [ Links ]

25.  Cootes TF, Edwards GJ, Taylor CJ. Active appearance models. IEEE Transactions on Pattern Analysis and Machine Intelligence. 2001; 1(6): 681-685 [ Links ]

26.  Cootes TF, Taylor CJ, Cooper DH, Graham J. Active shape models-their training and application. Computer vision and image understanding. 1995;61(1):38-59 [ Links ]

27.  Torres GA. Registro automático de imágenes médicas preoperatorias e intraoperatorias basado en intensidad: Aplicación a un sistema de navegación quirúrgica. PhD Thesis. Technological University of Pereira, 2015. Disponible en: https://core.ac.uk/download/pdf/71399333.pdf27.  [ Links ]

28.  Lyche T, Cohen E, Mørken K. Knot line refinement algorithms for tensor product B-spline surfaces. Computer Aided Geometric Design. 1985;2(1-3):133-9. [ Links ]

29.  Lowe DG. Distinctive image features from scale-invariant keypoints. International journal of computer vision . 2004 Nov 1;60(2):91-110. [ Links ]

30.  Valsecchi A, Damas S, Santamaria J. Evolutionary intensity-based medical image registration: a review. Current Medical Imaging Reviews. 2013;9(4):283-97. [ Links ]

31.  Oliveira FP, Tavares JM. Medical image registration: a review. Computer methods in biomechanics and biomedical engineering. 2014;17(2):73-93. [ Links ]

32.  Mateos A. Algoritmos evolutivos y algoritmos genéticos. Inteligencia en Redes de Comunicaciones, Ingeniería de Telecomunicación. Universidad Carlos III de Madrid. 2004. [ Links ]

33.  Styner M, Brechbuhler C, Szckely G, Gerig G. Parametric estimate of intensity inhomogeneities applied to MRI. IEEE Trans. Med. Imaging. 2000;19(3):153-65. [ Links ]

Recibido: 28 de Abril de 2019; Aprobado: 02 de Julio de 2019

Elaine Grenot Castellanos, graduada de Licenciatura en Matemática en la Universidad de la Habana en el año 2016, y labora como especialista en el Equipo de Quimiometría del área de Reconocimiento de Patrones del Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV, Habana, Cuba). Ha participado como autora en el ICIAP, Italia en el 2017 y en el CICCI, La Habana, Cuba en el 2018 en la temática de reconocimiento de patrones en espacios continuos y se ha especializado en la representación de objetos mediante funciones para su clasificación y reconocimiento. E-mail: egrenot@cenatav.co.cu

Ernesto Carballea Alonso, Ingeniero en Telecomunicaciones en el año 2018. Como estudiante, su práctica de producción la desarrolló en el Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV, Habana, Cuba), en el equipo de Reconocimiento de Patrones, obteniendo resultados que formarían parte de su trabajo de diploma “Normalización geométrica de imágenes de orejas para su reconocimiento biométrico”.E-mail: ecarballea@tele.cujae.edu.cu

Francisco José Silva Mata, graduado de Ingeniero Electrónico en 1982, y categorizado como Investigador Auxiliar en el 2002. Recibió el título de Master en Ciencias en el 2005 y el de Doctor en Ciencias Técnicas en el 2017, en la CUJAE, Habana, Cuba. Actualmente es experto en procesamiento de imágenes y jefe del Equipo de Quimiometría del Área de Reconocimiento de Patrones del CENATAV. Ha participado como autor en más de 20 Congresos Internacionales y ha publicado más de 40 artículos científicos, en IEEE, LNCS, Analytical Chemistry Acta, Computación y Sistemas, RCCI, etc. Ha impartido Conferencias y Seminarios en la Universidad de la Habana, el ICIMAF, NEURONIC, la CUJAE, la Universidad de Burgos, España y la Universidad de Florencia, Italia. Es coautor de los libros: Machine Learning Techniques for Adaptive Multimedia 2011 y Computational Intelligence in Digital Forensics 2014.E-mail: fjsilva@cenatav.co.cu

Yoanna Martínez Díaz, graduada de Ingeniería Informática en el año 2010, y categorizado como Investigador Auxiliar en el 2002. En ese mismo año se incorporó a trabajar en el Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV) en el departamento de Biometría. Recibió el título de Doctora en Ciencias Técnicas en el año 2017. Ha participado como autora en más de 20 publicaciones, dos en revistas internacionales de alto impacto, un capítulo en un libro, uno en revista referenciada en Scielo, nueve en eventos internacionales de alto impacto, y ocho en eventos nacionales. E-mail: ymartinez@cenatav.co.cu

Ruben Sánchez Rivero, graduado de Ingeniero en Informática en el año 2017. Desde ese año labora en el área de reconocimiento de patrones, específicamente en procesamiento de imágenes y señales, químicas, biométricas y de documentos, del Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV, Habana, Cuba). E-mail: rsanchez@cenatav.co.cu

Creative Commons License