<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992017000100001</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Reconocimiento biométrico de rostros mediante el análisis de datos funcionales de sus modelos tridimensionales]]></article-title>
<article-title xml:lang="en"><![CDATA[Biometric recognition of faces through the analysis of functional data of their three-dimensional models]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Silva Mata]]></surname>
<given-names><![CDATA[Francisco José]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Revilla Eng]]></surname>
<given-names><![CDATA[Anier]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Talavera Bustamante]]></surname>
<given-names><![CDATA[Isneri]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Augier]]></surname>
<given-names><![CDATA[Ángel]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Berretti]]></surname>
<given-names><![CDATA[Stefano]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV)  ]]></institution>
<addr-line><![CDATA[Playa La Habana]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad de la Habana  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad de Florencia  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Italia</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2017</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2017</year>
</pub-date>
<volume>11</volume>
<numero>1</numero>
<fpage>1</fpage>
<lpage>14</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992017000100001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992017000100001&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992017000100001&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN La representación de los datos del rostro registrados en tres dimensiones con el objetivo de identificar personas, aunque resuelve los problemas de pose e iluminación que afectan el rendimiento de los sistemas basados en dos dimensiones, enfrenta el problema de la alta dimensión de los datos, lo cual provoca errores de clasificación a causa de la llamada &#8220;maldición de la dimensionalidad&#8221;. Por esta razón la reducción de la dimensión manteniendo altas tasas de reconocimiento es objetivo prioritario de los métodos de representación de los objetos biométricos. Como resultado de esta investigación se propone la representación de la información tridimensional mediante funciones, lográndose una representación compacta que aporta otras ventajas adicionales como la de representar la correlación entre los valores vecinos, y una notable simplificación del cálculo computacional. Los resultados alcanzados demuestran la validez del análisis funcional como vía de reconocimiento de rostros en tres dimensiones completos y con partes perdidas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT The representation of face data recorded in three dimensions with the aim of identifying people, while solving the problems of pose and illumination that affect the performance of two-dimensional systems, faces the problem of high data dimension, which causes classification errors because of the so-called "curse of dimensionality". For this reason, the reduction of the dimension maintaining high recognition rates is a priority objective of the methods of representation of the biometric objects. As a result of this research, we propose the representation of three-dimensional information through functions, achieving a compact representation that provides additional advantages such as representing the correlation between neighboring values, and a notable simplification of computational computation. The results obtained demonstrate the validity of the functional analysis as a way of recognition of faces in three dimensions complete and with lost parts.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Análisis de datos funcionales]]></kwd>
<kwd lng="es"><![CDATA[reconocimiento biométrico]]></kwd>
<kwd lng="es"><![CDATA[reducción de dimensión]]></kwd>
<kwd lng="en"><![CDATA[Functional data analysis]]></kwd>
<kwd lng="en"><![CDATA[biometric recognition]]></kwd>
<kwd lng="en"><![CDATA[dimension reduction]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Reconocimiento  biom&eacute;trico de rostros mediante el an&aacute;lisis de datos funcionales de sus modelos  tridimensionales</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Biometric  recognition of faces through the analysis of functional data of their  three-dimensional models</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Francisco Jos&eacute; Silva Mata<strong><sup>1*</sup></strong>, Anier Revilla Eng<strong><sup>1</sup></strong>, Isneri Talavera Bustamante</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><sup>1</sup>, &Aacute;ngel Augier<sup>2</sup>, Stefano Berretti<sup>3</sup></strong></font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1 </sup>Centro  de Aplicaciones de Tecnolog&iacute;as de Avanzada (CENATAV). 7a No. 21406 e/ 214 and  216, Siboney, Playa, La Habana, Cuba. CP 12200, {fjsilva, italavera}@cenatav.co.cu</font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br>     <sup>2 </sup>Universidad  de la Habana, Cuba    ]]></body>
<body><![CDATA[<br>       <sup>3 </sup>Universidad de Florencia, Italia    <br>       </font></p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:fjsilva@cenatav.co.cu">fjsilva@cenatav.co.cu</a><a href="mailto:jova@uci.cu"></a></font><font face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:losorio@ismm.edu.cu"></a> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La representaci&oacute;n de los datos del rostro registrados en tres  dimensiones con el objetivo de identificar personas, aunque resuelve los  problemas de pose e iluminaci&oacute;n que afectan el rendimiento de los sistemas  basados en dos dimensiones, enfrenta el problema de la alta dimensi&oacute;n de los  datos, lo cual provoca errores de clasificaci&oacute;n a causa de la llamada  &ldquo;maldici&oacute;n de la dimensionalidad&rdquo;. Por esta raz&oacute;n la reducci&oacute;n de la dimensi&oacute;n manteniendo  altas tasas de reconocimiento es objetivo prioritario de los m&eacute;todos de  representaci&oacute;n de los objetos biom&eacute;tricos. Como resultado de esta investigaci&oacute;n  se propone la representaci&oacute;n de la informaci&oacute;n tridimensional mediante  funciones, logr&aacute;ndose una representaci&oacute;n compacta que aporta otras ventajas  adicionales como la de representar la correlaci&oacute;n entre los valores vecinos, y  una notable simplificaci&oacute;n del c&aacute;lculo computacional. &nbsp;Los resultados alcanzados demuestran la  validez del an&aacute;lisis funcional como v&iacute;a de reconocimiento de rostros en tres  dimensiones completos y con partes perdidas. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">An&aacute;lisis  de datos funcionales, reconocimiento biom&eacute;trico, reducci&oacute;n de dimensi&oacute;n</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">The representation of face data recorded in three  dimensions with the aim of identifying people, while solving the problems of  pose and illumination that affect the performance of two-dimensional systems,  faces the problem of high data dimension, which causes classification errors  because of the so-called &quot;curse of dimensionality&quot;. For this reason,  the reduction of the dimension maintaining high recognition rates is a priority  objective of the methods of representation of the biometric objects. As a  result of this research, we propose the representation of three-dimensional  information through functions, achieving a compact representation that provides  additional advantages such as representing the correlation between neighboring  values, and a notable simplification of computational computation. The results  obtained demonstrate the validity of the functional analysis as a way of  recognition of faces in three dimensions complete and with lost parts.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>Functional  data analysis, biometric recognition, dimension reduction</font></p> <hr>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El reconocimiento de personas, consiste en determinar la identidad de las  personas mediante sus caracter&iacute;sticas f&iacute;sicas y/o de comportamiento. El reconocimiento biom&eacute;trico abarca el procesamiento autom&aacute;tico  de la escritura, las huellas digitales, la geometr&iacute;a de la mano, el rostro y  sus partes, la forma de caminar, la voz, o la combinaci&oacute;n de estas en los  llamados sistemas multibiom&eacute;tricos (Ross, Nandakumar &amp; Jain, 2006). En  particular el reconocimiento del rostro presenta ventajas sobre otros sistemas  biom&eacute;tricos, en cuanto a que es una t&eacute;cnica no invasiva y puede ser utilizada  tanto en aplicaciones p&uacute;blicas como encubiertas. Sin embargo, algunos elementos  complejizan el proceso de reconocimiento de rostro; como las variaciones de las  poses y las expresiones, las distintas fuentes de iluminaci&oacute;n, las sombras, el  comportamiento especular de la piel, la oclusi&oacute;n de sus partes por espejuelos o  prendas de vestir, el pelo, los maquillajes y el envejecimiento. &nbsp;Con el objetivo de enfrentar algunos de estos  problemas y teniendo en cuenta el desarrollo que en la &uacute;ltima d&eacute;cada han tenido  los dispositivos de captura tridimensionales (3d), puede asegurarse que, en el  futuro en vez de utilizar las im&aacute;genes de fotos o videos en dos dimensiones, se  utilicen im&aacute;genes 3d en los sistemas de reconocimiento de rostro, las cuales  tienen como ventajas principales que no son afectadas por algunos de los  factores anteriormente mencionados.    <br> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las nuevas  tecnolog&iacute;as de captura 3d abarcan esc&aacute;neres 3d (Boehnen &amp; Flynn, 2005),  sistemas estereosc&oacute;picos (Zappa et al., 2010).), sistemas con luz estructurada (Paysan  et al., 2009) o sistemas de im&aacute;genes de rango (Yan &amp; Bowyer, 2007) que se obtienen  mediante dispositivos que sensan la profundidad como las c&aacute;maras Kinect (Li et  al., 2013). Com&uacute;nmente estas tecnolog&iacute;as se complementan con aplicaciones que  permiten el perfeccionamiento de estos modelos, mediante el rellenado de huecos  (Xu et al., 2009), la regularizaci&oacute;n de la informaci&oacute;n (Zhang, Z. ,2012) y el  suavizado (Wang et al., 2010).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los modelos 3d sin  embargo presentan como desventaja principal la alta dimensi&oacute;n de los datos y la  forma no estructurada de la informaci&oacute;n de estos, lo cual dificulta su uso en  las aplicaciones reales. Estos contienen miles de puntos en forma de nube que  representan una superficie, que puede ser complementada con la informaci&oacute;n de  color, para ofrecer una visualizaci&oacute;n realista de los objetos, sin embargo,  este n&uacute;mero alto de puntos afecta el trabajo de clasificaci&oacute;n, debido al  conocido problema de la maldici&oacute;n de la dimensi&oacute;n (del ingl&eacute;s: <em>curse of dimensionality</em>) (Keogh &amp;  Mueen, 2011). A esta dificultad se suma el hecho de que en los escenarios posibles  de trabajo los modelos 3d de rostro completos y con alta calidad solo est&aacute;n almacenados  en bases de datos (BD) previamente registrados con condiciones controladas de  captura, pero aquellos capturados fuera de l&iacute;nea en condiciones no controladas,  pueden resultar incompletos, presentando partes perdidas u ocluidas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Con vistas a resolver la primera desventaja planteada  anteriormente se han aplicado en trabajos previos de reconocimiento de rostro  3d m&eacute;todos de reducci&oacute;n de la dimensi&oacute;n, logr&aacute;ndose tasas de reconocimiento superiores al 90% (Russ  et al., 2006; Wei &amp; Lie, 2010). Sin embargo, la dimensi&oacute;n de las  descripciones logradas en estos trabajos a&uacute;n es alta, y la eficacia medida como  tasa de reconocimiento no alcanza valores que permitan ser aplicados en  sistemas reales. Esta situaci&oacute;n problem&aacute;tica determin&oacute; como objetivo principal de  esta investigaci&oacute;n, la obtenci&oacute;n de una nueva representaci&oacute;n de modelos 3d de  rostro de menor dimensi&oacute;n que las conocidas y que permitiera a su vez obtener mayores  tasas de reconocimiento. Para lograrlo se decidi&oacute; utilizar representaciones  funcionales, las cuales permiten una gran compactaci&oacute;n de la informaci&oacute;n,  recuperan el car&aacute;cter continuo original de los datos, facilitan el c&aacute;lculo y  contienen de forma impl&iacute;cita la relaci&oacute;n entre las variables. Esta forma de  trabajo con los datos est&aacute; fundamentada en los trabajos de Ramsay (2006) sobre  el an&aacute;lisis de datos funcionales (en ingl&eacute;s: FDA). Basado en lo anteriormente  planteado se traz&oacute; como objetivo espec&iacute;fico la optimizaci&oacute;n de la  representaci&oacute;n funcional de los modelos 3d de rostros. Finalmente se realizaron  experimentos de reconocimiento con estas representaciones para validar sus  resultados.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Fundamentos</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Nuevo proceso  de reconocimiento de rostros 3d basado en el an&aacute;lisis de datos funcionales  (FDA)</strong>&nbsp;&nbsp;&nbsp;&nbsp;&nbsp;&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  representaci&oacute;n y reconocimiento de los rostros 3d se ha llevado a cabo mediante  una secuencia similar a la generalidad de los procesos de  reconocimiento biom&eacute;trico en cuanto a sus bloques l&oacute;gicos (Zhang, 2013), aunque  para el caso de la aplicaci&oacute;n del an&aacute;lisis funcional este tiene algunas particularidades  que ser&aacute;n descritas a continuaci&oacute;n siguiendo el esquema de la <a href="/img/revistas/rcci/v11n1/f0101117.jpg" target="_blank">Figura 1</a>. La  primera etapa consiste en la captura de los modelos 3d, los cuales pueden ser  capturados directamente de la informaci&oacute;n espacial tal como fue descrito en la  introducci&oacute;n, o pueden ser sintetizados a partir de im&aacute;genes 2d o de im&aacute;genes  de video (Park &amp; Jain, 2007).&nbsp; A este  paso sigue un proceso de normalizaci&oacute;n, donde es fundamental la alineaci&oacute;n. La  etapa de trabajo con los datos perdidos es opcional y depende de si los modelos  a identificar est&aacute;n incompletos. La etapa de selecci&oacute;n de bases se ha ubicado delante  de la representaci&oacute;n ya que debe determinarse previamente el conjunto de  funciones que va a ser utilizado. La representaci&oacute;n funcional obtenida es  optimizada mediante una correcta selecci&oacute;n de coeficientes tanto en su n&uacute;mero  total como en cu&aacute;les ser&aacute;n utilizados. Un paso adicional de reducci&oacute;n de la  dimensi&oacute;n contribuye a elevar la eficiencia y eficacia del sistema, cuyo paso final  consiste en el cotejo de las representaciones, mediante el c&aacute;lculo de  distancias funcionales. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Alineaci&oacute;n</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una vez capturados los modelos y realizado el  procesamiento mencionado en la secci&oacute;n anterior, el pr&oacute;ximo paso es el de  alineaci&oacute;n. El proceso de alineaci&oacute;n consiste en encontrar una posici&oacute;n del  origen de coordenadas y las direcciones de los ejes correspondientes &uacute;nica  respecto a cada objeto (rostro en este caso). La necesidad de realizar el paso  de alineaci&oacute;n se debe a que cuando los objetos son escaneados dif&iacute;cilmente los  ejes de referencia del objeto final, aun siendo de la misma persona resulten  iguales en posici&oacute;n y direcci&oacute;n. El problema de la alineaci&oacute;n de los modelos en  el caso de las representaciones funcionales es crucial, ya que para que dos  funciones sean comparables, sus valores deben estar referenciados al mismo  origen de coordenadas y a los mismos ejes. La alineaci&oacute;n necesita generalmente  puntos de referencia, que deben ser detectables como primer requerimiento. El  segundo requerimiento es que tiene que existir un patr&oacute;n para la alineaci&oacute;n de  todos los modelos y el patr&oacute;n escogido o creado debe ser el mejor posible. En  el art&iacute;culo de F.J. Silva-Mata (2016), se aborda el problema de la alineaci&oacute;n  detalladamente. Sin embargo, la soluci&oacute;n planteada logra resolver  satisfactoriamente el problema de la alineaci&oacute;n de rostros 3d cuando los  modelos est&aacute;n completos, es decir, que no tienen partes perdidas (Berretti, et  al, 2013), ni presenten problemas de oclusi&oacute;n (Drira et al., 2013). Como se ve  en la <a href="/img/revistas/rcci/v11n1/f0201117.jpg" target="_blank">Figura 2</a><a href="/img/revistas/rcci/v11n1/f020112017.jpg" target="_blank"></a>(izquierda), la alineaci&oacute;n de los modelos se realiza mediante el  c&aacute;lculo de los ejes principales de los rostros, que coinciden con los vectores  propios de un subconjunto de la nube de puntos de cada rostro.&nbsp; Para el proceso de alineaci&oacute;n de rostros  completos es fundamental localizaci&oacute;n correcta del punto &ldquo;pronasal&rdquo; (punto m&aacute;s  prominente de la nariz), para lo cual se ha utilizado el m&eacute;todo de (Xu et al.  2006). En la <a href="/img/revistas/rcci/v11n1/f0201117.jpg" target="_blank">Figura 2</a>(derecha), pueden verse las caracter&iacute;sticas geom&eacute;tricas que  facilitan su localizaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El punto &ldquo;pronasal&rdquo; en un porciento alto de los casos  est&aacute; presente, a&uacute;n en rostros con partes perdidas como se muestra en la <a href="/img/revistas/rcci/v11n1/f0301117.jpg" target="_blank">Figura  3</a><a href="/img/revistas/rcci/v11n1/f030112017.jpg" target="_blank"></a>. Las oclusiones por prendas superpuestas sobre el rostro com&uacute;nmente no  ocluyen este punto, como puede observarse en la <a href="/img/revistas/rcci/v11n1/f0301117.jpg" target="_blank">Figura  3</a>. El algoritmo de identificaci&oacute;n  del &ldquo;pronasal&rdquo; (Xu, et al., 2006), sin embargo; &nbsp;no trabaja bien cuando el conjunto de puntos  vecinos a este no est&aacute; completo. Por esta raz&oacute;n otros puntos caracter&iacute;sticos  del rostro como los utilizados en los modelos activo de forma (ASM: siglas del  ingl&eacute;s <em>Active Shape Model</em>) (Sohail  &amp; Bhattacharya, 2008) pueden ser usados. Los puntos interiores de los ojos  (&ldquo;endocanthions&rdquo;) por ejemplo, utilizados como referencia por algunos autores  para la alineaci&oacute;n de modelos, ver <a href="/img/revistas/rcci/v11n1/f0401117.jpg" target="_blank">Figura 4</a><a href="/img/revistas/rcci/v11n1/f040112017.jpg" target="_blank"></a> (izquierda y centro) (Wei et al., 2010),  son dif&iacute;ciles de detectar autom&aacute;ticamente en el caso 3d. &nbsp;Una alternativa posible para encontrar la  parte del rostro correspondiente y alinearla cuando esta tiene partes perdidas  u ocluidas, es la utilizaci&oacute;n de la geometr&iacute;a diferencial para la determinaci&oacute;n  de puntos caracter&iacute;sticos, y su caracterizaci&oacute;n mediante &nbsp;descriptores locales. En la <a href="/img/revistas/rcci/v11n1/f0401117.jpg" target="_blank">Figura 4</a> (derecha)  se muestran tres tipos de puntos extremos locales, seg&uacute;n (Polthier et al., 2007).  La correspondencia entre los puntos de la parte del rostro a identificar y del  patr&oacute;n es utilizada para detectarla, localizarla y alinearla. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Dominio  de representaci&oacute;n</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para que las representaciones funcionales sean  comparables, el dominio de estas debe coincidir. Normalmente el dominio de  representaci&oacute;n de los rostros se toma en un plano &ldquo;xy&rdquo;, cuya normal coincide  con la direcci&oacute;n del vector normal al punto &ldquo;pronasal&rdquo; y cuyo origen se  encuentra a una determinada distancia de este. De esta manera la funci&oacute;n tomar&aacute;  valores en el eje z para cada par (x,y). Otro elemento a tener en cuenta sobre el  dominio es que el mismo se ha restringido para evitar utilizar zonas de  representaci&oacute;n ruidosas, o poco identificativas.&nbsp; De acuerdo a investigaciones precedentes (Bowyer  et al., 2006), algunos autores se&ntilde;alan la parte del rostro centrada en el  &ldquo;pronasal&rdquo; y que contiene la boca y los ojos, como una regi&oacute;n discriminativa de  estos. El punto &ldquo;pronasal&rdquo; es pr&aacute;cticamente un centro natural de este dominio  respecto a sus coordenadas <img src="/img/revistas/rcci/v11n1/fo0101117.jpg" alt="fo01" width="78" height="19">. La <a href="/img/revistas/rcci/v11n1/f0501117.jpg" target="_blank">Figura 5</a><a href="/img/revistas/rcci/v11n1/f050112017.jpg" target="_blank"></a>(izquierda) presenta dos dominios  de representaci&oacute;n funcional de rostros 3d y sus correspondientes valores de la  superficie (z). </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Representaci&oacute;n  funcional inicial y completamiento en caso de partes perdidas.</font></strong> </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una  vez alineados (modelo o parte) es necesario definir una malla de muestreo que coincidentemente  es utilizada para la representaci&oacute;n funcional inicial de los modelos 3d de la  base de datos (BD). Mediante esta malla de control los datos que forman una  nube de puntos son representados funcionalmente, resultando una representaci&oacute;n  reducida en dimensi&oacute;n respecto al modelo inicial. Los requisitos que tiene que  cumplir esta malla de control est&aacute;n relacionados con el cumplimiento del  teorema de Nyquist-Shannon y con las bases que van a ser utilizadas para esta  representaci&oacute;n (D Porro-Mu&ntilde;oz et al., 2014). El modelo recuperado mediante esta  malla normalmente es suavizado, manteniendo normalmente la posibilidad de una visualizaci&oacute;n  con valor identificativo. La segunda funci&oacute;n de esta malla es servir como plantilla  para el completamiento de las partes vac&iacute;as de los modelos incompletos. Una vez  realizada la representaci&oacute;n funcional sobre esta malla, resulta trivial  determinar aquellos nodos de&nbsp; la malla a  los cuales no pudo asignarse ning&uacute;n valor durante el ajuste del modelo a  identificar. Estos nodos vac&iacute;os en la malla de control son&nbsp; llenados con los valores de los nodos de los  modelos con que se va a comparar en cada caso y que si tienen valor asignado.  En la <a href="/img/revistas/rcci/v11n1/f0501117.jpg" target="_blank">Figura 5</a>(derecha) se muestra el completamiento de un modelo incompleto. En  el caso de que los modelos no sean de la misma persona pueden ocurrir grandes  saltos o diferencias en la frontera entre las dos partes empalmadas, pero no  ocurre as&iacute; cuando los modelos son de la misma persona. Se sobreentiende que  para poder realizar este proceso de completamiento tienen que almacenarse los valores  de la imagen recuperados mediante la evaluaci&oacute;n de la funci&oacute;n representativa  inicial de los datos. Esto provoca un consumo adicional de memoria,&nbsp; en los casos que el modelo a identificar est&eacute;  incompleto en la zona efectiva de comparaci&oacute;n y una repetici&oacute;n del proceso de  ajuste para cada modelo a comparar. </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Selecci&oacute;n  de las funciones bases y la malla de control.</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las representaciones funcionales suelen  realizarse mediante las llamadas funciones bases.&nbsp; La utilizaci&oacute;n de funciones bases trae  consigo numerosas ventajas (F. J. Silva-Mata et al., 2016). De esta forma la  expresi&oacute;n general de la funci&oacute;n para el caso de datos tridimensionales de  rostro queda seg&uacute;n la ecuaci&oacute;n 1: </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0201117.jpg" alt="fo02" width="293" height="43"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <img src="/img/revistas/rcci/v11n1/fo0301117.jpg" width="78" height="23"> denota  el conjunto de las <em>K</em> funciones bases,  y {c<sub>k</sub>} representan  los coeficientes de la expansi&oacute;n. El paso de selecci&oacute;n de bases resulta crucial  para la obtenci&oacute;n de una representaci&oacute;n funcional optimizada como se describe  en (F. J. Silva-Mata et al., 2016).&nbsp; De  forma resumida, la selecci&oacute;n de bases comienza con la selecci&oacute;n del conjunto y  la determinaci&oacute;n del n&uacute;mero de coeficientes de la representaci&oacute;n inicial (desde  el de menor orden hasta el de mayor orden posible del n&uacute;mero <em>K</em> determinado), es decir el n&uacute;mero de  coeficientes que minimiza el error de representaci&oacute;n respecto a los datos  originales. La Ecuaci&oacute;n 2, muestra este concepto para un ejemplo de conjunto  base (splines).</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0401117.jpg" alt="fo04" width="418" height="95"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde w<sub>i</sub> , w<sub>j</sub> son  pesos positivos, y S<sub>1</sub> y S<sub>2</sub> son  espacios de splines univariados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  ajuste mediante el m&eacute;todo de los m&iacute;nimos cuadrados se lleva a cabo aplicando la  descomposici&oacute;n en valores singulares (SVD). En nuestro caso la determinaci&oacute;n  del n&uacute;mero <em>K</em> se realiz&oacute; mediante el  m&eacute;todo de &ldquo;<em>bootstrap</em>&rdquo; cuya principal  ventaja es la independencia de las particularidades de la descripci&oacute;n, y la de no  necesitar conocer de antemano la &ldquo;distribuci&oacute;n de los datos o los errores de  modelaci&oacute;n&rdquo; (Iskander, 2004). Posteriormente la selecci&oacute;n de coeficientes se  llev&oacute; a cabo an&aacute;logamente a como se hace la la selecci&oacute;n de atributos en representaciones  vectoriales, mediante el m&eacute;todo de selecci&oacute;n &ldquo;univariada&rdquo; (Harol et al., 2007).  Los mejores resultados se obtuvieron con el m&eacute;todo de estad&iacute;stica de  Chi-cuadrado (&chi;2) y el de ganancia de la informaci&oacute;n o entrop&iacute;a  respecto a la clase. Por &uacute;ltimo, se realiz&oacute; una reducci&oacute;n final de la dimensi&oacute;n  mediante el aprendizaje de variedades (del ingl&eacute;s: <em>manifolds</em>), en este caso &ldquo;variedades funcionales&rdquo;, aplicando el  an&aacute;lisis de componentes principales funcionales (en ingl&eacute;s: FPCA) (P-Mu&ntilde;oz,  D.et al, 2014). El conjunto final de coeficientes que representan un&iacute;vocamente  cada rostro finalmente es mucho menor que el <em>K</em> inicial calculado. La relaci&oacute;n entre el conjunto de funciones  bases seleccionado y el tipo y forma de la malla a utilizar es ejemplificado en  la <a href="/img/revistas/rcci/v11n1/f0601117.jpg" target="_blank">Figura 6</a> (izquierda y centro). El hecho de utilizar mallas uniformes  simplifica las representaciones. En la <a href="/img/revistas/rcci/v11n1/f0601117.jpg" target="_blank">Figura 6</a> (izquierda) se ha representado  una malla rectangular en coordenadas cartesianas (x,y), para  la representaci&oacute;n mediante B-splines (splines bivariadas) y en la Figura 6  (centro) se ha representado la malla circular en coordenadas  polares <img src="/img/revistas/rcci/v11n1/fo0501117.jpg" alt="fo05" width="42" height="25">para  la representaci&oacute;n mediante los polinomios circulares de Zernike (D. Porro-Mu&ntilde;oz  et al., 2014). </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Cotejo de representaciones funcionales</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aunque  existen varias definiciones de distancia entre funciones, se ha utilizado la  distancia inducida por el producto interno de funciones definida por la Ecuaci&oacute;n  3 correspondiente a la norma L<sub>n</sub> (Kolmogorov et al., 1999). Particularmente se  utilizaron la Distancia de Manhattan y la Distancia Euclidiana funcionales  coincidiendo con las que dieron mejores resultados en cada caso. </font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v11n1/fo0601117.jpg" alt="fo06" width="409" height="64"></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los experimentos se dividieron en tres casos. El  primero fue de reconocimiento de rostros completos. Se usaron las BD de rostros  3d Gavab (Moreno et al., 2004) y UF-3D (Bagdanov et al,2011), con los rostros  en posici&oacute;n frontal procesados para eliminar ruidos y huecos. Se utilizaron dos  modelos de cada persona y se alinearon. El patr&oacute;n de alineaci&oacute;n fue obtenido  mediante el criterio de correlaci&oacute;n (F. J. Silva Mata et al. 2016). Se  utilizaron dos conjuntos de funciones bases, las B-Splines (BVS) y los  polinomios de Zernike, circulares y anulares (CZP y AZP), en dos esquemas,  global (todo el objeto) y local (divisi&oacute;n en dos/tres regiones) respectivamente,  G y L en cada caso, ver <a href="/img/revistas/rcci/v11n1/f0601117.jpg" target="_blank">Figura 6</a> (derecha). La <a href="#t01">Tabla 1</a>, muestra los mejores resultados  obtenidos, el total de coeficientes, la distancia funcional, y la tasa de  reconocimiento (RR, ingl&eacute;s: <em>recognition &nbsp;rate</em>) &nbsp;de 1 vs. N. Los resultados del primer  experimento (rostros completos) demostraron la notable reducci&oacute;n de dimensi&oacute;n  de estas representaciones y las altas tasas de reconocimiento logradas entre el  95% y el 100%, (Porro- Mu&ntilde;oz et al., 2014), y un total de coeficientes entre 24  y 48 (dimensiones aprox. 1000 veces menores que las originales).</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0101117.jpg" alt="t01" width="543" height="225"><a name="t01"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el segundo experimento de reconocimiento (1 vs. N),  se usaron las B-Splines en los esquemas Global y Local y la base de datos BD  UF-3D en 3 posiciones: frontal, lateral izquierdo, lateral derecho. Ver <a href="#t02">Tabla  2</a>.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0201117.jpg" alt="t02" width="615" height="128"><a name="t02"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El tercer experimento repiti&oacute; en lo b&aacute;sico el segundo  experimento. La variaci&oacute;n introducida en este fue la identificaci&oacute;n de modelos  con partes perdidas. Para esto se usaron m&aacute;scaras (<a href="/img/revistas/rcci/v11n1/f0301117.jpg" target="_blank">Figura  3</a> (izquierda)) para  simular la ausencia de datos en la BD GavabDB (Moreno et al., 2004). Estas se  aplicaron en modelos alineados y con diferentes expresiones. &nbsp;Los resultados se presentan en la <a href="#t03">Tabla 3</a>.</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0301117.jpg" alt="t03" width="535" height="133"><a name="t03"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el segundo y tercer experimento las tasas de  reconocimiento de rostros con partes perdidas resultaron superiores al 93.3%. Estos  resultados son l&oacute;gicos, teniendo en cuenta que aunque los modelos est&aacute;n  incompletos (laterales), quedaron pr&aacute;cticamente alineados al ser rotados para  su completamiento, lo cual consideramos influy&oacute; positivamente en los  resultados. En el tercer experimento, las m&aacute;scaras para simular partes perdidas  se aplicaron sobre modelos alineados. En general los resultados demostraron que  en rostros 3d completos (dominio completo) se logran excelentes resultados de  eficacia y de eficiencia computacional al disminuir notablemente el tama&ntilde;o de  las representaciones, ahorrando espacio de memoria y tiempo computacional. Sin embargo,  a pesar de las altas tasas de reconocimiento obtenidas, no se puede aseverar lo  mismo respecto a la eficiencia, ya que es necesario mantener en memoria una  copia del modelo original representado funcionalmente, para realizar el  completamiento de las partes perdidas y volver a ajustar la funci&oacute;n (para todos  los modelos), lo que aumenta el costo computacional y el tiempo de ejecuci&oacute;n. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Futuras  investigaciones</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las futuras investigaciones deben estar encaminadas a la obtenci&oacute;n de  m&eacute;todos de b&uacute;squeda y alineaci&oacute;n de las partes incompletas en casos que simulen  la realidad, es decir con variaciones notables de la pose y cuando las partes  perdidas representen una parte considerable del rostro. Adem&aacute;s debe buscarse  una soluci&oacute;n que evite el almacenamiento del modelo recuperado original del  rostro para su completamiento. En esta direcci&oacute;n es necesario buscar nuevas  representaciones funcionales que permitan estas posibilidades.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las representaciones funcionales de rostros 3d lograron  un alto grado de compactaci&oacute;n de las representaciones y altas tasas de  reconocimiento en rostros completos o cuando estando incompletos las partes a  comparar est&aacute;n alineadas lo suficientemente bien, siendo las tasas de  reconocimiento en algunos casos mejores que las del estado del arte. La alineaci&oacute;n  de los modelos&nbsp; y la selecci&oacute;n de las  bases son cruciales para el buen desempe&ntilde;o de estos m&eacute;todos de reconocimiento  aplicando el FDA. Es posible aplicar representaciones funcionales&nbsp; en el reconocimiento de rostros con partes  perdidas, pero es necesario optimizar los m&eacute;todos de detecci&oacute;n, alineaci&oacute;n,  representaci&oacute;n &nbsp;y cotejo de las partes  incompletas. </font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BAGDANOV, A. D., DEL BIMBO, A. &amp; MASI, I. (2011). The  Florence 2D/3D hybrid face dataset. Proceedings of the 2011 joint ACM workshop  on Human gesture and behavior understanding (pp. 79-80). ACM.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BERRETTI, S., DEL BIMBO, A., &amp; PALA, P. (2013). Sparse  matching of salient facial curves for recognition of 3-D faces with missing  parts. Information Forensics and Security, IEEE Transactions on, 8(2), 374-389.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BERRETTI, S., WERGHI, N., DEL BIMBO, A., &amp; PALA, P. (2013).  Matching 3D face scans using interest points and local  histogram descriptors. Computers &amp; Graphics, 37(5), 509-525.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BOEHNEN,  C., &amp; FLYNN, P. (2005, June). Accuracy of 3D scanning technologies in a  face scanning scenario. In 3-D Digital Imaging and Modeling, 3DIM 2005. Fifth  International Conference on (pp. 310-317). IEEE.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BOWYER,  K. W., CHANG, K., &amp; FLYNN, P. (2006). A survey of approaches and challenges  in 3D and multi-modal 3D+ 2D face recognition. Computer vision and image  understanding, 101(1), 1-15.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DRIRA, H., BEN AMOR, B., SRIVASTAVA, A., DAOUDI, M.,  &amp; SLAMA, R. (2013). 3D face recognition under  expressions, occlusions, and pose variations. Pattern Analysis and Machine  Intelligence, IEEE Transactions on, 35(9), 2270-2283.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">F. J. SILVA-MATA, D. MUNOZ, S. BERRETTI, V. MENDIOLA-LAU, I. TALAVERA., N.  HERN&Aacute;NDEZ, Y. M. DIAZ (2016) Alineaci&oacute;n de Se&ntilde;ales e im&aacute;genes durante la  aplicaci&oacute;n del An&aacute;lisis de Datos Funcionales, RCF Vol33-1E</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">F. J. SILVA-MATA, D. MU&Ntilde;OZ, V. MENDIOLA-LAU, I. TALAVERA, &amp; A. AUGIER (2016)  Criterios y m&eacute;todos de selecci&oacute;n de bases y su impacto en el an&aacute;lisis de datos  funcionales. RCF Vol33-1E</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">HAROL, A., LAI, C., P&#280;KALSKA, E., &amp; DUIN, R. P. (2007).  Pairwise feature evaluation for constructing reduced  representations. Pattern Analysis and Applications, 10(1), 55-68.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ISKANDER,  D. R., MORELANDE, M. R., COLLINS, M. J. &amp; BUEHREN, T. (2004). A refined  bootstrap method for estimating the Zernike polynomial model order for corneal  surfaces. Biomedical Engineering, IEEE Transactions on, 51(12), 2203-2206</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">KEOGH,  E., &amp; MUEEN, A. (2011). Curse of dimensionality. In Encyclopedia of Machine  Learning (pp. 257-258). Springer US.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">KOLMOGOROV,  A.N., FOMIN, S.V. Nonparametric Functional Data Analysis Theory and Practice.  Dover Publications (1999)</font><!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">LI,  B. Y., MIAN, A., LIU, W., &amp; KRISHNA, A. (2013, January). Using kinect for  face recognition under varying poses, expressions, illumination and disguise.  In Applications of Computer Vision (WACV), 2013 IEEE Workshop on (pp. 186-192).  IEEE.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MORENO,  A. B., &amp; S&Aacute;NCHEZ, A. (2004, March). GavabDB: a 3D face database. In Proc.  2nd COST275 Workshop on Biometrics on the Internet, Vigo (Spain) (pp. 75-80).    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PARK,  U., &amp; JAIN, A. K. (2007). 3D model-based face recognition in video. In  Advances in Biometrics (pp. 1085-1094). Springer Berlin Heidelberg.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">P-MU&Ntilde;OZ,  D., SILVA MATA, F. J., HERN&Aacute;NDEZ, N. &amp; TALAVERA, I. (2014). El an&aacute;lisis de datos funcionales como alternativa para el reconocimiento  autom&aacute;tico de im&aacute;genes biom&eacute;tricas: aplicaci&oacute;n en el iris. Computaci&oacute;n  y Sistemas, 18(1), 111-121.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PAYSAN,  P., KNOTHE, R., AMBERG, B., ROMDHANI, S., &amp; VETTER, T. (2009, September). A  3D face model for pose and illumination invariant face recognition. In Advanced  video and signal based surveillance, 2009. AVSS'09. Sixth IEEE International  Conference on (pp. 296-301). IEEE.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">POLTHIER,  K., HILDEBRANDT, K., PREUSS, E., &amp; REITEBUCH, U. (2007). JavaView, version  3.95.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PORRO-MU&Ntilde;OZ, D., SILVA-MATA, F. J., REVILLA-ENG, A., Talavera-Bustamante,  I., &amp; Berretti, S. (2014). 3D Face Recognition by Functional  Data Analysis. Progress in Pattern Recognition, Image Analysis, Computer  Vision, and Applications (pp. 818- 826). Springer International Publishing.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">RAMSAY,  J. O. (2006). Functional data analysis. John Wiley &amp; Sons, Inc.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ROSS,  A. A., NANDAKUMAR, K., &amp; JAIN, A. (2006). Handbook of multibiometrics (Vol.  6). Springer Science &amp; Business Media.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">RUSS,  T., BOEHNEN, C., &amp; PETERS, T. (2006). 3D face recognition using 3D  alignment for PCA. Computer Vision and Pattern Recognition, IEEE Computer  Society Conference on (Vol. 2, pp. 1391-1398). IEEE.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SOHAIL,  A. S. M., &amp; BHATTACHARYA, P. (2008). Detection of facial feature points using  anthropometric face model. &nbsp;Signal  Processing for Image Enhancement and Multimedia Processing (pp. 189-200).  Springer US.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">WANG,  Y., LIU, J., &amp; TANG, X. (2010). Robust 3D face recognition by local shape difference  boosting. Pattern Analysis and Machine Intelligence, IEEE Transactions on,  32(10), 1858-1870.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">WEI, CHIA-HUNG, LIE. YUE  (2010). Machine Learning Techniques for Adaptive Multimedia Retrieval, Cap&iacute;tulo  4, p&aacute;g 71 IGI GLOBAL (2010).     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">XU,  C., LI, S., TAN, T., &amp; QUAN, L. (2009). Automatic 3D face recognition from  depth and intensity Gabor features. Pattern recognition, 42(9), 1895-1905.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">XU,  C., TAN, T., WANG, Y., &amp; QUAN, L. (2006). Combining local features for  robust nose location in 3D facial data. Pattern Recognition Letters, 27(13),  1487-1494.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">YAN,  P., &amp; BOWYER, K. W. (2007). Biometric recognition using 3D ear shape.  Pattern Analysis and Machine Intelligence, IEEE Transactions on, 29(8),  1297-1308.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ZAPPA, E., MAZZOLENI, P., &amp; HAI, Y. (2010). Stereoscopy  based 3D face recognition system. Procedia Computer Science, 1(1), 2521-2528.</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ZHANG,  D. D. (2013). Automated biometrics: Technologies and systems (Vol. 7). Springer  Science &amp; Business Media. Cap. 4 p&aacute;g. 64</font><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ZHANG,  Z. (2012). Microsoft kinect sensor and its effect. MultiMedia, IEEE,  19(2), 4-10. </font></p>     <p name="_ENREF_1">&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 03/09/2016    <br> Aceptado: 20/12/2016</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BAGDANOV]]></surname>
<given-names><![CDATA[A. D]]></given-names>
</name>
<name>
<surname><![CDATA[DEL BIMBO]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[MASI]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<source><![CDATA[The Florence 2D/3D hybrid face dataset]]></source>
<year>2011</year>
<page-range>pp. 79-80</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BERRETTI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[DEL BIMBO]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[PALA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Sparse matching of salient facial curves for recognition of 3-D faces with missing parts]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>8</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>374-389</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BERRETTI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[WERGHI]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[DEL BIMBO]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[PALA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Matching 3D face scans using interest points and local histogram descriptors.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>37</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>509-525</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BOEHNEN]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[FLYNN]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Accuracy of 3D scanning technologies in a face scanning scenario]]></source>
<year>2005</year>
<month>, </month>
<day>Ju</day>
<page-range>310-317</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BOWYER]]></surname>
<given-names><![CDATA[K. W]]></given-names>
</name>
<name>
<surname><![CDATA[CHANG]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[FLYNN]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of approaches and challenges in 3D and multi-modal 3D+ 2D face recognition]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>101</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>1-15</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DRIRA]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[AMOR]]></surname>
<given-names><![CDATA[BEN]]></given-names>
</name>
<name>
<surname><![CDATA[SRIVASTAVA]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[DAOUDI]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[SLAMA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[3D face recognition under expressions, occlusions, and pose variations.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>35</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>2270-2283</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SILVA-MATA]]></surname>
<given-names><![CDATA[F. J.]]></given-names>
</name>
<name>
<surname><![CDATA[MUNOZ]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[BERRETTI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[MENDIOLA-LAU]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[TALAVERA]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[HERNÁNDEZ]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[DIAZ]]></surname>
<given-names><![CDATA[Y. M]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Alineación de Señales e imágenes durante la aplicación del Análisis de Datos Funcionales]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>Vol33</volume>
<numero>1E</numero>
<issue>1E</issue>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SILVA-MATA]]></surname>
<given-names><![CDATA[F. J]]></given-names>
</name>
<name>
<surname><![CDATA[MUÑOZ]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[MENDIOLA-LAU]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[TALAVERA]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[AUGIER]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Criterios y métodos de selección de bases y su impacto en el análisis de datos funcionales]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>Vol33</volume>
<numero>1E</numero>
<issue>1E</issue>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HAROL]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[LAI]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[P&#280;KALSKA]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[DUIN]]></surname>
<given-names><![CDATA[R. P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Pairwise feature evaluation for constructing reduced representations.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>10</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>55-68</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ISKANDER]]></surname>
<given-names><![CDATA[D. R]]></given-names>
</name>
<name>
<surname><![CDATA[MORELANDE]]></surname>
<given-names><![CDATA[M. R]]></given-names>
</name>
<name>
<surname><![CDATA[COLLINS]]></surname>
<given-names><![CDATA[M. J]]></given-names>
</name>
<name>
<surname><![CDATA[BUEHREN]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A refined bootstrap method for estimating the Zernike polynomial model order for corneal surfaces.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>51</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>2203-2206</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KEOGH]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[MUEEN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Curse of dimensionality]]></source>
<year>2011</year>
<page-range>257-258</page-range><publisher-name><![CDATA[Springer US.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KOLMOGOROV]]></surname>
<given-names><![CDATA[A.N]]></given-names>
</name>
<name>
<surname><![CDATA[FOMIN]]></surname>
<given-names><![CDATA[S.V]]></given-names>
</name>
</person-group>
<source><![CDATA[Nonparametric Functional Data Analysis Theory and Practice.]]></source>
<year>1999</year>
<publisher-name><![CDATA[Dover Publications]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[B. Y]]></given-names>
</name>
<name>
<surname><![CDATA[MIAN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[LIU]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
<name>
<surname><![CDATA[KRISHNA]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Using kinect for face recognition under varying poses, expressions, illumination and disguise.]]></source>
<year>2013</year>
<month>, </month>
<day>Ja</day>
<page-range>186-192</page-range><publisher-name><![CDATA[IEEE Workshop]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MORENO]]></surname>
<given-names><![CDATA[A. B]]></given-names>
</name>
<name>
<surname><![CDATA[SÁNCHEZ]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[GavabDB: a 3D face database]]></source>
<year>2004</year>
<month>, </month>
<day>Ma</day>
<page-range>75-80</page-range><publisher-loc><![CDATA[^eVigo Vigo]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PARK]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
<name>
<surname><![CDATA[JAIN]]></surname>
<given-names><![CDATA[A. K]]></given-names>
</name>
</person-group>
<source><![CDATA[3D model-based face recognition in video]]></source>
<year>2007</year>
<page-range>1085-1094</page-range><publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[P-MUÑOZ]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[SILVA MATA]]></surname>
<given-names><![CDATA[F. J]]></given-names>
</name>
<name>
<surname><![CDATA[HERNÁNDEZ]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[TALAVERA]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[El análisis de datos funcionales como alternativa para el reconocimiento automático de imágenes biométricas: aplicación en el iris]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>18</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>111-121</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PAYSAN]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[KNOTHE]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[AMBERG]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[ROMDHANI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[VETTER]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[A 3D face model for pose and illumination invariant face recognition]]></source>
<year>2009</year>
<month>, </month>
<day>Se</day>
<page-range>296-301</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[POLTHIER]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[HILDEBRANDT]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[PREUSS]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[REITEBUCH]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
</person-group>
<source><![CDATA[JavaView, version 3.95.]]></source>
<year>2007</year>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PORRO-MUÑOZ]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[SILVA-MATA]]></surname>
<given-names><![CDATA[F. J]]></given-names>
</name>
<name>
<surname><![CDATA[REVILLA-ENG]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Talavera-Bustamante]]></surname>
<given-names><![CDATA[I]]></given-names>
</name>
<name>
<surname><![CDATA[Berretti]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[3D Face Recognition by Functional Data Analysis. Progress in Pattern Recognition, Image Analysis]]></source>
<year>2014</year>
<page-range>818- 826</page-range><publisher-name><![CDATA[Springer International Publishing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RAMSAY]]></surname>
<given-names><![CDATA[J. O]]></given-names>
</name>
</person-group>
<source><![CDATA[Functional data analysis]]></source>
<year>2006</year>
<publisher-name><![CDATA[John Wiley & Sons, Inc]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ROSS]]></surname>
<given-names><![CDATA[A. A]]></given-names>
</name>
<name>
<surname><![CDATA[NANDAKUMAR]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[JAIN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Handbook of multibiometrics]]></source>
<year>2006</year>
<volume>Vol. 6</volume>
<publisher-name><![CDATA[Springer Science & Business Media.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RUSS]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[BOEHNEN]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[PETERS]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[3D face recognition using 3D alignment for PCA.]]></source>
<year>2006</year>
<volume>Vol. 2,</volume>
<page-range>1391-1398</page-range><publisher-name><![CDATA[IEEE Computer Society Conference]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SOHAIL]]></surname>
<given-names><![CDATA[A. S. M]]></given-names>
</name>
<name>
<surname><![CDATA[BHATTACHARYA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Detection of facial feature points using anthropometric face model.]]></source>
<year>2008</year>
<page-range>189-200</page-range><publisher-name><![CDATA[Springer US]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WANG]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[LIU]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[TANG]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Robust 3D face recognition by local shape difference boosting]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>32</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1858-1870</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CHIA-HUNG]]></surname>
<given-names><![CDATA[WEI]]></given-names>
</name>
<name>
<surname><![CDATA[YUE]]></surname>
<given-names><![CDATA[LIE]]></given-names>
</name>
</person-group>
<source><![CDATA[Machine Learning Techniques for Adaptive Multimedia Retrieval]]></source>
<year>2010</year>
<page-range>pág 71</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[XU]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[TAN]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[QUAN]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Automatic 3D face recognition from depth and intensity Gabor features.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>42</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>1895-1905</page-range></nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[XU]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[TAN]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[WANG]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[QUAN]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Combining local features for robust nose location in 3D facial data.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>27</volume>
<numero>13</numero>
<issue>13</issue>
<page-range>1487-1494</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YAN]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[BOWYER]]></surname>
<given-names><![CDATA[K. W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Biometric recognition using 3D ear shape]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>29</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>1297-1308</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B29">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZAPPA]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[MAZZOLENI]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[HAI]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Stereoscopy based 3D face recognition system]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>1</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>2521-2528</page-range></nlm-citation>
</ref>
<ref id="B30">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZHANG]]></surname>
<given-names><![CDATA[D. D]]></given-names>
</name>
</person-group>
<source><![CDATA[Automated biometrics: Technologies and systems]]></source>
<year>2013</year>
<volume>Vol. 7</volume>
<page-range>pág. 64</page-range><publisher-name><![CDATA[Springer Science & Business Media]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B31">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZHANG]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Microsoft kinect sensor and its effect]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>19</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>4-10</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
