<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992017000100005</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Segmentación consenso y matriz de co-ocurrencia ordinal en el reconocimiento del iris]]></article-title>
<article-title xml:lang="en"><![CDATA[Consensus segmentation and ordinal co-occurrence matrix in iris recognition]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Osorio Roig]]></surname>
<given-names><![CDATA[Dailé]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Chacón Cabrera]]></surname>
<given-names><![CDATA[Yasser]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Garea Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV).  ]]></institution>
<addr-line><![CDATA[Playa La Habana]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>03</month>
<year>2017</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>03</month>
<year>2017</year>
</pub-date>
<volume>11</volume>
<numero>1</numero>
<fpage>58</fpage>
<lpage>72</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992017000100005&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992017000100005&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992017000100005&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN En los últimos años la identificación biométrica de personas ha ido cobrando gran importancia en el mundo a partir de sus aplicaciones en múltiples escenarios, sobre todo aquellas aplicaciones encaminadas a la seguridad de fronteras, controles de acceso y forenses. En este trabajo se realiza una breve introducción a los sistemas de reconocimiento de personas por el iris y se abordan dos de sus temáticas, que actualmente se encuentran en proceso de investigación. El proceso de segmentación del iris, en una imagen tomada del ojo de una persona, es abordado a partir de la descripción de las investigaciones que los autores han desarrollado en el tema de la fusión de segmentaciones y su mejoramiento. En esta temática es utilizado el concepto de segmentación consenso para mejorar la robustez en el reconocimiento de iris con respecto a la realización de una simple segmentación. El proceso de extracción de rasgos del iris es abordado mediante la descripción de una representación propuesta por los autores sobre la base de los rasgos ordinales de la matriz de co-ocurrencia, para un sistema de reconocimiento de iris, que eleva la exactitud en el reconocimiento. Los resultados experimentales descritos y realizados sobre bases de datos internacionales de referencias, muestran la pertinencia y robustez de estas propuestas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT In recent years, the biometric identification of people has gained great importance in the world from its applications in multiple scenarios, especially those applications aimed at border security, access controls and forensics. In this article, a brief introduction to the systems of recognition of people by the iris is made and two of their subjects are addressed, which are currently under research. The process of segmentation of the iris, in an image taken from the eye of a person, is approached from the description of the investigations that the authors have developed in the subject of the fusion of segmentations and their improvement. In this theme the concept of consensus segmentation is used to improve the robustness of the iris recognition with respect to the simple segmentation. The process of iris feature extraction is addressed by describing a representation proposed by the authors based on the ordinal features of the co-occurrence matrix, for an iris recognition system, which raises accuracy in recognition. The experimental results described and performed on international databases of references, show the relevance and robustness of these proposals.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Fusión de segmentaciones]]></kwd>
<kwd lng="es"><![CDATA[segmentación en el iris]]></kwd>
<kwd lng="es"><![CDATA[segmentación consenso]]></kwd>
<kwd lng="es"><![CDATA[extracción de rasgos]]></kwd>
<kwd lng="es"><![CDATA[medidas ordinales]]></kwd>
<kwd lng="es"><![CDATA[matriz de co-ocurrencia ordinal]]></kwd>
<kwd lng="en"><![CDATA[Fusion of segmentations]]></kwd>
<kwd lng="en"><![CDATA[iris segmentation]]></kwd>
<kwd lng="en"><![CDATA[consensus segmentation]]></kwd>
<kwd lng="en"><![CDATA[trait extraction]]></kwd>
<kwd lng="en"><![CDATA[ordinal measures]]></kwd>
<kwd lng="en"><![CDATA[ordinal co-occurrence matrix]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Segmentaci&oacute;n consenso  y matriz de co-ocurrencia ordinal en el reconocimiento del iris</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Consensus  segmentation and ordinal co-occurrence matrix in iris recognition</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Dail&eacute; Osorio Roig<strong><sup>1*</sup></strong>, Yasser Chac&oacute;n Cabrera<strong><sup>1</sup></strong>, Eduardo Garea Llano</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><sup>1</sup></strong></font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Centro de  Aplicaciones de Tecnolog&iacute;as de Avanzada (CENATAV). 7a No. 21406 e/ 214 and 216,  Siboney, Playa, La Habana, Cuba. CP  12200, <a href="mailto:Dosorioroig@gmail.com">dosorioroig@gmail.com</a>, <a href="mailto:ychacon@cenatav.co.cu">ychacon@cenatav.co.cu</a>, <a href="mailto:egarea@cenatav.co.cu">egarea@cenatav.co.cu</a></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br>     ]]></body>
<body><![CDATA[<br>       </font></p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:Dosorioroig@gmail.com">dosorioroig@gmail.com</a><a href="mailto:fjsilva@cenatav.co.cu"></a><a href="mailto:jova@uci.cu"></a></font><font face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:losorio@ismm.edu.cu"></a> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los &uacute;ltimos a&ntilde;os la identificaci&oacute;n biom&eacute;trica  de personas ha ido cobrando gran importancia en el mundo a partir de sus  aplicaciones en m&uacute;ltiples escenarios, sobre todo aquellas aplicaciones  encaminadas a la seguridad de fronteras, controles de acceso y forenses. En  este trabajo se realiza una breve  introducci&oacute;n a los sistemas de reconocimiento de personas por el iris y se  abordan dos de sus tem&aacute;ticas, que actualmente se encuentran en proceso de  investigaci&oacute;n. El proceso de segmentaci&oacute;n del iris, en una imagen tomada del  ojo de una persona, es abordado a partir de la descripci&oacute;n de las  investigaciones que los autores han desarrollado en el tema de la fusi&oacute;n de  segmentaciones y su mejoramiento. En esta tem&aacute;tica es utilizado el concepto de  segmentaci&oacute;n consenso para mejorar la robustez en el reconocimiento de iris con  respecto a la realizaci&oacute;n de una simple segmentaci&oacute;n. El proceso de extracci&oacute;n  de rasgos del iris es abordado mediante la descripci&oacute;n de una representaci&oacute;n  propuesta por los autores sobre la base de los rasgos ordinales de la matriz de  co-ocurrencia, para un sistema de reconocimiento de iris, que eleva la  exactitud en el reconocimiento. Los resultados experimentales descritos y  realizados sobre bases de datos internacionales de referencias, muestran la  pertinencia y robustez de estas propuestas. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Fusi&oacute;n de segmentaciones, segmentaci&oacute;n en el  iris, segmentaci&oacute;n consenso, extracci&oacute;n de rasgos, medidas ordinales, matriz de  co-ocurrencia ordinal.</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">In recent years, the  biometric identification of people has gained great importance in the world  from its applications in multiple scenarios, especially those applications  aimed at border security, access controls and forensics. In this article, a  brief introduction to the systems of recognition of people by the iris is made and  two of their subjects are addressed, which are currently under research. The  process of segmentation of the iris, in an image taken from the eye of a  person, is approached from the description of the investigations that the  authors have developed in the subject of the fusion of segmentations and their  improvement. In this theme the concept of consensus segmentation is used to  improve the robustness of the iris recognition with respect to the simple  segmentation. The process of iris feature extraction is addressed by describing  a representation proposed by the authors based on the ordinal features of the  co-occurrence matrix, for an iris recognition system, which raises accuracy in  recognition. The experimental results described and performed on international  databases of references, show the relevance and robustness of these proposals.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>Fusion of segmentations,  iris segmentation, consensus segmentation, trait extraction, ordinal measures,  ordinal co-occurrence matrix.</font></p> <hr>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La biometr&iacute;a es definida como el estudio de los m&eacute;todos para la medici&oacute;n de  los atributos f&iacute;sicos, biol&oacute;gicos o de comportamiento, que son utilizados para  la identificaci&oacute;n de personas. Dentro del campo de la biometr&iacute;a, las huellas  dactilares el rostro y el iris son considerados  en la actualidad los m&eacute;todos biom&eacute;tricos m&aacute;s utilizados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El reconocimiento del iris es una de las modalidades biom&eacute;tricas que m&aacute;s  auge ha alcanzado en los &uacute;ltimos 25 a&ntilde;os, debido a su car&aacute;cter &uacute;nico como  caracter&iacute;stica biom&eacute;trica y biol&oacute;gica (ISO/IEC, 2005), lo que hace que los  sistemas de identificaci&oacute;n y verificaci&oacute;n basados en iris sean uno de los m&aacute;s  exactos y muy dif&iacute;cil de suplantar.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El uso de la  modalidad biom&eacute;trica del iris en aplicaciones espec&iacute;ficas involucra a una serie  de 7 factores identificados por Jain et al., (2002, 2004, 2007) que est&aacute;n  presentes en un sistema de identificaci&oacute;n de esta naturaleza: </font></p> <ul>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Universalidad</em> (todo el mundo posee la caracter&iacute;stica), significa que toda persona posee  las caracter&iacute;sticas de textura del iris.</font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Unicidad</em> (la caracter&iacute;stica es diferente para todo el mundo), significa que los  rasgos de textura del iris son lo suficientemente diferentes para cada  individuo, de tal manera que estos pueden ser distinguidos uno del otro. El patr&oacute;n del iris es epigen&eacute;tico  (no determinado gen&eacute;ticamente).</font></p>   </li>       ]]></body>
<body><![CDATA[<li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Diferencialidad</em> (alto poder discriminativo debido a su entrop&iacute;a). La aleatoriedad del  patr&oacute;n del iris tiene una alta dimensionalidad la que es superior a los 266  grados de libertad (Daugman, 1998).&nbsp; </font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Permanencia</em> (la caracter&iacute;stica se mantiene invariante en el tiempo de vida, excepto  por cambios de pigmentaci&oacute;n en el tiempo), significa que la textura del iris se  mantiene invariante en el tiempo. </font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Medibilidad </em>(la caracter&iacute;stica es f&aacute;cil de capturar), se refiere a la facilidad de  adquisici&oacute;n de la imagen de la textura del iris. La imagen adquirida debe estar  en un formato que permita el procesamiento subsecuente y la extracci&oacute;n del  conjunto de rasgos relevantes. </font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Desempe&ntilde;o, </em>se refiere a la exactitud, velocidad y robustez de la tecnolog&iacute;a utilizada  en todo el proceso. </font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Aceptabilidad </em>(la caracter&iacute;stica es no invasiva), se refiere a lo bien que las personas  aceptan la tecnolog&iacute;a en la modalidad biom&eacute;trica del iris. La captura de la  imagen de iris es no-invasiva. </font></p>   </li>       ]]></body>
<body><![CDATA[<li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>Imitabilidad (imitabilidad de la caracter&iacute;stica)</em>, relativo a la facilidad o no de que el iris  humano sea imitado o falsificado utilizando artefactos o sustitutos. </font></p>   </li>     </ul>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un sistema de reconocimiento de iris puede operar en dos modos. En  modo autentificaci&oacute;n-verificaci&oacute;n el sistema realiza la comparaci&oacute;n uno-a-uno  del conjunto de rasgos del iris, capturados con una plantilla (IrisCode) almacenada en una base de datos de iris, con el  objetivo de verificar si la persona es quien dice ser. En el modo de  identificaci&oacute;n el sistema efect&uacute;a una comparaci&oacute;n de uno-a-muchos contra una  base de datos de iris, para establecer la identidad de un individuo  desconocido. El sistema ser&aacute; exitoso en la identificaci&oacute;n de la persona si la  comparaci&oacute;n del iris de entrada con una plantilla de iris en la base de datos  est&aacute; dentro de un umbral previamente definido. El modo de identificaci&oacute;n puede  ser utilizado tambi&eacute;n para el &ldquo;reconocimiento positivo (el usuario no tiene que  brindar ninguna informaci&oacute;n sobre la plantilla a utilizar) o para el  &ldquo;reconocimiento negativo&rdquo; de la persona donde el sistema determina si la  persona es quien (impl&iacute;cita o expl&iacute;citamente) niega ser.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El reconocimiento de iris es actualmente uno de las  t&eacute;cnicas biom&eacute;tricas m&aacute;s exactas. Sin embargo, el desempe&ntilde;o de tales sistemas  puede ser reducido en condiciones no-ideales, tales como la no voluntariedad,  el movimiento o la no colaboraci&oacute;n (Labati et al., 2012). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En un sistema de reconocimiento de iris, el  pre-procesamiento, especialmente la localizaci&oacute;n del iris juega un papel muy  importante (S&aacute;nchez et al., 2014&ordf;). La velocidad y el desempe&ntilde;o de un sistema  de esta &iacute;ndole son cruciales y est&aacute;n limitados en gran medida por la  localizaci&oacute;n o segmentaci&oacute;n del iris. La segmentaci&oacute;n del iris incluye  encontrar las fronteras del iris (interior y exterior) y la pesta&ntilde;as (superior  e inferior) (Cui et al., 2004). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este sentido recientes estudios han demostrado que la  fusi&oacute;n en el nivel de segmentaci&oacute;n (S&aacute;nchez et al 2014b, Garea et al., 2015) ha  contribuido a la robustez en el reconocimiento de iris con respecto a la  realizaci&oacute;n de una simple segmentaci&oacute;n. En este trabajo presentamos un enfoque  (Osorio y Garea, 2016) en el cual, dado un conjunto de segmentaciones  iniciales, podemos establecer segmentaciones consenso que pueden mejorar los  resultados de dichas segmentaciones iniciales, y adem&aacute;s si estas son combinadas  mediante la fusi&oacute;n, es posible superar el resultado del proceso de fusi&oacute;n con  las segmentaciones iniciales. Este mecanismo se basa en el enfoque de la  partici&oacute;n de la mediana pesada. La imagen de ojo es tratada como un conjunto de  p&iacute;xeles, las diferentes segmentaciones se tratan como un subconjunto del  conjunto de p&iacute;xeles, teniendo en cuenta esta modelaci&oacute;n del problema podemos aplicar  t&eacute;cnicas de agrupamiento de conjunto para construir segmentaciones consenso.  Esta propuesta contribuye a la obtenci&oacute;n de segmentaciones m&aacute;s precisas y  robustas. El esquema propuesto fue evaluado en dos bases de datos  internacionales Casia V3-Interval y Casia.V4-Thousand demostrando ser un  enfoque prometedor para lograr sustanciales aumentos de la eficacia en el  reconocimiento de personas por el iris.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Otra tarea importante en el proceso de reconocimiento del  iris es la extracci&oacute;n de rasgos de los patrones de textura del iris. El  concepto general de Proceso Biom&eacute;trico de Extracci&oacute;n de Rasgos es definido como  el proceso aplicado a la muestra biom&eacute;trica con la intenci&oacute;n de extraer n&uacute;meros  o etiquetas distintivas y repetibles que puedan ser comparables a las que se  extraen de otras muestras biom&eacute;tricas.     <br>   Las investigaciones de los m&eacute;todos de extracci&oacute;n de  rasgos (Chac&oacute;n et al., 2014) para el reconocimiento del iris han sido dirigidas  a obtener t&eacute;cnicas y algoritmos para el reconocimiento robusto del iris. Sin  embargo, un asunto clave y un tema abierto en el reconocimiento del iris es c&oacute;mo  lograr una mejor representaci&oacute;n de la informaci&oacute;n de textura del iris  utilizando un conjunto compacto de rasgos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los &uacute;ltimos 30 a&ntilde;os han sido propuestos una  gran cantidad de algoritmos que buscan una mejor descripci&oacute;n de la textura del  iris humano. El problema todav&iacute;a est&aacute; en encontrar rasgos que sean robustos a  las diferentes condiciones en las que pueden ser capturadas las im&aacute;genes. En  este cap&iacute;tulo se describe tambi&eacute;n una representaci&oacute;n de la textura del iris  basada en los rasgos de la matriz de co-ocurrencia ordinal (OCMF) para  un sistema de reconocimiento de iris que eleva la exactitud en el  reconocimiento (Chac&oacute;n et al, 2015). La novedad de esta propuesta est&aacute; en la  nueva estrategia para aplicar un m&eacute;todo de extracci&oacute;n de rasgos robusto para la  descripci&oacute;n de la textura del iris. Los experimentos en </font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">las bases de datos Casia-Interval, Casia-Thousand y  Ubiris-V1 muestran que el esquema propuesto incrementa la exactitud del  reconocimiento y es robusta a diferentes condiciones de captura de las  im&aacute;genes. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La estructura del trabajo es la siguiente, en el desarrollo  se definen dos fundamentos, en el fundamento 1 se introduce el primer tema  abordado relacionado con la segmentaci&oacute;n consenso en el proceso de fusi&oacute;n de  segmentaciones, en el fundamento 2 se introduce el segundo tema abordado  relacionado con la descripci&oacute;n textural del iris utilizando los rasgos de la  matriz de co-ocurrencia ordinal. Luego son presentados los resultados obtenidos  en ambas tem&aacute;ticas. Finalmente se ofrecen las conclusiones de este trabajo.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las t&eacute;cnicas de agrupamiento de conjunto han contribuido de una manera  eficiente y eficaz para tratar con problemas de agrupamiento de datos (Vega et al. 2011). Adem&aacute;s, se conoce que, si  al mismo conjunto de datos son aplicados muchos algoritmos de agrupamiento, se  obtienen diferentes resultados. En este caso la idea de buscar el mejor  agrupamiento no ser&iacute;a la soluci&oacute;n. A partir de esta idea es que surge la  propuesta de combinar estos resultados individuales con el objetivo de obtener  un consenso (Vega et al., 2010). Algunos autores (Fred et al. 2005), (Franek et al. 2011 ), (Vega, 2010)  han probado esta propuesta con el objetivo de demostrar que la  aplicaci&oacute;n de algoritmos de agrupamiento de conjunto es posible en problemas de  segmentaci&oacute;n de imagen.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Espec&iacute;ficamente en el reconocimiento del iris la segmentaci&oacute;n de consenso  (S*) es aplicada como un mecanismo para mejorar las segmentaciones antes del  proceso de fusi&oacute;n. Esta segmentaci&oacute;n consenso es construida a trav&eacute;s de una  t&eacute;cnica de agrupamiento de conjunto basada en <em>Weighted Partition Consensus</em> via kernels (WPCK), m&eacute;todo introducido  en (Vega et al., 2010). Inicialmente cada segmentaci&oacute;n inicial es modelada como  partici&oacute;n del conjunto p&iacute;xeles, donde cada segmentaci&oacute;n estar&aacute; particionada por  diferentes grupos de p&iacute;xeles. Cada grupo de cada segmentaci&oacute;n pertenecer&aacute; a la  misma regi&oacute;n de cada segmentaci&oacute;n, respetando su relaci&oacute;n espacial y el color  de los p&iacute;xeles de un mismo grupo. Seguidamente la segmentaci&oacute;n consenso es  calculada mediante la siguiente ecuaci&oacute;n basada en WPCK:</font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0105117.jpg" alt="fo01" width="312" height="32"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <img src="/img/revistas/rcci/v11n1/fo0205117.jpg" alt="fo02" width="43" height="14">, debido  a que <em>k</em> es una funci&oacute;n kernel existe  una funci&oacute;n <img src="/img/revistas/rcci/v11n1/fo0305117.jpg" alt="fo03" width="15" height="19">&nbsp;que permite mapear el problema  definido en la ecuaci&oacute;n 1 a un espacio <em>Hilbert</em> asociado a <em>k</em> (Vega et al., 2010).  Basado en esta definici&oacute;n la ecuaci&oacute;n 1 puede ser reescrita como la ecuaci&oacute;n 2,  donde <img src="/img/revistas/rcci/v11n1/fo0405117.jpg" alt="fo05" width="16" height="22"> es la  segmentaci&oacute;n consenso te&oacute;rica en el espacio <em>Hilbert</em> y <img src="/img/revistas/rcci/v11n1/fo0305117.jpg" alt="fo03" width="15" height="19"> es la  funci&oacute;n que permite mapear las particiones de entrada en el espacio. El  algoritmo obtiene la segmentaci&oacute;n m&aacute;s cercana a la segmentaci&oacute;n consenso  te&oacute;rica (<img src="/img/revistas/rcci/v11n1/fo0405117.jpg" alt="fo05" width="16" height="22">). Esta  segmentaci&oacute;n final calculada en la ecuaci&oacute;n1 por <em>k </em>es llamada S*. Otra funci&oacute;n kernel  utilizada en la ecuaci&oacute;n 1 para calcular S* es el &Iacute;ndice Rand (RI) (Vega et  al., 2010). En este caso <img src="/img/revistas/rcci/v11n1/fo0505117.jpg" alt="foo05" width="13" height="19">= RI, RI es  calculado en (Vega et al., 2010) y definido en (Vega et al., 2010): </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/fo0605117.jpg" alt="f06" width="334" height="39"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En (Vega et al., 2010) se  demuestra matem&aacute;ticamente por qu&eacute; fue posible utilizar RI como una funci&oacute;n  kernel para comparar particiones. El objetivo de utilizar dos criterios  diferentes en la ecuaci&oacute;n 1, es debido a la necesidad de evaluar la  segmentaci&oacute;n en dos medidas de similitud diferentes, as&iacute; como analizar el  comportamiento de la informaci&oacute;n entre dos segmentaciones a partir del  significado de cada medida. A partir de la ecuaci&oacute;n 2, S* es calculado mediante  un problema de optimizaci&oacute;n en el que S* es la segmentaci&oacute;n con menor distancia  a la soluci&oacute;n del espacio<em> Hilbert</em>. La  optimalidad es encontrada mediante la metaheur&iacute;stica Recocido Simulado (Kirkpatrick et al., 1983).A continuaci&oacute;n, se muestran los pasos principales para encontrar  S*.</font></p> <ul>       <li>         ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">C&aacute;lculo de la segmentaci&oacute;n inicial (S<sub>0</sub>) a  partir de la ecuaci&oacute;n 2: Esta primera segmentaci&oacute;n representa la segmentaci&oacute;n  m&aacute;s cercana a la segmentaci&oacute;n consenso te&oacute;rica  (<img src="/img/revistas/rcci/v11n1/fo0405117.jpg" alt="fo05" width="16" height="22">).</font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aplicaci&oacute;n de la metaheur&iacute;stica Recocido  Simulado: A partir de S<sub>0</sub> el algoritmo busca una nueva segmentaci&oacute;n mejor  que la segmentaci&oacute;n actual.</font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A partir de la obtenci&oacute;n de la segmentaci&oacute;n  final, el algoritmo sustituye cada grupo en la segmentaci&oacute;n final por los  p&iacute;xeles que lo representan, con el objetivo de formar la segmentaci&oacute;n final  consenso.</font></p>   </li>     </ul>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Fundamentos</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el 2009 (Sun  y Tan, 2009) proponen un <a>marco </a>general para el an&aacute;lisis de la  textura del iris sobre la base del concepto de las medidas ordinales (OMs). En  su revolucionaria propuesta codifican la relaci&oacute;n ordinal entre varios parches  (regiones) de la imagen normalizada utilizando valores cuantitativos. Dichos  valores cuantitativos pueden representar el resultado de comparaciones  ordinales entre un gran n&uacute;mero de par&aacute;metros dentro de las regiones de la  imagen. Por ejemplo, la forma de la regi&oacute;n, localizaci&oacute;n de la regi&oacute;n, promedio  de intensidad de los valores de los pixeles en la regi&oacute;n, el resultado del  filtrado de la regi&oacute;n (usando diferentes filtros como Gabor, Wavelet, etc.).  Esta variedad de par&aacute;metros permite desarrollar marcos de trabajos  personalizados para cada necesidad y aplicaci&oacute;n espec&iacute;fica. Los resultados  experimentales alcanzan el primer lugar en el estado-del-arte, tanto en la  eficacia como la eficiencia. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Motivados por  los resultados obtenidos por las OMs y su flexibilidad para el reconocimiento biom&eacute;trico  del iris, se propone usar la matriz de co-ocurrencia ordinal (Partio et. al 2007) para representar  los rasgos de textura del iris. La <a href="#f05">figura 1</a> representa el diagrama de flujo de  la nueva propuesta, donde se muestran las peculiaridades del uso de OCMF en la  etapa de extracci&oacute;n de rasgos. Los pasos principales del m&eacute;todo ser&aacute;n  explicados a continuaci&oacute;n:</font></p>     <blockquote>       ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">1 - Selecci&oacute;n  de la regi&oacute;n. La imagen  normalizada del iris T se divide en regiones solapadas Rp. <img src="/img/revistas/rcci/v11n1/fo0705117.jpg" alt="fo07" width="198" height="29"> donde  P es el n&uacute;mero total de regiones en T.&nbsp;  Las regiones son solapadas tomando un valor de desplazamiento d entre  los pixeles centrales cp de cada regi&oacute;n. Cada regi&oacute;n es un bloque rectangular  de tama&ntilde;o N x M.</font></p>       <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">2 - Etiquetado  Ordinal. A cada pixel de la regi&oacute;n se le asigna un c&oacute;digo o etiqueta basado en  la comparaci&oacute;n ordinal entre los valores de intensidad de los pixeles de la  siguiente manera: </font></p>       <p align="center"><img src="/img/revistas/rcci/v11n1/fo0805117.jpg" alt="fo08" width="401" height="86"></p>       <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde V<sub>m </sub>es el valor medio de intensidad de los pixeles de la región, S<sub>d</sub> es la desviaci&oacute;n est&aacute;ndar y V<sub>j</sub> es el valor de intensidad del pixel j en la regi&oacute;n. Los pixeles etiquetados con -1 est&aacute;n fuera del  rango&nbsp; <img src="/img/revistas/rcci/v11n1/fo0905117.jpg" alt="fo09" width="73" height="23">y no son considerados en la siguiente etapa. Con  esta estrategia es posible atenuar algunos problemas de ruido, causados por la  iluminaci&oacute;n, en im&aacute;genes tomadas en ambientes menos controlados.</font></p>       <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> 3 - Divisi&oacute;n en Sub-Regiones.  Con el objetivo de acelerar el proceso de extracci&oacute;n de rasgos cada regi&oacute;n <em>Rp</em> se divide en sub-regiones. El valor m&aacute;s representativo de cada  sub-regi&oacute;n es tomado como el valor de la sub-regi&oacute;n.</font></p>       <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">4 - Extracci&oacute;n de las matrices  de co-ocurrencia Ordinal. La idea en este paso es contar la ocurrencia de  cierto patr&oacute;n variando la orientaci&oacute;n y la distancia. Como estamos trabajando  con una codificaci&oacute;n binaria (los pixeles etiquetados con -1 no son tomados en  cuenta) 00, 01, 10 y 11 son los posibles valores entre dos pixeles a comparar.  Para cada uno de estos patrones vamos a obtener una matriz de co-ocurrencia de  tama&ntilde;o <em>N x O</em>, donde <em>N</em> representa el n&uacute;mero de distancias y <em>O</em> el de orientaciones utilizados. Estas  4 matrices van a representar la textura de la regi&oacute;n. </font></p>       <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">5 - Construcci&oacute;n del vector de  rasgos. Para representar la textura global de iris se crea un vector de rasgo  de tama&ntilde;o <em>P</em>, en cada posici&oacute;n van a  estar las 4 matrices de co-ocurrencia de la regi&oacute;n <em>Rp</em>. </font></p> </blockquote>     <p align="center"><img src="/img/revistas/rcci/v11n1/f0105117.jpg" alt="f05" width="547" height="226"><a name="f05"></a></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A continuaci&oacute;n, se muestran los resultados obtenidos en  cada tem&aacute;tica. En la primera tem&aacute;tica relacionada con la generaci&oacute;n de la  segmentaci&oacute;n consenso, para evaluar su validez se trabaj&oacute; con el esquema  experimental mostrado en la <a href="/img/revistas/rcci/v11n1/f0205117.jpg" target="_blank">figura 2</a>. Nuestra propuesta es un paso previo de la  fusi&oacute;n de segmentaciones iniciales, que permite obtener el mejor conjunto de  segmentaciones iniciales, sustituyendo en el conjunto inicial de segmentaciones,  aquella segmentaci&oacute;n con peor reconocimiento, por la segmentaci&oacute;n consenso que  la supera en cuanto a precisi&oacute;n. El esquema experimental recibe tres  segmentaciones iniciales, o sea tres segmentaciones generadas por algoritmos de  segmentaci&oacute;n autom&aacute;tica; en nuestro caso se utilizaron transformada de Hough  basado en el ajuste de contraste (CHT) (Masek,2003), transformada de Hough basado en la elipse polar (WHT)  (Uhl et.al 2012) y en el ponderamiento  adaptativo (Viterbi) (Sutra et.al 2012). Adem&aacute;s,  se utilizaron cuatro m&eacute;todos de extracci&oacute;n de rasgos: Daugman (Daugman, 1993), Masek (Masek,2003), Ma (Ma et.al 2003)  y Monro (Monro et. Al 2007). El m&eacute;todo de  fusi&oacute;n utilizado en el esquema experimental fue la Pir&aacute;mide Laplaciana (Garcia  et al., 2015).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El esquema fue validado para las bases de  datos CASIA-V3-Interval y CASIA.v4-Thousand. La evaluaci&oacute;n de desempe&ntilde;o y la  exactitud de la segmentaci&oacute;n fueron evaluadas por el grado de influencia en la  precisi&oacute;n del reconocimiento de verificaci&oacute;n. Se estim&oacute; por las curvas ROC, la  tasa de falsa de aceptaci&oacute;n (FAR), la tasa de aceptaci&oacute;n en su versi&oacute;n genuina  (GAR). La Tasa de Error Igual o Equal Error Rate (EER) es la localizaci&oacute;n en la  curva ROC del punto en el cual la Tasa de Falso Rechazo (FRR) y la Tasa de  Falsa Aceptaci&oacute;n se hacen iguales. Tambi&eacute;n utilizamos como medida de exactitud  el &iacute;ndice de Decibilidad (d&rsquo;) ampliamente utilizado en la literatura  biom&eacute;trica. El d&rsquo; de la tarea de reconocimiento de personas por sus patrones se  obtenido mediante la comparaci&oacute;n de distribuciones de la Distancia de Hamming. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las siguientes tablas reportan los resultados del GAR, la tasa de error  igual (ERR) y el d&rsquo; por cada segmentaci&oacute;n autom&aacute;tica, por las diferentes  segmentaciones consenso y por el resultado fusionado. En el caso de la base de  datos CASIA 3 la <a href="/img/revistas/rcci/v11n1/t0105117.jpg" target="_blank">tabla 1</a> y <a href="/img/revistas/rcci/v11n1/t0205117.jpg" target="_blank">tabla 2</a> muestran la comparaci&oacute;n de los resultados  obtenidos en el proceso de obtenci&oacute;n de las segmentaciones aplicando el m&eacute;todo  propuesto con distintas medidas de similitud (Consenso kernel y Consenso Rand)  con las segmentaciones simples. Los resultados demuestran que las segmentaciones  consenso mejoran el resultado de la verificaci&oacute;n cuando se utilizan en lugar de  las segmentaciones iniciales.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el caso de la base de datos CASIA 4, la <a href="/img/revistas/rcci/v11n1/t0305117.jpg" target="_blank">tabla 3</a> y <a href="/img/revistas/rcci/v11n1/t0405117.jpg" target="_blank">tabla 4</a> muestran el mismo  comportamiento de las tablas anteriores, s&oacute;lo con la diferencia de que se  muestra el proceso de fusi&oacute;n como paso despu&eacute;s de la obtenci&oacute;n del mejor  conjunto de segmentaciones. En este caso en el proceso de fusi&oacute;n se aprecia un  sustancial aumento de la eficacia respecto a las segmentaciones simples y a las  segmentaciones consenso por separado. Esto demuestra que el enfoque propuesto  es prometedor y puede ser robusto ante varios problemas de segmentaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para evaluar el m&eacute;todo de extracci&oacute;n de rasgos propuesto,  adem&aacute;s de las bases de datos ya mencionadas, se utiliz&oacute; UBIRIS-V1. Se adapt&oacute; el  mismo m&eacute;todo para evaluar el desempe&ntilde;o. La propuesta se compar&oacute; con los cuatro  m&eacute;todos de extracci&oacute;n de rasgos citados anteriormente incluyendo el m&eacute;todo OMs  utilizando la variante dos-l&oacute;bulos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como paso previo a la extracci&oacute;n de rasgos las im&aacute;genes  de las bases de datos fueron segmentadas y normalizadas utilizando el m&eacute;todo  Viterbi. El proceso de comparaci&oacute;n se realiz&oacute; mediante el cotejo de las cuatro  matrices correspondientes a una misma regi&oacute;n. Se utiliz&oacute; la distancia  Euclidiana para la comparaci&oacute;n entre matrices y se sum&oacute; el resultado de la  comparaci&oacute;n entre las cuatro matrices de cada regi&oacute;n. Como resultado final se  tom&oacute; la sumatoria de cada uno de los resultados locales obtenidos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados experimentales del m&eacute;todo de  extracci&oacute;n de rasgo OCMF propuesto, como se muestra en la <a href="#t05">Tabla 5</a>, permiten  apreciar una reducci&oacute;n del EER y un aumento del &iacute;ndice d'. De los cinco m&eacute;todos  de extracci&oacute;n de rasgos evaluados es posible ver que el m&eacute;todo propuesto OCMF  obtiene un mejor rendimiento para dos bases de datos (Interval y UBIRIS-v1).  Sin embargo, en la base de datos Thousand el comportamiento es diferente,  aunque mantiene un nivel similar de precisi&oacute;n que el resto de los algoritmos,  s&oacute;lo alcanza superar al m&eacute;todo de Monro. Este hecho podr&iacute;a ser causado por la  presencia de lentes y las reflexiones especulares en esta base de datos. Este  comportamiento tambi&eacute;n puede ser producido por una incorrecta selecci&oacute;n de la  cantidad y distribuci&oacute;n de las regiones en la imagen normalizada del iris. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n1/t0505117.jpg" alt="t05" width="429" height="212"><a name="t05"></a></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Futuras  investigaciones</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En futuras  investigaciones se continuar&aacute; trabajando con el esquema experimental propuesto  en la figura 2, espec&iacute;ficamente en el nivel de fusi&oacute;n de segmentaci&oacute;n. Con el  objetivo de seguir mejorando la etapa de segmentaci&oacute;n antes de que el error  cometido en esta etapa sea propagado a otras etapas del reconocimiento del  iris. La idea principal es aprovechar este proceso de fusi&oacute;n no solamente para  mejorar las tasas de reconocimiento, sino de lograr la segmentaci&oacute;n cuando una  imagen de ojo se encuentra en varios escenarios a la vez, como por ejemplo  cuando el ojo est&aacute; fuera de &aacute;ngulo, a distancia, bajo la luz visible, presenta  problemas graves de oclusi&oacute;n, etc. De manera general se pretende trabajar de  forma independiente en cada escenario y mediante un mecanismo de fusi&oacute;n se  combinen todos los escenarios para ganar en eficiencia y en eficacia. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el m&eacute;todo de extracci&oacute;n de rasgo propuesto, como futura  investigaci&oacute;n, se pretende trabajar en varios aspectos. Primero tratar de  hallar el tama&ntilde;o correcto en la selecci&oacute;n de las regiones de la imagen, tomando  como referencia la calidad y resoluci&oacute;n de las im&aacute;genes del iris. Segundo  mejorar la codificaci&oacute;n ordinal en cada una de las regiones, con el fin de  lograr una mayor representaci&oacute;n y discriminaci&oacute;n de la textura. Por &uacute;ltimo,  lograr una representaci&oacute;n m&aacute;s compacta de los rasgos extra&iacute;dos para mejorar la  eficiencia en cuanto a tiempo de procesamiento. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  reconocimiento de iris es actualmente uno de las t&eacute;cnicas biom&eacute;tricas m&aacute;s  exactas. En un sistema de reconocimiento de iris, el pre-procesamiento,  especialmente la segmentaci&oacute;n del iris juega un papel muy importante. Otra  tarea importante en el proceso de reconocimiento del iris es la extracci&oacute;n de  rasgos desde los patrones de textura del iris.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Mediante  el enfoque presentado basado en la partici&oacute;n de la mediana pesada utilizando  diferentes medidas de similitud podemos obtener diferentes segmentaciones  consensos, que superan la tasa de reconocimiento de algunas de las  segmentaciones iniciales generadas por diferentes algoritmos de segmentaci&oacute;n  autom&aacute;tica.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  generaci&oacute;n de segmentaciones consensos permiti&oacute; diversificar el conjunto de  segmentaciones iniciales capturando m&aacute;s caracter&iacute;sticas de la textura del iris  y haciendo que la tasa de reconocimiento del proceso de fusi&oacute;n sea m&aacute;s alta que  fusionando las im&aacute;genes normalizadas de las segmentaciones iniciales.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  m&eacute;todo de extracci&oacute;n de rasgos basado en los rasgos de la matriz de  co-ocurrencia ordinal es capaz de obtener caracter&iacute;sticas del iris que son  invariantes a los cambios monot&oacute;nicos de los niveles de grises en los valores  de los pixeles, por lo tanto, se puede aplicar a las im&aacute;genes del iris que se  obtienen en ambientes menos controlados, por ejemplo, bajo diferentes  condiciones de iluminaci&oacute;n.</font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yasser  Chac&oacute;n-Cabrera, Jos&eacute; Luis Gil-Rodr&iacute;guez, and Eduardo Garea-Llano. Technical Report of  CENATAV&nbsp;<strong>. </strong>Iris Feature  Extraction Methods. Update 2013. RT_060, Blue Series. Pattern  Recognition. digital version. RNPS_ 2142, &nbsp;ISSN 2072-6287, Febrary 2014.  Published on line in <a href="http://www.cenatav.co.cu/index.php/publications-cenatav/blue-seriepublications">http://www.cenatav.co.cu/index.php/publications-cenatav/blue-seriepublications</a>.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yasser  Chacon-Cabrera, Man Zhang, Eduardo Garea Llano, Zhenan Sun: Iris Texture  Description Using Ordinal Co-occurrence Matrix Features:. In <a href="http://dblp.uni-trier.de/pers/hd/p/Pardo:Alvaro">Alvaro Pardo</a>, <a href="http://dblp.uni-trier.de/pers/hd/k/Kittler:Josef">Josef Kittler</a>: Progress in Pattern Recognition, Image Analysis, Computer  Vision, and Applications - 20th Iberoamerican Congress, CIARP 2015, 184-191,  Montevideo, Uruguay, November 9-12, 2015, Proceedings. <a href="http://dblp.uni-trier.de/db/journals/lncs.html">Lecture Notes in Computer Science</a> 9423, Springer 2015, ISBN  978-3-319-25750-1.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Cui, J., Wang,  Y., Tan, T., Ma, L., Sun, Z. (2004): A fast and robust iris localization method  based on texture segmentation. In: Jain, A., Ratha, N. (eds.) Biometric  Technology for Human Identification, Proceedings of SPIE, vol. 5404, pp.  401&ndash;408. SPIE, Bellingham, WA. DOI: 10.1117/12.541921.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Daugman, J.G., <em>High confidence  visual recognition of persons by a test of statistical independence.</em> Pattern Analysis and Machine Intelligence, IEEE Transactions on, 1993. <strong>15</strong>(11): p. 1148-1161.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Daugman, J.G. (1994):  Biometric personal identification system based on iris analysis. The Computer Laboratory,  University of Cambridge, Patent: 5291560.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Daugman, J.G.:  Recognizing Persons by Their Iris Patterns. Technical Keynote Lecture. In <a href="http://www.cse.msu.edu/~cse891/Sect601/textbook/5.pdf">http://www.cse.msu.edu/~cse891/Sect601/textbook/5.pdf</a>. Fecha de consulta: 2  febrero de 2016.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Franek, L., et al., <em>Image  segmentation fusion using general ensemble clustering methods</em>, in <em>Computer Vision&ndash;ACCV </em>2011, Springer. p.  373-384.</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Fred, A.L. and A.K. Jain, <em>Combining  multiple clusterings using evidence accumulation.</em> Pattern Analysis and  Machine Intelligence, IEEE Transactions on, 2005. <strong>27</strong>(6): p. 835-850.    <!-- ref --><br>   <a href="http://dblp.uni-trier.de/pers/hd/g/Garc=iacute=a=V=aacute=zquez:Mireya_S=">Mireya S. Garc&iacute;a-V&aacute;zquez</a>, Eduardo Garea Llano, <a href="http://dblp.uni-trier.de/pers/hd/c/Colores=Vargas:Juan_Miguel">Juan Miguel Colores-Vargas</a>, <a href="http://dblp.uni-trier.de/pers/hd/z/Zamudio=Fuentes:Luis_Miguel">Luis Miguel Zamudio-Fuentes</a>, <a href="http://dblp.uni-trier.de/pers/hd/r/Ram=iacute=rez=Acosta:Alejandro_Alvaro">Alejandro Alvaro Ram&iacute;rez-Acosta</a>: A Comparative Study of Robust Segmentation Algorithms for Iris Verification System of High Reliability. <a href="http://dblp.uni-trier.de/db/conf/mcpr2/mcpr2015.html#Garcia-VazquezL15">MCPR 2015</a>: 156-165. In J<a href="http://dblp.uni-trier.de/pers/hd/c/Carrasco=Ochoa:Jes=uacute=s_Ariel">es&uacute;s Ariel Carrasco-Ochoa</a>, <a href="http://dblp.uni-trier.de/pers/hd/t/Trinidad:Jos=eacute=_Francisco_Mart=iacute=nez">Jos&eacute; Francisco Mart&iacute;nez Trinidad</a>, <a href="http://dblp.uni-trier.de/pers/hd/a/Azuela:Juan_Humberto_Sossa">Juan Humberto Sossa Azuela</a>, <a href="http://dblp.uni-trier.de/pers/hd/o/Olvera=L=oacute=pez:Jos=eacute=_Arturo">Jos&eacute; Arturo Olvera-L&oacute;pez</a>, <a href="http://dblp.uni-trier.de/pers/hd/f/Famili:Fazel">Fazel Famili</a>:Pattern  Recognition - 7th Mexican Conference, MCPR 2015, Mexico City, Mexico, June  24-27, 2015, Proceedings. <a href="http://dblp.uni-trier.de/db/journals/lncs.html">Lecture Notes in Computer Science</a> 9116, Springer 2015, ISBN  978-3-319-19263-5.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Eduardo Garea  Llano, <a href="http://dblp.uni-trier.de/pers/hd/c/Colores=V=aacute=rgas:Juan_Miguel">Juan Miguel Colores-V&aacute;rgas</a>, <a href="http://dblp.uni-trier.de/pers/hd/g/Garc=iacute=a=V=aacute=zquez:Mireya_S=">Mireya S. Garc&iacute;a-V&aacute;zquez</a>, <a href="http://dblp.uni-trier.de/pers/hd/z/Zamudio=Fuentes:Luis_Miguel">Luis Miguel Zamudio-Fuentes</a>, <a href="http://dblp.uni-trier.de/pers/hd/r/Ram=iacute=rez=Acosta:Alejandro_Alvaro">Alejandro Alvaro Ram&iacute;rez-Acosta</a>: Cross-sensor iris verification applying robust fused segmentation  algorithms. <a href="http://ieeexplore.ieee.org/xpl/mostRecentIssue.jsp?punumber=7131935">&nbsp;International  Conference on</a> Biometrics <a href="http://dblp.uni-trier.de/db/conf/icb/icb2015.html#LlanoCGZR15">ICB 2015</a>: IEEE. 17-22. DOI:<a href="http://dx.doi.org/10.1109/ICB.2015.7139042" target="blank">10.1109/ICB.2015.7139042</a>.    <br>   ISO/IEC-19794-6:2005(E):  Information technology - Biometric data interchange formats. Part 6: Iris image  data. Subcommittee SC 37, Biometrics, International Standard Organization,  First edition, &copy; ISO/IEC 2005.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jain, A.K.,  Prabhakarb, S. and Pankantic, S.: On the similarity of identical twin  fingerprints, Pattern Recognition 35 (2002) 2653 &ndash; 2663, </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jain, A.K.,  Ross, A., Prabhakar, S.: An introduction to biometric recognition. IEEE Trans.  Circ. Syst. Video Tech. 14, 4&ndash;20 (2004). doi: 10.1109/TCSVT.2003.818349</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jain, A.,  Flynn, P., Ross, A.: Handbook of Biometrics. Springer-Verlag New York, Inc.,  Secaucus, NJ, USA (2007).    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">S. Kirkpatrick, C. D. Gelatt,M. P.  Vecchi, et al. Optimization by simulated&nbsp;  annealing. science, 220(4598):671&ndash;680, 1983.</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Labati, R.D., Genovese, A., Piuri, V. and Scotti, F.: Iris Segmentation: State of the Art and  Innovative Methods, Intelligent  Systems Reference Library Volume 37, 2012, pp 151-182, Chapter 8 in Cross Disciplinary Biometric Systems.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ma, L., et al., <em>Personal  identification based on iris texture analysis.</em> Pattern Analysis and Machine  Intelligence, IEEE Transactions on, 2003. <strong>25</strong>(12):  p. 1519-1533.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Monro, D.M., S. Rakshit, and D. Zhang, <em>DCT-based  iris recognition.</em> Pattern Analysis and Machine Intelligence, IEEE  Transactions on, 2007. <strong>29</strong>(4): p.  586-595.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Daile Osorio  Roig, Eduardo Garea Llano. Segmentaciones Consenso en el reconocimiento del  iris. Memorias  Inform&aacute;tica 2016.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Partio, M.,  Cramariuc, B., Gabbouj, M. <em>An ordinal  co-occurrence matrix framework for texture retrieval. </em>J. Image Video  Process. 2007. p1&ndash;1.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yasiel Sanchez-Gonzalez, Yasser Chacon-Cabrera, Eduardo Garea-Llano. A  Comparison of Fused Segmentation Algorithms for Iris Verification. E. Bayro-Corrochano and  E. Hancock (Eds.): CIARP 2014, LNCS 8827, pp. 112&ndash;119, 2014. Springer  International Publishing Switzerland 2014.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Zhenan Sun,  Tieniu Tan. Ordinal measures for iris recognition. Pattern Analysis and Machine  Intelligence, IEEE Transactions on, 2009. 31(12): p 2211&ndash;2226.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sutra, G., S. Garcia-Salicetti, and B. Dorizzi. <em>The viterbi algorithm at different resolutions for enhanced iris  segmentation</em>. in <em>Biometrics (ICB),  2012 5th IAPR International Conference on</em>. 2012. IEEE.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Uhl, A. and P. Wild. <em>Weighted adaptive hough and ellipsopolar  transforms for real-time iris segmentation</em>. in <em>Biometrics (ICB), 2012 5th IAPR International Conference on</em>. 2012.  IEEE.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Vega-Pons, S., J. Correa-Morris, and J. Ruiz-Shulcloper, <em>Weighted partition consensus via kernels.</em> Pattern Recognition, 2010. <strong>43</strong>(8): p. 2712-2724.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Vega Pons, S., <em>Combinaci&oacute;n  de Resultados de Clasificadores no Supervisados</em>, 2010.     </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Vega-Pons, S. and J.  Ruiz-Shulcloper, <em>A survey of clustering  ensemble algorithms.</em> International Journal of Pattern Recognition and  Artificial Intelligence, 2011. <strong>25</strong>(03):  p. 337-372.    </font></p>     <p name="_ENREF_1">&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 03/09/2016    <br> Aceptado: 30/11/2016</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chacón-Cabrera]]></surname>
<given-names><![CDATA[Yasser]]></given-names>
</name>
<name>
<surname><![CDATA[Gil-Rodríguez]]></surname>
<given-names><![CDATA[José Luis]]></given-names>
</name>
<name>
<surname><![CDATA[Garea-Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
</person-group>
<source><![CDATA[Technical Report of CENATAV]]></source>
<year>2013</year>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chacon-Cabrera]]></surname>
<given-names><![CDATA[Yasser]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Man]]></given-names>
</name>
<name>
<surname><![CDATA[Garea Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
<name>
<surname><![CDATA[Zhenan]]></surname>
<given-names><![CDATA[Sun]]></given-names>
</name>
</person-group>
<source><![CDATA[Iris Texture Description Using Ordinal Co-occurrence Matrix Features:]]></source>
<year>2015</year>
<publisher-loc><![CDATA[^eMontevideo Montevideo]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Cui]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[Tan]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[Ma]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Sun]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
</person-group>
<source><![CDATA[A fast and robust iris localization method based on texture segmentation.]]></source>
<year>2004</year>
<volume>5404</volume>
<page-range>401-408</page-range><publisher-name><![CDATA[SPIE, Bellingham]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Daugman]]></surname>
<given-names><![CDATA[J.G]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[High confidence visual recognition of persons by a test of statistical independence]]></article-title>
<source><![CDATA[]]></source>
<year>1993</year>
<volume>15</volume>
<numero>11</numero>
<issue>11</issue>
<page-range>1148-1161</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Daugman]]></surname>
<given-names><![CDATA[J.G]]></given-names>
</name>
</person-group>
<source><![CDATA[Biometric personal identification system based on iris analysis]]></source>
<year>1994</year>
<publisher-name><![CDATA[University of Cambridge]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Daugman]]></surname>
<given-names><![CDATA[J.G]]></given-names>
</name>
</person-group>
<source><![CDATA[Recognizing Persons by Their Iris Patterns]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Franek]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Image segmentation fusion using general ensemble clustering methods]]></source>
<year>2011</year>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Fred]]></surname>
<given-names><![CDATA[A.L]]></given-names>
</name>
<name>
<surname><![CDATA[A.K]]></surname>
<given-names><![CDATA[Jain]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Combining multiple clusterings using evidence accumulation]]></article-title>
<source><![CDATA[]]></source>
<year>2005</year>
<volume>27</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>835-850</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Garea Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
</person-group>
<source><![CDATA[A Comparative Study of Robust Segmentation Algorithms for Iris Verification System of High Reliability]]></source>
<year>2015</year>
<page-range>156-165</page-range><publisher-loc><![CDATA[^eMexico City Mexico City]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Garea Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
</person-group>
<source><![CDATA[Cross-sensor iris verification applying robust fused segmentation algorithms]]></source>
<year>2005</year>
<page-range>17-22</page-range><publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[A.K]]></given-names>
</name>
<name>
<surname><![CDATA[Prabhakarb]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Pankantic]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[On the similarity of identical twin fingerprints]]></source>
<year>2002</year>
<volume>35</volume>
<page-range>2653 - 2663</page-range><publisher-name><![CDATA[Pattern Recognition]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[A.K]]></given-names>
</name>
<name>
<surname><![CDATA[Ross]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Prabhakar]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[An introduction to biometric recognition]]></source>
<year>2004</year>
<volume>14</volume>
<page-range>4-20</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jain]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Flynn]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[Ross]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Handbook of Biometrics]]></source>
<year>2007</year>
<publisher-loc><![CDATA[^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[Springer-Verlag New York]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kirkpatrick]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Gelatt]]></surname>
<given-names><![CDATA[C. D.]]></given-names>
</name>
<name>
<surname><![CDATA[Vecchi]]></surname>
<given-names><![CDATA[M. P]]></given-names>
</name>
</person-group>
<source><![CDATA[]]></source>
<year>1983</year>
<volume>220</volume>
<numero>4598</numero>
<issue>4598</issue>
<page-range>671-680</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Labati]]></surname>
<given-names><![CDATA[R.D]]></given-names>
</name>
<name>
<surname><![CDATA[Genovese]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Piuri]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[Scotti]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Iris Segmentation: State of the Art and Innovative Methods, Intelligent Systems Reference Library]]></source>
<year>2012</year>
<volume>37</volume>
<page-range>151-182</page-range><publisher-name><![CDATA[Disciplinary Biometric Systems]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ma]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Personal identification based on iris texture analysis]]></article-title>
<source><![CDATA[]]></source>
<year>2003</year>
<volume>25</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>1519-1533</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Monro]]></surname>
<given-names><![CDATA[D.M]]></given-names>
</name>
<name>
<surname><![CDATA[Rakshit]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[DCT-based iris recognition]]></article-title>
<source><![CDATA[]]></source>
<year>2007</year>
<volume>29</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>586-595</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Osorio Roig]]></surname>
<given-names><![CDATA[Daile]]></given-names>
</name>
<name>
<surname><![CDATA[Garea Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
</person-group>
<source><![CDATA[Segmentaciones Consenso en el reconocimiento del iris.]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Partio]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Cramariuc]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[Gabbouj]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[An ordinal co-occurrence matrix framework for texture retrieval]]></source>
<year>2007</year>
<page-range>p1-1</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sanchez-Gonzalez]]></surname>
<given-names><![CDATA[Yasiel]]></given-names>
</name>
<name>
<surname><![CDATA[Chacon-Cabrera]]></surname>
<given-names><![CDATA[Yasser]]></given-names>
</name>
<name>
<surname><![CDATA[Garea-Llano]]></surname>
<given-names><![CDATA[Eduardo]]></given-names>
</name>
</person-group>
<source><![CDATA[A Comparison of Fused Segmentation Algorithms for Iris Verification]]></source>
<year>2014</year>
<page-range>112-119</page-range><publisher-name><![CDATA[Springer International Publishing Switzerland]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhenan]]></surname>
<given-names><![CDATA[Sun]]></given-names>
</name>
<name>
<surname><![CDATA[Tan]]></surname>
<given-names><![CDATA[Tieniu]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Ordinal measures for iris recognition]]></article-title>
<source><![CDATA[]]></source>
<year>2009</year>
<volume>31</volume>
<numero>12</numero>
<issue>12</issue>
<page-range>2211-2226</page-range><publisher-name><![CDATA[IEEE Transactions]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Sutra]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[Garcia-Salicetti]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Dorizzi]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[The viterbi algorithm at different resolutions for enhanced iris segmentation]]></source>
<year>2012</year>
<publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Uhl]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[Wild]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Weighted adaptive hough and ellipsopolar transforms for real-time iris segmentation.]]></source>
<year>2012</year>
<publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vega-Pons]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Correa-Morris]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Ruiz-Shulcloper]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Weighted partition consensus via kernels]]></article-title>
<source><![CDATA[]]></source>
<year>2010</year>
<volume>43</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>2712-2724</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vega Pons]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Combinación de Resultados de Clasificadores no Supervisados]]></source>
<year>2010</year>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vega-Pons]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Ruiz-Shulcloper]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A survey of clustering ensemble algorithms]]></article-title>
<source><![CDATA[]]></source>
<year>2011</year>
<volume>25</volume>
<numero>03</numero>
<issue>03</issue>
<page-range>337-372</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
