<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992018000400011</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Detección de regiones salientes en imágenes en el espacio de los quaternions]]></article-title>
<article-title xml:lang="en"><![CDATA[Saliency detection in images in the quaternion space]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[León Guerra]]></surname>
<given-names><![CDATA[Reynolds]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[García Reyes]]></surname>
<given-names><![CDATA[Edel B]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Centro de Aplicaciones de Tecnologías de Avanzada (CENATAV)  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2018</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2018</year>
</pub-date>
<volume>12</volume>
<numero>4</numero>
<fpage>128</fpage>
<lpage>139</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992018000400011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992018000400011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992018000400011&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[En el presente trabajo es desarrollado un algoritmo para detectar las regiones salientes en las imágenes en el espacio de los quaternions. Para obtener mapas de regiones salientes, una pirámide Gaussiana es creada para procesar imágenes a diferentes escalas mediante dos enfoques (local y global) conservando los objetos predominantes. Las imágenes son representadas en el espacio de los quaternions donde se conserva la relación entre los espacios de color RGB y HSV utilizando rasgos. En el enfoque local (dominio espacial), las imágenes son divididas en parches para la comparación entre el módulo y la fase del quaternion y es desarrollada una variante nueva del descriptor Quaternion Local Binary Patterns. En el enfoque global, las imágenes son procesadas en el espacio de la frecuencia de Fourier para quaternions, donde el espectro del módulo es transformado mediante un filtro pasa baja y es reconstruida la información para obtener un mapa global. El mapa final de regiones salientes es logrado mediante una combinación ponderada de los mapas locales y el global, para después aplicar una función de center bia y un refinamiento al mapa final. Para comprobar la eficacia del algoritmo propuesto es validado mediante la métrica error medio absoluto en la base de datos ECSSD-1000 y comparado con otros algoritmos del estado del arte.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In this paper, we developed an algorithm that allows the saliency detection in images in the quaternion space. To obtain maps of saliency, a Gaussian pyramid is built to process images at di&#64256;erent scales through two approaches (local and global) while conserving salient objects. Images are represented in the quaternion space where the relationship between RGB and HSV color spaces is conserved using feature. In the local approach (spatial domain), the images are divided into patches for the comparison between the module and the phase of quaternion and a new variant of Quaternion Local Binary Patterns descriptor is developed. In the global approach, the images are processed in the quaternion Fourier frequency space, where the module spectrum is transformed by a low pass filter and the information is reconstructed to obtain a global map. The final map of saliency is achieved by a weighted combination of local and global maps and after applying a function of center bia more a refinement in the final map. To verify the e&#64256;ectiveness of our proposed algorithm it is validated using the mean absolute error metric in the ECSSD-1000 data set and compared with other state of the art algorithms.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[combinación]]></kwd>
<kwd lng="es"><![CDATA[quaternions]]></kwd>
<kwd lng="es"><![CDATA[regiones salientes]]></kwd>
<kwd lng="en"><![CDATA[combination]]></kwd>
<kwd lng="en"><![CDATA[quaternions]]></kwd>
<kwd lng="en"><![CDATA[saliency regions]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Detecci</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>&oacute;n &nbsp;de  &nbsp;regiones salientes en  &nbsp;im&aacute;genes &nbsp;en &nbsp;el espacio de  los &nbsp;<em>quaternions</em></strong></font></font> </p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Saliency detection </font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>in  &nbsp;images in  &nbsp;the  &nbsp;quaternion space</strong></font></font> </p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Reynolds Le</font></strong><font face="Verdana, Arial, Helvetica, sans-serif">&oacute;<strong>n Guerra<strong><sup>1*</sup></strong></strong></font></font><strong><font size="2" face="Verdana, Arial, Helvetica, sans-serif">, Edel B. Garc&iacute;a Reyes<sup>2</sup></font></strong></p>     <P>&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Centro de Aplicaciones de Tecnolog&iacute;as  de Avanzada &nbsp;(CENATAV), La Habana, &nbsp;Cuba.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br> </font><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:rleon@cenatav.co.cu">rleon@cenatav.co.cu</a><a href="mailto:jova@uci.cu"></a></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En &nbsp;el presente  &nbsp;trabajo es desarrollado &nbsp;un &nbsp;algoritmo &nbsp;para &nbsp;detectar las regiones  salientes &nbsp;en las im&aacute;genes &nbsp;en el espacio  de los <em>quaternions</em>. &nbsp;Para  &nbsp;obtener  &nbsp;mapas  &nbsp;de regiones  salientes, &nbsp;una  &nbsp;pir&aacute;mide &nbsp;Gaussiana  es creada para &nbsp;procesar &nbsp;im&aacute;genes &nbsp;a diferentes &nbsp;escalas &nbsp;mediante &nbsp;dos  enfoques (local y global)  &nbsp;conservando &nbsp;los  objetos predominantes. Las im&aacute;genes son representadas en el espacio de los <em>quaternions  &nbsp;</em>donde se conserva la relaci&oacute;n entre los espacios  de color RGB y HSV utilizando &nbsp;rasgos. En el enfoque local (dominio  espacial), &nbsp;las  im&aacute;genes son &nbsp;divididas  &nbsp;en  &nbsp;parches &nbsp;para &nbsp;la &nbsp;comparaci&oacute;n &nbsp;entre &nbsp;el m&oacute;dulo &nbsp;y&nbsp; la &nbsp;fase  del <em>quaternion  &nbsp;</em>y es desarrollada una &nbsp;variante nueva &nbsp;del &nbsp;descriptor&nbsp; &nbsp;<em>Quaternion&nbsp; &nbsp;Local  &nbsp;Binary  &nbsp;Patterns</em>. En  &nbsp;el enfoque  &nbsp;global,  &nbsp;las  &nbsp;im&aacute;genes son procesadas  &nbsp;en el espacio de la frecuencia &nbsp;de Fourier &nbsp;para <em>quaternions</em>,  &nbsp;donde  &nbsp;el espectro  &nbsp;del m&oacute;dulo es transformado mediante &nbsp;un filtro pasa baja &nbsp;y es reconstruida la  informaci&oacute;n para  &nbsp;obtener  &nbsp;un mapa &nbsp;global. El mapa &nbsp;final de regiones salientes  &nbsp;es logrado &nbsp;mediante  una  &nbsp;combinaci&oacute;n &nbsp;ponderada de los mapas &nbsp;locales y el global, &nbsp;para &nbsp;despu&eacute;s &nbsp;aplicar &nbsp;una &nbsp;funci&oacute;n &nbsp;de <em>center  &nbsp;bia </em>y  un &nbsp;refinamiento &nbsp;al mapa  &nbsp;final. Para  &nbsp;comprobar  &nbsp;la eficacia del algoritmo  &nbsp;propuesto  &nbsp;es validado  mediante &nbsp;la m&eacute;trica &nbsp;error &nbsp;medio &nbsp;absoluto &nbsp;en la base &nbsp;de datos ECSSD-1000 y comparado &nbsp;con otros algoritmos &nbsp;del estado &nbsp;del arte. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">combinaci&oacute;n, quaternions, regiones salientes</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">In this paper, we developed an algorithm that allows the saliency  detection &nbsp;in images  in the quaternion &nbsp;space. To obtain  &nbsp;maps  &nbsp;of saliency, &nbsp;a Gaussian &nbsp;pyramid  &nbsp;is  &nbsp;built  &nbsp;to  &nbsp;process &nbsp;images &nbsp;at &nbsp;di&#64256;erent &nbsp;scales through  &nbsp;two approaches (local and global) while conserving  &nbsp;salient  &nbsp;objects. Images are represented  &nbsp;in the quaternion  &nbsp;space where the relationship &nbsp;between RGB  &nbsp;and HSV &nbsp;color spaces is conserved &nbsp;using  feature. &nbsp;In &nbsp;the local approach (spatial &nbsp;domain),  &nbsp;the images &nbsp;are divided into &nbsp;patches  &nbsp;for the comparison  &nbsp;between the module &nbsp;and the phase of quaternion &nbsp;and a new variant &nbsp;of Quaternion  &nbsp;Local Binary  &nbsp;Patterns  descriptor  &nbsp;is developed.  &nbsp;In  &nbsp;the global approach, &nbsp;the images are processed in the quaternion &nbsp;Fourier &nbsp;frequency  &nbsp;space, where the module &nbsp;spectrum  &nbsp;is transformed by a low pass filter  and the information is  reconstructed to  obtain a global map. The  &nbsp;final map of saliency is achieved by a weighted combination  &nbsp;of local and global maps and after applying  a function &nbsp;of center bia more &nbsp;a refinement &nbsp;in the final map. &nbsp;To verify &nbsp;the e&#64256;ectiveness &nbsp;of our proposed algorithm  &nbsp;it is validated using the mean  &nbsp;absolute error&nbsp; metric &nbsp;in the ECSSD-1000 &nbsp;data set and compared  &nbsp;with other  state &nbsp;of the art algorithms.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>combination, quaternions, saliency regions</font></p> <hr>     ]]></body>
<body><![CDATA[<p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La detecci&oacute;n de regiones salientes (<strong>RS</strong>) en las im&aacute;genes permite obtener  un mapa topogr&aacute;fico donde cada punto es la probabilidad de  ser observado por una persona (ver Figura &nbsp;2, c-f ). Lo antes mencionado es fundamentado en el criterio  que el cerebro humano &nbsp;tiene  la capacidad &nbsp;de eliminar  la informaci&oacute;n redundante y  solo procesar la de inter&eacute;s (Aytekin &nbsp;et al., 2016). La emulaci&oacute;n de esto permite &nbsp;realizar &nbsp;tareas &nbsp;de forma  automatizadas &nbsp;como: segmentaci&oacute;n de im&aacute;genes (Li et al., 2014), detecci&oacute;n de objetos (Xia et al., 2017), etc. Por lo antes explicado,  en los &uacute;ltimos a&ntilde;os ha tenido una creciente &nbsp;atenci&oacute;n por la comunidad&nbsp;de visi&oacute;n por computadora la tarea &nbsp;de  detecci&oacute;n de <strong>RS</strong>.  &nbsp;Existen  &nbsp;por lo general  dos enfoques principales  &nbsp;orientados &nbsp;a obtener  las regiones  salientes, <strong>bottom up </strong>y <strong>top &nbsp;down</strong>, el primero  se basa en buscar los rasgos menos  frecuentes en una imagen y el segundo est&aacute; basado &nbsp;en tareas  &nbsp;u objetivos. &nbsp;En el presente  trabajo se  toma &nbsp;como  enfoque a seguir <strong>buttom up</strong>, &nbsp;por su baja complejidad &nbsp;computacional.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Diferentes &nbsp;autores &nbsp;han &nbsp;abordado &nbsp;el enfoque <strong>bottom up &nbsp;</strong>como sigue:  (Erdem &nbsp;and Erdem, &nbsp;2013), aplican &nbsp;el descriptor &nbsp;(<em>region &nbsp;covariance &nbsp;descriptors</em>) &nbsp;para &nbsp;rasgos &nbsp;basados &nbsp;en color, &nbsp;orientaci&oacute;n &nbsp;e informaci&oacute;n &nbsp;espacial  para &nbsp;comparar la  similitud &nbsp;que hay entre &nbsp;diferentes  &nbsp;parches &nbsp;en la imagen  y poder obtener &nbsp;las regiones  salien- tes. (Hu et al., 2015), combina  &nbsp;la extracci&oacute;n de rasgos locales con rasgos globales  en un mapa &nbsp;final  donde se ponderan &nbsp;los  p&iacute;xeles &nbsp;a partir de su distancia &nbsp;al centro  &nbsp;de la imagen.  &nbsp;(Liu and Hu, 2016), realizan &nbsp;una &nbsp;com- binaci&oacute;n de mapas  &nbsp;obtenidos  &nbsp;en el dominio  &nbsp;de la frecuencia&nbsp; de Fourier &nbsp;para &nbsp;<em>quaternions  &nbsp;</em>para  &nbsp;buscar  &nbsp;el m&aacute;s &oacute;ptimo. (Yu et al., 2015), utilizan &nbsp;el contraste global de colores para &nbsp;determinar el  mapa &nbsp;de la regi&oacute;n saliente agrupando los pixeles del fondo  de la imagen considerando &nbsp;que son similares. (Wang &nbsp;et al., 2015) emplean un aprendizaje &nbsp;basado &nbsp;en redes neuronales &nbsp;profundas  &nbsp;para  &nbsp;aprender  &nbsp;rasgos locales y globales y el mapa &nbsp;final  es una &nbsp;combinaci&oacute;n &nbsp;de los dos mapas obtenidos &nbsp;en las redes entrenadas. (Rajankar and Kolekar, &nbsp;2015), aplica una  reducci&oacute;n de la escala por interpolaci&oacute;n a los coeficientes de Fourier &nbsp;para &nbsp;<em>quaternions  &nbsp;</em>obteniendo  &nbsp;el mapa optimo&nbsp; mediante  &nbsp;la inversa de Fourier.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los trabajos antes  &nbsp;citados  &nbsp;no tienen &nbsp;presente  &nbsp;la correlaci&oacute;n que existe entre los diferentes &nbsp;rasgos  y espacios de colores usados para obtener  los mapas de regiones salientes. Por lo que la detecci&oacute;n de <strong>RS </strong>en general no detecta todas  &nbsp;las partes &nbsp;de los objetos  &nbsp;salientes. &nbsp;Para  &nbsp;resolver el problema, &nbsp;en el algoritmo &nbsp;propuesto  &nbsp;se obtienen &nbsp;los mapas mediante &nbsp;una combinaci&oacute;n de rasgos que representan a  los espacios de colores RGB <em>(Red,  &nbsp;Green, Blue) </em>y HSV <em>(Hue, Saturation, Value) </em>mediante &nbsp;los <em>quaternions</em>.  &nbsp;Adem&aacute;s los mapas se obtienen  &nbsp;mediante &nbsp;un enfoque local y global para  &nbsp;combinar &nbsp;ambos obteniendo  &nbsp;un mapa &nbsp;final  de regiones salientes. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los aportes  &nbsp;principales  &nbsp;del trabajo son los siguientes: &nbsp;Primero, &nbsp;las im&aacute;genes &nbsp;son  representadas en el espacio de  los <em>quaternions &nbsp;</em>como una combinaci&oacute;n de los espacios de color RGB y HSV. Segundo,  se aplica un enfoque local donde es desarrollada una variante nueva del descriptor  &nbsp;<em>Quaternion &nbsp;Local Binary Patterns </em>para el m&oacute;dulo del <em>quaternion</em>. &nbsp;Tercero, el mapa global  es obtenido mediante  &nbsp;la transformada  de Fourier &nbsp;para <em>quaternions </em>modificando el m&oacute;dulo espectral  &nbsp;y reconstruyendo un nuevo <em>quaternion &nbsp;</em>mediante &nbsp;la inversa de Fourier.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Enfoque propuesto</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  enfoque propuesto &nbsp;para &nbsp;la determinaci&oacute;n de las <strong>RS  &nbsp;</strong>en las im&aacute;genes est&aacute; compuesto &nbsp;de los siguientes pasos: Primero, &nbsp;se aplica una pir&aacute;mide Gaussiana  &nbsp;de reducci&oacute;n a la imagen  de entrada para &nbsp;obtener &nbsp;4 niveles m&aacute;s la imagen  base ( los objetos salientes &nbsp;por lo general son invariantes a  diferentes &nbsp;escalas).  &nbsp;Segundo, las im&aacute;genes son representadas mediante &nbsp;<em>full-quaternions </em>para &nbsp;conservar  &nbsp;la correlaci&oacute;n &nbsp;entre &nbsp;los  espacios de color RGB, HSV y el contraste (claro &nbsp;- oscuro). &nbsp;Tercero,  &nbsp;en cada &nbsp;imagen &nbsp;es determinado dos mapas &nbsp;local y uno global en el dominio espacial  y de frecuencia respectivamente. Cuarto,  una combinaci&oacute;n ponderada es aplicada &nbsp;para obtener  &nbsp;un mapa &nbsp;previo  final para &nbsp;aplicar  &nbsp;una funci&oacute;n de <em>center bia </em>y de refinamiento &nbsp;que  permita &nbsp;obtener &nbsp;el  mapa &nbsp;de <strong>RS &nbsp;</strong>final.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Pir&aacute;mide</strong> <strong>Gaussiana</strong> </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los  objetos salientes en una imagen por lo general  son invariantes a  las trasformaciones de escalas conserv&aacute;ndose los  mismos. Con el objetivo  &nbsp;de obtener &nbsp;m&uacute;ltiples mapas  &nbsp;de <strong>RS</strong>, &nbsp;a la imagen original  se le aplica &nbsp;un proceso de multi-resoluci&oacute;n &nbsp;mediante  &nbsp;una  &nbsp;pir&aacute;mide &nbsp;Gaussiana  &nbsp;de reducci&oacute;n &nbsp;con el algoritmo  &nbsp;de (Burt &nbsp;and Adelson, 1983) para &nbsp;obtener &nbsp;4 niveles de representaci&oacute;n &nbsp;y la imagen  &nbsp;base.  &nbsp;Sin embargo,  &nbsp;debido  &nbsp;a que las im&aacute;genes originales &nbsp;tienen &nbsp;diferentes &nbsp;tama&ntilde;os &nbsp;es necesario  &nbsp;normalizar  &nbsp;la misma &nbsp;a un tama&ntilde;o &nbsp;est&aacute;ndar &nbsp;por cada &nbsp;nivel  que facilite el procesamiento en otros &nbsp;pasos  del algoritmo &nbsp;propuesto.  &nbsp;Es evidente  que la informaci&oacute;n &nbsp;en las im&aacute;genes normalizadas es  dependiente de las im&aacute;genes a cada nivel (<a href="/img/revistas/rcci/v12n4/f0111418.jpg" target="_blank">ver Figura 1</a>). </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Represen</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>taci&oacute;n</strong> <strong>de &nbsp;la imagen mediante <em>quaternions</em></strong> </font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El <em>quaternion </em>es una extensi&oacute;n de los n&uacute;meros complejos propuesto por Hamilton en 1843 (Morais et al., 2014) y es denotado &nbsp;por la letra  <em>H</em>. Si <em>q</em><em>&isin;</em><em>H</em>,&nbsp;puede  representarse como:</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><em>{q </em>= <em>t </em>+ <em>xi </em>+ <em>yj </em>+ <em>zk|</em>(<em>t, x, y, z</em>) <em>&isin; R} </em>(1)</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde&nbsp;los operadores complejos i.j, k  cumplen  &nbsp;con las siguientes  &nbsp;reglas { i<sup>2</sup> &nbsp;= <em>j<sup>2</sup>&nbsp;</em>= k<sup>2</sup>&nbsp;= <em>ijk </em>= -1, <em>ij </em>= <em>k </em>= <em>-ji,ki </em>= <em>j &nbsp;</em>= <em>-ik, jk </em>=i = <em>-kj}. </em>Estas &nbsp;reglas  muestran &nbsp;que  Ia multiplicaci6n &nbsp;de los <em>quaternions </em>es no conmutativa. Otra forma de representar a!<em>quaternion </em>es:</font></p>     <p align="center"><font size="2"><em><font face="Verdana, Arial, Helvetica, sans-serif">q= Sq+Vq</font></em><font face="Verdana, Arial, Helvetica, sans-serif"> (2)</font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde <em>(Sq </em>= t) denota&nbsp;la parte&nbsp;real y <em>(V q </em>= :ti + <em>yj </em>+<em>zk) </em>denota&nbsp;la parte &nbsp;imaginaria &nbsp;o vector. Si <em>Sq </em>=  0, el<em> qua</em>ternion es nombrado&nbsp;<em>pure quaternion, </em>si <em>Sq &ne;</em> 0 es nombrado <em>full-quaternion.</em></font><font size="2"><em></em></font> </p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Todas&nbsp;las imagenes  son procesadas en los espacioo de color R.GB y&nbsp;HSV  para obtener&nbsp;la parte &nbsp;real  del <em>qua&shy; </em>ternion. La &nbsp;parte &nbsp;real  representa&nbsp;el rasgo de&nbsp;tipo  contraste claro  oscuro  que  existe  en  la imagen&nbsp;a&nbsp;apartir  de Ia relaci6n que hay entre&nbsp;un pfxel y su vecindad (ver expresi6n (3) y para conocer mas detalles consultar (Le6n and Garcia, 2016))</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0111418.jpg" alt="fo01" width="475" height="120"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Es  claro que por cada imagense tienen ahora dos (una &nbsp;por cada espacio  de color), para reducir estoy concervar la  relaciones entre &nbsp;los diferentes canales (8 canales)&nbsp;es construido otro quaeernion&nbsp;a partir del m&oacute;dulo y su parte &nbsp;real. Esto permite &nbsp;trabajar sobre una sola imagen  representada por <em>full-quaternions </em>(ver expresi&oacute;n (<strong>4</strong>), cada &nbsp;p&iacute;xel es representado por un <em>full-quaternion</em>) que tiene la informaci&oacute;n de ambos espacios  de color y del contraste  claro oscuro.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v12n4/fo0211418.jpg" alt="fo02" width="409" height="129"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, <em>&#8486; &isin; H</em>, <em>t<sub>{.}</sub> </em>y <em>|&xi;<sub>{.}</sub>| </em>, son la parte &nbsp;real  y m&oacute;dulo del <em>quaternion  &nbsp;</em>respectivamente en  los diferentes espacios de  color.</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Mapa de regiones salientes local</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las &nbsp;im&aacute;genes &nbsp;son &nbsp;divididas &nbsp;en &nbsp;peque&ntilde;os &nbsp;parches para buscar los <em>full-quaternions </em>que tienen &nbsp;rasgos  poco frecuentes al resto, siendo una condici&oacute;n del enfoque <strong>bottom up</strong>. En la presente  &nbsp;investigaci&oacute;n se desarrollaron  dos m&eacute;todos como se describe a continuaci&oacute;n:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  primer&nbsp;m&eacute;todo se basa en obtener&nbsp;un vector de rasgo compuesto &nbsp;por dos caracter&iacute;sticas del <em>full-quaternion </em>la fase (ver expresi&oacute;n (<strong>6</strong>)) &nbsp;y m&oacute;dulo, tambi&eacute;n sus valores medios en el parche. Despu&eacute;s mediante  &nbsp;la distancia  euclidiana se obtiene la diferencia de cada <em>full-quaternions </em>al vector de media, siendo la mayor distancia  &nbsp;la de m&aacute;s probabilidad de ser diferente &nbsp;al resto de los <em>full-quaternions </em>vecinos. El valor obtenido  en la explicaci&oacute;n anterior  permite obtener&nbsp;un mapa&nbsp;para&nbsp;cada  imagen.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Son obtenido &nbsp;un total &nbsp;de 5 mapas&nbsp;  de <strong>RS</strong>, &nbsp;pero es necesario  combinarlos &nbsp;para  &nbsp;obtener  &nbsp;uno solo . El <em>M RS<sup>e</sup></em><sub>final </sub>(Mapa &nbsp;de regiones salientes  &nbsp;espacial final)  es obtenido &nbsp;mediante &nbsp;la expresi&oacute;n (<strong>7</strong>).</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0311418.jpg" alt="fo03" width="472" height="139"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde,  <em>M rs<em><sub>{.}</sub></em>&nbsp;</em>es el mapa&nbsp;de <strong>RS  &nbsp;</strong>en cada &nbsp;nivel de la pir&aacute;mide Gaussiana  &nbsp;y <img src="/img/revistas/rcci/v12n4/fo0411418.jpg" alt="fo04" width="76" height="35"> es para &nbsp;<em>{e}</em>,<em>{mLBP }</em> y <em>{g} </em>regi&oacute;n saliente  espacial, regi&oacute;n saliente espacial con descriptor &nbsp;<em>{mLBP } </em>y regi&oacute;n saliente  global respectivamente.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El segundo &nbsp;m&eacute;todo se basa&nbsp;en codificar  cada &nbsp;<em>full-quaternion </em>mediante una&nbsp;variante de patr&oacute;n&nbsp;local binario (LBP, &nbsp;en &nbsp;ingl&eacute;s), diferente al trabajo de&nbsp;(Lan et al., 2014) donde  desarrolla  un  <em>quaternionic &nbsp;local binary pattern &nbsp;</em>a partir de  la fase obtenida &nbsp;por el producto &nbsp;de un <em>quaternion  &nbsp;</em>puro  &nbsp;por un <em>quaternion&nbsp;</em>puro  unitario (<em>|V q| </em>= 1), en este trabajo se  presenta una variante para  evitar  la multiplicaci&oacute;n y trabajar solamente&nbsp;con  los <em>full-quaternions </em>que se construyeron mediante &nbsp;la expresi&oacute;n&nbsp;(<strong>4</strong>) lo cual fue desarrollado como sigue  (al igual que el m&eacute;todo anterior  el an&aacute;lisis es desarrollado &nbsp;en cada parche):</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0511418.jpg" alt="fo05" width="433" height="77"></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, <em>s </em>es una&nbsp;regi&oacute;n&nbsp;de 3<em>x</em>3, <em>p </em>es  el n&uacute;mero&nbsp;de elementos en <em>s</em>, <em>si </em>y <em>sj &nbsp;</em>es el m&oacute;dulo del <em>full-quaternions</em> de  an&aacute;lisis y su vecindad  &nbsp;respectivamente. En  el presente &nbsp;m&eacute;todo tambi&eacute;n se obtienen  5 regiones  salientes &nbsp;los <img src="/img/revistas/rcci/v12n4/fo0411418.jpg" alt="fo04" width="76" height="35"> por la expresi&oacute;n &nbsp;(<strong>7</strong>).  &nbsp;Al igual que el primer m&eacute;todo &nbsp;se busca  los rasgos &nbsp;menos &nbsp;frecuentes,  &nbsp;pero &nbsp;solamente  &nbsp;con los valores &nbsp;obtenidos &nbsp;del M&oacute;dulo &nbsp;Patr&oacute;n Binario &nbsp;Local (mLBP). </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Mapa &nbsp;de &nbsp;regiones salientes global</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El &nbsp;trabajo de (Liu and Hu, 2016) demuestra como modificando &nbsp;el espectro  &nbsp;del&nbsp; m&oacute;dulo es posible obtener  mapas de regiones  salientes &nbsp;en el dominio de la frecuencia de Fourier.&nbsp;La transformada r&aacute;pida de Fourier &nbsp;para <em>quaternions&nbsp;</em>(Ell et al., 2014) es utilizada para obtener&nbsp;los diferentes&nbsp;mapas  de <strong>RS </strong>de  forma global. Diferente  al trabajo anterior, los  datos &nbsp;utilizados son de otra&nbsp;naturaleza a partir de  la expresi&oacute;n (<strong>4</strong>) lo que es necesario una configuraci&oacute;n en la reconstrucci&oacute;n de los <em>full-quaternions </em>de entrada a  la transformada inversa de Fourier como sigue: </font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v12n4/fo0611418.jpg" alt="fo06" width="437" height="177"></font></p>     <p><a href="/img/revistas/rcci/v12n4/f0211418.jpg" target="_blank"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ver Figura 2 </font></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, <img src="/img/revistas/rcci/v12n4/fo0711418.jpg" alt="fo07" width="95" height="44"> la exprsi&oacute;n <strong>(9)</strong> &nbsp;and &nbsp;<strong>(10) </strong>son&nbsp;la directa  <em>e </em>inversa de la transformada de Fourier para qua<em>ternions </em>respectivamente,<em> &micro; </em>un quaeernion&nbsp;puro unitario, <em>p </em>y <em>s </em>son los  coeficientes; de frecuencias, m y <em>n </em>son las coordenadas espaciales  de la imagen.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para obtener&nbsp;el mapa final global primero  es suavizado&nbsp;el espectro del m&oacute;dulo mediante&nbsp;un filtro pasa baja de tipo Gaussiano  &nbsp;con el objetivo  &nbsp;de resaltar las regiones; &nbsp;mas  estables; y reducir aquellas con peque&ntilde;os bordes. La reconstrucci&oacute;n &nbsp;de la exprsi&oacute;n <strong>(10) </strong>es como sigue:</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0811418.jpg" alt="fo08" width="525" height="161"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde,<img src="/img/revistas/rcci/v12n4/fo0911418.jpg" alt="fo09" width="48" height="23"> son el eje propio y la fase,<img src="/img/revistas/rcci/v12n4/fo1011418.jpg" alt="fo10" width="16" height="19">el m&oacute;dulo  espectral modificado por el filtro y o es el producto Hadamard. El mapa de RS final global <em><img src="/img/revistas/rcci/v12n4/fo1111418.jpg" alt="fo11" width="76" height="30"> </em>es obtenido &nbsp;por la expresi&oacute;n <strong>(7).</strong></font> </p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Mapa &nbsp;de regiones salientes final</font></strong> </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El mapa de las regiones salientes final <em>MRS<sub>final</sub> </em>de la imagen original  es conformado por la combinaci&oacute;n  &nbsp;de los tres mapas obtenidos  en las secciones&nbsp;anteriores y su pooterior ponderaci&oacute;n y refinamiento.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Antes de combinar&nbsp;los mapas es necesario aplicar&nbsp;un&nbsp;filtro&nbsp;radial  a&nbsp;cada&nbsp;uno&nbsp;para  suavizar los mapas&nbsp;y conformar peque&ntilde;as areas, (ver expresi&oacute;n (13) &nbsp;y <a href="/img/revistas/rcci/v12n4/f0211418.jpg" target="_blank">Figura  &nbsp;2,(c, d, e)</a>). </font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo1211418.jpg" alt="fo12" width="576" height="39"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, <em>&psi;</em>es el filtro radial, &nbsp;<em>{&alpha;, &beta;, &delta;} </em>son  par&aacute;metros de peso para  &nbsp;los mapas &nbsp;y <em>{*} </em>producto convoluci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  teor&iacute;a &nbsp;nombrada <em>center &nbsp;bia </em>(Buso et al., &nbsp;2015) se basa &nbsp;en la suposici&oacute;n &nbsp;que los objetos&nbsp;salientes  por&nbsp;lo general se encuentran en  el centro de la imagen, por lo que al mapa <em>M S </em>se le aplica una funci&oacute;n para ponderar los valores seg&uacute;n la distancia &nbsp;de los pixeles al centro &nbsp;de la imagen como sigue:</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo1311418.jpg" alt="fo13" width="514" height="44"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, <em>&upsilon;</em> y <em>&rho; </em>son  las coordenadas&nbsp;del centro de la imagen.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En &nbsp;la pr&aacute;ctica es necesario&nbsp;conocer solamente&nbsp;en el mapa de <strong>RS&nbsp;</strong>aquellos  valores asociados  a los objetos, por esta&nbsp;raz&oacute;n a diferencia de trabajos previos se realiza una &nbsp;umbralizaci&oacute;n adaptativa del mapa &nbsp;<em>MScb &nbsp;</em>para eliminar los valores muy alejados  del objeto de inter&eacute;s (ver expresi&oacute;n (<strong>15</strong>)). Para&nbsp;obtener&nbsp;un mejor balance en el mapa &nbsp;final <em>M  RS<sub>final</sub> &nbsp;</em>partiendo del criterio  que un mismo objeto saliente  puede tener&nbsp;partes con diferentes probabilidades de ser observada&nbsp;(<a href="/img/revistas/rcci/v12n4/f0211418.jpg" target="_blank">ver  Figura  &nbsp;2,f </a>),  &nbsp;se realiza &nbsp;otro proceso&nbsp;de refinamiento  como muestra&nbsp;la expresi&oacute;n (<strong>16</strong>): </font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo1411418.jpg" alt="fo14" width="257" height="79"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Donde, &nbsp;<em>&omega; </em>es  el valor&nbsp;del  mapa &nbsp;<em>MScb </em>(<em>m, n</em>), &nbsp;<em>r  &nbsp;</em>es el umbral &nbsp;siendo &nbsp;la suma &nbsp;de la media &nbsp;m&aacute;s &nbsp;la desviaci&oacute;n est&aacute;ndar en <em>MScb</em>.</font> </p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v12n4/fo1511418.jpg" alt="fo15" width="351" height="53"></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El desempe&ntilde;o &nbsp;del algoritmo  &nbsp;propuesto  &nbsp;es validado  &nbsp;en la base  &nbsp;de datos &nbsp;ECSSD-1000 &nbsp;(Yan et al., &nbsp;2013) que contiene &nbsp;1000  im&aacute;genes  &nbsp;con diferentes  &nbsp;tama&ntilde;os &nbsp;y tiene &nbsp;objetos  &nbsp;que sem&aacute;nticamente &nbsp;son significativos &nbsp;al ser humano.  &nbsp;La base de datos &nbsp;ofrece  la m&aacute;scara de las regiones salientes  &nbsp;que fueron etiquetadas por 5 personas. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los par&aacute;metros utilizados  &nbsp;fueron: <em>&delta;&nbsp;</em>= 1<em>&middot;&nbsp;</em>3, <em>&beta;&nbsp;</em>= 2, <em>&delta;&nbsp;</em>= 1<em>&middot;&nbsp;</em>7, <em>&micro; </em>= (<em>i, j, k</em>)/<img src="/img/revistas/rcci/v12n4/fo1611418.jpg" alt="fo16" width="31" height="19"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La m&eacute;trica&nbsp;utilizada  &nbsp;para  &nbsp;validar &nbsp;el algoritmo  &nbsp;propuesto  &nbsp;es el error  &nbsp;medio absoluto&nbsp;(a menor&nbsp; valor de error,mejor es el desempe&ntilde;o del algoritmo) que permite&nbsp;comparar la similitud entre&nbsp;el mapa&nbsp;de las regiones salientes obtenido y el ground truths (GT)  de la base  de datos.&nbsp;Los  algoritmos utilizados&nbsp;para la comparaci&oacute;n  &nbsp;fueron: <strong>HS &nbsp;</strong>(Yan et al., 2013), <strong>PCA </strong>(Margolin &nbsp;et al., 2013), <strong>XL &nbsp;</strong>(Xie et al., 2013), <strong>GC </strong>(Cheng  &nbsp;et al., 2013), <strong>Wco</strong>(Zhu et al., 2014), <strong>HC&nbsp; </strong>(Cheng  &nbsp;et al., 2015), <strong>LPS</strong>(Li et al., 2015), <strong>BL</strong>(Tong et al., 2015), <strong>Linhua</strong> (Linhua &nbsp;et al., 2017).</font></p>     <p><a href="/img/revistas/rcci/v12n4/f0311418.jpg" target="_blank"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ver figura 3 </font></a></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo1711418.jpg" alt="fo17" width="487" height="72"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se  observa en la <a href="/img/revistas/rcci/v12n4/f0411418.jpg" target="_blank">figura 4</a> como el algoritmo  propuesto&nbsp;logra  disminuir el error hasta un 20 % en comparaci&oacute;n con los otros m&eacute;todos. Esto es posible por la combinaci&oacute;n de varias t&eacute;cnicas como la obtenci&oacute;n de mapas mediante  los rasgos de los <em>full-quaternions </em>en el espacio  de las frecuencia y espacial  que resaltan&nbsp;las regiones  salientes. Tambi&eacute;n la combinaci&oacute;n de los mapas y el proceso de refinamiento &nbsp;permite  &nbsp;eliminar los valores  insignificantes y destacando los asociados&nbsp;a los objetos&nbsp;salientes.  Sin embargo&nbsp;todav&iacute;a es necesario  disminuir&nbsp;el error&nbsp;para tener &nbsp;mayor precisi&oacute;n en la detecci&oacute;n de regiones salientes.  &nbsp;Una de las causa que atentan en disminuir  el error es el balance en la parametrizaci&oacute;n de las funciones  empleadas y no es una tarea  f&aacute;cil buscar un balance  &oacute;ptimo para las im&aacute;genes en la base de datos, por estar conformada por m&uacute;ltiples escenarios complejos.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  representaci&oacute;n de la imagen mediante  &nbsp;<em>Full-quaternions  </em>permiti&oacute; combinar&nbsp;los espacio  de color RGB y HSV con el contraste (claro - oscuro) en una sola imagen con 4 canales,  donde se obtuvieron rasgos correlacionados que permiten  crear mapas  de regiones salientes local y global. La combinaci&oacute;n de los mapas  con un refinamiento  de los valores &nbsp;final logro mejorar  los resultados en la base de datos&nbsp;ESSCD-1000. Para trabajos futuros&nbsp;se  debe  trabajar en  el empleo de algoritmos  de aprendizaje  basados&nbsp;en <em>Full-quaternions&nbsp;</em>para&nbsp;buscar&nbsp;par&aacute;metros &oacute;ptimos ante la complejidad  que muestran los escenarios en el mundo real.</font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS</B></font>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Caglar &nbsp;Aytekin, &nbsp;Alexandros &nbsp;Iosifidis, and Moncef Gabbouj.&nbsp; &nbsp;Probabilistic saliency estimation. <em>arXiv  &nbsp;preprint arXiv:1609.03868</em>, &nbsp;2016.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Peter &nbsp;Burt &nbsp;and  &nbsp;Edward &nbsp;Adelson. &nbsp;The &nbsp;laplacian  &nbsp;pyramid &nbsp;as a compact &nbsp;image  code. &nbsp;<em>IEEE &nbsp;Transactions on</em> <em>communications</em>, 31(4):532&ndash;540, 1983.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Vincent Buso, Jenny &nbsp;Benois-Pineau, and Jean-Philippe Domenger.  &nbsp;Geometrical  &nbsp;cues in visual saliency  models for  active object &nbsp;recognition  &nbsp;in egocentric &nbsp;videos. &nbsp;<em>Multimedia &nbsp;Tools and Applications</em>,  74(22):10077&ndash;10095, 2015.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ming-Ming Cheng, Jonathan Warrell,  &nbsp;Wen-Yan  &nbsp;Lin, Shuai Zheng,  Vibhav &nbsp;Vineet,  &nbsp;and Nigel Crook. &nbsp;E&#64259;cient  salient region detection &nbsp;with &nbsp;soft image abstraction. In <em>Proceedings &nbsp;of the IEEE &nbsp;International Conference on Computer  &nbsp;vision</em>, pages 1529&ndash;1536, 2013.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ming-Ming &nbsp;Cheng, &nbsp;Niloy J Mitra,  &nbsp;Xiaolei Huang, &nbsp;Philip &nbsp;HS Torr, &nbsp;and &nbsp;Shi-Min  &nbsp;Hu.&nbsp; &nbsp;Global &nbsp;contrast based salient region  detection. <em>IEEE &nbsp;Transactions on Pattern &nbsp;Analysis  &nbsp;and Machine &nbsp;Intelligence</em>, 37(3):569&ndash;582, 2015.</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Todd &nbsp;A Ell, Nicolas  Le Bihan, &nbsp;and Stephen &nbsp;J Sangwine. &nbsp;<em>Quaternion &nbsp;Fourier&nbsp; transforms  &nbsp;for signal and image processing</em>.  &nbsp;John  &nbsp;Wiley &amp; Sons, 2014.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Erkut &nbsp;Erdem &nbsp;and &nbsp;Aykut  &nbsp;Erdem.&nbsp; &nbsp;Visual  saliency estimation by nonlinearly  &nbsp;integrating features &nbsp;using region covariances.  &nbsp;<em>Journal &nbsp;of vision</em>, 13(4):11&ndash;11, 2013.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dan Hu, Shaohui &nbsp;Qian,  Yan Wang, &nbsp;and Weiyu Yu.  &nbsp;Saliency region  detection &nbsp;via  local and global. &nbsp;2015.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Rushi &nbsp;Lan, &nbsp;Yicong Zhou, &nbsp;Yuan  &nbsp;Yan &nbsp;Tang,  &nbsp;and  &nbsp;CL Philip &nbsp;Chen.&nbsp;  &nbsp;Person  &nbsp;reidentification using quaternionic local binary  &nbsp;pattern. In <em>Multimedia &nbsp;and expo (ICME), 2014 IEEE &nbsp;international conference  &nbsp;on</em>, pages 1&ndash;6.  IEEE, &nbsp;2014.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Reynolds Le&oacute;n and Edel Garc&iacute;a. &nbsp;Mejoramiento &nbsp;de la apariencia &nbsp;en im&aacute;genes de personas  &nbsp;mediante &nbsp;los cuater- niones. &nbsp;In <em>Memorias &nbsp;del XIV &nbsp;Congreso Nacional &nbsp;de Reconocimiento de Patrones</em>, &nbsp;2016.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Hongyang Li, Huchuan &nbsp;Lu,  Zhe Lin, Xiaohui Shen, and Brian Price.  &nbsp;Inner and inter label propagation: salient object detection &nbsp;in the wild.&nbsp; <em>IEEE &nbsp;Transactions on Image Processing</em>,  &nbsp;24(10):3176&ndash;3186, 2015.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yin Li, Xiaodi Hou, Christof Koch, James M Rehg, and Alan L Yuille. The secrets  of salient object segmenta- tion. &nbsp;In <em>Proceedings  &nbsp;of the IEEE  &nbsp;Conference  &nbsp;on Computer &nbsp;Vision &nbsp;and Pattern &nbsp;Recognition</em>, pages 280&ndash;287, 2014.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jiang  &nbsp;Linhua, &nbsp;Zhong  Hui, and Lin Xiao. Saliency  detection &nbsp;via  boundary prior and center prior.  &nbsp;<em>International</em> <em>Robotics  &nbsp;&amp; Automation Journal</em>, &nbsp;2(4):2&ndash;8, 2017.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Shangwang &nbsp;Liu and Jianlan Hu. &nbsp;Visual saliency  based on frequency domain &nbsp;analysis and spatial &nbsp;information. <em>Multimedia &nbsp;Tools and Applications</em>, &nbsp;75(23):16699&ndash;16711, 2016.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ran  Margolin, Ayellet Tal, and Lihi Zelnik-Manor.  &nbsp;What  &nbsp;makes a patch  &nbsp;distinct? In <em>Proceedings of the IEEE Conference  &nbsp;on Computer &nbsp;Vision &nbsp;and Pattern &nbsp;Recognition</em>, pages 1139&ndash;1146, 2013.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jo&tilde;ao Pedro  &nbsp;Morais, Svetlin  &nbsp;Georgiev, and &nbsp;Wolfgang Spr&uml;o&szlig;ig. &nbsp;<em>Real quaternionic &nbsp;calculus handbook</em>. &nbsp;Springer, 2014.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Omprakash S Rajankar and &nbsp;Uttam D Kolekar.&nbsp; &nbsp;Scale  space reduction &nbsp;with  &nbsp;interpolation  to speed up visual saliency detection. <em>International Journal &nbsp;of Image,  &nbsp;Graphics  and Signal Processing</em>, &nbsp;7(8):58, 2015.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Na  Tong, Huchuan &nbsp;Lu, Xiang Ruan,  &nbsp;and Ming-Hsuan Yang. Salient object detection &nbsp;via bootstrap learning.  &nbsp;In <em>Proceedings  &nbsp;of the IEEE  &nbsp;Conference  &nbsp;on Computer &nbsp;Vision &nbsp;and Pattern &nbsp;Recognition</em>, pages 1884&ndash;1892, 2015.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Lijun Wang, Huchuan  &nbsp;Lu, Xiang Ruan,  &nbsp;and Ming-Hsuan &nbsp;Yang. &nbsp;Deep  networks &nbsp;for saliency detection &nbsp;via local  estimation and &nbsp;global &nbsp;search.&nbsp;  &nbsp;In &nbsp;<em>Proceedings &nbsp;of the &nbsp;IEEE &nbsp;Conference &nbsp;on &nbsp;Computer &nbsp;Vision and  &nbsp;Pattern Recognition</em>, pages 3183&ndash;3192, 2015.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Changqun &nbsp;Xia, Jia &nbsp;Li,  Xiaowu Chen,&nbsp; Anlin Zheng, and Yu Zhang. &nbsp;What &nbsp;is and what &nbsp;is not a salient object? learning salient object detector &nbsp;by ensembling linear  exemplar regressors. &nbsp;In <em>IEEE  &nbsp;Conference  &nbsp;on Computer  Vision &nbsp;and Pattern  &nbsp;Recognition (CVPR)</em>, 2017.    </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yulin Xie, Huchuan &nbsp;Lu, and Ming-Hsuan &nbsp;Yang. &nbsp;Bayesian saliency  via low and mid level cues. <em>IEEE  &nbsp;Transac- tions &nbsp;on Image Processing</em>, &nbsp;22(5):1689&ndash;1698, 2013.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Qiong Yan, &nbsp;Li Xu, Jianping Shi, and &nbsp;Jiaya  &nbsp;Jia.&nbsp; &nbsp;Hierarchical  &nbsp;saliency detection.  &nbsp;In <em>Proceedings &nbsp;of the IEEE Conference &nbsp;on Computer  &nbsp;Vision  &nbsp;and Pattern &nbsp;Recognition</em>, pages 1155&ndash;1162, 2013. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Chun-yan&nbsp;&nbsp;  Yu, &nbsp;Wei-shi &nbsp;Zhang, &nbsp;and &nbsp;Chun-li &nbsp;Wang.&nbsp; &nbsp;A saliency  &nbsp;detection&nbsp; &nbsp;method  &nbsp;based  &nbsp;on global &nbsp;contrast. <em>International Journal &nbsp;of Signal Processing, &nbsp;Image Processing  &nbsp;and Pattern Recognition</em>, 8(7):111&ndash;122, 2015.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Wangjiang &nbsp;Zhu,  &nbsp;Shuang &nbsp;Liang, &nbsp;Yichen &nbsp;Wei,  &nbsp;and  &nbsp;Jian  &nbsp;Sun.&nbsp; &nbsp;Saliency &nbsp;optimization from robust &nbsp;background  detection. In <em>Proceedings  &nbsp;of the IEEE  &nbsp;conference &nbsp;on computer &nbsp;vision&nbsp;  and pattern &nbsp;recognition</em>,&nbsp;pages 2814&ndash;2821, 2014.</font></p>     <p align="left">     <p align="left">     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 04/11/2017    <br> Aceptado: 07/09/2018</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Aytekin]]></surname>
<given-names><![CDATA[Caglar]]></given-names>
</name>
<name>
<surname><![CDATA[Iosifidis]]></surname>
<given-names><![CDATA[Alexandros]]></given-names>
</name>
<name>
<surname><![CDATA[Gabbouj]]></surname>
<given-names><![CDATA[Moncef]]></given-names>
</name>
</person-group>
<source><![CDATA[Probabilistic saliency estimation]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Burt]]></surname>
<given-names><![CDATA[Peter]]></given-names>
</name>
<name>
<surname><![CDATA[Adelson]]></surname>
<given-names><![CDATA[Edward]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[The laplacian pyramid as a compact image code]]></article-title>
<source><![CDATA[]]></source>
<year>1983</year>
<volume>31</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>532-540</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Buso]]></surname>
<given-names><![CDATA[Vincent]]></given-names>
</name>
<name>
<surname><![CDATA[Benois-Pineau]]></surname>
<given-names><![CDATA[Jenny]]></given-names>
</name>
<name>
<surname><![CDATA[Domenger]]></surname>
<given-names><![CDATA[Jean-Philippe]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Geometrical cues in visual saliency models for active object recognition in egocentric videos]]></article-title>
<source><![CDATA[]]></source>
<year>2015</year>
<volume>74</volume>
<numero>22</numero>
<issue>22</issue>
<page-range>10077-10095</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ming-Ming]]></surname>
<given-names><![CDATA[Cheng]]></given-names>
</name>
<name>
<surname><![CDATA[Warrell]]></surname>
<given-names><![CDATA[Jonathan]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[Wen-Yan]]></given-names>
</name>
<name>
<surname><![CDATA[Zheng]]></surname>
<given-names><![CDATA[Shuai]]></given-names>
</name>
<name>
<surname><![CDATA[Vineet]]></surname>
<given-names><![CDATA[Vibhav]]></given-names>
</name>
<name>
<surname><![CDATA[Crook]]></surname>
<given-names><![CDATA[Nigel]]></given-names>
</name>
</person-group>
<source><![CDATA[E&#64259;cient salient region detection with soft image abstraction.]]></source>
<year>2013</year>
<page-range>1529-1536</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ming-Ming]]></surname>
<given-names><![CDATA[Cheng]]></given-names>
</name>
<name>
<surname><![CDATA[Mitra]]></surname>
<given-names><![CDATA[Niloy J]]></given-names>
</name>
<name>
<surname><![CDATA[Huang]]></surname>
<given-names><![CDATA[Xiaolei]]></given-names>
</name>
<name>
<surname><![CDATA[Torr]]></surname>
<given-names><![CDATA[Philip HS]]></given-names>
</name>
<name>
<surname><![CDATA[Shi-Min]]></surname>
<given-names><![CDATA[Hu]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Global contrast based salient region detection]]></article-title>
<source><![CDATA[]]></source>
<year>2015</year>
<volume>37</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>569-582</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[A Ell]]></surname>
<given-names><![CDATA[Todd]]></given-names>
</name>
<name>
<surname><![CDATA[Le Bihan]]></surname>
<given-names><![CDATA[Nicolas]]></given-names>
</name>
<name>
<surname><![CDATA[Sangwine]]></surname>
<given-names><![CDATA[Stephen J]]></given-names>
</name>
</person-group>
<source><![CDATA[Quaternion Fourier transforms for signal and image processing]]></source>
<year>2014</year>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Erdem]]></surname>
<given-names><![CDATA[Erkut]]></given-names>
</name>
<name>
<surname><![CDATA[Erdem]]></surname>
<given-names><![CDATA[Aykut]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Visual saliency estimation by nonlinearly integrating features using region covariances]]></article-title>
<source><![CDATA[]]></source>
<year>2013</year>
<volume>13</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>11-11</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Dan]]></surname>
<given-names><![CDATA[Hu]]></given-names>
</name>
<name>
<surname><![CDATA[Qian]]></surname>
<given-names><![CDATA[Shaohui]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Yan]]></given-names>
</name>
<name>
<surname><![CDATA[Yu]]></surname>
<given-names><![CDATA[Weiyu]]></given-names>
</name>
</person-group>
<source><![CDATA[Saliency region detection via local and global]]></source>
<year>2015</year>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rushi]]></surname>
<given-names><![CDATA[Lan]]></given-names>
</name>
<name>
<surname><![CDATA[Zhou]]></surname>
<given-names><![CDATA[Yicong]]></given-names>
</name>
<name>
<surname><![CDATA[Yan Tang]]></surname>
<given-names><![CDATA[Yuan]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[CL Philip]]></given-names>
</name>
</person-group>
<source><![CDATA[Person reidentification using quaternionic local binary pattern]]></source>
<year>2014</year>
<page-range>1-6</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[León]]></surname>
<given-names><![CDATA[Reynolds]]></given-names>
</name>
<name>
<surname><![CDATA[García]]></surname>
<given-names><![CDATA[Edel]]></given-names>
</name>
</person-group>
<source><![CDATA[Mejoramiento de la apariencia en imágenes de personas mediante los cuaterniones.]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Hongyang]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
<name>
<surname><![CDATA[Huchuan]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[Zhe]]></given-names>
</name>
<name>
<surname><![CDATA[Xiaohui]]></surname>
<given-names><![CDATA[Shen]]></given-names>
</name>
<name>
<surname><![CDATA[Price]]></surname>
<given-names><![CDATA[Brian]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Inner and inter label propagation: salient object detection in the wild]]></article-title>
<source><![CDATA[]]></source>
<year>2015</year>
<volume>24</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>3176-3186</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yin]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
<name>
<surname><![CDATA[Xiaodi]]></surname>
<given-names><![CDATA[Hou]]></given-names>
</name>
<name>
<surname><![CDATA[Christof]]></surname>
<given-names><![CDATA[Koch]]></given-names>
</name>
<name>
<surname><![CDATA[Rehg]]></surname>
<given-names><![CDATA[James M]]></given-names>
</name>
<name>
<surname><![CDATA[Yuille]]></surname>
<given-names><![CDATA[Alan L]]></given-names>
</name>
</person-group>
<source><![CDATA[The secrets of salient object segmentation.]]></source>
<year>2014</year>
<page-range>280-287</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Linhua]]></surname>
<given-names><![CDATA[Jiang]]></given-names>
</name>
<name>
<surname><![CDATA[Zhong]]></surname>
<given-names><![CDATA[Hui]]></given-names>
</name>
<name>
<surname><![CDATA[Xiao]]></surname>
<given-names><![CDATA[Lin]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Saliency detection via boundary prior and center prior]]></article-title>
<source><![CDATA[]]></source>
<year>2017</year>
<volume>2</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>2-8</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Shangwang]]></surname>
<given-names><![CDATA[Liu]]></given-names>
</name>
<name>
<surname><![CDATA[Jianlan]]></surname>
<given-names><![CDATA[Hu]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Visual saliency based on frequency domain analysis and spatial information.]]></article-title>
<source><![CDATA[]]></source>
<year>2016</year>
<volume>75</volume>
<numero>23</numero>
<issue>23</issue>
<page-range>16699-16711</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Margolin]]></surname>
<given-names><![CDATA[Ran]]></given-names>
</name>
<name>
<surname><![CDATA[Ayellet]]></surname>
<given-names><![CDATA[Tal]]></given-names>
</name>
<name>
<surname><![CDATA[Zelnik-Manor]]></surname>
<given-names><![CDATA[Lihi]]></given-names>
</name>
</person-group>
<source><![CDATA[What makes a patch distinct?]]></source>
<year>2013</year>
<page-range>1139-1146</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Morais]]></surname>
<given-names><![CDATA[Joao Pedro]]></given-names>
</name>
<name>
<surname><![CDATA[Georgiev]]></surname>
<given-names><![CDATA[Svetlin]]></given-names>
</name>
<name>
<surname><![CDATA[Sproßig]]></surname>
<given-names><![CDATA[Wolfgang]]></given-names>
</name>
</person-group>
<source><![CDATA[Real quaternionic calculus handbook]]></source>
<year>2014</year>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rajankar]]></surname>
<given-names><![CDATA[Omprakash S]]></given-names>
</name>
<name>
<surname><![CDATA[Kolekar]]></surname>
<given-names><![CDATA[Uttam D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Scale space reduction with interpolation to speed up visual saliency detection.]]></article-title>
<source><![CDATA[]]></source>
<year>2015</year>
<volume>7</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>58</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tong]]></surname>
<given-names><![CDATA[Na]]></given-names>
</name>
<name>
<surname><![CDATA[Huchuan]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[Ruan]]></surname>
<given-names><![CDATA[Xiang]]></given-names>
</name>
<name>
<surname><![CDATA[Ming-Hsuan]]></surname>
<given-names><![CDATA[Yang]]></given-names>
</name>
</person-group>
<source><![CDATA[Salient object detection via bootstrap learning.]]></source>
<year>2015</year>
<page-range>1884-1892</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Lijun]]></given-names>
</name>
<name>
<surname><![CDATA[Huchuan]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[Ruan]]></surname>
<given-names><![CDATA[Xiang]]></given-names>
</name>
<name>
<surname><![CDATA[Ming-Hsuan]]></surname>
<given-names><![CDATA[Yang]]></given-names>
</name>
</person-group>
<source><![CDATA[Deep networks for saliency detection via local estimation and global search.]]></source>
<year>2015</year>
<page-range>3183-3192</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Changqun]]></surname>
<given-names><![CDATA[Xia]]></given-names>
</name>
<name>
<surname><![CDATA[Li]]></surname>
<given-names><![CDATA[Jia]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[Xiaowu]]></given-names>
</name>
<name>
<surname><![CDATA[Zheng]]></surname>
<given-names><![CDATA[Anlin]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Yu]]></given-names>
</name>
</person-group>
<source><![CDATA[What is and what is not a salient object? learning salient object detector by ensembling linear exemplar regressors]]></source>
<year>2017</year>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xie]]></surname>
<given-names><![CDATA[Yulin]]></given-names>
</name>
<name>
<surname><![CDATA[Huchuan]]></surname>
<given-names><![CDATA[Lu]]></given-names>
</name>
<name>
<surname><![CDATA[Yang]]></surname>
<given-names><![CDATA[Ming-Hsuan]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Bayesian saliency via low and mid level cues]]></article-title>
<source><![CDATA[]]></source>
<year>2013</year>
<volume>22</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1689-1698</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Qiong]]></surname>
<given-names><![CDATA[Yan]]></given-names>
</name>
<name>
<surname><![CDATA[Xu]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
<name>
<surname><![CDATA[Jianping]]></surname>
<given-names><![CDATA[Shi]]></given-names>
</name>
<name>
<surname><![CDATA[Jiaya]]></surname>
<given-names><![CDATA[Jia]]></given-names>
</name>
</person-group>
<source><![CDATA[Hierarchical saliency detection.]]></source>
<year>2013</year>
<page-range>1155-1162</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chun-yan]]></surname>
<given-names><![CDATA[Yu]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Wei-shi]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Chun-li]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A saliency detection method based on global contrast]]></article-title>
<source><![CDATA[]]></source>
<year>2015</year>
<volume>8</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>111-122</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wangjiang]]></surname>
<given-names><![CDATA[Zhu]]></given-names>
</name>
<name>
<surname><![CDATA[Shuang]]></surname>
<given-names><![CDATA[Liang]]></given-names>
</name>
<name>
<surname><![CDATA[Yichen]]></surname>
<given-names><![CDATA[Wei]]></given-names>
</name>
<name>
<surname><![CDATA[Sun]]></surname>
<given-names><![CDATA[Jian]]></given-names>
</name>
</person-group>
<source><![CDATA[Saliency optimization from robust background detection]]></source>
<year>2014</year>
<page-range>2814-2821</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
