<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992018000400007</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Recuperación de imágenes por contenido usando descriptores generados por Redes Neuronales Convolucionales]]></article-title>
<article-title xml:lang="en"><![CDATA[Content-based image retrieval using descriptors generated by Convolutional Neural Networks]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Sánchez Santiesteban]]></surname>
<given-names><![CDATA[Sergio]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de las Ciencias Informáticas  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2018</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2018</year>
</pub-date>
<volume>12</volume>
<numero>4</numero>
<fpage>78</fpage>
<lpage>90</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992018000400007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992018000400007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992018000400007&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Los sistemas para la recuperación de imágenes basada en contenido permiten la búsqueda y recuperación de imágenes que son similares a una imagen de consulta dada, empleando rasgos que representan el contenido visual de dichas imágenes. En el presente trabajo se desarrolló un método para la recuperación de imágenes indexadas en bases de datos a partir de su contenido visual, sin necesidad de realizar anotaciones textuales. Se obtuvieron vectores de rasgos a partir de los contenidos visuales mediante técnicas de redes neuronales artificiales con aprendizaje profundo. Se propuso el empleo de redes neuronales convolucionales pre entrenadas para crear los descriptores globales. Se aplicaron técnicas de reducción de la dimensión para incrementar la eficiencia en el procesamiento. Los resultados obtenidos por el método propuesto, sobre bases de datos disponibles públicamente, fueron superiores a los de los métodos tradicionales y comparables con otros basados en aprendizaje profundo, que constituyen el estado del arte en la recuperación de imágenes por contenido. El método propuesto puede ser extendido mediante la adición de etapas posteriores de integración de rasgos con mayor grado de abstracción.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Content-Based Image Retrieval systems allow to search and retrieve images that are similar to a given query image using features for representing the visual content of the images. In this work it was developed a method to retrieve digital images indexed in databases using its visual content, without textual annotations. Automatic descriptions of the contents were obtained using deep neural networks. Pre-trained Convolutional Neural Net- works were proposed to create global descriptors. Dimensionality reduction techniques were applied to increase the efficiency in performance. Results obtained by this method, over two publicly available datasets, were better than performance of traditional methods and comparable to other approaches based on deep learning which are the state of the art in Content-Based Image Retrieval. Proposed method could be extended by the addition of stages of feature integration with a greater degree of abstraction.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[descriptores globales]]></kwd>
<kwd lng="es"><![CDATA[recuperación de imágenes]]></kwd>
<kwd lng="es"><![CDATA[recuperación de información]]></kwd>
<kwd lng="es"><![CDATA[Redes Neuronales Convolucionales]]></kwd>
<kwd lng="en"><![CDATA[Convolutional Neural Networks]]></kwd>
<kwd lng="en"><![CDATA[global descriptors]]></kwd>
<kwd lng="en"><![CDATA[image retrieval]]></kwd>
<kwd lng="en"><![CDATA[information retrieval]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Recuperaci&oacute;n de im&aacute;genes por contenido usando  descriptores generados por Redes Neuronales Convolucionales</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Content-based  &nbsp;image retrieval using descriptors generated by </font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong>Convolutional  &nbsp;Neural Networks</strong></font><strong></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Sergio S</font></strong><font face="Verdana, Arial, Helvetica, sans-serif">&aacute;<strong>nchez Santiesteban<strong><sup>1*</sup></strong></strong></font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup>Universidad  &nbsp;de l as Ciencias  Inform&aacute;ticas. Carretera a San Antonio de l os Ba&ntilde;os, km 2 1/2 La Lisa, La Habana, Cuba.</font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br> </font></p>     ]]></body>
<body><![CDATA[<P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:ssantiesteban@estudiantes.uci.cu">ssantiesteban@estudiantes.uci.cu</a><a href="mailto:jova@uci.cu"></a></font><font face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:losorio@ismm.edu.cu"></a> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los sistemas para la recuperaci&oacute;n de im&aacute;genes basada en contenido permiten la b&uacute;squeda y recuperaci&oacute;n de  im&aacute;genes que son similares a una imagen de consulta dada, empleando &nbsp;rasgos  que representan el  contenido visual de dichas im&aacute;genes. En el presente trabajo se desarroll&oacute; un m&eacute;todo para la recuperaci&oacute;n de im&aacute;genes indexadas en  bases  de datos a partir  &nbsp;de su contenido  visual, sin necesidad de realizar anotaciones textuales. Se obtuvieron vectores de  rasgos  a partir &nbsp;de los contenidos  &nbsp;visuales mediante t&eacute;cnicas &nbsp;de redes neuronales  artificiales con aprendizaje profundo. Se propuso &nbsp;el empleo de redes neuronales convolucionales &nbsp;pre entrenadas  para crear los descriptores globales. Se aplicaron t&eacute;cnicas &nbsp;de reducci&oacute;n &nbsp;de la dimensi&oacute;n &nbsp;para incrementar  la eficiencia en el procesamiento. Los resultados obtenidos por el m&eacute;todo  propuesto, sobre  bases  de datos disponibles p&uacute;blicamente, fueron superiores a  los de los m&eacute;todos tradicionales y  comparables con otros basados en aprendizaje profundo, que constituyen el estado del arte en la recuperaci&oacute;n de im&aacute;genes por contenido. El  m&eacute;todo propuesto puede ser extendido mediante la adici&oacute;n de etapas posteriores  de integraci&oacute;n de rasgos con mayor grado  de abstracci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">descriptores globales,  recuperaci&oacute;n de im&aacute;genes, recuperaci&oacute;n de informaci&oacute;n, Redes Neuronales Convolucionales.</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Content-Based Image Retrieval systems allow to search and retrieve images that are similar to a given query  image using features for representing the visual content  of the images. In this work it was developed a  method to retrieve digital  images  indexed in databases using its visual content,  without textual annotations. Automatic descriptions of  the contents were obtained using deep neural networks. Pre-trained Convolutional Neural Net- works were proposed to  create global descriptors. Dimensionality reduction techniques were applied to  increase the efficiency in performance. Results obtained by this method, over two publicly available datasets, were better than performance of traditional methods and comparable to other approaches  &nbsp;based on deep learning which are the state  of the art in Content-Based Image Retrieval. Proposed method could be extended &nbsp;by the addition of stages of feature integration with a greater degree of abstraction.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>Convolutional Neural Networks,  global descriptors, image retrieval, information retrieval.</font></p> <hr>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las t&eacute;cnicas de recuperaci&oacute;n de im&aacute;genes basada en  contenido (CBIR &nbsp;por sus siglas en ingl&eacute;s) dan soluci&oacute;n a un problema de recuperaci&oacute;n de informaci&oacute;n que puede plantearse de la siguiente forma: a partir  &nbsp;de una imagen de inter&eacute;s recuperar u  obtener im&aacute;genes similares  de entre las presentes en una gran colecci&oacute;n, utili- zando solamente caracter&iacute;sticas o rasgos extra&iacute;dos de dichas im&aacute;genes (Tunga et al., 2015). Se entiende  por im&aacute;genes similares aquellas en  las que se observa  el  mismo objeto o escena con variaciones en la perspectiva,  las condiciones de iluminaci&oacute;n o la escala. Las im&aacute;genes almacenadas son pre procesadas y  luego se indexan  sus correspondientes  descriptores.  La imagen de  consulta tambi&eacute;n es pre  procesada para extraer su descriptor, que luego es comparado con los almacenados aplicando medidas de similitud  &nbsp;apropiadas, que  permitan la recuperaci&oacute;n de aquellas im&aacute;genes que sean similares a la imagen de consulta. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las t&eacute;cnicas de CBIR son utilizadas en varias ramas de las ciencias como son la medicina (Dhara et al., 2017; Anavi et al., 2016), agricultura, seguridad y  protecci&oacute;n, pron&oacute;stico del tiempo, modelado de procesos biol&oacute;gicos, clasificaci&oacute;n de im&aacute;genes web (Vakhitov &nbsp;et al., 2016), prevenci&oacute;n del crimen,  procesamiento de im&aacute;genes de  sat&eacute;lite, entre otras.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los enfoques tradicionales incluyen &nbsp;principalmente la elaboraci&oacute;n &nbsp;de descriptores a partir &nbsp;del contenido de  la imagen, mediante los llamados rasgos de  bajo nivel como son el color (Liu &nbsp;and Yang, 2013), la textura (Lasmar and Berthoumieu, 2014) y la forma (Wang et al., 2015) o una combinaci&oacute;n de algunos de estos (Wang et al., 2014). Un aspecto positivo de las t&eacute;cnicas desarrolladas sobre la base de estos &nbsp;enfoques &nbsp;es que no demandan grandes  cantidades de datos ni de tiempo para obtener resultados  satisfactorios durante las etapas de entrenamiento e inferencia. Por otra parte, pretenden obtener  descriptores locales y globales de las im&aacute;genes a partir de rasgos elaborados manualmente,  que no son  gen&eacute;ricos, sino que poseen una marcada dependencia ante las clases representadas &nbsp;en las im&aacute;genes. Generalmente restringen sus posibilidades  de escalar con &eacute;xito  hacia colecciones de im&aacute;genes con grandes cantidades de clases o categor&iacute;as.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recientes m&eacute;todos &nbsp;combinan rasgos de  bajo nivel con otros llamados  de alto nivel, que proporcionan una representaci&oacute;n m&aacute;s cercana a la percepci&oacute;n humana, permitiendo alcanzar una descripci&oacute;n sem&aacute;ntica de las  im&aacute;genes y lograr mejores resultados en su recuperaci&oacute;n. Los principales &nbsp;avances en esta direcci&oacute;n est&aacute;n apare- jados al r&aacute;pido desarrollo de las  t&eacute;cnicas de aprendizaje de m&aacute;quinas y espec&iacute;ficamente al aprendizaje profundo o <em>deep learning &nbsp;</em>(Chandrasekhar &nbsp;et al., 2017; Yu et al., 2017; Tzelepi and Tefas, 2018). Los modelos neuronales aprenden descriptores globales elaborados sobre la base de  una jerarq&uacute;&#305;a de rasgos y  ajustados mediante un  proceso de  entrenamiento. Estos descriptores son gen&eacute;ricos y robustos  ante retos como la variabilidad entre  las clases, &nbsp;oclusi&oacute;n &nbsp;o cambios de perspectiva o iluminaci&oacute;n. &nbsp;Sin embargo, los vectores de rasgos obtenidos mediante estas t&eacute;cnicas, poseen en la mayor&iacute;a de los casos, una gran dimensi&oacute;n (2048, 4096 componentes),  repercutiendo negativamente en el uso de memoria  para su almacenamiento y en la complejidad temporal del proceso de comparaci&oacute;n y recuperaci&oacute;n. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Varias medidas de disimilitud son utilizadas durante la comparaci&oacute;n de los descriptores de las im&aacute;genes, las m&aacute;s comunes son: la distancia  euclidiana, la distancia  de Bhattacharya, la distancia de Mahalanobis, &nbsp;la distancia de Sorensen y  la distancia del coseno (Tunga et al., 2015).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se pretende resolver el problema  planteado desarrollando un m&eacute;todo donde se utilicen algoritmos de aprendizaje profundo, espec&iacute;ficamente &nbsp;las Redes Neuronales  &nbsp;Convolucionales, &nbsp;para obtener  descriptores globales de  las im&aacute;genes. Se reducir&aacute; la dimensi&oacute;n de estas representaciones  vectoriales mediante la aplicaci&oacute;n del An&aacute;lisis de Componentes Principales. Para determinar la similitud entre las im&aacute;genes se emplear&aacute;n medidas robustas, con amplio uso dentro del dominio de la recuperaci&oacute;n de im&aacute;genes. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las contribuciones fundamentales del  presente trabajo son las siguientes:</font></p> <ul>       <li>         ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">se desarrolla  &nbsp;un m&eacute;todo para la obtenci&oacute;n de descriptores globales aprendidos  a partir de las im&aacute;genes, mediante Redes Neuronales Convolucionales.</font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">se introduce el uso del algoritmo  de An&aacute;lisis  &nbsp;de Componentes Principales &nbsp;para a&ntilde;adir &nbsp; &nbsp;robustez a los descriptores globales a partir de la reducci&oacute;n de sus dimensiones.</font></p>   </li>       <li>         <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">se &nbsp;propone la utilizaci&oacute;n &nbsp;de la distancia  de Sorensen y la distancia del coseno para el c&aacute;lculo &nbsp;de la disimilitud&nbsp; entre los descriptores globales de  diferentes im&aacute;genes. </font></p>   </li>     </ul>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Las Redes Neuronales &nbsp;Convolucionales &nbsp;(CNN &nbsp;por sus siglas  en ingl&eacute;s) &nbsp;(LeCun et al., 1989) son un tipo espec&iacute;fico de red  neuronal para el procesamiento de datos que posean una topolog&iacute;a tipo malla, por ejemplo,  las im&aacute;genes pueden ser vistas como una malla bidimensional de  p&iacute;xeles. Este tipo de red emplea la  operaci&oacute;n matem&aacute;tica &nbsp;convoluci&oacute;n &nbsp;en lugar de la multiplicaci&oacute;n &nbsp;de matrices,  para determinar el grado de respuesta de  la imagen ante la aplicaci&oacute;n de un determinado filtro &nbsp;o n&uacute;cleo, produciendo como resultado un mapa de  caracter&iacute;sticas de la imagen convolucionada.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Esta operaci&oacute;n para el caso espec&iacute;fico de las im&aacute;genes, dada una imagen <em>I </em>y un n&uacute;cleo <em>K </em>, los valores  obtenidos como respuesta a la aplicaci&oacute;n de este n&uacute;cleo est&aacute;n dados seg&uacute;n la ecuaci&oacute;n (1):</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v12n4/fo0107418.jpg" alt="fo01" width="504" height="49"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Mediante la implementaci&oacute;n &nbsp;en las CNN de esta operaci&oacute;n,  &nbsp;un mapa de caracter&iacute;sticas &nbsp;se &nbsp;obtiene con la aplicaci&oacute;n repetitiva del n&uacute;cleo a trav&eacute;s de subregiones de la imagen completa. Denotando el <em>k &minus;&eacute;simo </em>mapa de caracter&iacute;sticas como <em>hk&nbsp;</em>, cuyo filtro  est&aacute; determinado por los pesos <em>Wk &nbsp;</em>y el <em>bias bk &nbsp;</em>(2):</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0207418.jpg" alt="fo07" width="516" height="46"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los valores de los pesos son compartidos por todas las neuronas de la misma capa, reduciendo as&iacute;, el n&uacute;mero de hyperpar&aacute;metros a aprender. Los mapas de  caracter&iacute;sticas obtenidos son  sometidos a sucesivas operaciones  de submuestreo que reemplazan la salida de la red en determinados puntos por res&uacute;menes de las salidas  cercanas. Para esto, se definen ventanas sin solapamiento &nbsp;sobre  el mapa, de las que se selecciona  solo un valor (<em>max- pooling</em>, <em>average-pooling </em>) con el objetivo de reducir  el n&uacute;mero de par&aacute;metros a aprender y obtener neuronas m&aacute;s robustas a la posici&oacute;n exacta de los est&iacute;mulos y que abarquen  mayor porci&oacute;n del campo visual (Goodfellow  et al., 2016).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El An&aacute;lisis de Componentes Principales (PCA por sus siglas en ingl&eacute;s) es un algoritmo  no supervisado que aprende una representaci&oacute;n de los datos con menor  dimensi&oacute;n que la entrada. Formalmente el algoritmo  PCA aprende una transformaci&oacute;n lineal  y ortogonal de los datos que proyecta una entrada <em>x </em>hacia una representaci&oacute;n <em>z</em>, usualmente con menor dimensi&oacute;n (Goodfellow et al., 2016). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La distancia del coseno &nbsp;es una conocida medida de  disimilitud empleada en la  comparaci&oacute;n de vectores, dados  los vectores <em>u </em>y <em>v </em>de dimensi&oacute;n <em>n</em>, la distancia del coseno entre ellos se determina mediante la ecuaci&oacute;n (3); en todos los casos se utiliza el producto punto: </font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0307418.jpg" alt="fo03" width="486" height="58"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La distancia de Sorensen o  distancia de Bray-Curtis es una m&eacute;trica definida en <em><img src="/img/revistas/rcci/v12n4/fo0407418.jpg" alt="fo04" width="23" height="20"></em> para la comparaci&oacute;n de vectores 1 <em>&minus; D </em>seg&uacute;n la ecuaci&oacute;n (4), donde <em>xi</em>, <em>yi </em>son las componentes de  los vectores dados: </font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0507418.jpg" alt="fo05" width="494" height="56"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Seg&uacute;n S.Banuchitra and K.Kungumaraj (2016) el paradigma para la recuperaci&oacute;n de im&aacute;genes basada en con- tenido se puede descomponer &nbsp;en las siguientes etapas: adquisici&oacute;n de la imagen, pre procesamiento, extracci&oacute;n de caracter&iacute;sticas, comparaci&oacute;n de la similitud  e im&aacute;genes recuperadas como resultado.  Algunos sistemas m&aacute;s recientes incluyen adem&aacute;s t&eacute;cnicas de retroalimentaci&oacute;n. En correspondencia  con las etapas anteriores el  m&eacute;todo que se propone  &nbsp;posee la arquitectura general &nbsp;que se observa en la <a href="#f01">Figura 1</a>, a la que se adiciona una etapa  de reducci&oacute;n de la dimensi&oacute;n a las representaciones vectoriales &nbsp;de las im&aacute;genes.</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v12n4/f0107418.jpg" alt="f01" width="553" height="375"><a name="f01"></a></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Extracci&oacute;n &nbsp;de rasgos: </font></strong><font face="Verdana, Arial, Helvetica, sans-serif">durante esta etapa se emplea &nbsp;una CNN estructurada de acuerdo al modelo Incep- tionv3 (Szegedy et al., 2016), en el que se presenta&nbsp; &nbsp;una arquitectura neuronal profunda  de 42 capas, cuyas  mejoras con respecto a arquitecturas anteriores como GoogLeNet (Szegedy et al., 2014) o VGGNet (Simonyan and Zisserman, 2014) est&aacute;n &nbsp;dadas  principalmente por la factorizaci&oacute;n &nbsp;de los n&uacute;cleos  &nbsp;de convoluci&oacute;n &nbsp;con la consiguiente reducci&oacute;n espacial de estos filtros, el uso de clasificadores auxiliares al final del entrenamiento y la mejora de las t&eacute;cnicas para la reducci&oacute;n de la cantidad de par&aacute;metros a aprender.</font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Mediante una propagaci&oacute;n hacia delante de la imagen, a  trav&eacute;s de la red, se obtiene &nbsp;el tensor <em>pool</em>3 que, como parte del grafo construido con Tensorflow (Abadi et al., 2016), almacena una representaci&oacute;n vectorial  de 2048 dimensiones de la imagen. Esta etapa se realiza en dos momentos: primero durante el proceso de  indexaci&oacute;n de todas las im&aacute;genes disponibles,  y se guarda &nbsp;junto a cada imagen en la  base  de datos, y  luego  para la imagen de consulta.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Reducci&oacute;n &nbsp;de la dimensi&oacute;n: </strong>los descriptores vectoriales obtenidos en la etapa anterior poseen 2048 com- ponentes, con el objetivo de reducir este valor se aplica la t&eacute;cnica de PCA. Primero se realiza el c&aacute;lculo de  la matriz de covarianza  de las representaciones  vectoriales de una muestra  de las im&aacute;genes disponibles. Luego se calculan los vectores propios y se ordenan &nbsp;por el valor absoluto  de su valor propio asociado. Los primeros vectores propios son seleccionados como una nueva base permitiendo  que el vector de 2048 componentes, que  representa el  contenido de  la imagen, sea proyectado  &nbsp;hacia un espacio de menor dimensi&oacute;n y en el que a&uacute;n se conserven las capacidades representativa &nbsp;y diferenciadora de dichos descriptores.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Comparaci&oacute;n</strong> <strong>de la similitud: </strong>para determinar cu&aacute;les im&aacute;genes en la  base  de datos son similares a  la imagen de consulta  se tiene en cuenta el valor obtenido  a partir de la aplicaci&oacute;n de una funci&oacute;n de disimilitud, &nbsp;como  la distancia del coseno o  la distancia de Sorensen, sobre los descriptores vectoriales de la imagen de  consulta y las indexadas en  la base de datos.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Ordenamiento  &nbsp;y recuperaci&oacute;n: </strong>las im&aacute;genes similares son ordenadas a partir  del valor obtenido durante  la etapa anterior, de manera que aquellas que m&aacute;s similares sean a  la imagen de consulta son mostradas en  los primeros puestos de  la lista de candidatas. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El proceso de  experimentaci&oacute;n &nbsp;se realiz&oacute; &nbsp;sobre las siguientes  &nbsp;bases de  datos internacionales, utilizadas por otros autores en  trabajos relacionados con la tem&aacute;tica.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>UKBench: </strong>esta es una base de datos del Departamento de Ciencias de  la Computaci&oacute;n de la  Universidad de Kentucky, cuenta con 10200 im&aacute;genes &nbsp;en colores, con dimensiones de 640x480 p&iacute;xeles. &nbsp;Las im&aacute;genes se encuentran organizadas en 2550 grupos de 4 im&aacute;genes &nbsp;cada uno con capturas del mismo objeto o escena tomadas con radicales cambios de  perspectiva, &nbsp;como  se puede apreciar en la <a href="/img/revistas/rcci/v12n4/f0207418.jpg" target="_blank">Figura 2</a> (Nister and Stewenius, 2006). </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Holidays: </strong>INRIA &nbsp;Holidays es un conjunto de im&aacute;genes sobre&nbsp; escenas o  lugares que fueron tomadas  por el Instituto &nbsp;Nacional de Investigaci&oacute;n &nbsp;en Inform&aacute;tica &nbsp;y Autom&aacute;tica &nbsp;(INRIA) de Francia,  con el prop&oacute;sito de poseer variedad en cuanto a: rotaciones, punto de vista y cambios en la iluminaci&oacute;n. La base de  datos incluye diversos tipos de escenas: naturales, hechas por  el hombre, etc; todas en alta resoluci&oacute;n. Holidays contiene 500 grupos de im&aacute;genes, cada uno de los cuales representa&nbsp; una escena u objetos distinto. La primera imagen  de cada grupo es la imagen de consulta y los resultados correctos  son el resto  de los miembros del grupo (Jegou et al., 2008).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los pesos de la red fueron  inicializados utilizando un modelo pre entrenado sobre la  base  de datos ImageNet del 2012. Inception-v3 fue entrenado  para el Reto de Reconocimiento Visual a Gran Escala de ImageNet (ILSVRC). &nbsp;Esta  es &nbsp;una tarea est&aacute;ndar &nbsp;en visi&oacute;n &nbsp;por computadoras donde los modelos tratan &nbsp;de clasificar im&aacute;genes completas en mil clases. Para comparar los modelos &nbsp;se examina sus fallos al predecir  la respuesta correcta como una  de las primeras cinco clases predichas  &nbsp;(tasa de error <em>top</em>-5),  Inception-v3 alcanza el  3.46 % en el error <em>top</em>-5 (Szegedy et al., 2016).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como m&eacute;tricas  &nbsp;para medir el desempe&ntilde;o &nbsp;del m&eacute;todo  &nbsp;propuesto, sobre las bases de  datos seleccionadas,&nbsp; &nbsp;se emplearon las siguientes:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>4xRecall@4: </strong>se  utiliza cada imagen,  por turnos, como imagen de  consulta y se reporta el valor promedio de verdaderos positivos obtenidos dentro de las primeras 4 im&aacute;genes (<em>top</em>-4) recuperadas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>mAP &nbsp;(<em>Mean Average Precision </em>): </strong>Dado un conjunto  de im&aacute;genes de consulta esta m&eacute;trica se define &nbsp;como, </font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0607418.jpg" alt="fo06" width="191" height="64"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde <em>Average Precision  &nbsp;</em>(<em>AvePr</em>) para cada imagen de consulta  se define  &nbsp;como,</font></p>     <p align="center"><img src="/img/revistas/rcci/v12n4/fo0707418.jpg" alt="fo07" width="253" height="66"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde <em>k </em>es el rango  en la secuencia de im&aacute;genes recuperadas, <em>n </em>es el n&uacute;mero de im&aacute;genes recuperadas, <em>P r</em>(<em>k</em>) es la precisi&oacute;n en <em>k </em>en la lista (<em>P r</em>@<em>k</em>), <em>rel</em>(<em>k</em>) es una funci&oacute;n que toma valor 1 si la imagen  con rango <em>k </em>es relevante o 0 de otro modo y <em>R </em>es el n&uacute;mero de im&aacute;genes relevantes (Napoletano, 2018).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los modelos &nbsp;neuronales &nbsp;se implentaron utilizando Tensorflow y se ejecutaron en una PC con procesador Core i5 3.5 GHz con 4 GB de RAM y con una GPU NVIDIA GeForce GTX 850M. En la <a href="/img/revistas/rcci/v12n4/t0107418.jpg" target="_blank">tabla 1</a> se muestra un resumen de las caracter&iacute;sticas de las bases de datos utilizadas para la experimentaci&oacute;n. La <a href="/img/revistas/rcci/v12n4/t0207418.jpg" target="_blank">tabla 2</a> muestra  los resultados que se obtuvieron sobre las bases de datos UKBench y Holidays con las im&aacute;genes a resoluci&oacute;n original, reduciendo la dimensi&oacute;n de los vectores de descripci&oacute;n, aplicando PCA, a 512 y 1024 dimensiones y empleando distintas medidas de disimilitud &nbsp;para la comparaci&oacute;n de estos. Tambi&eacute;n se presentan &nbsp;los valores obtenidos por otros m&eacute;todos cl&aacute;sicos y del estado del arte.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se&nbsp; pudo constatar  que los mejores resultados  se &nbsp;logran cuando se &nbsp;reduce la dimensi&oacute;n &nbsp;de los descriptores originales eliminando informaci&oacute;n no &uacute;til o con cierto <em>ruido </em>presente en dichos descriptores. Los nuevos vectores  de rasgos permiten un almacenamiento m&aacute;s &oacute;ptimo al reducirse el  consumo de memoria y dan lugar  a mejores resultados en el proceso de recuperaci&oacute;n. Las distancias del  coseno  y de Sorensen son las que mejores resultados  obtuvieron sobre los vectores originales  y al reducir su dimensi&oacute;n tambi&eacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los falsos positivos  &nbsp;se obtienen &nbsp;mayoritariamente al recuperarse im&aacute;genes que no pertenecen al  grupo de resul- tados correctos, aunque representan el mismo tipo de objeto tomado &nbsp;desde  &aacute;ngulos y condiciones de iluminaci&oacute;n similares. Dichas im&aacute;genes son recuperadas primero que los miembros del grupo de la imagen de  consulta, que var&iacute;an dr&aacute;sticamente la perspectiva de  captura. Es necesario reconocer que las im&aacute;genes recuperadas,  &nbsp;desde el punto de vista sem&aacute;ntico, son realmente similares a la de consulta y el error cometido est&aacute; estrechamente rela- cionado a la escasa variabilidad entre determinados grupos de  im&aacute;genes presentes en la base de datos  sobre  la que se experimenta.  &nbsp;La incapacidad de  los descriptores obtenidos para ser discriminatorio ante las situaciones mencionadas est&aacute; dada por el hecho de  que la red ha sido entrenada para realizar  tareas  de clasificaci&oacute;n y por  tanto los rasgos aprendidos tienden a ser robustos ante la variabilidad entre las clases y  pierden especificidad a las diferencias existentes entre im&aacute;genes, que al ser clasificadas &nbsp;se encontrar&iacute;an en la misma clase o  categor&iacute;a. Alternativas que complementan &nbsp;estas  limitaciones se describen en (Chandrasekhar &nbsp;et al., 2017) donde, en lugar de utilizar los vectores de activaci&oacute;n de las &uacute;ltimas capas de la red neuronal  entrenada, elaboran descriptores que integran dichos vectores con  t&eacute;cnicas estad&iacute;sticas y aplican transformaciones a  la imagen de entrada para hacerlos m&aacute;s invariantes. Sin embargo,  las alternativas&nbsp;mencionadas incrementan la dimensi&oacute;n de los descrip-  tores, el volumen de operaciones necesarias por cada imagen a procesar y  la complejidad temporal de estas, demandando mayor poder de c&oacute;mputo y espacio en memoria. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados obtenidos, que mejoran significativamente los logrados por algoritmos tradicionales como los descriptores SIFT, son alentadores teniendo  en cuenta que se ha utilizado un modelo pre entrenado, sin ajustar para la base de  datos evaluada, y  que las dimensiones de  los descriptores vectoriales &nbsp;globales son menores que las empleadas por otros  m&eacute;todos. Utilizando descriptores hasta 8 veces m&aacute;s peque&ntilde;os (4096 vs 512) se lograron  resultados inferiores a los del estado del arte solo por un margen m&iacute;nimo. El espacio en memoria  que ocupan los descriptores globales de  las im&aacute;genes indexadas &nbsp;es un tema importante al tratarse de cantidades del orden de los miles  o millones de im&aacute;genes. El volumen  de operaciones por imagen demandadas por nuestro m&eacute;todo, as&iacute; como la  baja dimensi&oacute;n de los descriptores a procesar y almacenar, lo  hacen  factible para entornos donde  se necesite  &nbsp;un balance entre el consumo de tiempo y recursos del sistema de recuperaci&oacute;n y la obtenci&oacute;n de  resultados similares en eficacia a  los del estado del arte. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se pretende &nbsp;continuar mejorando el desempe&ntilde;o del m&eacute;todo mediante la utilizaci&oacute;n de otros modelos neuronales  m&aacute;s recientes y aplicando transformaciones de rotaci&oacute;n y escalado a  la imagen de entrada, siguiendo un enfoque similar  al abordado en (Chandrasekhar et al., 2017) pero optimizando el costo computacional.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El m&eacute;todo propuesto puede ser empleado en  el desarrollo de componentes para sistemas de  recuperaci&oacute;n de informaci&oacute;n, espec&iacute;ficamente recuperaci&oacute;n de im&aacute;genes basada en contenido,  humanizando &nbsp;la tarea de recuperar im&aacute;genes de inter&eacute;s almacenadas en  grandes colecciones de  datos. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se desarroll&oacute; un m&eacute;todo para la  recuperaci&oacute;n de im&aacute;genes basada en contenido  que abord&oacute; todas las etapas de este proceso, haciendo uso de los recientes avances  en las redes neuronales artificiales con aprendizaje profundo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se lograron resultados comparables a los reportados por m&eacute;todos del estado  del arte y mejores que los obtenidos  mediante t&eacute;cnicas tradicionales.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El desempe&ntilde;o, sobre bases de datos internacionales, valid&oacute; la eficacia del m&eacute;todo, convirti&eacute;ndolo en un punto  de partida para trabajos futuros en esta &aacute;rea.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Se pretende &nbsp;continuar desarrollando el m&eacute;todo con la  adici&oacute;n de etapas para el pre procesamiento  &nbsp;e integraci&oacute;n de los descriptores obtenidos, en otros con mayor grado  de abstracci&oacute;n. </font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS</B></font>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Martin &nbsp;Abadi,  Ashish Agarwal, Paul Barham, Eugene Brevdo, Zhifeng Chen, Craig Citro,  &nbsp;Greg S&nbsp; Corra- do, Andy Davis, Jeffrey Dean,  Matthieu &nbsp;Devin,  and others. Tensorflow: Large-scale machine learning on heterogeneous distributed systems. <em>arXiv preprint arXiv:1603.04467</em>, 2016.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> Yaron Anavi, Ilya Kogan, Elad Gelbart, Ofer Geva, and Hayit Greenspan. Visualizing and enhancing a  deep learning framework using patients age and gender for chest x-ray image retrieval. In <em>SPIE Medical Imagin</em>, pages 978510&ndash;978510. International Society for  Optics and Photonics, 2016.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Vijay Chandrasekhar, Jie Lin, Qianli Liao, Olivier Morere, Antoine Veillard, Lingyu Duan, and Tomaso Poggio. Compression of Deep Neural Networks for Image Instance Retrieval. <em>arXiv preprint  arXiv:1701.04923</em>, 2017.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ashis Kumar Dhara, Sudipta Mukhopadhyay, Anirvan  &nbsp;Dutta,  &nbsp;Mandeep Garg, and Niranjan &nbsp;Khandelwal. Content-Based Image Retrieval System  for Pulmonary Nodules:  Assisting Radiologists in Self-Learning  and Diagnosis of Lung Cancer.&nbsp;&nbsp; <em>Journal of Digital &nbsp;Imaging</em>, 30(1):63&ndash;77, February 2017.&nbsp;&nbsp; ISSN 0897-1889, 1618-727X. &nbsp;doi: 10.1007/s10278-016-9904-y. &nbsp;URL <a href="https://link.springer.com/article/10.1007/s10278-016-9904-y">https://link.springer.com/article/10.1007/</a><a href="https://link.springer.com/article/10.1007/s10278-016-9904-y">s10278-016-9904-y</a>. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yunchao Gong, Liwei Wang, Ruiqi Guo, and Svetlana Lazebnik. Multi-scale orderless pooling of deep convo-  lutional activation features. In <em>European conference on  computer vision</em>, pages 392&ndash;407.  Springer, 2014.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ian &nbsp;&nbsp; Goodfellow, &nbsp;Yoshua &nbsp;Bengio, &nbsp;and&nbsp; &nbsp;Aaron&nbsp;  &nbsp;Courville.&nbsp;<em>Deep &nbsp;Learning</em>. MIT&nbsp;Press, &nbsp;2016. <a href="http://www.deeplearningbook.org/">http://www.deeplearningbook.org.</a></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Herv&eacute; J&eacute;gou and Andrew Zisserman. Triangulation embedding and democratic aggregation for  image  search. In <em>Proceedings of the IEEE conference on computer vision and pattern recognition</em>, pages  3310&ndash;3317, 2014.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Herve Jegou, Matthijs Douze, and Cordelia  Schmid. Hamming embedding and weak geometric  consistency for large scale image search. <em>Computer  Vision&ndash;ECCV 2008</em>, pages 304&ndash;317, 2008.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Herve Jegou, Florent Perronnin, Matthijs  &nbsp;Douze, Jorge S&aacute;nchez,  &nbsp;Patrick Perez, and Cordelia  Schmid. Ag- gregating local image descriptors into compact  codes.  &nbsp;<em>IEEE transactions on pattern analysis and machine intelligence</em>, 34(9):1704&ndash;1716, 2012. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Nour-Eddine Lasmar and Yannick Berthoumieu. &nbsp;Gaussian copula multivariate  &nbsp;modeling for texture  image retrieval using  wavelet transforms. <em>IEEE Transactions on Image Processing</em>, 23(5):2246&ndash;2261, 2014.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Yann LeCun et al. Generalization and network design strategies. <em>Connectionism in perspective</em>, pages 143&ndash;155, 1989.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Guang-Hai Liu and Jing-Yu Yang. Content-based  image retrieval using color difference histogram. <em>Pattern</em> <em>Recognition</em>, 46(1):188&ndash;198, 2013.Paolo Napoletano. &nbsp;Visual  descriptors for content-based retrieval of remote-sensing images. <em>International Journal of Remote Sensing</em>, 39(5):1&ndash;34, 2018.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">D. Nister and H. Stewenius.  Scalable Recognition &nbsp;with a Vocabulary Tree. In <em>IEEE Conference on Computer</em> <em>Vision and Pattern  Recognition (CVPR)</em>, volume 2, pages 2161&ndash;2168, June 2006. oral presentation.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Mattis &nbsp;Paulin et al.&nbsp; &nbsp;Convolutional patch representations &nbsp;for image retrieval: An unsupervised &nbsp;approach. <em>International  Journal of Computer  Vision</em>, pages 165&ndash;166,  2017.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Florent Perronnin and Diane Larlus.  Fisher vectors meet neural networks: A  hybrid classification architecture. In <em>Proceedings of the IEEE conference on computer vision and pattern recognition</em>, pages 3743&ndash;3752, 2015.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">S.Banuchitra and K.Kungumaraj.  &nbsp;A Comprehensive Survey of Content Based Image Retrieval Techniques. <em>International  Journal Of Engineering And Computer  Science(IJECS)</em>, 5, August 2016. doi: 10.18535/ijecs/v5i8.26. URL <a href="https://www.ijecs.in/">https://www.ijecs.in</a>.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Karen Simonyan and Andrew  Zisserman. Very deep convolutional networks for large-scale image recognition. <em>arXiv preprint  arXiv:1409.1556</em>, 2014.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Christian Szegedy, Wei Liu, Yangqing  Jia, Pierre Sermanet, Scott E. Reed, Dragomir Anguelov, Dumitru  Er- han, Vincent Vanhoucke, and Andrew  Rabinovich. Going Deeper with Convolutions. <em>CoRR</em>, abs/1409.4842, 2014. URL <a href="http://arxiv.org/abs/1409.4842">http://arxiv.org/abs/1409.4842</a>. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Christian Szegedy, Vincent Vanhoucke, Sergey Ioffe,  Jon Shlens, and Zbigniew  Wojna. Rethinking the inception  architecture for computer vision.  In <em>Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition</em>, &nbsp;pages  2818&ndash;2826, 2016.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Satish Tunga, D Jayadevappa, and C Gururaj. &nbsp;A comparative study of content based image retrieval trends and approaches. <em>International Journal of Image Processing (IJIP)</em>, 9(3):127, 2015.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Maria Tzelepi and Anastasios Tefas. Deep convolutional learning  for content based image retrieval.  &nbsp;<em>Neuro-  computing</em>, &nbsp;275:2467&ndash;2478, 2018.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Alexander Vakhitov, Andrey Kuzmin, and Victor Lempitsky. Internet-Based Image Retrieval Using End-to- End Trained Deep Distributions. &nbsp;<em>arXiv preprint arXiv:1612.07697</em>, 2016.    </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Xiang-Yang Wang, Bei-Bei Zhang, and Hong-Ying Yang. Content-based image retrieval by integrating color and  texture features. <em>Multimedia Tools and Applications</em>, 68(3):545&ndash;569, 2014.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Xinjian Wang, Guangchun Luo, and Ke Qin. A composite descriptor for shape image retrieval. In <em>International</em> <em>Conference on Automation, Mechanical Control and Computational Engineering</em>, pages 759&ndash;764,  2015.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Jiachen Yang, Bin Jiang, Baihua Li, Kun Tian, and Zhihan Lv.  &nbsp;A fast image  retrieval method  designed for network big data. <em>IEEE Transactions on Industrial Informatics</em>, 2017.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Wei Yu, Kuiyuan Yang, Hongxun  Yao, Xiaoshuai Sun, and Pengfei Xu. Exploiting  the complementary strengths of multi-layer CNN features for image retrieval. <em>Neurocomputing</em>, &nbsp;237:235&ndash;241, 2017.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Ting Zhang, Guo-Jun  Qi, Jinhui Tang, and Jingdong  Wang. Sparse composite &nbsp;quantization.&nbsp;  In <em>Proceedings of the IEEE Conference on  Computer Vision and Pattern Recognition</em>, &nbsp;pages  4548&ndash;4556, 2015. </font></p>     <p name="_ENREF_1">&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 03/10/2017    <br> Aceptado: 05/10/2018</font></p>     ]]></body>
<body><![CDATA[ ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Abadi]]></surname>
<given-names><![CDATA[Martin]]></given-names>
</name>
<name>
<surname><![CDATA[Agarwal]]></surname>
<given-names><![CDATA[Ashish]]></given-names>
</name>
<name>
<surname><![CDATA[Barham]]></surname>
<given-names><![CDATA[Paul]]></given-names>
</name>
<name>
<surname><![CDATA[Brevdo]]></surname>
<given-names><![CDATA[Eugene]]></given-names>
</name>
<name>
<surname><![CDATA[Chen]]></surname>
<given-names><![CDATA[Zhifeng]]></given-names>
</name>
<name>
<surname><![CDATA[Citro]]></surname>
<given-names><![CDATA[Craig]]></given-names>
</name>
<name>
<surname><![CDATA[Corrado]]></surname>
<given-names><![CDATA[Greg S]]></given-names>
</name>
<name>
<surname><![CDATA[Davis]]></surname>
<given-names><![CDATA[Andy]]></given-names>
</name>
<name>
<surname><![CDATA[Dean]]></surname>
<given-names><![CDATA[Jeffrey]]></given-names>
</name>
<name>
<surname><![CDATA[Devin]]></surname>
<given-names><![CDATA[Matthieu]]></given-names>
</name>
</person-group>
<source><![CDATA[Tensorflow: Large-scale machine learning on heterogeneous distributed systems]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Anavi]]></surname>
<given-names><![CDATA[Yaron]]></given-names>
</name>
<name>
<surname><![CDATA[Kogan]]></surname>
<given-names><![CDATA[Ilya]]></given-names>
</name>
<name>
<surname><![CDATA[Gelbart]]></surname>
<given-names><![CDATA[Elad]]></given-names>
</name>
<name>
<surname><![CDATA[Geva]]></surname>
<given-names><![CDATA[Ofer]]></given-names>
</name>
<name>
<surname><![CDATA[Greenspan]]></surname>
<given-names><![CDATA[Hayit]]></given-names>
</name>
</person-group>
<source><![CDATA[Visualizing and enhancing a deep learning framework using patients age and gender for chest x-ray image retrieval]]></source>
<year>2016</year>
<page-range>978510-978510</page-range><publisher-name><![CDATA[International Society for Optics and Photonics]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Chandrasekhar]]></surname>
<given-names><![CDATA[Vijay]]></given-names>
</name>
<name>
<surname><![CDATA[Lin]]></surname>
<given-names><![CDATA[Jie]]></given-names>
</name>
<name>
<surname><![CDATA[Qianli]]></surname>
<given-names><![CDATA[Liao]]></given-names>
</name>
<name>
<surname><![CDATA[Morere]]></surname>
<given-names><![CDATA[Olivier]]></given-names>
</name>
<name>
<surname><![CDATA[Veillard]]></surname>
<given-names><![CDATA[Antoine]]></given-names>
</name>
<name>
<surname><![CDATA[Duan]]></surname>
<given-names><![CDATA[Lingyu]]></given-names>
</name>
<name>
<surname><![CDATA[Poggio]]></surname>
<given-names><![CDATA[Tomaso]]></given-names>
</name>
</person-group>
<source><![CDATA[Compression of Deep Neural Networks for Image Instance Retrieval.]]></source>
<year>2017</year>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Kumar Dhara]]></surname>
<given-names><![CDATA[Ashis]]></given-names>
</name>
<name>
<surname><![CDATA[Mukhopadhyay]]></surname>
<given-names><![CDATA[Sudipta]]></given-names>
</name>
<name>
<surname><![CDATA[Dutta]]></surname>
<given-names><![CDATA[Anirvan]]></given-names>
</name>
<name>
<surname><![CDATA[Garg]]></surname>
<given-names><![CDATA[Mandeep]]></given-names>
</name>
<name>
<surname><![CDATA[Khandelwal]]></surname>
<given-names><![CDATA[Niranjan]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Content-Based Image Retrieval System for Pulmonary Nodules: Assisting Radiologists in Self-Learning and Diagnosis of Lung Cancer]]></article-title>
<source><![CDATA[]]></source>
<year>2017</year>
<volume>30</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>63-77</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yunchao]]></surname>
<given-names><![CDATA[Gong]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Liwei]]></given-names>
</name>
<name>
<surname><![CDATA[Guo]]></surname>
<given-names><![CDATA[Ruiqi]]></given-names>
</name>
<name>
<surname><![CDATA[Lazebnik]]></surname>
<given-names><![CDATA[Svetlana]]></given-names>
</name>
</person-group>
<source><![CDATA[Multi-scale orderless pooling of deep convo- lutional activation features.]]></source>
<year>2014</year>
<page-range>392-407</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Goodfellow]]></surname>
<given-names><![CDATA[Ian]]></given-names>
</name>
<name>
<surname><![CDATA[Bengio]]></surname>
<given-names><![CDATA[Yoshua]]></given-names>
</name>
<name>
<surname><![CDATA[Courville]]></surname>
<given-names><![CDATA[Aaron]]></given-names>
</name>
</person-group>
<source><![CDATA[Deep Learning. MIT Press]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jégou]]></surname>
<given-names><![CDATA[Hervé]]></given-names>
</name>
<name>
<surname><![CDATA[Zisserman]]></surname>
<given-names><![CDATA[Andrew]]></given-names>
</name>
</person-group>
<source><![CDATA[Triangulation embedding and democratic aggregation for image search.]]></source>
<year>2014</year>
<page-range>3310-3317</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Jegou]]></surname>
<given-names><![CDATA[Herve]]></given-names>
</name>
<name>
<surname><![CDATA[Matthijs]]></surname>
<given-names><![CDATA[Douze]]></given-names>
</name>
<name>
<surname><![CDATA[Cordelia]]></surname>
<given-names><![CDATA[Schmid]]></given-names>
</name>
</person-group>
<source><![CDATA[Hamming embedding and weak geometric consistency for large scale image search]]></source>
<year>2008</year>
<page-range>304-317</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Herve]]></surname>
<given-names><![CDATA[Jegou]]></given-names>
</name>
<name>
<surname><![CDATA[Perronnin]]></surname>
<given-names><![CDATA[Florent]]></given-names>
</name>
<name>
<surname><![CDATA[Douze]]></surname>
<given-names><![CDATA[Matthijs]]></given-names>
</name>
<name>
<surname><![CDATA[Sánchez]]></surname>
<given-names><![CDATA[Jorge]]></given-names>
</name>
<name>
<surname><![CDATA[Perez]]></surname>
<given-names><![CDATA[Patrick]]></given-names>
</name>
<name>
<surname><![CDATA[Schmid]]></surname>
<given-names><![CDATA[Cordelia]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Aggregating local image descriptors into compact codes]]></article-title>
<source><![CDATA[]]></source>
<year>2012</year>
<volume>34</volume>
<numero>9</numero>
<issue>9</issue>
<page-range>1704-1716</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lasmar]]></surname>
<given-names><![CDATA[Nour-Eddine]]></given-names>
</name>
<name>
<surname><![CDATA[Berthoumieu]]></surname>
<given-names><![CDATA[Yannick]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Gaussian copula multivariate modeling for texture image retrieval using wavelet transforms]]></article-title>
<source><![CDATA[]]></source>
<year>2014</year>
<volume>23</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>2246-2261</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LeCun]]></surname>
<given-names><![CDATA[Yann]]></given-names>
</name>
</person-group>
<source><![CDATA[Generalization and network design strategies.]]></source>
<year>1989</year>
<page-range>143-155</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Guang-Hai]]></surname>
<given-names><![CDATA[Liu]]></given-names>
</name>
<name>
<surname><![CDATA[Jing-Yu]]></surname>
<given-names><![CDATA[Yang]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Content-based image retrieval using color difference histogram]]></article-title>
<source><![CDATA[]]></source>
<year>2013</year>
<volume>46</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>188-198</page-range></nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Napoletano]]></surname>
<given-names><![CDATA[Paolo]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Visual descriptors for content-based retrieval of remote-sensing images]]></article-title>
<source><![CDATA[]]></source>
<year>2018</year>
<volume>39</volume>
<numero>5</numero>
<issue>5</issue>
<page-range>1-34</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Nister]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Stewenius]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Scalable Recognition with a Vocabulary Tree]]></source>
<year>2006</year>
<volume>2</volume>
<page-range>2161-2168</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Paulin]]></surname>
<given-names><![CDATA[Mattis]]></given-names>
</name>
</person-group>
<source><![CDATA[Convolutional patch representations for image retrieval: An unsupervised approach.]]></source>
<year>2017</year>
<page-range>165-166</page-range><publisher-name><![CDATA[International Journal of Computer Vision]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Perronnin]]></surname>
<given-names><![CDATA[Florent]]></given-names>
</name>
<name>
<surname><![CDATA[Larlus]]></surname>
<given-names><![CDATA[Diane]]></given-names>
</name>
</person-group>
<source><![CDATA[Fisher vectors meet neural networks: A hybrid classification architecture.]]></source>
<year>2015</year>
<page-range>3743-3752</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Banuchitra]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[Kungumaraj]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<source><![CDATA[A Comprehensive Survey of Content Based Image Retrieval Techniques.]]></source>
<year>Augu</year>
<month>st</month>
<day> 2</day>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Simonyan]]></surname>
<given-names><![CDATA[Karen]]></given-names>
</name>
<name>
<surname><![CDATA[Zisserman]]></surname>
<given-names><![CDATA[Andrew]]></given-names>
</name>
</person-group>
<source><![CDATA[Very deep convolutional networks for large-scale image recognition.]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Szegedy]]></surname>
<given-names><![CDATA[Christian]]></given-names>
</name>
<name>
<surname><![CDATA[Wei]]></surname>
<given-names><![CDATA[Liu]]></given-names>
</name>
<name>
<surname><![CDATA[Yangqing]]></surname>
<given-names><![CDATA[Jia]]></given-names>
</name>
<name>
<surname><![CDATA[Sermanet]]></surname>
<given-names><![CDATA[Pierre]]></given-names>
</name>
<name>
<surname><![CDATA[Scott E]]></surname>
<given-names><![CDATA[Reed]]></given-names>
</name>
<name>
<surname><![CDATA[Anguelov]]></surname>
<given-names><![CDATA[Dragomir]]></given-names>
</name>
<name>
<surname><![CDATA[Er- han]]></surname>
<given-names><![CDATA[Dumitru]]></given-names>
</name>
<name>
<surname><![CDATA[Vanhoucke]]></surname>
<given-names><![CDATA[Vincent]]></given-names>
</name>
<name>
<surname><![CDATA[Rabinovich]]></surname>
<given-names><![CDATA[Andrew]]></given-names>
</name>
</person-group>
<source><![CDATA[Going Deeper with Convolutions]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Szegedy]]></surname>
<given-names><![CDATA[Christian]]></given-names>
</name>
<name>
<surname><![CDATA[Vanhoucke]]></surname>
<given-names><![CDATA[Vincent]]></given-names>
</name>
<name>
<surname><![CDATA[Ioffe]]></surname>
<given-names><![CDATA[Sergey]]></given-names>
</name>
<name>
<surname><![CDATA[Shlens]]></surname>
<given-names><![CDATA[Jon]]></given-names>
</name>
<name>
<surname><![CDATA[Wojna]]></surname>
<given-names><![CDATA[Zbigniew]]></given-names>
</name>
</person-group>
<source><![CDATA[Rethinking the inception architecture for computer vision.]]></source>
<year>2016</year>
<page-range>2818-2826</page-range></nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Satish]]></surname>
<given-names><![CDATA[Tunga]]></given-names>
</name>
<name>
<surname><![CDATA[Jayadevappa]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[Gururaj]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A comparative study of content based image retrieval trends and approaches]]></article-title>
<source><![CDATA[]]></source>
<year>2015</year>
<volume>9</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>127</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Tzelepi]]></surname>
<given-names><![CDATA[Maria]]></given-names>
</name>
<name>
<surname><![CDATA[Tefas]]></surname>
<given-names><![CDATA[Anastasios]]></given-names>
</name>
</person-group>
<source><![CDATA[Deep convolutional learning for content based image retrieval.]]></source>
<year>2018</year>
<volume>275</volume>
<page-range>2467-2478</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Vakhitov]]></surname>
<given-names><![CDATA[Alexander]]></given-names>
</name>
<name>
<surname><![CDATA[Kuzmin]]></surname>
<given-names><![CDATA[Andrey]]></given-names>
</name>
<name>
<surname><![CDATA[Lempitsky]]></surname>
<given-names><![CDATA[Victor]]></given-names>
</name>
</person-group>
<source><![CDATA[Internet-Based Image Retrieval Using End-to- End Trained Deep Distributions]]></source>
<year>2016</year>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xiang-Yang]]></surname>
<given-names><![CDATA[Wang]]></given-names>
</name>
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Bei-Bei]]></given-names>
</name>
<name>
<surname><![CDATA[Hong-Ying]]></surname>
<given-names><![CDATA[Yang]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Content-based image retrieval by integrating color and texture features]]></article-title>
<source><![CDATA[]]></source>
<year>2014</year>
<volume>68</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>545-569</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Xinjian]]></surname>
<given-names><![CDATA[Wang]]></given-names>
</name>
<name>
<surname><![CDATA[Guangchun]]></surname>
<given-names><![CDATA[Luo]]></given-names>
</name>
<name>
<surname><![CDATA[Qin]]></surname>
<given-names><![CDATA[Ke]]></given-names>
</name>
</person-group>
<source><![CDATA[A composite descriptor for shape image retrieval.]]></source>
<year>2015</year>
<page-range>759-764</page-range></nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Yang]]></surname>
<given-names><![CDATA[Jiachen]]></given-names>
</name>
<name>
<surname><![CDATA[Jiang]]></surname>
<given-names><![CDATA[Bin]]></given-names>
</name>
<name>
<surname><![CDATA[Baihua]]></surname>
<given-names><![CDATA[Li]]></given-names>
</name>
<name>
<surname><![CDATA[Tian]]></surname>
<given-names><![CDATA[Kun]]></given-names>
</name>
<name>
<surname><![CDATA[Zhihan]]></surname>
</name>
</person-group>
<source><![CDATA[A fast image retrieval method designed for network big data]]></source>
<year>2017</year>
</nlm-citation>
</ref>
<ref id="B27">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Wei]]></surname>
<given-names><![CDATA[Yu]]></given-names>
</name>
<name>
<surname><![CDATA[Kuiyuan]]></surname>
<given-names><![CDATA[Yang]]></given-names>
</name>
<name>
<surname><![CDATA[Hongxun]]></surname>
<given-names><![CDATA[Yao]]></given-names>
</name>
<name>
<surname><![CDATA[Xiaoshuai]]></surname>
<given-names><![CDATA[Sun]]></given-names>
</name>
<name>
<surname><![CDATA[Pengfei]]></surname>
<given-names><![CDATA[Xu]]></given-names>
</name>
</person-group>
<source><![CDATA[Exploiting the complementary strengths of multi-layer CNN features for image retrieval.]]></source>
<year>2017</year>
<volume>237</volume>
<page-range>235-241</page-range></nlm-citation>
</ref>
<ref id="B28">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Zhang]]></surname>
<given-names><![CDATA[Ting]]></given-names>
</name>
<name>
<surname><![CDATA[Guo-Jun]]></surname>
<given-names><![CDATA[Qi]]></given-names>
</name>
<name>
<surname><![CDATA[Tang]]></surname>
<given-names><![CDATA[Jinhui]]></given-names>
</name>
<name>
<surname><![CDATA[Wang]]></surname>
<given-names><![CDATA[Jingdong]]></given-names>
</name>
</person-group>
<source><![CDATA[Sparse composite quantization.]]></source>
<year>2015</year>
<page-range>4548-4556</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
