<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992017000200011</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Seguimiento de múltiples personas en aplicación de videovigilancia con cámaras de baja resolución]]></article-title>
<article-title xml:lang="en"><![CDATA[Multiple people tracking in video surveillance applications with low-resolution cameras]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Garcés Matilla]]></surname>
<given-names><![CDATA[Aldo]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Guerrero Peña]]></surname>
<given-names><![CDATA[Fidel]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Garcés Calvelo]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Hernández Silva]]></surname>
<given-names><![CDATA[Elisa]]></given-names>
</name>
<xref ref-type="aff" rid="A04"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Matilla Belett]]></surname>
<given-names><![CDATA[Magali]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Oriente  ]]></institution>
<addr-line><![CDATA[ Santiago de Cuba]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad Federal de Pernambuco  ]]></institution>
<addr-line><![CDATA[ Recife]]></addr-line>
<country>Brasil</country>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Jaume  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>España</country>
</aff>
<aff id="A04">
<institution><![CDATA[,Centro de Investigaciones de Energía Solar  ]]></institution>
<addr-line><![CDATA[ Santiago de Cuba]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>06</month>
<year>2017</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>06</month>
<year>2017</year>
</pub-date>
<volume>11</volume>
<numero>2</numero>
<fpage>149</fpage>
<lpage>161</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992017000200011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992017000200011&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992017000200011&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN La detección y seguimiento de personas es de vital interés por su amplio potencial de aplicaciones, tales como: videovigilancia, sistemas asistidos de conducción, herramientas de evaluación en el ámbito médico, interacción humano-computador. Precisamente en este trabajo es presentada una aplicación para la realización de tareas de videovigilancia con cámaras de baja resolución. Esta aplicación está basada en secuencias de video capturadas desde un sistema distribuido de visión con múltiples cámaras, permitiendo la detección y seguimiento de personas. Se utilizaron métodos y técnicas bien conocidas, integradas de manera creativa para cubrir las diferentes etapas de procesamiento, donde se introdujeron mejoras para una mayor eficiencia computacional del sistema. Especial atención reciben la sustracción de fondo con el modelo de Mezcla Gaussiana en la detección de objetos y el filtro de Kalman para el seguimiento, además los descriptores Histogramas de Gradientes Orientados y Máquina de Soporte Vectorial en la detección de persona. Para demostrar la validez de los métodos implementados se realizan una gran variedad de experimentos con cámaras de baja resolución, en los cuales se obtuvieron resultados satisfactorios. En la etapa de seguimiento de múltiples personas, solo se cometió error en el 11% de las personas detectadas, motivado fundamentalmente por la ocurrencia de oclusiones.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT People detection and tracking is of vital interest for its many applications, such as video surveillance, driver assisted systems, evaluation tools in the medicine, human-computer interaction. In this work is presented an application to carry out tasks of video surveillance with low resolution cameras. This application is based on video sequences captured from a distributed multi-camera vision system, allowing the people detection and tracking. The methods and techniques used in each stage are well known, these were built creatively in the different stages of processing, and these were improved for greater computational efficiency of the system. Within these receive special attention the background subtraction with Gaussian Mixture Model to objects detection and the Kalman filter to tracking, also the descriptors Histograms of Oriented Gradients and Support Vector Machine in people detection. To demonstrate the validity of the methods implemented is realized a variety of experiments with low-resolution cameras, getting satisfactory results. In the tracking stage of multiple persons only occurred error in 11% of detected people, mainly motivated by the occurrence of occlusions.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[detección de objetos]]></kwd>
<kwd lng="es"><![CDATA[seguimiento]]></kwd>
<kwd lng="es"><![CDATA[detección de personas y sistema de videovigilancia]]></kwd>
<kwd lng="en"><![CDATA[object detection]]></kwd>
<kwd lng="en"><![CDATA[tracking]]></kwd>
<kwd lng="en"><![CDATA[people detection and video surveillance systems]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Seguimiento  de m&uacute;ltiples personas en aplicaci&oacute;n de videovigilancia con c&aacute;maras de baja  resoluci&oacute;n</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Multiple people tracking in video surveillance applications with low-resolution  cameras</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Aldo Garc&eacute;s Matilla<strong><sup>1*</sup></strong>, <strong>Fidel Guerrero Pe&ntilde;a<sup>2</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">, <strong>Alejandro Garc&eacute;s Calvelo<sup>3</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">, <strong>Elisa Hern&aacute;ndez Silva<sup>4</sup></strong></font></strong></font><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">, <strong>Magali Matilla Belett<sup>1</sup></strong></font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Universidad de Oriente. Ave. Patricio  Lumumba s/n Altos de Quintero, Santiago de Cuba, Cuba.</font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br> <sup>2</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Universidad Federal de Pernambuco. Av. Prof. Moraes Rego, 1235, Ciudad  Universitaria 50.670-901, Recife, Brasil.</font>    ]]></body>
<body><![CDATA[<br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>3</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Universidad  Jaume I. Av. de Vicent Sos Baynat s/n 12071 Castell&oacute;n de la  Plana, Espa&ntilde;a</font>    <br> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>4</sup></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Centro de Investigaciones de Energ&iacute;a Solar. Micro 3, Reparto &quot;Abel  Santamar&iacute;a&quot;, Santiago de Cuba, Cuba.</font></p>     <p>&nbsp;</p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif"> <a href="mailto:ycardosog@uci.cu"><u>agarcesm91@gmail.com</u></a><a href="mailto:lisvandy@ibp.co.cu"></a><a href="mailto:ycoca@uci.cu"></a><a href="mailto:valery@electrica.cujae.edu.cu"></a><a href="mailto:rtrujillo@edistancia.uo.edu.cu"></a><a href="mailto:jova@uci.cu"></a></font><font face="Verdana, Arial, Helvetica, sans-serif"><a href="mailto:losorio@ismm.edu.cu"></a> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La detecci&oacute;n y seguimiento de personas es de vital inter&eacute;s por su amplio  potencial de aplicaciones, tales como: videovigilancia, sistemas asistidos de  conducci&oacute;n, herramientas de evaluaci&oacute;n en el &aacute;mbito m&eacute;dico, interacci&oacute;n  humano-computador. Precisamente en este trabajo es presentada una aplicaci&oacute;n  para la realizaci&oacute;n de tareas de videovigilancia con c&aacute;maras de baja  resoluci&oacute;n. Esta aplicaci&oacute;n est&aacute; basada en secuencias de video capturadas desde  un sistema distribuido de visi&oacute;n con m&uacute;ltiples c&aacute;maras, permitiendo la  detecci&oacute;n y seguimiento de personas. Se utilizaron m&eacute;todos y t&eacute;cnicas bien  conocidas, integradas de manera creativa para cubrir las diferentes etapas de  procesamiento, donde se introdujeron mejoras para una mayor eficiencia  computacional del sistema. Especial atenci&oacute;n reciben la sustracci&oacute;n de fondo  con el modelo de Mezcla Gaussiana en la detecci&oacute;n de objetos y el filtro de  Kalman para el seguimiento, adem&aacute;s los descriptores Histogramas de Gradientes  Orientados y M&aacute;quina de Soporte Vectorial en la detecci&oacute;n de persona. Para  demostrar la validez de los m&eacute;todos implementados se realizan una gran variedad  de experimentos con c&aacute;maras de baja resoluci&oacute;n, en los cuales se obtuvieron  resultados satisfactorios. En la etapa de seguimiento de m&uacute;ltiples personas,  solo se cometi&oacute; error en el 11% de las personas detectadas, motivado  fundamentalmente por la ocurrencia de oclusiones. </font>      <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">detecci&oacute;n de objetos, seguimiento, detecci&oacute;n de personas y sistema de  videovigilancia.</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">People detection and tracking is of vital interest for its many  applications, such as video surveillance, driver assisted systems, evaluation  tools in the medicine, human-computer interaction. In this work is presented an  application to carry out tasks of video surveillance with low resolution  cameras. This application is based on video sequences captured from a  distributed multi-camera vision system, allowing the people detection and  tracking. The methods and techniques used in each stage are well known, these  were built creatively in the different stages of processing, and these were  improved for greater computational efficiency of the system. Within these  receive special attention the background subtraction with Gaussian Mixture Model  to objects detection and the Kalman filter to tracking, also the descriptors  Histograms of Oriented Gradients and Support Vector Machine in people  detection. To demonstrate the validity of the methods implemented is realized a  variety of experiments with low-resolution cameras, getting satisfactory  results. In the tracking stage of multiple persons only occurred error in 11%  of detected people, mainly motivated by the occurrence of occlusions.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>object detection, tracking, people detection and video surveillance  systems.</font> </p> <hr>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La necesidad de garantizar la  seguridad de personas y bienes en entornos cada vez m&aacute;s masificados, explica la  enorme expansi&oacute;n y desarrollo que est&aacute;n experimentando los sistemas de  vigilancia en todo el mundo. El an&aacute;lisis de cantidades enormes de informaci&oacute;n  adquiridas por estos sistemas, obliga al desarrollo de t&eacute;cnicas de an&aacute;lisis  autom&aacute;tico, con una intervenci&oacute;n m&iacute;nima por parte de operadores humanos.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La visi&oacute;n artificial es una  de las &aacute;reas de la computaci&oacute;n que tiene infinidad de aplicaciones en el campo  de la seguridad y la vigilancia (Sun &amp; Meng,  2015; Kinjal &amp; Thakore, 2012). El poder automatizar ciertas  funciones como el reconocimiento y seguimiento de personas, veh&iacute;culos y ciertos  objetos abre un gran campo de posibilidades para detectar situaciones an&oacute;malas  en secuencias de video tomadas en un entorno concreto. Un sistema inform&aacute;tico  con estas capacidades, puede convertirse en una herramienta eficaz para  discriminar los sucesos que merecen ser informados a los agentes encargados de  los sistemas de vigilancia, reduciendo el n&uacute;mero de acciones a realizar por  ellos y simplificando el posterior proceso de indagaci&oacute;n. As&iacute;, por ejemplo, se  puede tener decenas de c&aacute;maras realizando tareas de vigilancia y muy pocos  agentes encargados de monitorizar operaciones como: el control de acceso a  &aacute;reas especiales, la identificaci&oacute;n de personas a distancia, las estad&iacute;sticas  de movimiento de grupos de personas, el an&aacute;lisis de tr&aacute;fico (tales como las  retenciones y atascos) y la detecci&oacute;n de comportamientos an&oacute;malos (por ejemplo,  los accidentes y actos de violencia. Esto llevar&iacute;a a un sistema quiz&aacute;s m&aacute;s  barato y sin duda m&aacute;s fiable. &nbsp;</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En las &uacute;ltimas d&eacute;cadas se ha  logrado un avance impresionante en los sistemas autom&aacute;ticos de vigilancia (Aggarwal &amp; Ryoo, 2011; Parekh, Thakore, &amp;  Jaliya, 2014; Smeulders, 2014). Sin embargo, la detecci&oacute;n autom&aacute;tica de  personas y seguimiento en secuencias de video a&uacute;n constituye un problema  extremadamente complejo, que requiere de nuevos m&eacute;todos y herramientas cada vez  m&aacute;s fiables, eficientes y eficaces.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Adem&aacute;s, otro inconveniente es que presenten  un funcionamiento estable con secuencias de im&aacute;genes de baja resoluci&oacute;n, ya que  en estas pueden dificultarse la extracci&oacute;n de caracter&iacute;sticas y detecci&oacute;n de  personas u objetos al estar representados por un n&uacute;mero de pixeles peque&ntilde;os. &nbsp;</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Precisamente, el objetivo de  este trabajo es proponer un m&eacute;todo para la realizaci&oacute;n de tareas de  videovigilancia en ambientes no controlados con c&aacute;maras de baja resoluci&oacute;n.  Para lograr este prop&oacute;sito, se plante&oacute; la realizaci&oacute;n de una etapa de  experimentaci&oacute;n, para seleccionar y formular adecuaciones a importantes  t&eacute;cnicas de visi&oacute;n por computadora para el desarrollo de las diferentes tareas  de videovigilancia. Como resultado final de la investigaci&oacute;n, se proyect&oacute; la  implementaci&oacute;n de una aplicaci&oacute;n que incluir&aacute; el m&eacute;todo propuesto.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Justamente, en este trabajo,  se presenta una aplicaci&oacute;n eficaz, eficiente y flexible, para la realizaci&oacute;n de  tareas de videovigilancia en ambientes no controlados con c&aacute;maras de baja  resoluci&oacute;n. Esta aplicaci&oacute;n est&aacute; basada en secuencias de video capturadas desde  un sistema distribuido de visi&oacute;n con m&uacute;ltiples c&aacute;maras, permitiendo la detecci&oacute;n  y seguimiento de personas. Para ello, se utilizan m&eacute;todos y t&eacute;cnicas bien  conocidas, las cuales fueron integradas de manera creativa para cubrir las  diferentes etapas de procesamiento, tales como la sustracci&oacute;n de fondo con el  modelo de Mezclas Gaussianas (Stauffer &amp; Grimson, 2000) para la detecci&oacute;n de  objetos, el filtro de Kalman (Patel &amp; Thakore, April 2013) para realizar el  seguimiento. En la etapa de detecci&oacute;n de personas se utiliz&oacute; el m&eacute;todo de Dalal  y Triggs (Dalal &amp; Triggs, 2005), este fue aplicado  solo a las regiones de inter&eacute;s devuelto por la sustracci&oacute;n de fondo y as&iacute;  proporcionar mayor eficiencia en la implementaci&oacute;n. Para demostrar la validez  de la aplicaci&oacute;n propuesta se realizan experimentos, en los cuales se  obtuvieron satisfactorios resultados. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Trabajos  Relacionados&nbsp; </strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este ep&iacute;grafe se  introducen los principales m&eacute;todos y t&eacute;cnicas relacionadas con el seguimiento  de objetos y detecci&oacute;n de personas utilizados en este trabajo. Ellos  constituyen la base de la herramienta de videovigilancia desarrollada. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Seguimiento  de objetos </strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El seguimiento de objetos  mediante videoc&aacute;maras ha sido un tema muy explorado en el campo de la visi&oacute;n  por computador (Parekh, Thakore, &amp; Jaliya, 2014). En el contexto del  presente trabajo, el seguimiento puede ser dividido en dos principales etapas (Athanesious &amp; Suresh, October 2012): detecci&oacute;n de objetos  interesantes en la escena y seguimiento de estos objetos.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La detecci&oacute;n de los objetos  permite realizar la localizaci&oacute;n de los mismos en sucesivos fotogramas (Parekh, Thakore, &amp; Jaliya, 2014). Entre otros,  especial atenci&oacute;n se les ha brindado a los m&eacute;todos basados en detectores de  puntos (Gaiglitz, H&ouml;llerer, &amp; Turk, 2011); en segmentaci&oacute;n (Shi &amp; Malik, 2000; Ukinkar &amp; Samvatsar,  2012); en sustracci&oacute;n de fondo (Stauffer  &amp; Grimson, 2000; Zhang &amp; Ding, 2012); y en el entrenamiento  supervisado (Santhanam, Sumathi, &amp; Gomathi, 2012). Muchos de ellos se  comportan dependientes del ambiente y tienen alto costo computacional.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los m&eacute;todos de seguimiento de  un objetivo tienen como finalidad la implementaci&oacute;n de un seguidor encargado de  generar la trayectoria del objetivo a lo largo de un periodo de tiempo mediante  la localizaci&oacute;n de su posici&oacute;n en cada fotograma del video (Parekh, Thakore, &amp; Jaliya, 2014) . Estos m&eacute;todos son  divididos en tres grandes grupos (Kinjal &amp; Thakore, 2012) seguimiento por  puntos (Patel &amp; Thakore, April 2013; Yin,  Na, Choi, &amp; Oh, 2011), de n&uacute;cleo  (Mishra, Mahesh, &amp; Nitna, 2012; Athanesious &amp; Suresh, March 2013)  y silueta (Cole, Austin, &amp; Cole, 2004;  Athanesious &amp; Suresh, March 2013).&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el presente trabajo se le  presta especial inter&eacute;s al m&eacute;todo de sustracci&oacute;n de fondo con modelo de mezcla  gaussiana (Stauffer &amp; Grimson, 2000) para la  representaci&oacute;n del fondo, debido a que constituye una t&eacute;cnica robusta y  adaptable a los cambios de ambiente (Zhang &amp; Ding, 2012). Para la etapa de  seguimiento se considera oportuno un m&eacute;todo de seguimiento por punto,  espec&iacute;ficamente el estad&iacute;stico por correspondencia filtro de Kalman (Welch &amp; Bishop, 2006), dado su eficacia y  rapidez (Patel &amp; Thakore, April 2013). </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Detecci&oacute;n  de persona</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A la hora de reconocer los  objetos como personas se puede recurrir a diferentes enfoques (Dollar, Wojek, Schiele, &amp; Perona, 2012; Paul,  Haque, &amp; Chakroborty, 2013). Uno de ellos, son los sistemas basados  en detectores de formas, seleccionando un conjunto de rasgos para discriminar  los objetos que no son de inter&eacute;s con respecto a los que s&iacute; lo son. Otra opci&oacute;n  es emplear sistemas basados en descriptores, tales como los Descriptores  Basados en el An&aacute;lisis de Componentes Principales (PCA) &nbsp;(Shlens, 2005) muy utilizados en la detecci&oacute;n de  peatones, los descriptores Wavelet de Haar (Viola &amp; Jones, 2004) que permiten definir  de manera robusta clases de objetos complejos, siendo invariantes a cambios de  color y de textura, y los descriptores SIFT (Lowe, 2004)  orientado a la extracci&oacute;n de caracter&iacute;sticas distintivas de una imagen en  escala de grises, de tal manera que pueda reconocer una misma caracter&iacute;stica  entre diferentes vistas de un mismo objeto o escenas. </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sin embargo, por la naturaleza del  problema abordado en este trabajo, se requiere de alg&uacute;n m&eacute;todo m&aacute;s robusto a  cambios bruscos de iluminaci&oacute;n. Una alternativa a los m&eacute;todos anteriormente  mencionados, lo constituyen los Descriptores Basados en Histogramas de  Gradientes Orientados (HOG), presentado por Navneed Dalal y Bill Triggs en  el Instituto Nacional de Investigaci&oacute;n en Inform&aacute;tica y Autom&aacute;tica (INRIA), en  2005 (Dalal &amp; Triggs, 2005). Adem&aacute;s de  su buen comportamiento frente a diferentes condiciones de iluminaci&oacute;n,  los HOG exhiben robustez ante peque&ntilde;os cambios en el contorno de la imagen,  diferentes fondos y escalas, que garantizan buena precisi&oacute;n.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>M&eacute;todo de Detecci&oacute;n y Seguimiento  de Personas </strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este ep&iacute;grafe se propone un  m&eacute;todo de detecci&oacute;n y seguimiento de personas para el desarrollo de  aplicaciones de videovigilancia. El mismo integra algunos m&eacute;todos y t&eacute;cnicas  descritas en el ep&iacute;grafe 1, e incorpora algunas mejoras en el procesamiento  relacionado. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/f0111217.jpg" alt="f01" width="286" height="321"><a name="f01"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#f01">Figura 1</a> se muestra el esquema general del funcionamiento del  m&eacute;todo. Como se observa para cada imagen capturada por c&aacute;mara, se da  seguimiento a los objetos de inter&eacute;s encapsulados en este diagrama como un  &uacute;nico subproceso. Cada objeto de inter&eacute;s (ROI) que se le da seguimiento pasa  por una etapa de clasificaci&oacute;n con memoria para conocer si es &ldquo;persona&rdquo; o &ldquo;no  persona&rdquo;, el cual evita clasificaciones redundantes en im&aacute;genes sucesivas y  lograr una mejor eficiencia computacional. Esto es debido a que s&iacute; el objeto  fue identificado como persona en fotogramas anteriores no pasa nuevamente a la  etapa de detecci&oacute;n de persona y as&iacute; lograr una mayor eficiencia, como evidencia  el esquema.</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Seguimiento  de objeto </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El seguimiento de objetos se  divide en dos subprocesos, detecci&oacute;n de objeto y seguimiento de objeto. Este  m&eacute;todo comienza con la extracci&oacute;n de la informaci&oacute;n de la escena captada  mediante una c&aacute;mara. La detecci&oacute;n de los objetos en movimiento es abordada como  un problema de sustracci&oacute;n de fondo, debido a la adquisici&oacute;n del video a trav&eacute;s  de c&aacute;maras fijas. Aqu&iacute; se propone un m&eacute;todo de sustracci&oacute;n de fondo basado en  el modelo mezcla gaussiana (MOG), que permite el aprendizaje del fondo de la  escena mediante la combinaci&oacute;n de distribuciones de Gauss. A partir de este  aprendizaje y los fotogramas obtenidos en etapa anterior, pueden ser extra&iacute;dos  del fondo aquellos objetos en movimiento, eliminando sombras para facilitar la  detecci&oacute;n de las personas. En base a la m&aacute;scara de movimiento devuelto por la  sustracci&oacute;n de fondo se van a descartar aquellos contornos con &aacute;rea &lt; &delta; o &aacute;rea &gt; &beta;, ya que  no son candidatos a ser personas, donde &delta;  y &beta; son valores tomados en  dependencia de la distancia de la c&aacute;mara con respecto a la escena. Estos  descartes permitir&aacute;n deshacerse de objetos seg&uacute;n el tama&ntilde;o de los objetos al  ser muy peque&ntilde;os o demasiados grandes. El resto de los objetos detectados van a  ser englobados por rect&aacute;ngulos, siendo estas las Regiones de Inter&eacute;s (ROIs),  con las que se va a trabajar durante el resto del procesamiento.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para realizar el seguimiento  de la persona se propone el uso del filtro de Kalman el cual es un potente  algoritmo recursivo que se utiliza para estimar la posici&oacute;n de un punto o  caracter&iacute;stica en movimiento y la incertidumbre de la medida en una imagen  posterior en una fase de predicci&oacute;n y realiza una fase de correcci&oacute;n en base a  la predicci&oacute;n y la medici&oacute;n visual. Este m&eacute;todo se le aplica a cada ROI  detectado en la fase anterior, los cuales se le dan seguimiento mediante el  centroide del objeto de cada uno en la secuencia de fotogramas, para un  posterior reconocimiento (clasificar si es persona). En la <a href="#f02">Figura 2</a> se muestra  el seguimiento en un instante de la secuencia de video, donde cada objeto se le  asigna un identificador (ID) que ser&aacute; el mismo en toda la secuencia de video. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/f0211217.jpg" alt="f02" width="405" height="298"><a name="f02"></a></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Detecci&oacute;n  de persona</font></strong> </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la detecci&oacute;n de personas  se propone una variante del m&eacute;todo de Dalal y Triggs (HOG + M&aacute;quina de Soporte  Vectorial, SVM) (Dalal &amp; Triggs, 2005), circunscribi&eacute;ndolo  &uacute;nicamente a aquellas regiones de inter&eacute;s (ROIs) que contengan a uno o varias  personas y as&iacute; lograr una mayor eficiencia en el sistema.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El detector utiliza una  ventana de localizaci&oacute;n de deslizamiento que se mueve alrededor de la imagen.  En cada posici&oacute;n de la ventana del detector, se calcula un descriptor de HOG.  Este descriptor es procesado por la SVM (Abe, 2010)  entrenada previamente, para su clasificaci&oacute;n (como &ldquo;persona&ldquo; o &ldquo;no persona&ldquo;). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Antes de calcular las  caracter&iacute;sticas puede realizarse una fase previa de adaptaci&oacute;n de la imagen de  entrada para aumentar la probabilidad de encontrar el contorno correctamente y  tambi&eacute;n lograr una mayor eficiencia. Dicha fase puede contemplar la  transformaci&oacute;n de la imagen de RGB a escala de grises para mejorar el  rendimiento y simplificar los c&aacute;lculos sucesivos, modificar el tama&ntilde;o de la  imagen (por ejemplo, a 64x128) y la ecualizaci&oacute;n del histograma de la imagen,  con lo cual se maximiza el contraste.&nbsp; </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El beneficio de realizar la  conversi&oacute;n a escala de grises consiste en reducir el n&uacute;mero de p&iacute;xeles que se  tienen que computar, ya que se pasa de una imagen de tres canales a una de un  canal. Esta simplificaci&oacute;n se puede realizar por el hecho que para realizar el  c&aacute;lculo de bordes no son relevantes los valores concretos de intensidad de cada  canal, sino m&aacute;s bien la variaci&oacute;n de intensidad global que se produce. </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Implementaci&oacute;n de un sistema  de videovigilancia</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El sistema de videovigilancia  se basa en el an&aacute;lisis de secuencias de fotogramas capturadas por un sistema  distribuido con m&uacute;ltiples c&aacute;maras. Estas secuencias pueden ser recibidas  mediante c&aacute;maras instaladas en un dispositivo de captura (cliente) o en la  estaci&oacute;n de procesamiento (servidor) como muestra la <a href="#f03">Figura 3</a>. El cliente se  encarga de capturar y enviar las secuencias de fotogramas al servidor por red.  En tanto, el servidor presenta un comportamiento dual, pues puede controlar  directamente c&aacute;maras (comport&aacute;ndose como un cliente) o recibe las secuencias de  video enviadas desde los clientes asociados, concentrando el procesamiento y la  visualizaci&oacute;n de los resultados. Con el objetivo de mejorar el an&aacute;lisis de las  secuencias de video en el servidor, se utiliza un procesamiento multi-hilo, uno  por secuencia de fotogramas capturada por cada c&aacute;mara, tanto local o remota. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/f0311217.jpg" alt="f03" width="268" height="226"><a name="f03"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El control del sistema, por parte de los agentes de seguridad, es  realizada mediante la interfaz que se muestra en la <a href="/img/revistas/rcci/v11n2/f0411217.jpg" target="_blank">Figura 4</a>. En la parte  izquierda se visualizan las c&aacute;maras conectadas, tanto local o remota y en la  derecha se observa de manera ampliada cualquier captura se&ntilde;alada por el  usuario. En la parte inferior de la interface se encuentra un panel de notificaciones  del procesamiento. En las capturas las personas son delimitadas por un  rect&aacute;ngulo y se le asigna un identificador a cada persona. Se dan diferentes  opciones al usuario, entre ellas, que el sistema grabe de manera autom&aacute;tica en  caso de que se est&eacute; dando seguimiento a personas, estas secuencias de videos  son guardadas para un posterior an&aacute;lisis. Adem&aacute;s, existe la posibilidad de ver  el historial de trayectoria que ha llevado la persona en toda la secuencia de  las im&aacute;genes, como vemos en la captura ampliada que visualizada en la <a href="/img/revistas/rcci/v11n2/f0411217.jpg" target="_blank">Figura 4</a>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Validaci&oacute;n del Sistema de  Videovigilancia </strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este ep&iacute;grafe est&aacute; dedicado a  la evaluaci&oacute;n de los resultados de los algoritmos de seguimiento de persona  implementados. Para realizar los experimentos se realizar&aacute;n varias pruebas,  probando diferentes trayectorias dentro de la escena, de tal forma que se  obtenga los resultados de estas trayectorias y tambi&eacute;n se conozca la  trayectoria real, para validar si son seguidos correctamente.&nbsp; </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Muchas veces el  funcionamiento de un algoritmo depende en gran medida de la calidad de la  resoluci&oacute;n de la imagen sobre la que se trabaja, debido a que facilita y  acelera el proceso computacional de detecci&oacute;n de los algoritmos. Al tener  im&aacute;genes con una resoluci&oacute;n aceptable, no existir&iacute;a demasiado ruido en las  mismas. En este proyecto se ha trabajado con una c&aacute;mara web de bajo costo  Logitech C170, que presenta una frecuencia de 30 FPS y una resoluci&oacute;n de video  640x480. </font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Seguimiento  simple de persona</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este experimento se desea  conocer los errores de estimaci&oacute;n<img width="8" height="24" src="rcci11217_clip_image001.gif">del filtro de Kalman. Se  realiz&oacute; una comparaci&oacute;n de los resultados de las estimaciones del filtro de  Kalman con las mediciones visuales (localizaci&oacute;n real de la persona). Se  consideraron 10 trayectorias diferentes de personas, donde se obtuvo el  promedio del <em>error</em> de toda la  trayectoria, el error en cada fotograma es la norma al cuadrado, la cual es  definida como la sustracci&oacute;n de la <em>estimaci&oacute;n </em>obtenida <img src="/img/revistas/rcci/v11n2/fo0111217.jpg" alt="fo01" width="17" height="20">&nbsp;y la <em>medici&oacute;n  visual Qk </em>, como muestra la Ecuaci&oacute;n 1. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/fo0211217.jpg" alt="fo02" width="395" height="55"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="#t01">Tabla 1</a> se muestra el  promedio de la norma al cuadrado del error para las 10 trayectorias, en el cual  se evidencia una variaci&oacute;n entre 6,64 y 56,50, lo que significa bastante buena  para el seguimiento. En general los errores obtenidos disminuyen en el tiempo  como resultado de la fase de correcci&oacute;n de los datos predicho en la fase de  predicci&oacute;n con la medici&oacute;n visual, por lo que siempre es posible continuar el  seguimiento en fotogramas sucesivos correctamente. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/t0111217.jpg" alt="t01" width="460" height="255"><a name="t01"></a></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Seguimiento de m&uacute;ltiples  persona</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este experimento se tom&oacute;  una secuencia de video con la c&aacute;mara web Logitech C170 descrita anteriormente,  con una duraci&oacute;n de 2:25:35 horas, situando la c&aacute;mara en el exterior de la  Facultad de Matem&aacute;tica Computaci&oacute;n de la Universidad de Oriente. Este video  presenta vibraciones y variaciones de la iluminaci&oacute;n. Los resultados obtenidos  se muestran en la <a href="#t02">Tabla 2</a>, teniendo en cuenta los siguientes criterios: se  considera un <em>error</em> de seguimiento  cuando se pierde la persona por completo o en otros t&eacute;rminos cuando la cantidad  de muestras p&eacute;rdidas del total que se toman durante su trayectoria en la escena  es mayor al 75 %, en el caso de haberse perdido la persona menos del 25% de las  muestras se considera <em>muy bueno</em>,  menor al 50% <em>bueno</em> y menor de 75% <em>regular</em>. Durante la secuencia de video  de detect&oacute; 136 personas, en el cual se obtuvo resultado muy satisfactorio,  donde se cometi&oacute; <em>error</em> en el  seguimiento solamente en el 11% de las personas detectadas. En tanto, el 50 por  ciento de las personas se le dio un seguimiento <em>muy bueno</em>, el 26 por ciento fue <em>bueno</em> y el 13 por ciento <em>regular</em>. Los  mayores problemas para las p&eacute;rdidas moment&aacute;neas de las personas que se le da  seguimiento en la escena fueron las oclusiones personas-persona o  persona-objetos. </font></p>     <p align="center"><img src="/img/revistas/rcci/v11n2/t0211217.jpg" alt="t02" width="443" height="93"><a name="t02"></a></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el presente trabajo se  present&oacute; una aplicaci&oacute;n potente, eficiente y flexible, para la realizaci&oacute;n de  tareas de videovigilancia con c&aacute;maras de baja resoluci&oacute;n. Esta aplicaci&oacute;n  permite la detecci&oacute;n y seguimiento de personas de manera autom&aacute;tica. La  experimentaci&oacute;n realizada, demuestra la validez de los m&eacute;todos implementados.  En la etapa de seguimiento se obtuvieron satisfactorios resultados, donde solo  se cometi&oacute; error en el 11% de las personas detectadas, motivadas  fundamentalmente por la ocurrencia de oclusiones persona-persona o  persona-objetos. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El sistema propuesto, en este  trabajo, puede ser utilizado en una importante clase de aplicaciones para la  videovigilancia. Sin embargo, los resultados obtenidos en la experimentaci&oacute;n  realizada, ponen de manifiesto algunos aspectos en los que se debe seguir  trabajando para mejorar su comportamiento en condiciones m&aacute;s complejas. El  principal problema en que debe profundizarse, es aquel relacionado con las  oclusiones que pueden presentarse en las escenas. Estas introducen mayores  complejidades en el seguimiento de objetos.</font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>      <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ABE, S.   (2010). <em>Support Vector Machines for Pattern Classification.</em> London:   Springer.     </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">AGGARWAL, J.,   &amp; RYOO, M. (2011). Human activity analysis: A review. <em>ACM Computing Surveys   (CSUR), 43</em>(3), 16.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ATHANESIOUS,   J., &amp; SURESH, P. (March 2013). Implementation and Comparison of Kernel and   Silhouette Based Object Tracking. <em>International Journal of Advanced   Research in Computer Engineering &amp; Technology</em>, pp 1298-1303.    </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ATHANESIOUS,   J., &amp; SURESH, P. (October 2012). Systematic Survey on Object Tracking   Methods in Video. <em>International Journal of Advanced Research in Computer   Engineering &amp; Technology (IJARCET)</em>, 242-247.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">COLE, L.,   AUSTIN, D., &amp; COLE, L. (2004). Visual Object Recognition using Template   Matching. <em>Australasian Conference on Robotics and Automation.    </em> </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DALAL, N.,   &amp; TRIGGS, B. (2005). Histogram of oriented gradients for human detection. <em>Proceeding   of the IEEE Computer Society Conference on Computer Vision and Pattern   Recognition</em>, (pp. 886-893).    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DOLLAR, P.,   WOJEK, C., SCHIELE, B., &amp; PERONA, P. (2012). Pedestrian Detection: An   Evaluation of the State of the Art. <em>IEEE Transactions on Pattern Analysis   and Machin Intelligence, 34</em>(4).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GAIGLITZ, S.,   H&Ouml;LLERER, T., &amp; TURK, M. (2011). Evaluation of interest point detectors   and feature descriptors for visual tracking. <em>International Journal of   Computer Vision (IJCV), 94</em>(3), pp. 335-360.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">KINJAL, A.,   &amp; THAKORE, D. (2012). A Survey on Moving Object Detection and Tracking in   Video Surveillance System. <em>International Journal of Soft Computing and   Engineering (IJSCE), 2</em>(3).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">LOWE, D.   (2004). Distinctive image features from scale-in variant keypoints. <em>International   J. Comput. Vision, 60</em>(2).</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MISHRA, R.,   MAHESH, K., &amp; NITNA, D. (2012). Multiple Object Tracking by Kernel Based   Centroid Method for Improve Localization. <em>International Journal of Advanced   Research in Computer Science and Software Engineering</em>, pp 137-140.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PAREKH, H.,   THAKORE, D., &amp; JALIYA, U. (2014). A Survey on Object Detection and   Tracking Methods. <em>International Journal of Innovative Research in Computer   and Communication Engineering</em>.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PATEL, H.,   &amp; THAKORE, D. (April 2013). Moving Object Tracking Using Kalman Filter. <em>International   Journal of Computer Science and Mobile Computing</em>, 326 &ndash; 332.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PAUL, M.,   HAQUE, S., &amp; CHAKROBORTY, S. (2013). Human detecti&oacute;n in surveillance   videos and its applications - a review. <em>EURASIP Journal on Advances in   Signal Processing</em>(1),     1.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SANTHANAM,   T., SUMATHI, C., &amp; GOMATHI, S. (2012). A survey of techniques for human detection   in static images. <em>Proceeding of the International Conference on   Computational Science, Engineering and Information Technology(CCSEIT), ACM</em>,   (pp. 328-336). New York, NY, USA.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SHI, J.,   &amp; MALIK, J. (2000). Normalized cuts and image segmentation. <em>IEEE   Transactions on Pattern Analysis and Machine Intelligence</em>.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SHLENS, J.   (2005). Tutorial on Principal Component Analysis. <em>Systems Neurobiology   Laboratory</em>.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SMEULDERS,   A., CHU, D. M., CUCCHIARA, R., CALDERARA, S., DEHGHAN, A., &amp; SHAH, M. (2014).   Visual tracking: An experimental survey. <em>IEEE Transactions on Pattern   Analysis and Machine Intelligence, 36</em>(7), 1442-1468.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">STAUFFER, C.,   &amp; GRIMSON, W. (2000). Learning patterns of activity using real time   tracking. <em>IEEE Transactions on Pattern Analysis and Machine Intelligence,   22</em>(8).</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SUN, Y.,   &amp; MENG, M. (2015). Multiple moving object tracking for automated visual   surveillance. <em>IEEE International Conference on Information and Automation</em>,   (pp. 1617-1621).    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">UKINKAR, V.,   &amp; SAMVATSAR, M. (2012). Object detection in dynamic background using image   segmentation: A review. <em>International Journal of Engineering Research and   Applications (IJERA), 2</em>(3), 232-236.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">VIOLA, P.,   &amp; JONES, M. (2004). Robust real-time face detection. <em>International   journal of computer vision, 57</em>(2), 137-154.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">WELCH, G.,   &amp; BISHOP, G. (2006). An Introduction to the Kalman Filter. <em>Technical   report, TR 95-041,Department of Computer Science, University of North Carolina   at Chapell Hill</em>.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">YIN, S., NA,   J., CHOI, J., &amp; OH, S. (2011). Hierarchical Kalman-particle filter with   adaptation to motion changes for object tracking. <em>Computer Vision and Image   Understanding, 115</em>(6), 885-900.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ZHANG, R.,   &amp; DING, J. (2012). Object Tracking and Detecting Based on Adaptive   Background Subtraction. <em>International Workshop on Information and Electronics   Engineering (IWIEE)</em>, 1351&ndash;1355.</font></p>     <p>&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 29/08/2016    <br> Aceptado: 16/02/2017</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ABE]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Support Vector Machines for Pattern Classification]]></source>
<year>2010</year>
<publisher-loc><![CDATA[^eLondon London]]></publisher-loc>
<publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[AGGARWAL]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[RYOO]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Human activity analysis: A review]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>43</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>16</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ATHANESIOUS]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[SURESH]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Implementation and Comparison of Kernel and Silhouette Based Object Tracking]]></source>
<year>Marc</year>
<month>h </month>
<day>20</day>
<page-range>1298-1303</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ATHANESIOUS]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[SURESH]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Systematic Survey on Object Tracking Methods in Video]]></source>
<year>Octo</year>
<month>be</month>
<day>r </day>
<page-range>242-247</page-range><publisher-name><![CDATA[International Journal of Advanced Research in Computer Engineering & Technology (IJARCET)]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[COLE]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[AUSTIN]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[COLE]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Visual Object Recognition using Template Matching]]></source>
<year>2004</year>
<publisher-name><![CDATA[Australasian Conference on Robotics and Automation]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DALAL]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[TRIGGS]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
</person-group>
<source><![CDATA[Histogram of oriented gradients for human detection]]></source>
<year>2005</year>
<page-range>pp. 886-893</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DOLLAR]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[WOJEK]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[SCHIELE]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[PERONA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Pedestrian Detection: An Evaluation of the State of the Art]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>34</volume>
<numero>4</numero>
<issue>4</issue>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GAIGLITZ]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[HÖLLERER]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[TURK]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evaluation of interest point detectors and feature descriptors for visual tracking.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>94</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>335-360</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KINJAL]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[THAKORE]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Survey on Moving Object Detection and Tracking in Video Surveillance System]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>2</volume>
<numero>3</numero>
<issue>3</issue>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LOWE]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Distinctive image features from scale-in variant keypoints.]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>60</volume>
<numero>2</numero>
<issue>2</issue>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MISHRA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[MAHESH]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[NITNA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Multiple Object Tracking by Kernel Based Centroid Method for Improve Localization.]]></source>
<year>2012</year>
<page-range>137-140.</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PAREKH]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[THAKORE]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[JALIYA]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
</person-group>
<source><![CDATA[A Survey on Object Detection and Tracking Methods.]]></source>
<year>2014</year>
<publisher-name><![CDATA[International Journal of Innovative Research in Computer and Communication Engineering]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PATEL]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
<name>
<surname><![CDATA[THAKORE]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Moving Object Tracking Using Kalman Filter]]></source>
<year>Apri</year>
<month>l </month>
<day>20</day>
<page-range>326 - 332.</page-range><publisher-name><![CDATA[International Journal of Computer Science and Mobile Computing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PAUL]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[HAQUE]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[CHAKROBORTY]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Human detectión in surveillance videos and its applications - a review.]]></source>
<year>2013</year>
<publisher-name><![CDATA[EURASIP Journal on Advances in Signal Processing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SANTHANAM]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[SUMATHI]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[GOMATHI]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[A survey of techniques for human detection in static images.]]></source>
<year>2012</year>
<page-range>328-336</page-range><publisher-loc><![CDATA[^eNew York New York]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SHI]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[MALIK]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Normalized cuts and image segmentation]]></source>
<year>2000</year>
<publisher-name><![CDATA[IEEE Transactions on Pattern Analysis and Machine Intelligence]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SHLENS]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Tutorial on Principal Component Analysis]]></source>
<year>2005</year>
<publisher-name><![CDATA[Systems Neurobiology Laboratory]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SMEULDERS]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[CHU]]></surname>
<given-names><![CDATA[D. M]]></given-names>
</name>
<name>
<surname><![CDATA[CUCCHIARA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[CALDERARA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[DEHGHAN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[SHAH]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Visual tracking: An experimental survey]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>36</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>1442-1468</page-range></nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[STAUFFER]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[GRIMSON]]></surname>
<given-names><![CDATA[W]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Learning patterns of activity using real time tracking]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>22</volume>
<numero>8</numero>
<issue>8</issue>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SUN]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[MENG]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Multiple moving object tracking for automated visual surveillance]]></source>
<year>2015</year>
<page-range>1617-1621</page-range><publisher-name><![CDATA[IEEE International]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[UKINKAR]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
<name>
<surname><![CDATA[SAMVATSAR]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Object detection in dynamic background using image segmentation: A review]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>2</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>232-236.</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VIOLA]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[JONES]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Robust real-time face detection]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>57</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>137-154</page-range></nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[WELCH]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[BISHOP]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[An Introduction to the Kalman Filter]]></source>
<year>2006</year>
<publisher-name><![CDATA[University of North Carolina at Chapell Hill]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YIN]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[NA]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[CHOI]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[OH]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Hierarchical Kalman-particle filter with adaptation to motion changes for object tracking]]></article-title>
<source><![CDATA[]]></source>
<year></year>
<volume>115</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>885-900</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ZHANG]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[DING]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Object Tracking and Detecting Based on Adaptive Background Subtraction]]></source>
<year>2012</year>
<page-range>1351-1355</page-range><publisher-name><![CDATA[IWIEE]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
