<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992015000500007</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Problemas de Optimización Decepcionantes Dinámicos, experimentación con Metaheurísticas]]></article-title>
<article-title xml:lang="en"><![CDATA[Deceptive Dynamic Optimization Problems, experimentation with Metaheuristics]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Fajardo Calderín]]></surname>
<given-names><![CDATA[Jenny]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Cañedo Espino]]></surname>
<given-names><![CDATA[Claudia]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Rosete Suárez]]></surname>
<given-names><![CDATA[Alejandro]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Masegosa Arredondo]]></surname>
<given-names><![CDATA[Antonio]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Pelta]]></surname>
<given-names><![CDATA[David A.]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto Superior Politécnico José Antonio Echeverría  ]]></institution>
<addr-line><![CDATA[ La Habana]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Grupo de Investigación en Modelos de Decisión y Optimización DECSAI  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>España</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>00</month>
<year>2015</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>00</month>
<year>2015</year>
</pub-date>
<volume>9</volume>
<fpage>98</fpage>
<lpage>109</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992015000500007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992015000500007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992015000500007&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Dentro del campo de la optimización existen una serie de problemas llamados NP, que son aquellos que pueden ser resueltos por un algoritmo no determinístico en un tiempo polinomial de resolución. Debido a que el mundo real no es estático, sino dinámico, se crea la necesidad de acercar dichos problemas de prueba a la realidad, de ahí que surgieran los problemas de optimización dinámicos (PODs). Uno de los problemas clásicos de optimización que existen, son los problemas decepcionantes o engañosos, que son problemas de prueba de generación binaria a partir de XOR. Son llamados engañosos porque a los algoritmos les cuesta mucho obtener mejoras, ya que cuando se mejora la solución con una heurística se empeora la evaluación en la función objetivo. En los últimos años ha habido un creciente interés por la modelación de los problemas dinámicos de optimización y su solución con los algoritmos metaheurísticos. Por ello, el objetivo de esta investigación es analizar el comportamiento de las metaheurísticas clásicas frente a los problemas decepcionantes dinámicos, específicamente con cinco funciones decepcionantes y evaluando el rendimiento de los algoritmos aplicando test estadísticos no paramétricos. Además se realiza una comparación de los resultados del mejor algoritmo con dos algoritmos del estado de arte para resolver problemas de optimización dinámicos: Adaptive Hill Climbing Memetic Algorithm y Self Organized Random Immigrants Genetic Algorithm.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[In the optimization field there are a number of problems called NP, which are those that can be solved by a nondeterministic polynomial time algorithm for a resolution. Because the real world is not static, but dynamic, the need to bring these problems to test reality is created, hence arise dynamic optimization problems (PODs). One of the classic optimization problems that exist, are disappointing or deceptive problems, which are problems of test generation from binary XOR. They are called deceptive because the algorithms have a hard time getting improvements, because when solution is improved heuristic evaluation worsens the objective function. In recent years there has been an increasing interest in the modeling of dynamic optimization problems and their solution with metaheuristic algorithms. Therefore, the objective of this research is to analyze the behavior of the classical metaheuristics disappointing compared to dynamic problems, specifically with five disappointing functions and evaluating the performance of algorithms using non-parametric statistical test. Furthermore a comparison of the results of the best algorithm with two the state of art algorithms are usually done to solve dynamic optimization: Adaptive Hill Climbing Memetic Algorithm y Self Organized Random Immigrants Genetic Algorithm.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[problemas de optimización dinámicos]]></kwd>
<kwd lng="es"><![CDATA[decepcionantes]]></kwd>
<kwd lng="es"><![CDATA[algoritmos metaheurísticas]]></kwd>
<kwd lng="en"><![CDATA[dynamic optimization problems]]></kwd>
<kwd lng="en"><![CDATA[deceptive]]></kwd>
<kwd lng="en"><![CDATA[metaheuristics algorithm]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Problemas de Optimizaci&oacute;n Decepcionantes  Din&aacute;micos, experimentaci&oacute;n con Metaheur&iacute;sticas</font></strong> </font></p>     <p>&nbsp;</p>     <p><font size="3"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Deceptive Dynamic Optimization Problems,  experimentation with Metaheuristics</font></strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Jenny Fajardo Calder&iacute;n <strong><sup>1</sup></strong>*, Claudia Ca&ntilde;edo Espino <strong><sup>1</sup></strong>, Alejandro Rosete Su&aacute;rez <strong><sup>1</sup></strong> ,Antonio Masegosa Arredondo <strong><sup>2</sup></strong></strong></font><strong>, David A. Pelta <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong><strong><sup>2</sup></strong></strong></font></strong></p>     <p><font size="2"><font face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup></font></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Instituto Superior Polit&eacute;cnico Jos&eacute; Antonio Echeverr&iacute;a (CUJAE), Calle  114, # 11901, e/&nbsp; Ciclov&iacute;a y Rotonda, Marianao,  La Habana, Cuba.    <br> </font><font size="2"><font face="Verdana, Arial, Helvetica, sans-serif"><sup>2</sup></font></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Grupo de Investigaci&oacute;n en Modelos de Decisi&oacute;n y Optimizaci&oacute;n DECSAI,  CITIC, Universidad de Granada, Espa&ntilde;a. </font></p>        ]]></body>
<body><![CDATA[<p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif"><sup>*</sup></font></strong></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Autor  para correspondencia: <a href="mailto:jfajardo@ceis.cujae.edu.cu">jfajardo@ceis.cujae.edu.cu</a> </font>   </p>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dentro del campo de  la optimizaci&oacute;n existen una serie de problemas llamados NP, que son aquellos  que pueden ser resueltos por un algoritmo no determin&iacute;stico en un tiempo  polinomial de resoluci&oacute;n. Debido a que el&nbsp;  mundo real no es est&aacute;tico, sino din&aacute;mico, se crea la necesidad de  acercar dichos problemas de prueba a la realidad, de ah&iacute; que surgieran los  problemas de optimizaci&oacute;n din&aacute;micos (PODs). Uno de los problemas cl&aacute;sicos de  optimizaci&oacute;n que existen, son los problemas decepcionantes o enga&ntilde;osos, que son  problemas de prueba de generaci&oacute;n binaria a partir de XOR. Son llamados  enga&ntilde;osos porque a los algoritmos les cuesta mucho obtener mejoras, ya que  cuando se mejora la soluci&oacute;n con una heur&iacute;stica se empeora la evaluaci&oacute;n en la  funci&oacute;n objetivo. En los &uacute;ltimos a&ntilde;os ha habido un creciente inter&eacute;s por la  modelaci&oacute;n de los problemas din&aacute;micos de optimizaci&oacute;n y su soluci&oacute;n con los  algoritmos metaheur&iacute;sticos. Por ello, el objetivo de esta investigaci&oacute;n es analizar  el comportamiento de las metaheur&iacute;sticas cl&aacute;sicas frente a los problemas  decepcionantes din&aacute;micos, espec&iacute;ficamente con cinco funciones  decepcionantes y evaluando el rendimiento de los algoritmos aplicando test  estad&iacute;sticos no param&eacute;tricos. Adem&aacute;s se realiza una comparaci&oacute;n de los  resultados del mejor algoritmo con dos algoritmos del estado de arte para  resolver problemas de optimizaci&oacute;n din&aacute;micos<em>: Adaptive  Hill Climbing Memetic Algorithm y Self Organized Random Immigrants Genetic  Algorithm.</em> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Palabras clave: </strong>problemas de  optimizaci&oacute;n din&aacute;micos, decepcionantes, algoritmos metaheur&iacute;sticas </font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">In  the optimization field there are a number of problems called NP, which are  those that can be solved by a nondeterministic polynomial time algorithm for a  resolution. Because the real world is not static, but dynamic, the need to  bring these problems to test reality is created, hence arise dynamic  optimization problems (PODs). One of the classic optimization problems that  exist, are disappointing or deceptive problems, which are problems of test  generation from binary XOR. They are called deceptive because the algorithms  have a hard time getting improvements, because when solution is improved  heuristic evaluation worsens the objective function. In recent years there has  been an increasing interest in the modeling of dynamic optimization problems  and their solution with metaheuristic algorithms. Therefore, the objective of  this research is to analyze the behavior of the classical metaheuristics  disappointing compared to dynamic problems, specifically with five  disappointing functions and evaluating the performance of algorithms using  non-parametric statistical test. Furthermore a comparison of the results of the  best algorithm with two the state of art algorithms are usually done to solve  dynamic optimization: Adaptive Hill Climbing Memetic Algorithm y Self Organized  Random Immigrants Genetic Algorithm.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Keywords:</strong></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">dynamic  optimization problems, deceptive, metaheuristics algorithm</font></p> <hr>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  gesti&oacute;n, plani&#64257;caci&oacute;n y uso e&#64257;ciente de los recursos, son aspectos claves para  el desarrollo de una sociedad. En los modelos cl&aacute;sicos, elementos como los  atributos de las tareas a plani&#64257;car, las mercanc&iacute;as a distribuir, las  caracter&iacute;sticas y condiciones del entorno f&iacute;sico, o cualquiera otro dato de  entrada para los problemas que surgen en estas &aacute;reas, se asum&iacute;an como  perfectamente conocidos y est&aacute;ticos. Sin embargo, en el mundo real, los  problemas rara vez son est&aacute;ticos, si no que algunos de sus atributos, costes,  valores objetivo o restricciones pueden verse alterados con el transcurso del  tiempo, dando lugar a la aparici&oacute;n de los problemas de optimizaci&oacute;n din&aacute;micos  (PODs) (<strong>Younes, 2006</strong>).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En los &uacute;ltimos a&ntilde;os, ha habido una  creciente investigaci&oacute;n en la resoluci&oacute;n de PODs. La aproximaci&oacute;n din&aacute;mica a  este tipo de problemas di&#64257;ere del enfoque cl&aacute;sico en el sentido de que &eacute;ste  &uacute;ltimo se centra en condiciones est&aacute;ticas e inm&oacute;viles, mientras que el enfoque  din&aacute;mico admite que tanto el problema como sus soluciones evolucionen (cambien)  con el tiempo. Desde el punto de vista de la optimizaci&oacute;n, el enfoque m&aacute;s  b&aacute;sico para el dinamismo es simplemente reiniciar la b&uacute;squeda cada vez que se  detecta un cambio, como si se tratara de un problema diferente. Sin embargo es  ampliamente asumido por la comunidad cient&iacute;&#64257;ca que la evoluci&oacute;n en el tiempo se  produce de forma gradual, por lo que si cada cambio se tratara como un problema  diferente implicar&iacute;a la p&eacute;rdida de la informaci&oacute;n adquirida hasta ese momento.  La reutilizaci&oacute;n de informaci&oacute;n puede permitir una r&aacute;pida adaptaci&oacute;n al cambio,  y adem&aacute;s puede ayudar a encontrar mejores soluciones en menor tiempo. Esto es  necesario en muchos casos pr&aacute;cticos, donde no hay tiempo para realizar  exploraciones exhaustivas del espacio de b&uacute;squeda.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Entre los m&eacute;todos propuestos para  resolver PODs se encuentran: Algoritmos Evolutivos, m&eacute;todos Multi-Swarm, Colonias  de Hormigas y estrategias cooperativas. Una tendencia reciente en la resoluci&oacute;n  de POD es el uso de mecanismos de aprendizaje para adaptar la con&#64257;guraci&oacute;n del  algoritmo (par&aacute;metros, operadores, etc.) durante la b&uacute;squeda. La raz&oacute;n  principal de esta tendencia reside en la di&#64257;cultad de encontrar una  con&#64257;guraci&oacute;n adecuada para el algoritmo, siendo incluso m&aacute;s dif&iacute;cil que en los  problemas est&aacute;ticos (Amo, <em>et-al, </em>2012; Cruz,<strong> Gonzalez, Pelta</strong>,  2011;  Gonzalez, <em>et-al</em>, 2012). A pesar de esta di&#64257;cultad,  estudios como los anteriores muestran que existe una tendencia en utilizar el  aprendizaje para resolver PODS, descartando las metaheur&iacute;sticas cl&aacute;sicas, no se  tienen en cuenta que todo depende del problema y los cambios que se pueden  producir. Puesto que no se puede asegurar que existe un m&eacute;todo que sea capaz de  obtener los mejores resultados para cualquier problema de optimizaci&oacute;n,  resultado conocido como Teorema &ldquo;<em>No Free  Lunch</em>&rdquo; (Wolpert, 1996) que plantea: ning&uacute;n algoritmo  es superior a otro en la totalidad de los problemas en los que son aplicados.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los problemas de optimizaci&oacute;n  decepcionantes o enga&ntilde;osos son problemas de prueba de generaci&oacute;n binaria a  partir de XOR (Yang, 2013). Son llamados decepcionantes porque a los algoritmos  metaheur&iacute;sticos les cuesta mucho obtener mejoras,&nbsp; lo cual se debe a que cuando se mejora la  soluci&oacute;n obtenida con una heur&iacute;stica, se empeora la evaluaci&oacute;n en la funci&oacute;n  objetivo, y la heur&iacute;stica que utilizan los algoritmos para guiar la b&uacute;squeda es  la evaluaci&oacute;n en la funci&oacute;n objetivo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Hasta la actualidad no se ha estudiado  el comportamiento de los algoritmos metaheur&iacute;sticos y la influencia de los  par&aacute;metros frente a los problemas de optimizaci&oacute;n decepcionantes din&aacute;micos. Por  tal motivo, el objetivo de la presente investigaci&oacute;n consiste en: evaluar el comportamiento  de las metaheur&iacute;sticas cl&aacute;sicas frente a los problemas decepcionantes  din&aacute;micos, profundizando el an&aacute;lisis sobre cinco funciones din&aacute;micas. Se  realizan experimentos con los algoritmos metaheur&iacute;sticos: Escalador de Colinas,  Limitado por Umbral, Recocido Simulado, Estrategia Evolutiva y Algoritmo  Gen&eacute;tico, y por &uacute;ltimo hacemos una comparaci&oacute;n del algoritmo que mejores  resultados obtiene con dos algoritmos del estado del arte para resolver PODs: <em>Adaptive Hill Climbing Memetic Algorithm </em>(Wang,  2009)&nbsp; y <em>Self</em> <em>Organized Random  Immigrants Genetic Algorithm</em> (Yang, <em>et-al</em>,  2007).     <br>       <br>     <strong>Problemas de Optimizaci&oacute;n Din&aacute;micos </strong>     <br>   La  mayor&iacute;a de los problemas de optimizaci&oacute;n del mundo real son inherentemente  din&aacute;micos. La optimizaci&oacute;n en entornos din&aacute;micos enfrenta la soluci&oacute;n de  problemas que cambian en el tiempo y usualmente son definidos como problemas  din&aacute;micos. Estos problemas en los &uacute;ltimos a&ntilde;os han sido protagonistas de  variadas investigaciones, donde se definen como una secuencia de problemas  est&aacute;ticos enlazados por alguna regla din&aacute;mica (Branke,<strong> Schmeck</strong>, 2003; Cruz,<strong> Gonzalez, Pelta,</strong> 2011; Weicker, 2003 ).    ]]></body>
<body><![CDATA[<br>   Los investigadores han creado problemas que constituyen puntos de  referencia para determinar el comportamiento de las metaheur&iacute;sticas. El inter&eacute;s  en el estudio de los PODs radica en su cercan&iacute;a con los problemas del mundo  real (predicciones meteorol&oacute;gicas, predicciones de mercado, control de  movimientos rob&oacute;ticos, entre otros).    <br>   Un  POD se define como ( Cruz,<strong> Gonzalez, Pelta,</strong> 2011):</font></p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v9n5/fo0107515.jpg" width="360" height="26"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v9n5/fo0207515.jpg" width="484" height="212"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En otras palabras, un  POD es un problema donde la funci&oacute;n objetivo y/o las restricciones cambian con  el tiempo. El m&eacute;todo m&aacute;s sencillo para resolver estos problemas es ignorar la  din&aacute;mica, teniendo en cuenta cada cambio como la llegada de un nuevo problema  de optimizaci&oacute;n, pero a menudo es poco pr&aacute;ctico.    <br> Los algoritmos que dan  soluci&oacute;n a problemas est&aacute;ticos&nbsp; pueden  encontrar una o m&aacute;s soluciones de buena calidad. En cambio, el objetivo de los  m&eacute;todos&nbsp; aplicados a los PODs ya no es el  de localizar una soluci&oacute;n &oacute;ptima estacionaria, sino seguir la evoluci&oacute;n de las  buenas soluciones durante la ocurrencia de todos los cambios. Para esto, se  necesitan m&eacute;todos que permitan adaptar las&nbsp;  soluciones en entornos que est&aacute;n en constante cambio ( Cruz,<strong> Gonzalez, Pelta</strong>, 2011).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>&nbsp;</strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Metaheur&iacute;sticas para resolver PODs</strong>    <br>   La  existencia de una gran cantidad y variedad de problemas dif&iacute;ciles, que aparecen  en la pr&aacute;ctica y que necesitan ser resueltos de forma eficiente, impuls&oacute; el  desarrollo de procedimientos capaces de llegar a buenos estados o soluciones,  aunque no fuesen &oacute;ptimos. Estos m&eacute;todos, en los que la rapidez del proceso es  tan importante como la calidad de la soluci&oacute;n obtenida, se denominan  heur&iacute;sticos o aproximados (brindan una soluci&oacute;n espec&iacute;fica). Las heur&iacute;sticas  est&aacute;n hechas a medida y dise&ntilde;adas para resolver un problema y/o instancia  espec&iacute;fica, por lo cual surgen las metaheur&iacute;sticas que son algoritmos de  prop&oacute;sito general que se pueden aplicar para resolver cualquier problema de  optimizaci&oacute;n (Doerner, 2007; Parejo, 2011).    <br>   Las metaheur&iacute;sticas se pueden aplicar en diferentes contextos:  aprendizaje autom&aacute;tico, miner&iacute;a de datos, f&iacute;sica, biolog&iacute;a, log&iacute;stica, control  y procesamiento de im&aacute;genes, entre otros. Se clasifican en dos grupos principales: basados en un punto o de  trayectoria, y basados en poblaciones de puntos. Los m&eacute;todos de b&uacute;squeda  basados en un punto son aquellos que partiendo de un punto, buscan la vecindad  y actualizan la soluci&oacute;n actual en funci&oacute;n de esta, formando una trayectoria,  de punto a punto. Los algoritmos basados en poblaciones, trabajan con un  conjunto de soluciones en cada iteraci&oacute;n, y su resultado debe ser el mejor  individuo de la poblaci&oacute;n o sea el individuo mejor adaptado.    ]]></body>
<body><![CDATA[<br>   En el conjunto de los  algoritmos poblacionales se encuentran los Algoritmos Evolutivos, los cuales  comprenden una serie de t&eacute;cnicas que tienen sus bases en modelos biol&oacute;gicos, y  est&aacute;n inspiradas en la teor&iacute;a darwiniana de la evoluci&oacute;n natural. Se basan en  el intercambio de informaci&oacute;n entre los individuos de una poblaci&oacute;n o de  distintas poblaciones, caracter&iacute;sticas comunes, comportamiento social, etc. El  intercambio se produce como resultado de aplicar el proceso de selecci&oacute;n,  competici&oacute;n y recombinaci&oacute;n de los individuos. Desde el punto de vista  biol&oacute;gico son algoritmos simples, y proporcionan mecanismos de b&uacute;squeda  adaptativos ( Cruz,<strong> Gonzalez, Pelta,</strong> 2011; Doerner, 2007).    <br>   El planteamiento  general es que en estos POD se trata de seguir un &ldquo;&oacute;ptimo m&oacute;vil&rdquo; y, por tanto,  se asume que este seguimiento se puede realizar mejor utilizando un conjunto de  optimizadores/soluciones/agentes, en lugar de un elemento de b&uacute;squeda aislado.  Ejemplos de este enfoque utilizando los algoritmos evolutivos como t&eacute;cnicas de  resoluci&oacute;n. La evaluaci&oacute;n de t&eacute;cnicas en este tipo de problemas no es trivial.  En el a&ntilde;o 2009 se organiz&oacute; una competici&oacute;n: ECiDUE-Competition09, para evaluar  el comportamiento de algoritmos en entornos din&aacute;micos en el marco del CEC 2009,  esta competici&oacute;n se repiti&oacute; en 2012, en el marco de la misma conferencia. Estos  han intentos interesante, pero a&uacute;n la utilizaci&oacute;n de los &ldquo;<em>benchmarks</em>&rdquo;  propuestos y las m&eacute;tricas de rendimiento, no son simples de implementar y adaptar  a cualquier problema de optimizaci&oacute;n ( Branke,<strong> Schmeck</strong>, 2003; Cruz,<strong> Gonzalez, Pelta</strong>,  2011; Weicker, 2003 ).    <br>   Desde el punto de  vista de la optimizaci&oacute;n, el enfoque m&aacute;s b&aacute;sico para el dinamismo es  simplemente reiniciar la b&uacute;squeda cada vez que se detecta un cambio, como si se  tratara de un problema diferente. Sin embargo, dado que la evoluci&oacute;n en el  tiempo por lo general se produce de forma gradual, hacer frente al cambio como  si se tratara de un problema completamente nuevo implica que la informaci&oacute;n  importante que se encontr&oacute; en soluciones anteriores se pierde. La reutilizaci&oacute;n  de esta informaci&oacute;n permite una r&aacute;pida adaptaci&oacute;n al cambio en el problema, lo  que disminuye el tiempo necesario para encontrar una nueva soluci&oacute;n. Esto es  necesario en muchos casos pr&aacute;cticos, donde no hay tiempo para realizar  exploraciones exhaustivas del espacio de b&uacute;squeda (Branke,<strong> Schmeck</strong>, 2003; Cruz,<strong> Gonzalez, Pelta</strong>,  2011;  Doerner, 2007).    <br>   La mayor parte de las  investigaciones hechas en problemas din&aacute;micos se limitan al uso de algoritmos  evolutivos, pero a&uacute;n no hay ning&uacute;n criterio claro de cu&aacute;l es el mejor algoritmo  a aplicar en cada caso o c&oacute;mo afrontar un problema din&aacute;mico nuevo. Otro tipo de  estrategias que han conseguido mejorar los resultados de los primeros  algoritmos evolutivos son las estrategias cooperativas donde se vio incluso que  los m&eacute;todos de trayectoria pod&iacute;an obtener buenos resultados cuando formaban  parte de una estrategia de este tipo ( Branke,<strong> Schmeck</strong>, 2003; Cruz,<strong> Gonzalez, Pelta</strong>,  2011;  Doerner, 2007).</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el siguiente apartado se describe el  marco de experimentaci&oacute;n de la presente investigaci&oacute;n, el cual comenta la  m&eacute;trica de rendimiento utilizada, los test estad&iacute;sticos no param&eacute;tricos  utilizados y la configuraci&oacute;n de los par&aacute;metros utilizada. Adem&aacute;s se comentan  dos algoritmos del estado del arte que est&aacute;n dise&ntilde;ados para resolver PODs.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Medida de rendimiento</strong>    <br>   Se han desarrollado diferentes medidas  de rendimiento para evaluar el comportamiento de los algoritmos metaheur&iacute;sticos  para resolver PODs. Las medidas de rendimiento son ampliamente utilizadas y  pueden estar clasificadas en dos grupos principales: basadas en comportamiento  y basadas en optimizaci&oacute;n. En este trabajo, la m&eacute;trica que se utiliz&oacute; para  evaluar el comportamiento de los algoritmos Offline Performance, puesto que la  mayor&iacute;a de los trabajos m&aacute;s recientes en el tema de los PODs utilizan esta  medida.    <br>   El Offline Performance fue creada por <em>Branke</em> y <em>Schmeck</em> en el a&ntilde;o 2003 ( Branke,<strong> Schmeck</strong>, 2003; Cruz,<strong> Gonzalez, Pelta,</strong> 2011),  mide el rendimiento offline para evaluar los algoritmos en caso de que no se  conocen los valores exactos de los &oacute;ptimos globales. Esta medida tiene dos  desventajas, en primer lugar, se requiere que el momento en que se produce un  cambio sea conocido y en segundo lugar, no son normalizadas y por lo tanto  pueden estar sesgadas en ciertas circunstancias. Se define formalmente como:</font></p> <h1 align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v9n5/fo0307515.jpg" width="245" height="56"></font></h1>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde N es el n&uacute;mero de ejecuciones; en  la definici&oacute;n original G es el n&uacute;mero de generaciones (que se corresponde  directamente cuando se trata de algoritmos evolutivos) y para este caso es el  n&uacute;mero total de iteraciones y &nbsp;es la evaluaci&oacute;n de la mejor soluci&oacute;n  encontrada en cada iteraci&oacute;n para cada ejecuci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>M&eacute;todo de comparaci&oacute;n: Test  Estad&iacute;sticos No Param&eacute;tricos</strong>    <br>   Diferentes autores han centrado su  inter&eacute;s en test que sean adecuados para realizar un estudio comparativo entre  algoritmos. En los test param&eacute;tricos los datos tienen una determinada  distribuci&oacute;n, se establecen afirmaciones sobre los par&aacute;metros de dicha  distribuci&oacute;n. En el caso de los test no param&eacute;tricos las afirmaciones  establecidas no se hacen en base a la distribuci&oacute;n de las observaciones, ya que  a priori es desconocida. Para este trabajo los test que se ajustan al an&aacute;lisis  son los no param&eacute;tricos.    <br>   Es interesante comparar los  resultados de los algoritmos sobre un conjunto de con&#64257;guraciones de uno o  varios problemas para tener una visi&oacute;n m&aacute;s completa. En este sentido, Garc&iacute;a et  al. (2009) proponen las directrices para llevar a cabo este an&aacute;lisis global  usando pruebas estad&iacute;sticas no param&eacute;tricas. Estas pruebas permiten&nbsp; clasi&#64257;car el desempe&ntilde;o de dos o m&aacute;s m&eacute;todos  sobre un conjunto de problemas y con&#64257;guraciones para determinar si las  diferencias en el funcionamiento son signi&#64257;cativas o no. El significado de las  diferencias se eval&uacute;a mediante la comparaci&oacute;n de estimadores&nbsp; (por lo general el valor de la media/mediana)  del rendimiento de los algoritmos sobre cada con&#64257;guraci&oacute;n problema.&nbsp;     <br>   Los test no param&eacute;tricos por pares  permiten, por ejemplo, determinar el mejor m&eacute;todo global sobre todas las  con&#64257;guraciones de los problemas considerados en este trabajo. Se utiliz&oacute; el  test de Friedman para determinar si existe alguna diferencia signi&#64257;cativa entre  el rendimiento de dos o m&aacute;s m&eacute;todos, y se utiliz&oacute; el test de pares de <em>Wilcoxon</em> para evaluar si existe alguna  diferencia signi&#64257;cativa entre el rendimiento de dos algoritmos. Los test no  param&eacute;tricos, espec&iacute;&#64257;cos de este trabajo fueron aplicados usando el software  estad&iacute;stico SPSS.    <br>   Dado que los resultados para cada  posible algoritmo, instancia, severidad y frecuencia de cambio, ser&iacute;an dif&iacute;cil  de interpretar si se muestra como una tabla con valores num&eacute;ricos, se utiliz&oacute;  un esquema de ranking (SRCS), propuesto en (Amo, 2012).  SRCS utiliza test no param&eacute;tricos (<em>Kruskal-Wallis </em>y <em>Mann-Whitney Wilcoxon</em> con  correcci&oacute;n de <em>Holm&rsquo;s</em> para  comparaciones m&uacute;ltiples) para evaluar la signi&#64257;caci&oacute;n estad&iacute;stica de las  diferencias individuales entre cada par de algoritmos en todas las  con&#64257;guraciones del problema. Si la prueba concluye que hay su&#64257;ciente evidencia  estad&iacute;stica de diferencia de rendimiento, el algoritmo con el mayor <em>of&#64258;ine</em> performance suma 1 a su ranking,  y el otro suma &minus;1. En caso de empate, ambos reciben un 0. El rango de los  valores en el ranking de n algoritmos para cualquier problema es <img width="85" height="17" src="rcci07515_clip_image002_0000.png">.  Cuanto m&aacute;s alto sea el ranking obtenido, mejor se puede considerar un algoritmo  en relaci&oacute;n con los otros. A cada valor de ranking se asocia un color,  utilizando blanco para el valor m&aacute;s alto del ranking <img width="46" height="17" src="rcci07515_clip_image004.png">&nbsp;y el valor m&aacute;s oscuro para el m&aacute;s bajo <img width="57" height="17" src="rcci07515_clip_image006.png">.  Los colores para los valores intermedios se ajustan proporcionalmente.    <br>   A partir de lo anterior dada  una instancia del problema, se construye un ranking para cada variaci&oacute;n de  frecuencia y severidad. Si se agrupan las gr&aacute;&#64257;cas de un algoritmo para un  problema dado con cada combinaci&oacute;n de frecuencia y severidad posible, se puede  obtener una matriz de color, donde es f&aacute;cil observar c&oacute;mo el algoritmo funciona  para ese problema espec&iacute;&#64257;co. El color blanco en una celda dada indica que el  algoritmo es estad&iacute;sticamente mejor que todos los otros algoritmos para la  con&#64257;guraci&oacute;n de un problema espec&iacute;&#64257;co. Si el color es m&aacute;s oscuro signi&#64257;ca que  el algoritmo es estad&iacute;sticamente igual o peor que otros algoritmos para esa  con&#64257;guraci&oacute;n del problema.     <br>   <strong>Configuraci&oacute;n de par&aacute;metros de los  algoritmos</strong>    <br> En el dise&ntilde;o de los experimentos se  realiz&oacute; una configuraci&oacute;n de par&aacute;metros para cada uno de los escenarios. Se  utilizaron dos variables fundamentales con las cuales se le introduce dinamismo  al problema, las cuales se muestran a continuaci&oacute;n: </font></p> <ul>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Per&iacute;odo de cambio:  1200, 3000, 6000, 9000, 12000 iteraciones. </font></li>       ]]></body>
<body><![CDATA[<li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Severidad de cambio:  0.1, 0.2, 0.5, 0.9.</font></li>     </ul>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la comparaci&oacute;n de los algoritmos se  realizaron 30 ejecuciones independientes de cada uno de ellos, para 100 cambios  de la funci&oacute;n objetivo para cada con&#64257;guraci&oacute;n de problema, per&iacute;odo y severidad.    <br>   Para la experimentaci&oacute;n con los  algoritmos metaheur&iacute;sticos se utiliz&oacute; la biblioteca de clases BiCIAM (Calder&iacute;n,  2010)  que contiene implementaciones en Java de versiones est&aacute;ndar de las  metaheur&iacute;sticas m&aacute;s comunes como: Escalador de Colinas de Primer Ascenso (EC),  B&uacute;squeda Aleatoria (BA), Recocido Simulado (RS), Limitado por  Umbral (LU), Algoritmo Gen&eacute;tico (AG) y Estrategia Evolutiva (EE). A  continuaci&oacute;n en la Tabla  2  se describe la configuraci&oacute;n de par&aacute;metros utilizada para cada uno de los  algoritmos comentados anteriormente.</font></p>     <p align="center"><img src="/img/revistas/rcci/v9n5/t0107515.jpg" width="535" height="363"></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">M&eacute;todos del estado del arte</font></strong><font face="Verdana, Arial, Helvetica, sans-serif">    <br>       <em>Adaptive Hill Climbing  Memetic Algorithm (AHMA)</em>    <br>   El AHMA propuesto por <strong>Wang</strong> (2009) fue dise&ntilde;ado originalmente  para resolver PODs combinatorios. AHMA combina un algoritmo gen&eacute;tico con una  b&uacute;squeda local que utiliza dos operdores de acuerdo a una distribuci&oacute;n de  probabilidad que se ajusta durante la b&uacute;squeda. Los operadores que utiliza la  b&uacute;squeda local son: <em>Greedy Crossover Hill  Climbing</em> (GCHC) <em>y Steepest Mutation  Hill Climbing</em> (SMHC). El GCHC aplica un operador de cruce a la soluci&oacute;n  &eacute;lite y a otro individuo de la poblaci&oacute;n actual que es seleccionado con el  m&eacute;todo de la ruleta. Se devuelve el mejor de los dos hijos obtenidos. El SMHC  selecciona al azar un n&uacute;mero de bits de la soluci&oacute;n &eacute;lite y los invierte. Al  igual que en el operador anterior, si la soluci&oacute;n resultante mejora a la &eacute;lite  entonces la reemplaza.    <br>   AHMA selecciona aleatoriamente  uno de estos dos operadores de acuerdo con una distribuci&oacute;n de probabilidad que  se adapta a lo largo de la b&uacute;squeda, con el objetivo de dar una mayor  probabilidad al operador que mejores resultados obtiene. El esquema de  aprendizaje ajusta los valores de probabilidad en funci&oacute;n del grado mejora que  producen, cuando ocurre un cambio no se actualizan los valores por lo cual  reutiliza la informaci&oacute;n aprendida. AHMA tambi&eacute;n incluye dos m&eacute;todos para  generar diversidad en la poblaci&oacute;n actual: <em>Adaptable  Dual Mapping</em> (ADM) y <em>Triggered Random  Immigrants</em> (TRI).    <br>   <em>Sel f Organized Random Immigrants  Genetic Algorithm (SORIGA)</em>    ]]></body>
<body><![CDATA[<br>   SORIGA (Sel f Organized Random  Immigrants Genetic Algorithm) propuesto por Tin&oacute;s and Yang (2007) es inspirado  en el &#64258;ujo de inmigrantes de una poblaci&oacute;n. SORIGA trabaja con dos poblaciones:  poblaci&oacute;n principal y sub-poblaci&oacute;n. Inicialmente se construye aleatoriamente  la poblaci&oacute;n principal, luego se divide en dos, combinando los individuos  mejores adaptados con los menos adaptados, formando la subpoblaci&oacute;n. Ambas  poblaciones evolucionan, es decir se someten a un Algoritmo Gen&eacute;tico:  selecci&oacute;n, cruzamiento y mutaci&oacute;n. El cruzamiento es permitido solamente entre  individuos de la misma poblaci&oacute;n.    <br>   Existen diferentes estrategias  de reemplazo en SORIGA, entre las m&aacute;s conocidas se encuentran: sustituci&oacute;n de  individuos de la poblaci&oacute;n principal elegidos al azar por los de la  sub-poblaci&oacute;n, o los individuos de la poblaci&oacute;n principal con el menor <em>&#64257;tness</em> se sustituyen por individuos  aleatorios. El &#64258;ujo de inmigrantes generalmente aumenta el nivel de diversidad  gen&eacute;tica de una poblaci&oacute;n, lo cual puede permitir escapar de &oacute;ptimos locales.</font></font></p>     <p align="left">&nbsp;</p>     <p align="left"><font size="2"><strong><font size="3" face="Verdana, Arial, Helvetica, sans-serif">RESULTADOS Y DISCUCI&Oacute;N     <br>   </font></strong><font face="Verdana, Arial, Helvetica, sans-serif">    <br> </font></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Inicialmente se realiza un an&aacute;lisis m&aacute;s  detallado aplicando la t&eacute;cnica SRCS que se describi&oacute; anteriormente que permite  observar que ocurre para cada con&#64257;guraci&oacute;n concreta de los problemas, para los  diferentes escenarios, con cada uno de los algoritmos. Se muestran los  resultados con una matriz de dos niveles utilizando la t&eacute;cnica SRCS. En el  nivel superior, las columnas se corresponden con los problemas, y las &#64257;las con  los algoritmos. En un nivel m&aacute;s inferior de las columnas y &#64257;las se encuentran  las con&#64257;guraciones de frecuencia de cambio y severidad de cambio  respectivamente. Por lo tanto, cada celda de estas matrices muestra el color  obtenido por la t&eacute;cnica SRCS que corresponde al ranking de un algoritmo en una  con&#64257;guraci&oacute;n del problema en espec&iacute;&#64257;co. El nivel superior se corresponde con  cuatro problemas en las columnas y cinco algoritmos en las &#64257;las, los resultados  de un algoritmo en un problema con una con&#64257;guraci&oacute;n de severidad y frecuencia  de cambio se ilustran en un cuadrado dentro de la matriz.&nbsp;     <br> En la <a href="/img/revistas/rcci/v9n5/f0207515.jpg">Figura 2</a> se muestran los resultados a partir del ranking que se obtiene con la  t&eacute;cnica SRCS, se puede apreciar que el algoritmo con mejores resultados con  diferencias significativas en la mayor&iacute;a de los escenarios fue el Limitado por  Umbral. Adem&aacute;s se obtuvo que el algoritmo de peor rendimiento de forma general  fue el Recocido Simulado, solo en la variante DeceptiveV3 el de peor  rendimiento en todos los escenarios fue el Escalador de Colinas, y que el  comportamiento del Algoritmo Gen&eacute;tico y la Estrategia Evolutiva es muy similar  en la mayor&iacute;a de los casos.    <br> Por &uacute;ltimo se realiz&oacute; un  an&aacute;lisis de los resultados del algoritmo de mejor rendimiento que fue el  Limitado por Umbral con los algoritmos del estado del arte: AHMA y SORIGA. Se  hizo un an&aacute;lisis global de los algoritmos con todas las instancias del problema  y configuraciones mediante el test de Friedman. Los estad&iacute;grafos obtenidos se  encuentran en la <a href="/img/revistas/rcci/v9n5/t0307515.jpg">tabla 3</a> que muestra un ranking promedio de los algoritmos, donde el p-valor  obtenido es: 0.00, por lo tanto se puede decir que hay diferencias  signi&#64257;cativas entre los datos y se rechaza la hip&oacute;tesis nula del test.</font></p>     <p align="left"><font size="2"><font face="Verdana, Arial, Helvetica, sans-serif">  </font></font><font size="2" face="Verdana, Arial, Helvetica, sans-serif">    <br>   Los &aacute;rboles de  descomposici&oacute;n permiten navegar a trav&eacute;s de los diferentes niveles de  informaci&oacute;n observando el aporte que realiza cada nivel al nivel anterior,  permitiendo a los usuarios realizar consultas anal&iacute;ticas. En la <a href="/img/revistas/rcci/v9n5/f0706515.jpg">figura 7</a> se  puede observar el &aacute;rbol descomposici&oacute;n del reporte que muestra los tiempos de  permanencia de los empleados en la organizaci&oacute;n. Este &aacute;rbol representa el  tiempo de permanencia de los empleados que trabajan en el programa  &ldquo;Aplicaciones de Reconocimiento de Patrones&rdquo;, en tres niveles de informaci&oacute;n  programa, proyecto, y empleado. </font>    ]]></body>
<body><![CDATA[<br>       <br> </p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES </B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el presente trabajo se  realiza un an&aacute;lisis del comportamiento de algunos de los algoritmos  metaheur&iacute;sticos cl&aacute;sicos frente al problema Deceptive, con cuatro variantes del  problema y diferentes configuraciones de severidad y frecuencia de cambio.  Tambi&eacute;n se tuvieron en cuenta test estad&iacute;sticos no param&eacute;tricos para evaluar el  comportamiento, lo cual garantiza un correcto an&aacute;lisis.     <br>   Luego de desarrollar la  presente investigaci&oacute;n se puede concluir que los algoritmos metaheur&iacute;sticos se  utilizan para resolver PODs ya que garantizan encontrar una buena soluci&oacute;n no  necesariamente la &oacute;ptima. Crear algoritmos capaces de adaptarse a los cambios  en los PODs es un reto para la comunidad cient&iacute;fica actual, ya que es  desconocido que algoritmo es mejor en cada caso y c&oacute;mo afrontar un problema  din&aacute;mico nuevo. Sin embargo se deben tener cuenta algoritmos como el Limitado  por Umbral que ha sido ignorado, demostr&oacute; que puede obtener buenos resultados  en los problemas. Adem&aacute;s se obtuvo que el Limitado por Umbral tiene mejor  rendimiento que dos de los algoritmos del estado del arte para resolver PODs,  con diferencias significativas de forma global para todos los problemas y  configuraciones. En t&eacute;rminos generales, los resultados muestran que tiene  sentido aplicar los algoritmos metaheur&iacute;sticos cl&aacute;sicos a los PODs. Para  futuras investigaciones est&aacute; claro que se hace necesario un an&aacute;lisis m&aacute;s  profundo comparando estos resultados con otros algoritmos del estado del arte  que resuelven PODs.</font></p>     <p>&nbsp;</p>     <p><strong>AGRADECIMIENTOS</strong></p>     <p>  <font size="2" face="Verdana, Arial, Helvetica, sans-serif">Este trabajo ha sido &#64257;nanciado  por el Proyecto TIN2011-27696-C02-01 del Ministerio de Econom&iacute;a y  Competitividad de Espa&ntilde;a, P11-TIC-8001 del Gobierno de Andalus&iacute;a (incluidos  fondos FEDER de la Uni&oacute;n Europea).</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2"><a><font face="Verdana, Arial, Helvetica, sans-serif">BERSON, A. &amp;  SMITH, S. J. 1997. <em>Data Warehousing, Data  Mining, and OLAP</em>, McGraw-Hill, Inc.    </font></a> <font face="Verdana, Arial, Helvetica, sans-serif">    <br>           <!-- ref --><br>       <a>BOUMAN, R.  &amp; VAN DONGEN, J. 2009. </a><em>Pentaho  Solutions: Business Intelligence and Data Warehousing with Pentaho and MySQL, </em>Indianapolis,  Indiana, Wiley Publishing,     Inc.     <br>           <!-- ref --><br>       <a>CASTELLANOS, M.,  SIMITSIS, A., WILKINSON, K. &amp; DAYAL, U. 2009. Automating the Loading of  Business Process Data Warehouses. <em>Proceedings  of the 12th International Conference on Extending Database Technology: Advances  in Database Technology.</em> ACM.    </a>     <br>           <!-- ref --><br>       <a>CASTERS, M., BOUMAN,  R. &amp; VAN DONGEN, J. 2010. <em>Pentaho  Kettle Solutions: Building Open Source ETL Solutions with Pentaho Data  Integration, </em>Indianapolis, Indiana, Wiley Publishing,     Inc.</a>     <br>           <br>       <a>D&Iacute;AZ, L.,  L&Oacute;PEZ, B., GONZ&Aacute;LEZ, L., GALINDO, Y. &amp; L&Oacute;PEZ, D. 2013. Integraci&oacute;n de  Datos. &ldquo;Universidad Central &ldquo;Marta Abreu&rdquo; de las Villas&rdquo;.</a>     <br>           <!-- ref --><br>       <a>ECCLES, M. J. 2013. <em>Pragmatic Development of Service Based  Real-Time Change Data Capture.</em> </a>Aston University.    <br>           <!-- ref --><br>       <a>EL-SAPPAGH,  S. H. A., HENDAWI, A. M. A. &amp; EL BASTAWISSY, A. H. 2011. </a>A proposed  model for data warehouse ETL processes. <em>Journal  of King Saud University-Computer and Information Sciences,</em> 23<strong>,</strong> 91-104.    <br>           <br>       <a>GARC&Iacute;A, J.  L. 2014. <em>Automatizaci&oacute;n de los procesos  de carga en el mercado de datos Recursos Humanos de la UCLV.</em> Universidad  Central &ldquo;Marta Abreu&rdquo; de Las Villas.</a>     <br>           ]]></body>
<body><![CDATA[<!-- ref --><br>       <a>J&Ouml;RG, T.  &amp; DESSLOCH, S. 2008. </a>Towards generating ETL processes for  incremental loading. <em>In:</em> DESAI, B. C.  (ed.) <em>Proceedings of the 2008  international symposium on Database engineering &amp; applications.</em> Coimbra  [Portugal]: ACM.    <br>           <!-- ref --><br>       <a>J&Ouml;RG, T. &amp;  DESSLOCH, S. 2009. Formalizing ETL Jobs for Incremental Loading of Data  Warehouses.    </a>     <br>           <!-- ref --><br>       <a>J&Ouml;RG, T. &amp;  DESSLOCH, S. 2010. Near Real-Time Data Warehousing Using State-of-the-Art ETL  Tools. <em>Enabling Real-Time Business  Intelligence, Lecture Notes in Business Information Processing.</em> Springer-Verlag Heidelberg.    </a>     <br>           <!-- ref --><br>       <a>KIMBALL, R. &amp;  CASERTA, J. 2004. <em>The Data Warehouse ETL  Toolkit, </em>Indianapolis, Indiana, Wiley Publishing,     Inc.</a>     ]]></body>
<body><![CDATA[<br>           <br>       <a>KIMBALL, R., REEVES,  L., ROSS, M. &amp; THORNTHWAITE, W. 1998. <em>The  Data Warehouse Lifecycle Toolkit: Expert Methods for Designing, Developing, and  Deploying Data Warehouses, </em>Indianapolis, Indiana, Wiley Publishing, Inc.</a>     <br>           <!-- ref --><br>       <a>KIMBALL, R. &amp;  ROSS, M. 2002. <em>The Data Warehouse  Toolkit: The Complete Guide to Dimensional Modeling, </em>New York, John Wiley  and Sons,     Inc.</a>     <br>           <br>       <a>KIMBALL, R., ROSS,  M., THORTHWAITE, W., BECKER, B. &amp; MUNDY, J. 2008. <em>The Data Warehouse Lifecycle Toolkit</em>, John Wiley &amp; Sons.</a>     <br>           <!-- ref --><br>       <a>LABIO, W. J. &amp;  GARC&Iacute;A-MOLINA, H. 1995. Comparing very large database snapshots. Stanford  University.    </a>     ]]></body>
<body><![CDATA[<br>           <br>       <a>LABIO, W. J. &amp;  GARC&Iacute;A-MOLINA, H. 1996. Efficient Snapshot Differential Algorithms for Data  Warehousing. </a><em>Proceedings of VLDB &rsquo;96.</em>    <br>           <br>       <a>MAS&Oacute;, A.  &amp; CASTELL&Oacute;N, Y. 2013. <em>Mercado de  datos en apoyo a la toma de decisiones sobre el personal docente e  investigativo en el departamento de Recursos Humanos de la UCLV.</em>    <br>       </a>Universidad  Central &ldquo;Marta Abreu&rdquo; de Las Villas.     <br>           <br>       <a>MUNDY, J. 2008.  Design Tip #99 Staging Areas and ETL Tools. Available: </a>http://www.kimballgroup.com/2008/03/04/design-tip-99-staging-areas-and-etl-tools/ .     <br>           <!-- ref --><br>       <a>RAM, P. &amp; DO, L.  2000. Extracting Delta for Incremental Data Warehouse Maintenance. <em>Proceedings. 16th International Conference  on Data Engineering (ICDE).</em> IEEE.    </a>     ]]></body>
<body><![CDATA[<br>           <br>       <a>ROSS, M. 2013.  Design Tip #152 Slowly Changing Dimension Types 0, 4, 5, 6 and 7. </a>Available: http://www.kimballgroup.com/2013/02/05/design-tip-152-slowlychanging-dimension-types-0-4-5-6-7/ .     <br>           <!-- ref --><br>       <a>TELLEZ,  Y., MEDINA, D. &amp; TORRES, R. E. 2012. Propuesta para la Implementaci&oacute;n de  las Dimensiones Lentamente Cambiantes con Pentaho Data Integration.    </a>     <br>           <br>       <a>VASSILIADIS, P.  2009. A survey of Extract&ndash;transform&ndash;Load technology. </a><em>International Journal of Data  Warehousing &amp; Mining,</em> 5<strong>,</strong> 1-27.     <br>           <!-- ref --><br>       <a>VILLARREAL,  R. X. 2013. <em>Estudio de metodolog&iacute;as de  Data Warehouse para la implementaci&oacute;n de repositorios de informaci&oacute;n para la  toma de decisiones gerenciales.</em>, Universidad T&eacute;cnica del Norte.    </a>     ]]></body>
<body><![CDATA[<br>           <!-- ref --><br>       <a>YUAN, G.,  LI, B. &amp; XIAO, T. 2011. </a>Improvement of Snapshot Differential  Algorithm Based on Hadoop Platform. <em>Cross  Strait Quad-Regional Radio Science and Wireless Technology Conference (CSQRWC).</em> IEEE.     </font></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 05/01/2015        <br> Aceptado: 20/02/2015 </font>    </p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BERSON]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[SMITH]]></surname>
<given-names><![CDATA[S. J]]></given-names>
</name>
</person-group>
<source><![CDATA[Data Warehousing, Data Mining, and OLAP, McGraw-Hill, Inc]]></source>
<year>1997</year>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BOUMAN]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[VAN DONGEN]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Pentaho Solutions: Business Intelligence and Data Warehousing with Pentaho and MySQL]]></source>
<year>2009</year>
<publisher-loc><![CDATA[Indianapolis^eIndiana Indiana]]></publisher-loc>
<publisher-name><![CDATA[Wiley Publishing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CASTELLANOS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[SIMITSIS]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[WILKINSON]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
<name>
<surname><![CDATA[DAYAL]]></surname>
<given-names><![CDATA[U]]></given-names>
</name>
</person-group>
<source><![CDATA[Automating the Loading of Business Process Data Warehouses]]></source>
<year>2009</year>
<publisher-name><![CDATA[ACM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CASTERS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[BOUMAN]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[VAN DONGEN]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Pentaho Kettle Solutions: Building Open Source ETL Solutions with Pentaho Data Integration]]></source>
<year>2010</year>
<publisher-loc><![CDATA[Indianapolis^eIndiana Indiana]]></publisher-loc>
<publisher-name><![CDATA[Wiley Publishing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DÍAZ]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[LÓPEZ]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[LÓPEZ]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[Integración de Datos]]></source>
<year>2013</year>
<publisher-name><![CDATA[&#8220;Universidad Central &#8220;Marta Abreu&#8221; de las Villas&#8221;]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ECCLES]]></surname>
<given-names><![CDATA[M. J]]></given-names>
</name>
</person-group>
<source><![CDATA[Pragmatic Development of Service Based Real-Time Change Data Capture]]></source>
<year>2013</year>
<publisher-name><![CDATA[Aston University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[EL-SAPPAGH]]></surname>
<given-names><![CDATA[S. H. A]]></given-names>
</name>
<name>
<surname><![CDATA[HENDAWI]]></surname>
<given-names><![CDATA[A. M. A]]></given-names>
</name>
<name>
<surname><![CDATA[EL BASTAWISSY]]></surname>
<given-names><![CDATA[A. H]]></given-names>
</name>
</person-group>
<source><![CDATA[A proposed model for data warehouse ETL processes]]></source>
<year>2011</year>
<volume>23</volume>
<page-range>91-104</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCÍA]]></surname>
<given-names><![CDATA[J. L]]></given-names>
</name>
</person-group>
<source><![CDATA[Automatización de los procesos de carga en el mercado de datos Recursos Humanos de la UCLV]]></source>
<year>2014</year>
<publisher-name><![CDATA[Universidad Central &#8220;Marta Abreu&#8221; de Las Villas]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JÖRG]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[DESSLOCH]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Towards generating ETL processes for incremental loading]]></source>
<year>2008</year>
<publisher-loc><![CDATA[Coimbra ]]></publisher-loc>
<publisher-name><![CDATA[ACM]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JÖRG]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[DESSLOCH]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Formalizing ETL Jobs for Incremental Loading of Data Warehouses]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JÖRG]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[DESSLOCH]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
</person-group>
<source><![CDATA[Real-Time Data Warehousing Using State-of-the-Art ETL Tools.]]></source>
<year>2010</year>
<publisher-loc><![CDATA[Heidelberg ]]></publisher-loc>
<publisher-name><![CDATA[Springer-Verlag]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KIMBALL]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[CASERTA]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[The Data Warehouse ETL Toolkit]]></source>
<year>2004</year>
<publisher-loc><![CDATA[Indianapolis^eIndiana Indiana]]></publisher-loc>
<publisher-name><![CDATA[Wiley Publishing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KIMBALL]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[REEVES]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[The Data Warehouse Lifecycle Toolkit: Expert Methods for Designing, Developing, and Deploying Data Warehouses]]></source>
<year>1998</year>
<publisher-loc><![CDATA[Indianapolis^eIndiana Indiana]]></publisher-loc>
<publisher-name><![CDATA[Wiley Publishing]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KIMBALL]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[ROSS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[The Data Warehouse Toolkit: The Complete Guide to Dimensional Modeling]]></source>
<year>2002</year>
<publisher-loc><![CDATA[New York ]]></publisher-loc>
<publisher-name><![CDATA[John Wiley and Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[KIMBALL]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[ROSS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[The Data Warehouse Lifecycle Toolkit]]></source>
<year>2008</year>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LABIO]]></surname>
<given-names><![CDATA[W. J]]></given-names>
</name>
<name>
<surname><![CDATA[GARCÍA-MOLINA]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Comparing very large database snapshots]]></source>
<year>1995</year>
<publisher-name><![CDATA[Stanford University]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LABIO]]></surname>
<given-names><![CDATA[W. J]]></given-names>
</name>
<name>
<surname><![CDATA[GARCÍA-MOLINA]]></surname>
<given-names><![CDATA[H]]></given-names>
</name>
</person-group>
<source><![CDATA[Efficient Snapshot Differential Algorithms for Data Warehousing]]></source>
<year>1996</year>
<publisher-name><![CDATA[Proceedings of VLDB &#8217;96]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MASÓ]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[CASTELLÓN]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
</person-group>
<source><![CDATA[Mercado de datos en apoyo a la toma de decisiones sobre el personal docente e investigativo en el departamento de Recursos Humanos de la UCLV.]]></source>
<year>2013</year>
<publisher-name><![CDATA[Universidad Central &#8220;Marta Abreu&#8221; de Las Villas.]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MUNDY]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Design Tip #99 Staging Areas and ETL Tools]]></source>
<year>2008</year>
<month>20</month>
<day>15</day>
</nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RAM]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[DO]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
</person-group>
<source><![CDATA[Extracting Delta for Incremental Data Warehouse Maintenance]]></source>
<year>2000</year>
<publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ROSS]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<source><![CDATA[Design Tip #152 Slowly Changing Dimension Types 0, 4, 5, 6 and 7]]></source>
<year>2013</year>
</nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TELLEZ]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[MEDINA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[TORRES]]></surname>
<given-names><![CDATA[R. E]]></given-names>
</name>
</person-group>
<source><![CDATA[Propuesta para la Implementación de las Dimensiones Lentamente Cambiantes con Pentaho Data Integration]]></source>
<year>2012</year>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VASSILIADIS]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[A survey of Extract-transform-Load technology]]></source>
<year>2009</year>
<volume>5</volume>
</nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VILLARREAL]]></surname>
<given-names><![CDATA[R. X]]></given-names>
</name>
</person-group>
<source><![CDATA[Estudio de metodologías de Data Warehouse para la implementación de repositorios de información para la toma de decisiones gerenciales]]></source>
<year>2013</year>
<publisher-name><![CDATA[Universidad Técnica del Norte]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[YUAN]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[XIAO]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Improvement of Snapshot Differential Algorithm Based on Hadoop Platform]]></source>
<year>2011</year>
<publisher-name><![CDATA[IEEE]]></publisher-name>
</nlm-citation>
</ref>
</ref-list>
</back>
</article>
