<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992014000400005</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Un estudio comparativo sobre evolución diferencial auto-adaptativa en ambientes dinámicos]]></article-title>
<article-title xml:lang="en"><![CDATA[A comparative study on self-adaptive differential evolution in dynamic environments]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Novoa-Hernández]]></surname>
<given-names><![CDATA[Dr. C Pavel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Cruz Corona]]></surname>
<given-names><![CDATA[Dr. C Carlos]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[A. Pelta]]></surname>
<given-names><![CDATA[Dr. C David]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de Holguín  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
<country>Cuba</country>
</aff>
<aff id="A02">
<institution><![CDATA[,Universidad de Granada  ]]></institution>
<addr-line><![CDATA[ ]]></addr-line>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>12</month>
<year>2014</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>12</month>
<year>2014</year>
</pub-date>
<volume>8</volume>
<numero>4</numero>
<fpage>86</fpage>
<lpage>99</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992014000400005&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992014000400005&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992014000400005&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[Un gran número de problemas de optimización reales son dinámicos, lo que significa que algunos de los elementos del modelo varían con el tiempo. Estos problemas han recibido un especial interés en los últimos años desde el punto de vista de la optimización mediante metaheurísticas. La Evolución Diferencial (DE) es una metaheurística poblacional que sobresale por su efectividad y fácil implementación. Sin embargo, como la mayoría de los paradigmas aplicados a este contexto, DE ha tenido que ser adaptada con el objetivo resolver principalmente la pérdida de diversidad en la población de soluciones. Por otro lado, la auto-adaptación es uno los enfoques menos tratados en la actualidad, y que ha mostrado ser en extremo eficiente en determinados contextos. La auto-adaptación es una técnica de control de parámetros que dota de cierta inteligencia al algoritmo, durante el proceso de búsqueda. En ese sentido, el presente trabajo investiga dos extensiones auto-adaptativas de DE en combinación con otros enfoques de diversidad existentes. Los resultados, obtenidos a partir de varios experimentos computacionales, confirman que la auto-adaptación es una técnica prometedora en este contexto.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[Several real optimization problems are dynamic, meaning that some elements of their mathematical model are time varying. These problems have received a special interest in the last years from the viewpoint of metaheuristics. Differential Evolution (DE) is one of the current population-based metaheuristics with an excellent effectiveness and easy implementation. However, as similar paradigms in dynamic environments, DE has been adapted with aims of solving the diversity loss in the solution population. On the other hand, self-adaptation is one of the less used approaches in dynamic environments, despite its success in complex scenarios. Self-adaptation is a parameter control technique that gives certain intelligent behavior to the algorithm, during the search process. In that sense, the present work investigates the performance of two self-adaptive extensions of DE, which in combination with other existing diversity approaches have been applied in several dynamic scenarios. The obtained results from the computational experiments, confirm that self-adaptation is a promising technique for dynamic environments.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[ambientes dinámicos]]></kwd>
<kwd lng="es"><![CDATA[auto-adaptación]]></kwd>
<kwd lng="es"><![CDATA[evolución diferencial]]></kwd>
<kwd lng="en"><![CDATA[differential evolution]]></kwd>
<kwd lng="en"><![CDATA[dynamic environments]]></kwd>
<kwd lng="en"><![CDATA[self-adaptation]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO    ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4" face="Verdana, Arial, Helvetica, sans-serif"><strong>Un estudio comparativo sobre evoluci&oacute;n  diferencial auto-adaptativa en ambientes din&aacute;micos</strong></font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><strong>A comparative study on self-adaptive differential evolution  in dynamic environments</strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Dr. C Pavel Novoa-Hern&aacute;ndez<strong><strong><strong><sup>1*</sup></strong></strong></strong>, Dr.  C Carlos Cruz Corona<strong><strong><strong><sup>2</sup></strong></strong></strong>, Dr. C David A. Pelta<strong><strong><sup>2</sup></strong></strong></strong></font> </p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>1</sup> Dpto Lic. Matem&aacute;tica, Universidad  de Holgu&iacute;n. Cuba.    <br>     <sup>2 </sup>Departamento  de Ciencias de la Computaci&oacute;n e Inteligencia Artificial, Universidad de Granada,  Espa&ntilde;a.</font></p>     ]]></body>
<body><![CDATA[<P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia: </font></span><font size="2"><a href="mailto:pnovoa@facinf.uho.edu.cu">pnovoa@facinf.uho.edu.cu</a></font></font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Un gran n&uacute;mero de problemas de optimizaci&oacute;n reales son  din&aacute;micos, lo que significa que algunos de los elementos del modelo var&iacute;an con  el tiempo. Estos problemas han recibido un especial inter&eacute;s en los &uacute;ltimos a&ntilde;os  desde el punto de vista de la optimizaci&oacute;n mediante metaheur&iacute;sticas. La Evoluci&oacute;n  Diferencial (DE) es una metaheur&iacute;stica poblacional que sobresale por su  efectividad y f&aacute;cil implementaci&oacute;n. Sin embargo, como la mayor&iacute;a de los  paradigmas aplicados a este contexto, DE ha tenido que ser adaptada con el  objetivo resolver principalmente la p&eacute;rdida de diversidad en la poblaci&oacute;n de  soluciones. Por otro lado, la auto-adaptaci&oacute;n es uno los enfoques menos  tratados en la actualidad, y que ha mostrado ser en extremo eficiente en  determinados contextos. La auto-adaptaci&oacute;n es una t&eacute;cnica de control de  par&aacute;metros que dota de cierta inteligencia al algoritmo, durante el proceso de  b&uacute;squeda. En ese sentido, el presente trabajo investiga dos extensiones auto-adaptativas  de DE en combinaci&oacute;n con otros enfoques de diversidad existentes. Los  resultados, obtenidos a partir de varios experimentos computacionales, confirman  que la auto-adaptaci&oacute;n es una t&eacute;cnica prometedora en este contexto. </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave: </span></b>ambientes din&aacute;micos, auto-adaptaci&oacute;n, evoluci&oacute;n  diferencial. </font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Several real optimization  problems are dynamic, meaning that some elements of their mathematical model  are time varying. These problems have received a special interest in the last  years from the viewpoint of metaheuristics. Differential Evolution (DE) is one  of the current population-based metaheuristics with an excellent effectiveness  and easy implementation. However, as similar paradigms in dynamic environments,  DE has been adapted with aims of solving the diversity loss in the solution  population. On the other hand, self-adaptation is one of the less used  approaches in dynamic environments, despite its success in complex scenarios. Self-adaptation  is a parameter control technique that gives certain intelligent behavior to the  algorithm, during the search process. In that sense, the present work  investigates the performance of two self-adaptive extensions of DE, which in  combination with other existing diversity approaches have been applied in  several dynamic scenarios. The obtained results from the computational  experiments, confirm that self-adaptation is a promising technique for dynamic  environments. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>differential  evolution, dynamic environments, self-adaptation.</font></p> <hr>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la sociedad moderna, varios  escenarios de decisi&oacute;n pueden modelarse como problemas din&aacute;micos de optimizaci&oacute;n  (PDOs). Estos problemas tienen como caracter&iacute;stica la variaci&oacute;n en el tiempo de  algunos de los elementos del modelo. Ejemplo de estos elementos din&aacute;micos son  la funci&oacute;n objetivo, el sistema de restricciones, el n&uacute;mero de dimensiones del  espacio de b&uacute;squeda, entre otros. En el presente trabajo se abordar&aacute;n PDOs en  los que la funci&oacute;n objetivo var&iacute;a en el tiempo. En escenarios reales, esta  variaci&oacute;n de la funci&oacute;n objetivo en el tiempo se puede interpretar como un  cambio en la informaci&oacute;n relacionada con el problema en cuesti&oacute;n. Algunos  ejemplos donde pueden aparecer este fen&oacute;meno son: la automatizaci&oacute;n del  funcionamiento de los sem&aacute;foros en una ciudad, el aterrizaje de una nave  espacial, la distribuci&oacute;n de bienes a clientes que aparecen o desaparecen con  el tiempo, la planificaci&oacute;n de procesos cuyas tareas que aparecen con el  tiempo, entre otros.    <br>       <br>   Para los prop&oacute;sitos de la presente  investigaci&oacute;n, bastar&aacute; definir un PDO de la siguiente forma:</font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo0105414.jpg" width="317" height="23"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde      &nbsp;<img src="/img/revistas/rcci/v8n4/fo0205414.jpg" width="97" height="19">es la funci&oacute;n objetivo. En particular, el  espacio de b&uacute;squeda viene representado por <img src="/img/revistas/rcci/v8n4/fo0305414.jpg" width="52" height="16">, mientras que      <img src="/img/revistas/rcci/v8n4/fo0405414.jpg" width="38" height="14">&nbsp;es el tiempo. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Debido al importante nivel de  incertidumbre de estos problemas, la aplicaci&oacute;n de t&eacute;cnicas de optimizaci&oacute;n  provenientes de campos como la Soft Computing parece justificarse.  Precisamente, en los &uacute;ltimos a&ntilde;os este tema ha recibido un especial inter&eacute;s  expresado en el creciente n&uacute;mero de trabajos tanto de congresos como de  revistas (v&eacute;ase por ejemplo las revisiones (Cruz <em>et al.,</em> 2011; Nguyen <em>et al.,</em> 2012). La tendencia actual en este campo, en relaci&oacute;n con la propuesta de  nuevos m&eacute;todos, es el empleo de metaheur&iacute;sticas (Meli&aacute;n <em>et al.,</em> 2003; Talbi, 2009) poblacionales del campo de la  optimizaci&oacute;n estacionaria que son adaptados producto a los retos que impone la  optimizaci&oacute;n din&aacute;mica. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Espec&iacute;ficamente, estas adaptaciones  tienen como objetivo tratar dos dificultades que pueden aparecer producto a los  cambios en el ambiente: la <em>desactualizaci&oacute;n  de la informaci&oacute;n</em> y la <em>p&eacute;rdida de  diversidad</em>. La primera ocurre cuando los valores de la funci&oacute;n objetivo  (fitness) correspondientes a las soluciones del algoritmo quedan obsoletos. Por  su parte, la p&eacute;rdida de diversidad aparece cuando el algoritmo queda atrapado  en una zona del espacio de b&uacute;squeda y es incapaz de localizar al nuevo &oacute;ptimo  del problema. Aunque la primera de estas dificultades puede resolverse  relativamente f&aacute;cil (ej. reevaluando la poblaci&oacute;n de soluciones), la segunda es  m&aacute;s dif&iacute;cil de tratar. En ese sentido, en los &uacute;ltimos a&ntilde;os se han propuesto  diferentes <em>enfoques para PDOs</em> que  pueden agruparse, seg&uacute;n (Jin y Branke, 2005), en cuatro categor&iacute;as: 1)  diversidad despu&eacute;s del cambio, 2) diversidad durante la ejecuci&oacute;n, 3) enfoques  basados en memorias, y 4) enfoques multipoblacionales. M&aacute;s recientemente, en (Nguyen <em>et al.,</em> 2012) se establece que otra  forma de lidiar con la din&aacute;mica de los PDOs, es aplicar estrategias  auto-adaptativas. La auto-adaptaci&oacute;n es una t&eacute;cnica de control de par&aacute;metros  que ha sido ampliamente utilizada en problemas estacionarios (Eiben <em>et al.,</em> 2007). En ambientes din&aacute;micos  existen, aunque pocos, prometedores trabajos que sugieren la aplicaci&oacute;n de esta  t&eacute;cnica de control de par&aacute;metros (Brest <em>et  al.,</em> 2009; Novoa-Hern&aacute;ndez <em>et al.,</em> 2013).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este contexto, una de las  metaheur&iacute;sticas poblacionales que ha sido aplicado con &eacute;xito en ambientes  din&aacute;micos es la Evoluci&oacute;n Diferencial (DE). Sin embargo, similar a lo que  ocurre en otros algoritmos poblacionales, DE sufre de p&eacute;rdida de diversidad y  en consecuencia tiene que ser adaptado a este contexto. Aunque en la actualidad  se han logrado importantes avances en esa direcci&oacute;n, se trata de un tema  abierto y de constante investigaci&oacute;n. En ese sentido, el presente trabajo tiene  por objetivo: analizar emp&iacute;ricamente el comportamiento, en t&eacute;rminos de precisi&oacute;n,  de dos extensiones auto-adaptativas de DE en ambientes din&aacute;micos. Dado que  estas extensiones est&aacute;n dise&ntilde;adas para problemas estacionarios, se hace  necesario hibridarlas con algunos enfoques para PDOs. En este caso, se  consideraron el enfoque multipoblacional propuesto por (Blackwell y Branke,  2006), y estrategias espec&iacute;ficas de diversidad, como las de los trabajos  (Blackwell y Branke, 2006) y (Novoa-Hern&aacute;ndez, 2011). Nuestra hip&oacute;tesis es que  la auto-adaptaci&oacute;n, en conjunto con estos enfoques, puede contribuir  significativamente en la soluci&oacute;n de PDOs complejos, como los considerados en  este trabajo.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El resto de la investigaci&oacute;n queda organizada  de la forma siguiente. En lo que sigue se exponen los fundamentos te&oacute;ricos de  la metodolog&iacute;a computacional desarrollada, as&iacute; como la descripci&oacute;n de los  algoritmos propuestos. M&aacute;s adelante (Sec. <em>Resultados  y discusi&oacute;n</em>), se describir&aacute;n los experimentos computacionales  desarrollados, los cuales concluyen con un an&aacute;lisis estad&iacute;stico. El trabajo  finaliza con las principales conclusiones y trabajos futuros derivados de la  investigaci&oacute;n. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La Evoluci&oacute;n Diferencial es  una metaheur&iacute;stica poblacional propuesta por (Storn y Price, 1997). De manera  formal, cada individuo <em><strong>y<sub>i</sub></strong> </em>de la poblaci&oacute;n se define  por la tupla <img src="/img/revistas/rcci/v8n4/fo0505414.jpg" width="76" height="16">. Donde <img src="/img/revistas/rcci/v8n4/fo0605414.jpg" width="54" height="19">es el vector soluci&oacute;n y <img src="/img/revistas/rcci/v8n4/fo0705414.jpg" width="69" height="20">el valor correspondiente de  la funci&oacute;n objetivo. Como todo algoritmo evolutivo consta de dos etapas  generales: inicializaci&oacute;n y ciclo principal. En el primero, la poblaci&oacute;n es  pseudo-aleatoriamente inicializada en el espacio de b&uacute;squeda (ej. siguiendo una  distribuci&oacute;n uniforme), mientras que en el ciclo principal se generan nuevos  individuos (soluciones candidatas) mediante cruzamiento y mutaci&oacute;n. La aplicaci&oacute;n  de estos operadores evolutivos es controlada por el par&aacute;metro <strong>CR</strong> . El operador de  reemplazamiento es simple y no depende de una generaci&oacute;n (iteraci&oacute;n) del algoritmo:  si el nuevo individuo es mejor (ej. seg&uacute;n el fitness) entonces este reemplaza al  individuo que le dio origen. En particular, la mutaci&oacute;n depende b&aacute;sicamente del  par&aacute;metro <strong>F</strong>&nbsp;conocido como factor de escala. Los  principales pasos del esquema original de DE se muestran en la <a href="/img/revistas/rcci/v8n4/f0105414.jpg" target="_blank">figura 1</a>.</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aqu&iacute; <em>rand(0,1)</em> es una funci&oacute;n que devuelve n&uacute;meros aleatorios siguiendo  una distribuci&oacute;n uniforme en el intervalo [0,0; 1,0]. Asimismo, es importante notar que los resultados de DE en  un problema dado, depende principalmente del tama&ntilde;o de la poblaci&oacute;n, los  par&aacute;metros <em><strong>F, CR </strong></em>y la estrategia de mutaci&oacute;n (paso 8, en la <a href="/img/revistas/rcci/v8n4/f0105414.jpg" target="_blank">figura 1</a>). En varios trabajos (v&eacute;ase por ejemplo (Das  y Suganthan, 2011; Neri y Tirronen, 2010)), se sugiere  que los par&aacute;metros <em>F</em>&nbsp;y <em>CR</em> se establezcan en 1,0&nbsp;y      0,1,  respectivamente; el tama&ntilde;o de la poblaci&oacute;n (<em>&micro;</em>), un valor  cercano a 10 veces el n&uacute;mero de dimensiones del espacio de b&uacute;squeda, mientras  que la estrategia de mutaci&oacute;n depende del problema en cuesti&oacute;n. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Dentro de las  estrategias m&aacute;s conocidas se encuentran las siguientes:</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DE/rand/1: </font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo0805414.jpg" width="466" height="25"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DE/cur-to-best/1: </font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo0905414.jpg" width="525" height="27"></font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DE/rand-to-best/2: </font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo1005414.jpg" width="576" height="27"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DE/current-to-rand/1: </font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo1105414.jpg" width="525" height="27"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Aqu&iacute;, <em>K</em> y <em>F<sub>p</sub></em> son factores de escala que  toman valores en tiempo de ejecuci&oacute;n en el intervalo [0,1]. Adem&aacute;s, X<sup>d<sub>best </sub></sup>corresponde a  la      d-&eacute;sima componente  de la posici&oacute;n del mejor individuo de la poblaci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En el contexto de la optimizaci&oacute;n  en ambientes din&aacute;micos, DE ha sido aplicada con &eacute;xito en varios contextos. Por  ejemplo, la extensi&oacute;n DynDE propuesta por (Mendes y Mohai, 2005) utiliza varias  poblaciones que exploran simult&aacute;neamente el espacio de b&uacute;squeda, lo que la hace  muy adecuada para problemas multimodales. Curiosamente, DynDE no requiere el  establecimiento de los par&aacute;metros <em>F</em> y <em>CR</em> ya que los selecciona en  tiempo de ejecuci&oacute;n en el intervalo [0,1]. Asimismo, este  m&eacute;todo incluye t&eacute;cnicas de generaci&oacute;n de diversidad mediante la perturbaci&oacute;n de  uno o m&aacute;s soluciones de la poblaci&oacute;n. DynDE fue aplicada con buenos resultados  en el problema test Movimiento de Picos (Branke, 1999). M&aacute;s recientemente, en la  competici&oacute;n <em>Evolutionary Computation in  Dynamic and Uncertain Environments</em> (CEC2009), (Brest <em>et al.,</em> 2009) proponen una extensi&oacute;n al algoritmo auto-adaptativo  jDE que utiliza varias poblaciones y una estrategia basada en la edad de los  individuos. Este algoritmo alcanz&oacute; el primer lugar en dicha competici&oacute;n. Por  otro lado, (Angira y Santosh, 2007) reportan experiencias en entornos reales,  en lo que se aplica una versi&oacute;n trigonom&eacute;trica de DE, con el objetivo de  resolver problemas din&aacute;micos en la ingenier&iacute;a qu&iacute;mica.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Extensiones  auto-adaptativas de la evoluci&oacute;n diferencial</strong>    <br>       <br> El esquema  original de DE ha sido satisfactoriamente extendido por varios autores con la  intenci&oacute;n de mejorar su robustez, esto es, su capacidad de resolver problemas  con diferentes caracter&iacute;sticas. Dentro de estas extensiones sobresalen las que  proponen la auto-adaptaci&oacute;n de los par&aacute;metros y estrategias que influyen en el  comportamiento del algoritmo. La auto-adaptaci&oacute;n, como t&eacute;cnica estado-del-arte  en el control de par&aacute;metros no es originaria de DE. De hecho su historia se  remonta al origen de otros paradigmas evolutivos como las Estrategias  Evolutivas (Schewefel, 1981), la Programaci&oacute;n Evolutiva (Fogel, 1992), y  algunas versiones de Algoritmos Gen&eacute;ticos de codificaci&oacute;n real (Beyer y Deb, 2001).  B&aacute;sicamente, este t&eacute;cnica consiste en la inclusi&oacute;n, dentro del ciclo evolutivo,  de los par&aacute;metros m&aacute;s importantes del algoritmo, lo que significa que estos <em>evolucionan</em> al mismo tiempo que el  conjunto de soluciones (Eiben <em>et al.,</em> 2007).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En relaci&oacute;n a DE, existen  en la literatura varias propuestas interesantes que incluyen de una forma u  otra auto-adaptaci&oacute;n. Por ejemplo, SADE (Qin <em>et al.,</em> 2005) y SspDE (Pan <em>et  al.,</em> 2011) aplican auto-adaptaci&oacute;n en la selecci&oacute;n de la estrategia de  mutaci&oacute;n, mientras que jDE (Brest <em>et al.,</em> 2006), DESAP (Teo, 2006), y SDE (Salman <em>et  al.,</em> 2007) lo hacen en los par&aacute;metros <em>F</em> y <em>CR. </em>Particularmente,  DESAP tambi&eacute;n auto-adapta el tama&ntilde;o de la poblaci&oacute;n. De manera general, la  mayor&iacute;a de estas extensiones superan en precisi&oacute;n a la versi&oacute;n est&aacute;ndar de DE en  problemas estacionarios. En el presente estudio, se han seleccionado espec&iacute;ficamente  los algoritmos jDE y SspDE,debido a dos razones: por un lado estos algoritmos son, en relaci&oacute;n con las  otras variantes, los de mejores resultados; y por otro, poseen marcadas  diferencias entre s&iacute;, lo cual enriquecer&iacute;a las comparaciones. A continuaci&oacute;n se  describen las ideas b&aacute;sicas de estos algoritmos.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El algoritmo jDE es muy  similar al esquema original de DE, la diferencia radica en que los individuos  contienen realizaciones de los par&aacute;metros <em>F</em> y <em>CR </em>(ej. <em><strong>y<sub>i</sub>=(x<sub>i</sub> ,f<sub>i</sub> , F<sub>i</sub> , CR<sub>i</sub></strong></em><strong>)</strong>). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Entonces, en la generaci&oacute;n  de cada vector donante se utilizan los valores de las expresiones se utilizan los valores de  las expresiones (V) y (VI). Si el nuevo individuo es mejor que su padre, en el  reemplazamiento se tiene en cuenta tambi&eacute;n estos valores de <em>F<sub>i</sub></em> y <em>CR<sub>i.</sub></em></font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo1205414.jpg" width="544" height="94"></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los par&aacute;metros<em>      r<sub>1</sub></em>&nbsp;y <em>r<sub>2</sub></em> &nbsp;permanecen fijos  durante la ejecuci&oacute;n y seg&uacute;n sus autores deben tomar el mismo valor, esto es,  igual a 0,1. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por su parte, el algoritmo  SspDE es una extensi&oacute;n m&aacute;s sofisticada de DE. Los individuos vienen dados como <img src="/img/revistas/rcci/v8n4/fo1305414.jpg" width="239" height="21">. Donde  <em>F<sub>i</sub></em> y <em>CR<sub>i</sub></em> son listas de posibles valores para los parámetros <em>F<sub>i</sub></em> y <em>CR<sub>i</sub></em>, respectivamente. Asimismo, <em><strong>S<sub>i</sub> </strong></em>es un conjunto de varias  estrategias de mutaci&oacute;n, espec&iacute;ficamente instancias de las cuatro definidas por  las expresiones (2-5).  Los vectores <em><strong>F<sub>i</sub></strong></em><strong><em><sup>*</sup>,CR<sub>i</sub><sup>*</sup>, y </em></strong><em><strong>S<sub>i</sub></strong></em><strong><em><sup>*</sup></em></strong> son listas de par&aacute;metros y  estrategias <em>ganadoras</em>, esto es,  aquellos valores de F<sub>i</sub>,CR<sub>i</sub>, y S<sub>i</sub></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">relacionados con la  creaci&oacute;n de un vector de mejor calidad que el padre, siendo estas mejoras  contadas por la variable</font> <font face="Verdana, Arial, Helvetica, sans-serif"><em>wp<font size="2"><sub>i</sub>.</font></em><font size="2"> De manera general, todos  los vectores poseen una longitud predefinida conocida como <em>per&iacute;odo de aprendizaje</em>, denotado por <em>LP. </em>Una vez que  este per&iacute;odo termina se crean nuevamente las listas de par&aacute;metros y estrategias  a partir de las listas <em>ganadoras</em>. La  idea principal de este m&eacute;todo es el aprovechamiento de configuraciones de par&aacute;metros  y estrategias que resultaron &uacute;tiles en determinados momentos (ej. cada <em>LP</em>&nbsp;generaciones) para favorecer la optimizaci&oacute;n  en generaciones posteriores. El lector puede encontrar m&aacute;s detalles de este  algoritmo en el trabajo original (Pan <em>et  al.,</em> 2011).</font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Algoritmos  propuestos</strong>    <br>       <br> Como se  advirti&oacute; anteriormente, los algoritmos que ser&aacute;n objeto de an&aacute;lisis en este  trabajo, son hibridaciones de: 1) las extensiones auto-adaptativas jDE y SspDE;  y 2) determinados enfoques para PDOs. Espec&iacute;ficamente, los enfoques son los  siguientes:</font></p> <ul>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Enfoque multipoblacional  (Blackwell y Branke, 2006)</font></li>       <li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Enfoque quantum (diversidad  durante la ejecuci&oacute;n) (Blackwell y Branke, 2006)</font></li>       ]]></body>
<body><![CDATA[<li><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Enfoque diversidad despu&eacute;s de los  cambios (Novoa-Hern&aacute;ndez <em>et al.,</em> 2011).</font></li>     </ul>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La <a href="/img/revistas/rcci/v8n4/f0205414.jpg" target="_blank">figura 2</a> muestra la plantilla  general que tendr&aacute;n los algoritmos, la cual es en esencia el enfoque  multipoblacional de (Blackwell y Branke, 2006). Este enfoque, aunque fue  propuesto en el contexto de la Optimizaci&oacute;n con Enjambres de Part&iacute;culas (PSO),  puede ser f&aacute;cilmente reutilizado empleando otros paradigmas distintos a PSO  (ej. jDE y SspDE). B&aacute;sicamente, este enfoque emplea varias poblaciones  independientes (sub-algoritmos), lo que lo hace muy apropiado para problemas  multimodales. Las poblaciones son controladas por un operador de <em>exclusi&oacute;n</em> que evita que dos o m&aacute;s  poblaciones se encuentren en la misma zona del espacio de b&uacute;squeda. Si este  fuera el caso, el peor de los enjambres es reiniciado en el espacio de b&uacute;squeda.  Para determinar cuando ocurre este estado, la distancia euclidiana entre las  mejores soluciones de ambas poblaciones tiene que ser menor que un umbral <em>r<sub>excl</sub></em></font><font face="Verdana, Arial, Helvetica, sans-serif">.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Adicionalmente, este  trabajo (Blackwell y Branke, 2006) incluye un enfoque de diversidad durante la  ejecuci&oacute;n. Dicho enfoque, se basa en la inclusi&oacute;n de individuos (part&iacute;culas) <em>quantum</em>, las cuales se generan de manera  uniforme alrededor de la mejor soluci&oacute;n de la poblaci&oacute;n. Estas part&iacute;culas no poseen  un comportamiento convergente, ya que se mantienen explorando en una  hiperesfera de radio fijo <em>r<sub>cloud</sub></em></font><font face="Verdana, Arial, Helvetica, sans-serif">.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En relaci&oacute;n a  la estrategia de diversidad de (Novoa-Hern&aacute;ndez <em>et al.,</em> 2011), es preciso decir que esta es, en principio, similar  a la de las part&iacute;culas quantum, sin embargo esta estrategia se ejecuta despu&eacute;s  de cada cambio. Formalmente, despu&eacute;s de cada cambio la mitad de la poblaci&oacute;n es  reiniciada en una hiperesfera de radio <em>r<sub>div</sub></em>&nbsp;entorno a la mejor soluci&oacute;n.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Es importante  se&ntilde;alar algunos aspectos que sobresalen en relaci&oacute;n con esta hibridaci&oacute;n de DE  y ambas estrategias de diversidad. Por ejemplo, cuando se utilizan part&iacute;culas  quantum la poblaci&oacute;n de soluciones tendr&aacute; individuos de diferentes tipos  (quantum y los correspondientes a la extensi&oacute;n de DE). Esto evidentemente  afecta la velocidad de convergencia de las sub-poblaciones por las  caracter&iacute;sticas de las estrategias de mutaci&oacute;n (ej. por la elecci&oacute;n aleatoria  de individuos de la poblaci&oacute;n). Sin embargo, puede ser un comportamiento  deseable en situaciones donde se requiera mantener la diversidad (ej. problemas  con frecuencia de cambio muy altas). Por tal motivo, los algoritmos propuestos  basados en DE que incluyen individuos de tipo quantum tendr&aacute;n una poblaci&oacute;n  mixta, propiciando as&iacute; la interacci&oacute;n de sus individuos mediante la estrategia  de mutaci&oacute;n. En relaci&oacute;n con la aplicaci&oacute;n de la estrategia de diversidad  despu&eacute;s del cambio no existen dificultades mayores pues se trata de variar el  vector soluci&oacute;n de individuos existentes.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En la <a href="/img/revistas/rcci/v8n4/t0105414.jpg" target="_blank">tabla 1</a>, se listan los algoritmos implementados. N&oacute;tese que se ha incluido adem&aacute;s,  para favorecer la comparaci&oacute;n, el algoritmo mQSO (Blackwell y Branke, 2006) al  final de la Tabla 1. Asimismo, se  ha considerado al algoritmo DE est&aacute;ndar (presente en mR+DE y mQ+DE), como  alternativa b&aacute;sica a las extensiones auto-adaptativas. Las extensiones que emplean el enfoque quantum est&aacute;n denotadas con el  prefijo <em>mQ</em>, mientras que las que  emplean diversidad despu&eacute;s del cambio son identificadas por <em>mR</em>. </font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En esta  secci&oacute;n se exponen los resultados de los experimentos realizados sobre el  problema artificial Movimiento de Picos (MPB) (Branke, 1999). Dada su  flexibilidad, este problema permite obtener diferentes instancias a partir de  las combinaciones de sus par&aacute;metros. En la <a href="/img/revistas/rcci/v8n4/t0205414.jpg" target="_blank">tabla 2</a> se  muestran las configuraciones generales utilizadas en este trabajo y que  corresponden a lo que se conoce como escenario 2 de este problema.</font></p>     ]]></body>
<body><![CDATA[<p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para medir el  comportamiento de los algoritmos, se emple&oacute; el promedio del error de la mejor  soluci&oacute;n antes de cada cambio (e<sub>mac</sub>). Esta medida cuantifica la precisi&oacute;n, en t&eacute;rminos del  error absoluto del valor de la funci&oacute;n objetivo, justo antes de ocurrir un  cambio. Formalmente se define como:</font></p>     <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif"><img src="/img/revistas/rcci/v8n4/fo1405414.jpg" width="516" height="59"></font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">donde <em>C</em> son los cambios en el  problema, mientras que<em> t<sub>c</sub> </em>es la &uacute;ltima evaluaci&oacute;n de  la funci&oacute;n objetivo antes de la ocurrencia del cambio c. Por otro lado, <em>x*</em> es la posici&oacute;n del &oacute;ptimo  del problema, y <em>x<sub>best</sub> </em>es la mejor  soluci&oacute;n encontrada por el algoritmo.</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los experimentos fueron  divididos en dos grupos con la intenci&oacute;n de analizar los algoritmos en  problemas con caracter&iacute;sticas diferentes. En ese sentido, el factor que se tom&oacute;  en cuenta fue el tipo de funci&oacute;n que define a los picos: en el primer grupo se  utilizar&aacute;n funciones unimodales, mientras que en el segundo multimodales. La <a href="/img/revistas/rcci/v8n4/t0305414.jpg" target="_blank">tabla 3</a> muestra las definiciones de las funciones seleccionadas.  En ambos grupos de experimentos por cada funci&oacute;n pico se consideraron varios  valores para la frecuencia de los cambios: <img src="/img/revistas/rcci/v8n4/fo1505414.jpg" width="174" height="21">y la severidad <em>sev = {1; 5 ;10}</em>. N&oacute;tese que a partir de la  combinaci&oacute;n de estos valores y las funciones pico empleadas, se obtienen 54  instancias de problemas diferentes.</font></p>     <p align="left"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Todos los algoritmos  emplear&aacute;n 10 sub-poblaciones de 10 individuos cada una, en particular, los  algoritmos que utilizan individuos quantum tendr&aacute;n 5 de este tipo. Adem&aacute;s, se  emple&oacute; la siguiente configuraci&oacute;n general: <img src="/img/revistas/rcci/v8n4/fo1605414.jpg" width="152" height="19"> , mientras que <img src="/img/revistas/rcci/v8n4/fo1705414.jpg" width="125" height="17"> . Donde <img src="/img/revistas/rcci/v8n4/fo1805414.jpg" width="32" height="17"> es la extensi&oacute;n del espacio  de b&uacute;squeda. Las extensiones basadas en DE y jDE utilizaron DE/Rand/1 (Expresi&oacute;n  (I)) como estrategia de mutaci&oacute;n. De manera general se consideraron 20  ejecuciones por cada par problema algoritmo con semillas aleatorias diferentes.  Para todos los problemas  el n&uacute;mero de cambios (<em>C</em>) se  estableci&oacute; en 50, de manera que cada ejecuci&oacute;n termina cuando el algoritmo  consume <img src="/img/revistas/rcci/v8n4/fo1905414.jpg" width="46" height="17">&nbsp;evaluaciones de la funci&oacute;n objetivo.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados  de los experimentos, en t&eacute;rminos del promedio del error antes del cambio, y del  error est&aacute;ndar, se muestran en las tablas de los Anexos A y B. En el primero, se  resume los resultados de los algoritmos en instancias de problema con funciones  pico unimodales, mientras que en el segundo se muestran los relacionados con  funciones pico multimodales. No obstante la utilidad de esta informaci&oacute;n  descriptiva, se realizaron pruebas estad&iacute;sticas tomando como base estos  resultados, con el objetivo de comparar formalmente a los algoritmos. En  particular, hemos seguido la metodolog&iacute;a propuesta en (Garc&iacute;a <em>et al.,</em> 2009), la cual sugiere el empleo  de pruebas no param&eacute;tricas. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El an&aacute;lisis lo  hemos organizado en tres grupos, basados en el tipo de funci&oacute;n empleada por las  instancias de problema. En los tres casos las pruebas de Friedman e  Iman-Davenport dieron p-valores por debajo 0,05. Lo que indica que existen  diferencias significativas a nivel de grupo. Como consecuencia, se procedi&oacute; con  pruebas post-hoc, en espec&iacute;fico se aplic&oacute; la prueba de Holm. La idea de este  an&aacute;lisis post-hoc es determinar si el mejor de los algoritmos en cada caso, es  diferente o no en relaci&oacute;n al resto. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La <a href="/img/revistas/rcci/v8n4/t0405414.jpg" target="_blank">tabla 4</a> muestra los rangos (posiciones) medias de los algoritmos en los diferentes  grupos, seg&uacute;n la prueba de Friedman. Es importante aclarar que un valor bajo  del rango medio indica que el algoritmo correspondiente posee un buen comportamiento,  en t&eacute;rminos del error antes del cambio. Por ejemplo, n&oacute;tese que en el caso de  las funciones unimodales, el mejor algoritmos es el de la literatura, esto es  mQSO, el cual obtiene un rango de 1,0. Esta superioridad es significativa en  relaci&oacute;n al resto de los algoritmos, seg&uacute;n lo demuestra la prueba de Holm. Esto  &uacute;ltimo est&aacute; denotado por el s&iacute;mbolo (*) en la Tabla 4. Asimismo,  el peor de los algoritmos en este grupo es mR+DE, con un rango medio de 7,02.  Precisamente en esta clase de problema, los algoritmos auto-adaptativos, no  muestran buenos resultados en sentido general. A excepci&oacute;n de los que presentan  el enfoque quantum, el resto (mR+jDE y mR+SspDE) poseen resultados inferiores  incluso al mQ+DE, el cual no posee auto-adaptaci&oacute;n. Resulta particularmente clara  la ventaja que reporta incorporar el enfoque quantum cuando se resuelve este  tipo de problema.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Por otro lado,  como se aprecia en la columna relacionada con las funciones multimodales, el  algoritmo de mejores resultados es mQ+SspDE. Como sucede en el caso anterior,  esta superioridad es significativa en relaci&oacute;n al resto de los m&eacute;todos. N&oacute;tese  que el algoritmo mQSO, esta vez obtiene un rango medio de 5,12, siendo uno de  los de peor resultado. Este tipo de problema resulta m&aacute;s complejo por la  naturaleza de las funciones, se requiere por tanto de una mayor generaci&oacute;n de diversidad  por parte de los algoritmos. Por tal motivo, los algoritmos que incluyen la  estrategia de diversidad despu&eacute;s de los cambios, mejoran sus resultados en  relaci&oacute;n al obtenido en el grupo de funciones unimodales. La gran excepci&oacute;n de  los algoritmos auto-adaptativos es mQ+jDE, n&oacute;tese que es el de peores resultados,  a juzgar por su rango medio igual a 6,09. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Finalmente, si  se tiene en cuenta todas las funciones (&uacute;ltima columna de la <a href="/img/revistas/rcci/v8n4/t0405414.jpg" target="_blank">tabla 4</a>), se  puede ver que el mejor algoritmo es mQ+SspDE. Sin embargo, esta superioridad es  compartida con el algoritmo de la literatura mQSO, seg&uacute;n la prueba de Holm. Por  su parte, los de peores resultados son los que presentan la estrategia de  diversidad, donde se incluyen algoritmos auto-adaptativos. De manera que se  puede concluir que la auto-adaptaci&oacute;n, en espec&iacute;fico la presentada por el  algoritmo SspDE, puede ser beneficiosa en una amplia gama de escenarios  din&aacute;micos. Es importante notar que este &eacute;xito no se debe exclusivamente al  paradigma SspDE, sino tambi&eacute;n al enfoque quantum con el que se le ha combinado.  Este &uacute;ltimo an&aacute;lisis puede verse mejor en el gr&aacute;fico de barras de la <a href="#f03">figura 3</a></font><font face="Verdana, Arial, Helvetica, sans-serif">. </font></p>     ]]></body>
<body><![CDATA[<p align="center"><font face="Verdana, Arial, Helvetica, sans-serif"><a name="f03"></a><img src="/img/revistas/rcci/v8n4/f0305414.jpg" width="495" height="305"></font></p>     <p align="left">&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este  trabajo se analiz&oacute; el impacto de la auto-adaptaci&oacute;n en la evoluci&oacute;n  diferencial, en el contexto de la resoluci&oacute;n de problemas din&aacute;micos de optimizaci&oacute;n.  Espec&iacute;ficamente, se consideraron dos variantes auto-adaptativas de dicha  metaheur&iacute;stica, que fueron hibridadas con el enfoque multipoblacional de  (Blackwell y Branke, 2006), y otros dos, relacionados con la generaci&oacute;n de  diversidad: enfoque quantum (Blackwell y Branke, 2006), y diversidad despu&eacute;s de  los cambios (Novoa-Hern&aacute;ndez <em>et al.,</em> 2011). A partir de los resultados en diferentes instancias de problemas, se  puede concluir que los beneficios de la auto-adaptaci&oacute;n son en cierta medida  limitados. Aunque el algoritmo m&aacute;s robusto result&oacute; ser precisamente uno con  auto-adaptaci&oacute;n, esta superioridad no fue significativa en relaci&oacute;n al  exponente de la literatura. Asimismo, dicha superioridad se debe tambi&eacute;n en  parte al enfoque de diversidad empleado. No obstante, estos resultados indican  que la auto-adaptaci&oacute;n, en combinaci&oacute;n con otros enfoques de adaptaci&oacute;n, deriva  en algoritmos m&aacute;s precisos, al menos para los problemas y medida considerados. </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una  alternativa a esta forma de aplicar auto-adaptaci&oacute;n en ambientes din&aacute;micos es,  en lugar de emplear un paradigma auto-adaptativo (como jDE o SspDE), es incluir  alg&uacute;n modelo auto-adaptativo directamente a enfoques espec&iacute;ficos para PDO. Nuestros  trabajos futuros estar&aacute;n enfocados a esta cuesti&oacute;n.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">AGRADECIMIENTOS</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los autores  agradecen a los revisores del art&iacute;culo por sus sugerencias y correcciones, los  cuales contribuyeron en la calidad del mismo.    <br> C. Cruz y D. Pelta agradecen el apoyo del Ministerio  de Econom&iacute;a y Competitividad, Espa&ntilde;a, a trav&eacute;s del proyecto TIN2011-27696-C02-01;  y a la Consejer&iacute;a de Innovaci&oacute;n, Ciencia y Empresa, Junta de Andaluc&iacute;a, a  trav&eacute;s del proyecto P11-TIC-8001 (incluyendo fondos FEDER), y a la Universidad  de Granada a trav&eacute;s del proyecto GENIL-PYR-2014-9.</font></p>     <p>&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">ANEXOS</font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">A. Resultados de los algoritmos en instancias de problema  con funciones pico multimodales. La tabla muestra el promedio del error de la  mejor soluci&oacute;n antes del cambio &plusmn; error est&aacute;ndar.(ver <a href="/img/revistas/rcci/v8n4/t0505414.jpg" target="_blank">tabla 5</a>)</font></p>     <p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif"> B. Resultados de los algoritmos en instancias de problema  con funciones pico multimodales. La tabla muestra el promedio del error de la  mejor soluci&oacute;n antes del cambio &plusmn; error est&aacute;ndar.</font><font face="Verdana, Arial, Helvetica, sans-serif">(<font size="2">ver</font> <a href="/img/revistas/rcci/v8n4/t0605414.jpg" target="_blank"><font size="2">tabla 6</font></a>)</font></p>     <p>&nbsp;</p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">ANGIRA  R.; SANTOSH, A. Optimization of dynamic systems: a trigonometric differential  evolution approach. Comput. Chem. Eng., 2007, 31:1055-1063.    </font>  </p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BEYER, H.-G.; DEB, K. On  self-adaptive features in real-parameter evolutionary algorithms. IEEE  Transactions on Evolutionary Computation, 2001, 5(3): p. 250-270.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BLACKWELL, T., BRANKE, J.  Multiswarms, exclusion, and anti-convergence in dynamic environments. IEEE  Transactions on Evolutionary Computation, 2006, 10(4): p. 459-472.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BRANKE, J. Memory enhanced  evolutionary algorithms for changing optimization problems. Proceedings of the  Congress on Evolutionary Computation, volume 3, pages 1875-1882, Mayower Hotel,  Washington D.C., USA, IEEE Press , 1999,     6-9.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BREST, J.; GREINER, S.; BOSKOVIC,  M.; MERNIK, B.; ZUMER, V. Self-adapting control parameters in differential  evolution: a comparative study on numerical benchmark problems. IEEE  Transactions on Evolutionary Computation, 2006, 10(6): p. 646-657.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">BREST J, ZAMUDA A, BOSKOVIC B,  MAUCEC M.S, ZUMER V Dynamic optimization using self-adaptive differential  evolution. Proceedings of the Eleventh conference on Congress on Evolutionary  Computation, CEC&rsquo;2009, IEEE Press, Piscataway, NJ, USA, 2009, p. 415-422.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">CRUZ, C.; GONZ&Aacute;LEZ, J. R.; PELTA,  D. Optimization in dynamic environments: a survey on problems, methods and  measures. Soft Computing, 2011, 15(7): p. 1427-1448.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DAS, S.; SUGANTHAN, P. N.  Differential evolution a survey of the state-of-the-art. IEEE Transactions on  Evolutionary Computation, 2011, 15(1): p. 4-31.    </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">EIBEN, A.; MICHALEWICZ, Z.;  SCHOENAUER, M.; SMITH, J. Parameter control in evolutionary algorithms.  Parameter Setting in Evolutionary Algorithms, volume 54 of Studies in  Computational Intelligence, 2007, p. 19-46. Springer Berlin / Heidelberg.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">FOGEL, D.B. An analysis of  evolutionary programming. First Annual Conference on Evolutionary Programming,  1992, p 43-51.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">GARCIA, S.; MOLINA, D.; LOZANO, M.;  HERRERA, F. A study on the use of non-parametric tests for analyzing the  evolutionary algorithms behaviour: a case study on the cec2005 special session  on real parameter optimization. J Heuristics, 2009, 15: p. 617-644.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">LI, C.; YANG, S.; NGUYEN, T. T.;  YU, E. L.; YAO, X.; JIN, Y.; BEYER, H.-G. &amp; SUGANTHAN, P. N. Benchmark  Generator for CEC&rsquo;2009 Competition on Dynamic Optimization. Department of  Computer Science, University of Leicester, U.K., 2008.</font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MELI&Aacute;N, B.; MORENO P&Eacute;REZ, J.;  MORENO VEGA, J. Metaheur&iacute;sticas: Una visi&oacute;n global. Revista Iberoamericana de  Inteligencia Artificial, 2003, 19: p. 7-28.    </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MENDES, R.; MOHAIS, A. S. DynDE: A  differential evolution for dynamic optimization problems. Proceedings of the  IEEE Congress on Evolutionary Computation, 2005, 2, p. 2808-2815.</font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NERI, F.; TIRRONEN, V. Recent  advances in differential evolution: a survey and experimental analysis.  Artificial Intelligence Review, 2010, 33: p. 61-106.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NGUYEN, T. T.; YANG, S.; BRANKE, J.  Evolutionary dynamic optimization: A survey of the state of the art. Swarm and  Evolutionary Computation 2012, 6: p. 1-24.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NOVOA-HERN&Aacute;NDEZ, P.; CRUZ CORONA,  C.; PELTA, D. A. Self-adaptive, multipopulation differential evolution in  dynamic environments. Soft Computing, 2013, 17(10): p. 1861-1881.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">NOVOA-HERN&Aacute;NDEZ, P.; CRUZ CORONA,  C.; PELTA, D. Efficient multi-swarm PSO algorithms for dynamic environments.  Memetic Computing, Springer Berlin / Heidelberg, 2011, 3(3): p. 163-174.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PAN, Q.-K.; SUGANTHAN, P.; WANG,  L.; GAO, L.; MALLIPEDDI, R. A differential evolution algorithm with  self-adapting strategy and control parameters. Computers &amp; Operations  Research, 2011, 38: p. 394-408.    </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">QIN, A.; SUGANTHAN, P. Self-adaptive  differential evolution algorithm for numerical optimization. IEEE Congress on  evolutionary computation, CEC2005, 2005, p. 1785-1791.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SALMAN, A.; ENGELBRECHT, A.; OMRAN,  M. Empirical analysis of self-adaptive differential evolution. European Journal  of Operational Research, 2007, 183(2):785-804.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SCHWEFEL, H.-P. Numerical  Optimization of Computer Models John Wiley, Chichester, UK, 1981.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">SMITH, J. Self-adaptation in  evolutionary algorithms for combinatorial optimisation. Studies in  Computational Intelligence, 2008, 136: p. 31-57.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">STORN, R.; PRICE, K. Differential  evolution-a simple and efficient heuristic for global optimization over  continuous spaces. Journal of Global Optimization, 1997, 11:34-359.    </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">TALBI, E.-G. Metaheuristics: from  design to implementation. John Wiley and Sons, 2009, 593 p.    </font></p>     <!-- ref --><p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">TEO, J. Exploring dynamic  self-adaptive populations in differential evolution. Soft Computing, 2006,  10(8):673-686.    </font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 19/03/2014          <br> Aceptado: 5/06/2014 </font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[ANGIRA]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[SANTOSH]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Optimization of dynamic systems: a trigonometric differential evolution approach]]></article-title>
<source><![CDATA[]]></source>
<year>2007</year>
<volume>31</volume>
<page-range>1055-1063</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BEYER]]></surname>
<given-names><![CDATA[H.-G]]></given-names>
</name>
<name>
<surname><![CDATA[DEB]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[On self-adaptive features in real-parameter evolutionary algorithms.]]></article-title>
<source><![CDATA[]]></source>
<year>2001</year>
<volume>5</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>250-270</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BLACKWELL]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
<name>
<surname><![CDATA[BRANKE]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Multiswarms, exclusion, and anti-convergence in dynamic environments.]]></article-title>
<source><![CDATA[]]></source>
<year>2006</year>
<volume>10</volume>
<numero>4</numero>
<issue>4</issue>
<page-range>459-472</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BRANKE]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Memory enhanced evolutionary algorithms for changing optimization problems.]]></article-title>
<source><![CDATA[]]></source>
<year>1999</year>
<volume>3</volume>
<page-range>1875-1882</page-range><publisher-loc><![CDATA[^eWashington D.C Washington D.C]]></publisher-loc>
<publisher-name><![CDATA[IEEE Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BREST]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[GREINER]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[BOSKOVIC]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[MERNIK]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[ZUMER]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Self-adapting control parameters in differential evolution: a comparative study on numerical benchmark problems.]]></article-title>
<source><![CDATA[]]></source>
<year>2006</year>
<volume>10</volume>
<numero>6</numero>
<issue>6</issue>
<page-range>646-657</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[BREST]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[ZAMUDA]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[BOSKOVIC]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[MAUCEC]]></surname>
<given-names><![CDATA[M.S]]></given-names>
</name>
<name>
<surname><![CDATA[ZUMER]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<source><![CDATA[Dynamic optimization using self-adaptive differential evolution. Proceedings of the Eleventh conference on Congress on Evolutionary Computation]]></source>
<year>2009</year>
<page-range>415-422</page-range><publisher-loc><![CDATA[Piscataway^eNJ NJ]]></publisher-loc>
<publisher-name><![CDATA[CEC&#8217;2009, IEEE Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[CRUZ]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[GONZÁLEZ]]></surname>
<given-names><![CDATA[J. R]]></given-names>
</name>
<name>
<surname><![CDATA[PELTA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Optimization in dynamic environments: a survey on problems, methods and measures.]]></article-title>
<source><![CDATA[]]></source>
<year>2011</year>
<volume>15</volume>
<numero>7</numero>
<issue>7</issue>
<page-range>1427-1448</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DAS]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[SUGANTHAN]]></surname>
<given-names><![CDATA[P. N]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Differential evolution a survey of the state-of-the-art.]]></article-title>
<source><![CDATA[]]></source>
<year>2011</year>
<volume>15</volume>
<numero>1</numero>
<issue>1</issue>
<page-range>4-31</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[EIBEN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[MICHALEWICZ]]></surname>
<given-names><![CDATA[Z]]></given-names>
</name>
<name>
<surname><![CDATA[SCHOENAUER]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[SMITH]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Parameter control in evolutionary algorithms.]]></article-title>
<source><![CDATA[]]></source>
<year>2007</year>
<volume>54</volume>
<page-range>19-46</page-range><publisher-loc><![CDATA[^eHeidelberg Heidelberg]]></publisher-loc>
<publisher-name><![CDATA[Springer Berlin]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[FOGEL]]></surname>
<given-names><![CDATA[D.B]]></given-names>
</name>
</person-group>
<source><![CDATA[An analysis of evolutionary programming]]></source>
<year>1992</year>
<page-range>43-51</page-range><publisher-name><![CDATA[First Annual Conference on Evolutionary Programming]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[GARCIA]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[MOLINA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[LOZANO]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A study on the use of non-parametric tests for analyzing the evolutionary algorithms behaviour: a case study on the cec2005 special session on real parameter optimization.]]></article-title>
<source><![CDATA[]]></source>
<year>2009</year>
<volume>15</volume>
<page-range>617-644</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LI]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[YANG]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[NGUYEN]]></surname>
<given-names><![CDATA[T. T]]></given-names>
</name>
<name>
<surname><![CDATA[YU]]></surname>
<given-names><![CDATA[E. L]]></given-names>
</name>
<name>
<surname><![CDATA[YAO]]></surname>
<given-names><![CDATA[X]]></given-names>
</name>
<name>
<surname><![CDATA[JIN]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[BEYER]]></surname>
<given-names><![CDATA[H.-G]]></given-names>
</name>
<name>
<surname><![CDATA[SUGANTHAN]]></surname>
<given-names><![CDATA[P. N]]></given-names>
</name>
</person-group>
<source><![CDATA[Benchmark Generator for CEC&#8217;2009 Competition on Dynamic Optimization.]]></source>
<year>2008</year>
<publisher-loc><![CDATA[^eU.K U.K]]></publisher-loc>
<publisher-name><![CDATA[Department of Computer Science, University of Leicester]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MELIÁN]]></surname>
<given-names><![CDATA[B]]></given-names>
</name>
<name>
<surname><![CDATA[MORENO PÉREZ]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[MORENO VEGA]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Metaheurísticas: Una visión global]]></article-title>
<source><![CDATA[]]></source>
<year>2003</year>
<volume>19</volume>
<page-range>7-28</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MENDES]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[MOHAIS]]></surname>
<given-names><![CDATA[A. S]]></given-names>
</name>
</person-group>
<source><![CDATA[DynDE: A differential evolution for dynamic optimization problems]]></source>
<year>2005</year>
<page-range>2808-2815</page-range><publisher-name><![CDATA[Proceedings of the IEEE Congress on Evolutionary Computation]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NERI]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
<name>
<surname><![CDATA[TIRRONEN]]></surname>
<given-names><![CDATA[V]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Recent advances in differential evolution: a survey and experimental analysis.]]></article-title>
<source><![CDATA[]]></source>
<year>2010</year>
<volume>33</volume>
<page-range>61-106</page-range></nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NGUYEN]]></surname>
<given-names><![CDATA[T. T]]></given-names>
</name>
<name>
<surname><![CDATA[YANG]]></surname>
<given-names><![CDATA[S]]></given-names>
</name>
<name>
<surname><![CDATA[BRANKE]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Evolutionary dynamic optimization: A survey of the state of the art.]]></article-title>
<source><![CDATA[]]></source>
<year>2012</year>
<volume>6</volume>
<page-range>-24</page-range></nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NOVOA-HERNÁNDEZ]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[CRUZ CORONA]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[PELTA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A Self-adaptive, multipopulation differential evolution in dynamic environments.]]></article-title>
<source><![CDATA[]]></source>
<year>2013</year>
<volume>17</volume>
<numero>10</numero>
<issue>10</issue>
<page-range>1861-1881</page-range></nlm-citation>
</ref>
<ref id="B18">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[NOVOA-HERNÁNDEZ]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[CRUZ CORONA]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[PELTA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Efficient multi-swarm PSO algorithms for dynamic environments.]]></article-title>
<source><![CDATA[]]></source>
<year>2011</year>
<volume>3</volume>
<numero>3</numero>
<issue>3</issue>
<page-range>163-174</page-range><publisher-loc><![CDATA[^eHeidelberg Heidelberg]]></publisher-loc>
<publisher-name><![CDATA[Springer Berlin]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B19">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PAN]]></surname>
<given-names><![CDATA[Q.-K]]></given-names>
</name>
<name>
<surname><![CDATA[SUGANTHAN]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
<name>
<surname><![CDATA[WANG]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[GAO]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[MALLIPEDDI]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[A differential evolution algorithm with self-adapting strategy and control parameters.]]></article-title>
<source><![CDATA[]]></source>
<year>2011</year>
<volume>38</volume>
<page-range>394-408</page-range></nlm-citation>
</ref>
<ref id="B20">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[QIN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[SUGANTHAN]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Self-adaptive differential evolution algorithm for numerical optimization.]]></source>
<year>2005</year>
<page-range>1785-1791</page-range><publisher-name><![CDATA[IEEE Congress on evolutionary computation, CEC2005]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B21">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SALMAN]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[ENGELBRECHT]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[OMRAN]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Empirical analysis of self-adaptive differential evolution.]]></article-title>
<source><![CDATA[]]></source>
<year>2007</year>
<volume>183</volume>
<numero>2</numero>
<issue>2</issue>
<page-range>785-804</page-range></nlm-citation>
</ref>
<ref id="B22">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SCHWEFEL]]></surname>
<given-names><![CDATA[H.-P]]></given-names>
</name>
</person-group>
<source><![CDATA[Numerical Optimization of Computer Models John Wiley]]></source>
<year>1981</year>
<publisher-loc><![CDATA[^eUK UK]]></publisher-loc>
<publisher-name><![CDATA[Chichester]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B23">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[SMITH]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Self-adaptation in evolutionary algorithms for combinatorial optimisation.]]></article-title>
<source><![CDATA[]]></source>
<year>2008</year>
<volume>136</volume>
<page-range>31-57</page-range></nlm-citation>
</ref>
<ref id="B24">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[STORN]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[PRICE]]></surname>
<given-names><![CDATA[K]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Differential evolution-a simple and efficient heuristic for global optimization over continuous spaces.]]></article-title>
<source><![CDATA[]]></source>
<year>1997</year>
<volume>11</volume>
<page-range>34-359</page-range></nlm-citation>
</ref>
<ref id="B25">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TALBI]]></surname>
<given-names><![CDATA[E.-G]]></given-names>
</name>
</person-group>
<source><![CDATA[Metaheuristics: from design to implementation]]></source>
<year>2009</year>
<page-range>593</page-range><publisher-name><![CDATA[John Wiley and Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B26">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[TEO]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Exploring dynamic self-adaptive populations in differential evolution.]]></article-title>
<source><![CDATA[]]></source>
<year>2006</year>
<volume>10</volume>
<numero>8</numero>
<issue>8</issue>
<page-range>673-686</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
