Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920160003&lang=es vol. 10 num. 3 lang. es <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<strong>Análisis de vulnerabilidad en sistemas eléctricos de potencia usando la metaheurística GRASP</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300001&lng=es&nrm=iso&tlng=es RESUMEN Este artículo presenta un modelo para análisis de vulnerabilidad en sistemas de potencia usando una técnica de optimización metaheurística. En su versión tradicional, el problema de vulnerabilidad es abordado usando un modelo lineal de la red y considerando solamente el ataque a líneas o transformadores. El modelo propuesto en este artículo no solo considera el ataque a líneas y transformadores, sino también a generadores. Adicionalmente, utiliza un modelo no lineal de la red, lo que permite obtener soluciones más aproximadas a la realidad. El modelo es resuelto mediante la metaheurística GRASP (Procedimiento de Búsqueda Aleatoria Adaptativa Golosa). La solución del modelo permite identificar un conjunto de contingencias que hacen el sistema de potencia más vulnerable. Esta información ayuda al operador de la red a tomar acciones para proteger su sistema y disminuir el riesgo.<hr/>ABSTRACT This paper presents a power system vulnerability analysis model using a metaheuristic optimization approach. In its traditional version, the vulnerability problem is approached using a lineal model of the network and considering only the attack of lines or transformers. The proposed model in this paper considers not only the attack of lines or transformers but also the one of generators. Furthermore, a nonlinear model of the network is considered, allowing more approximate solutions to reality. The proposed model is solved by the GRASP (Greedy Randomized Adaptive Search Procedures) metaheuristic technique. The solution of the model allows identifying a set of contingencies that make the power system more vulnerable. This information helps the power system operator to take protective actions on the system and reduce risk. <![CDATA[<strong>Implementación del Algoritmo de Otsu sobre FPGA</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300002&lng=es&nrm=iso&tlng=es RESUMEN En este trabajo se describe la implementación de un sistema que se emplea para la detección del umbral óptimo en imágenes en escala de grises con un tamaño de 256x256 píxeles siguiendo el algoritmo propuesto por Otsu. El sistema que se propone se basa en una implementación híbrida hardware-software, donde el módulo principal de la parte hardware es precisamente la arquitectura propuesta que se corresponde con el algoritmo de Otsu. Una de las ventajas de este diseño es que se evita el empleo de divisores y casi la totalidad de multiplicadores. En el diseño se utiliza una placa Nexys2 de Digilent que contiene un FPGA XCS500E de Xilinx. Los resultados obtenidos son satisfactorios en cuanto a exactitud y cantidad de recursos internos del FPGA ocupados.<hr/>ABSTRACT In this paper, the implementation of a system used for detecting the optimal threshold in grayscale 256x256 images based on the Otsu's algorithm is described. The proposed system is based on a hybrid hardware-software implementation, where the main module of the hardware part is precisely the proposed architecture that corresponds with the Otsu's algorithm. One advantage of this implementation is that the use of dividers and almost all the multipliers are avoided. For the implementation a Digilent Nexys2 Board that containing a FPGA Xilinx XCS500E is used. The results are satisfactory in terms of accuracy and number of internal FPGA resources occupied. <![CDATA[<strong>Algoritmo paralelo en memoria compartida para el cálculo de la pendiente del terreno usando OpenMP</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300003&lng=es&nrm=iso&tlng=es RESUMEN Los Modelos Digitales de Elevación son la base para el cálculo de varios parámetros de caracterización de la topografía del terreno, tales como la pendiente. El cálculo de estos parámetros es importante para los Sistemas de Información Geográfica, debido a que sus aplicaciones tienen impacto directo en la toma de decisiones a la hora de evaluar las características del terreno en situaciones de emergencia, por ejemplo: posibles inundaciones y deslizamientos de tierra en las laderas montañosas. La mayoría de los algoritmos utilizados para su cálculo son complejos desde un punto de vista computacional y dependen del tamaño y la resolución de los MDE. Uno de los principales retos en este sentido consiste en el diseño e implementación de algoritmos paralelos que utilicen todo el potencial de procesamiento de las computadoras modernas con el fin de reducir el tiempo de cálculo. La principal contribución de este trabajo es la propuesta de un algoritmo paralelo de memoria compartida que utiliza las capacidades de computación de los procesadores multinúcleos. La propuesta se llevó a cabo utilizando la interfaz de programación de aplicaciones OpenMP. Los experimentos llevados a cabo muestran un buen rendimiento general.<hr/>ABSTRACT The Digital Elevation Models are the basis to calculate several terrain parameters to characterize topography, such as the slope. The calculation of this parameters is important for the Geographic Information Systems, because their applications have direct impact on decision making when it comes to assess the terrain characteristics in emergency situations, for example: possible floods and landslides in mountainous slopes. Most of the algorithms used are complex from a computational point of view and depend on the size and resolution of the DEMs. One of the main challenges in this regard involves the design and implementation of parallel algorithms that use the full potential of modern computer processing in order to reduce the computation time. The main contribution of this paper is the proposal of a shared memory parallel algorithm that uses computing capabilities of multicore processors. The proposal was implemented using the Application Programming Interface OpenMP. The experiments carried out show a good overall performance. <![CDATA[<strong>Una implementación de la meta-heurística “Optimización en Mallas Variables” en la arquitectura CUDA</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300004&lng=es&nrm=iso&tlng=es RESUMEN En el campo de la optimización, tanto académico como industrial los problemas que se presentan a diario son a menudo complicados y NP-difícil. La solución computacional de los mismos no puede llevarse a cabo de una manera exacta en un plazo de tiempo razonable, y el uso de recursos de hardware de cómputo para esta solución aumenta considerablemente. Para lidiar con tal asunto, el diseño de los métodos de solución debe estar basado en el uso conjunto de los enfoques avanzados de la optimización combinatoria y los métodos de paralelismo a gran escala. En las últimas décadas, en la rama de la Inteligencia Artificial las meta-heurísticas basadas en poblaciones representan una poderosa herramienta para la solución de problemas complejos. El objetivo de este trabajo es exponer los resultados obtenidos a partir de la aplicación de técnicas paralelas utilizando la arquitectura CUDA a la meta-heurística “Optimización en Mallas Variables”, con el propósito de lograr una mejora en el costo temporal. Las etapas más costosas del algoritmo en el proceso de expansión y contracción de la malla para la obtención de la nueva población inicial son implementadas en paralelo. Los resultados obtenidos fueron validados utilizando una versión secuencial de la meta-heurística. Los tiempos de ejecución de ambos algoritmos se comparan, mostrándose mejoras sustanciales en la versión paralela con el uso de CUDA.<hr/>ABSTRACT In the field of optimization, both academic and industrial problems that occur daily are often complicated and NP-hard. The computational solution thereof can’t be performed in an accurate manner within a reasonable time, and use of computer hardware resources for this solution increases significantly. To address this issue, the design of the solution should be based on the joint use of advanced combinatorial optimization approaches and methods of large-scale parallelismIn recent decades, in the field of artificial intelligence, population based meta-heuristics represent a powerful tool for solving complex problems. The objective of this work is to expose the results obtained from the application of parallel techniques using the CUDA architecture to the meta-heuristic "Variable Mesh Optimization", with the purpose of achieving an improvement in the temporary cost. The most expensive steps of the algorithm in the process of expansion and contraction of the mesh to obtain a new initial population are implemented in parallel. The results were validated using a sequential version of the meta-heuristics. The runtimes of both algorithms are compared, showing substantial improvements in the parallel version using CUDA. <![CDATA[<strong>Algoritmo paralelo para la interpolación espacial de Krigeado Ordinario</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300005&lng=es&nrm=iso&tlng=es RESUMEN Los métodos de interpolación espacial proporcionan herramientas para la estimación de valores en localizaciones no muestreadas utilizando las observaciones cercanas. La interpolación de Krigeado Ordinario es uno de los métodos geoestadísticos más frecuentemente usados para la realización de análisis espaciales. Su objetivo consiste en encontrar el Mejor Estimador Lineal Insesgado a partir de los datos disponibles, los cuales generalmente son insuficientes debido al costo de su obtención. Se caracteriza por costosas operaciones de álgebra lineal que repercuten en altos tiempos de ejecución, así como una complejidad temporal de O (MN3). La reducción del tiempo de ejecución de aplicaciones de interpolación espacial puede ser un objetivo de alta prioridad, por ejemplo, en sistemas que soportan la toma de decisiones rápidas. Diversas estrategias han sido aplicadas para reducir los altos tiempos de ejecución de los métodos de interpolación de Krigeado. Las técnicas de programación paralela y distribuida han demostrado ser una alternativa viable para la solución rápida de este tipo de problemas computacionales. Con el objetivo de disminuir los tiempos asociados a la interpolación espacial de Krigeado Ordinario, se propuso un algoritmo paralelo basado en el uso de técnicas de programación en memoria compartida proporcionadas por OpenMP 4.8.2. Este algoritmo fue implementado usando C++11 como lenguaje de programación y Atlas CLapack como biblioteca de álgebra lineal optimizada para los cálculos matriciales. El algoritmo propuesto permite una mayor rapidez en la interpolación espacial de Krigeado Ordinario, logrando un mejor aprovechamiento de los recursos de cómputo instalados.<hr/>ABSTRACT The spatial interpolation methods provide tools for estimating values at unsampled locations using nearby observations. Ordinary Kriging interpolation is one of the most frequently used geostatistical methods for performing spatial analysis. Your goal is to find the Best Linear Unbiased Estimator based on the available data, which are generally insufficient because of the cost of obtaining it. It is characterized by linear algebra expensive operations affecting high execution times and a time complexity of O (MN3). Reducing runtime applications spatial interpolation can be a high priority target, for example, in systems that support rapid decision-making. Various strategies have been applied to reduce high runtimes of Kriging interpolation methods. The techniques of parallel and distributed programming have proven to be a viable alternative for the rapid solution of this type of computational problems. In order to reduce the time associated with spatial interpolation of Ordinary Kriging, was proposed a parallel algorithm based on the use of shared memory programming techniques provided by OpenMP 4.8.2. This algorithm was implemented using C++11 as a programming language and Atlas CLapack as linear algebra library optimized for matrix calculations. The proposed algorithm allows a faster spatial interpolation of Ordinary Kriging, achieving a better utilization of computing resources installed. <![CDATA[<strong>A-PIT</strong>: <strong>Estructura de Subdivisión Espacial Aceleración de Raytracing en GPU</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300006&lng=es&nrm=iso&tlng=es RESUMEN El amplio número de aplicaciones que tiene hoy en día la síntesis digital de imágenes realistas ha estimulado el desarrollo de los medios de cómputo y técnicas algorítmicas empleadas con este fin. El algoritmo raytracing ha sido ampliamente usado en este sentido, fundamentalmente cuando se requiere representar correctamente determinados fenómenos físicos que produce la interacción de la luz con la materia. Su simplicidad y elegancia, permiten simular efectos ópticos como la reflexión, refracción y sombras. La detección del primer objeto intersectado por un rayo, proceso que constituye la base de dicho algoritmo, es computacionalmente costosa y puede consumir fácilmente el 95% del tiempo de renderizado. Producto de esto se han diseñado diversas estructuras de datos que reducen la cantidad de operaciones realizadas en esta tarea. En este trabajo se propone una nueva estructura de datos, denominada A-PIT, diseñada para acelerar las consultas de intersección de rayos en la implementación del algoritmo raytracing en GPU. Se muestra que la utilización de esta estructura de datos en una implementación acumulativa del algoritmo raytracing permite renderizar interactivamente escenas de complejidad media.<hr/>ABSTRACT The digital image synthesis has a broad range of applications, which have stimulated research in hardware and algorithms to this end. The raytracing algorithm has been widely used for this purpose, especially to simulate certain physical phenomena that arise in the interaction between light and matter. Its simplicity and elegance enable the simulation of optical effects such as reflection, refraction and shadows. Detecting the first object that intersects a ray, which is the basis of this algorithm, is a computationally complex operation that can easily consume 95% of rendering time. Hence, several data structures have been designed to reduce the complexity of this operation. This paper proposes a new data structure, the A-PIT, designed to accelerate the ray intersection operation in a GPU implementation of raytracing. We show that using this data structure in an accumulative version of raytracing enables the interactive rendering of scenes of medium complexity. <![CDATA[<strong>MPREDSTOCK</strong>: <strong>Modelo multivariado de predicción del </strong><em><b>stock</b></em><strong> de piezas de repuesto para equipos médicos</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300007&lng=es&nrm=iso&tlng=es RESUMEN La demanda del stock de piezas de repuesto es una de las mayores fuentes de incertidumbre y la selección del mejor método de predicción para cada referencia es un problema complejo. Los métodos a utilizar en su pronóstico se seleccionan de acuerdo a la cantidad de datos y los diferentes patrones de comportamiento. En la última década el desarrollo de modelos matemáticos para el pronóstico de la demanda de piezas de repuesto ha dado proyección a un sin número de aplicaciones en diversas esferas de la sociedad, con la utilización de técnicas de análisis de series de temporales, métodos causales de regresión y técnicas de Soft-Computing. Sin embargo, se ha observado la carencia de aplicaciones prácticas para el pronóstico del stock de piezas de repuesto de equipos médicos, en relación con las proposiciones teóricas relevantes desarrolladas en esta área de aplicación. Además, las soluciones existentes no siempre logran mejorar la exactitud de los pronósticos, debido a la preferencia por la utilización de métodos de alta complejidad. En la presente investigación se propone el modelo MPREDSTOCK para el proceso de predicción del stock de piezas de repuesto para equipos médicos mediante la Regresión Lineal Múltiple como método de solución. El modelo incluye algoritmos que permiten la predicción del stock de piezas y disponibilidad técnica de un equipo médico, el cálculo de su confiabilidad operacional y la frecuencia de fallas de una de sus piezas y forma parte del “Módulo Predicción y gestión de stock” del SIGICEM.<hr/>ABSTRACT The demand for the stock of spare parts is one of the largest sources of uncertainty and selecting the best prediction method for each reference is a complex task. The methods to use in the prognosis are selected according to the amount of data and the different behavior patterns. In the last decade, the development of mathematical models for predicting the demand for spare parts has opened a path for several applications in different areas of society, using techniques for analyzing series of temporal, causal regression methods and Soft-Computing techniques. However, it has been observed a lack of practical applications for making a prognosis of the stock of spare parts for medical equipment, in relation to the relevant theoretical proposals developed in this application area. In addition, existing solutions do not always manage to improve the accuracy of the prognosis, due to the preference for the use of highly complex methods. In this research paper, the MPREDSTOCK model is proposed. It is responsible for the process of predicting the stock of spare parts for medical equipment through the multiple linear regressions as the method of solution. The model includes algorithms for predicting the stock of parts and technical availability of a piece of medical equipment, the calculation of operational reliability and failure frequency of one of its devices and it is part of the " Prediction and stock management Module " belonging to the SIGICEM. <![CDATA[<strong>Algoritmo para corregir anomalías a nivel de instancia en grandes volúmenes de datos utilizando </strong><em><b>MapReduce</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300008&lng=es&nrm=iso&tlng=es RESUMEN Los problemas de calidad de datos a nivel de instancia tienen un impacto directo en la toma de decisiones de las organizaciones y afectan su desempeño. A medida que crece desmedidamente la información es mayor la probabilidad de que se encuentren dichos problemas en los datos. En este trabajo se presenta un algoritmo para corregir anomalías a nivel de instancia en fuentes de datos big data con formato estructurado o semi-estructurado. Como método de agrupamiento se utiliza el algoritmo K-means, para calcular la distancia de edición entre las cadenas se aplica la modificación de Levenshtein y para manejar el volumen de los datos se utiliza el modelo de programación distribuida MapReduce. Además, con el fin de mejorar la calidad de los datos se propusieron las siguientes cuatro fases: identificación del tipo de fuente de datos, el formato de los datos y el problema a corregir; pre-procesamiento de los datos; agrupamiento de los datos y limpieza de los datos.<hr/>ABSTRACT Data quality problems at instance level have a direct impact on decision making of organizations and affect their performance. As information grows unreasonably it is greater the probability that such problems occur in data. This paper presents an algorithm to correct instance level anomalies in big data sources with semi-structured or structured format. As a clustering method, K-means algorithm was used. To calculate the edit distance between strings the modification of Levenshtein was applied, and to handle the volume of the data, MapReduce model for distributed programming was used. Besides, in order to improve data quality, the following four phases were proposed: identification of the data source type, data format and the problem to be solved; pre-processing of the input data; data clustering and data cleansing. <![CDATA[<strong>Evaluación del algoritmo KNN-SP para problemas de predicción con salidas compuestas</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300009&lng=es&nrm=iso&tlng=es RESUMEN El presente trabajo pretende desarrollar una evaluación estadística del algoritmo KNN para problemas de predicción con salidas compuestas. Se utiliza el procedimiento de validación cruzada para ajustar el parámetro y la variante de peso inverso generando 4 variantes del KNN para predicción con salidas compuestas. El estudio de los métodos estadísticos para la comparación de múltiples clasificadores permitió identificar la prueba no paramétrica de Friedman como una de las más empleadas en la experimentación de algoritmos de aprendizaje automático. Se utilizaron 12 bases de datos estándares y la métrica aRRMSE para la evaluación experimental de los resultados. La aplicación de las pruebas de Friedman y el post-hoc de Nemenyi mostraron que el procedimiento de validación cruzada aplicados en las variantes IBKMTRCV y IBKMTRCVW es significativamente mejor que las variantes que no utilizan dicho procedimiento. Al utilizar los valores de los ranking promedios de la prueba de Friedman ubican a la variante IBKMTRCVW como la que mejores resultados arroja.<hr/>ABSTRACT This paper aims to develop a statistical evaluation of KNN algorithm for multi-target prediction problems. The cross-validation procedure is used to set the parameter and inverse distance as weigth to generate 4 variants of KNN for muti-target prediction. The study of statistical methods for comparison of multiple classifiers identified the non-parametric Friedman test as one of the most used in the testing of machine learning algorithms. In the experimental results, it employ 12 standards dataset and the metric aRRMSE. With application of the Nemenyi post-hoc and Friedman tests showed that cross-validation procedure applied in IBKMTRCV and IBKMTRCVW is significantly better than the variants that do not use this procedure. The values of the average ranking of the Friedman test, show that IBKMTRCVW algorithm returns the best results. <![CDATA[<strong>Análisis de la Escalabilidad del cálculo paralelo de medidas de similitud entre pares de genes</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300010&lng=es&nrm=iso&tlng=es RESUMEN El presente trabajo analiza la escalabilidad de una implementación paralela del cálculo de medidas de similitud entre pares en la detección de genes ortólogos. El análisis se realiza mediante el uso de métricas de calidad como la aceleración y la eficiencia que se calculan para algoritmos de cálculo del alineamiento par a par de secuencias y de cálculo de la similitud del perfil físico-químico de las proteínas. Los experimentos realizados en un conjunto de datos de dos genomas arrojan una mejora en el tiempo de ejecución de las implementaciones paralelas. No obstante, la escalabilidad de los algoritmos continúa siendo un objetivo de nuevas implementaciones.<hr/>ABSTRACT This paper analyzes the scalability of the parallel implementation of pairwise similarity measures for gene comparison in ortholog gene detection. This analysis is carried out by using metrics such as speedup and efficiency that are calculated for all vs all alignment and physicochemical profile comparisons. The experiments with a dataset of two genomes show an improvement in the execution time of the parallel implementations. However, scalability continues to be a goal for further implementations. <![CDATA[<strong>Herramienta informática para la toma de decisiones de las Reacciones Adversas a Medicamentos en Cuba</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300011&lng=es&nrm=iso&tlng=es RESUMEN Existe un gran volumen de información informatizada en todos los sectores, tanto económicos como sociales, donde se destaca por su vital importancia el sector de la salud. En Cuba se registra un cúmulo elevado de información referente a las Reacciones Adversas a Medicamentos, haciendo uso del Módulo de Reacciones Adversas a Medicamentos del producto, Sistema para el Control Farmacológico. Este sistema le brinda al farmacoepidemiólogo un conjunto de reportes específicos, pero no le permite efectuar consultas especializadas respecto a las reacciones, no pudiendo realizar de esta forma una buena toma de decisiones. Para dar solución al problema planteado se creó un Data Mart, una herramienta pensada para contribuir al proceso de toma de decisiones de las reacciones, haciendo uso de la metodología Hefesto, y la herramienta STPivot, para mostrar la información. Una vez creado el Data Mart, es incorporado al módulo del producto, permitiendo a los farmacoepidemiólogos contar con una sola herramienta, así como realizar análisis de la información haciendo uso de reportes. Estos reportes facilitan una mejor comprensión y análisis de los datos (mediante gráficas y tablas) en el momento de tomar decisiones.<hr/>ABSTRACT There is a large computerized volume of information in all sectors, such as economic and social sectors, and there is an important sector, the Health sector. In Cuba is registered a large volume of information of adverse drugs reactions (ADRs) occurred in the country, using the module adverse drugs reactions (MRAM) of the Pharmacological Control System (Synta). This system gives to the pharmacoepidemiologists a set of specific reports, but it does not allow to them to perform specialized queries in relation to RAM, and they can fail in the process of take good decisions. To give a solution to this problem was defined the creation of a Data Mart (DM), designed to contribute to the process of decision making in a specific area, using the Hefesto methodology and STPivot tool to display information in the system. Once created, the DM, is incorporated into the MRAM of the product Synta, allow to the pharmacoepidemiologists having a single tool, and performing data analysis using reports. These reports facilitate a better understanding and analysis of data (using graphs and tables) for making decisions. <![CDATA[<strong>Selección de Base de Datos No SQL para almacenamiento de Históricos en Sistemas de Supervisión</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300012&lng=es&nrm=iso&tlng=es RESUMEN El almacenamiento y procesamiento de históricos para sistemas de supervisión y control en escenarios industriales muestran problemáticas ante el manejo de grandes volúmenes de datos gestionados con el modelo relacional. La presente investigación tiene como objetivos analizar el estado actual de estos sistemas de supervisión y control, sus ventajas y desventajas, y realizar un estudio del arte para la selección de una base de datos No SQL para el registro de series de tiempo. El desarrollo del trabajo se centró en la comparación de los gestores de almacenamiento Orientados a Columnas que son: HBase, Cassandra y Big Table. Este último fue eliminado de la comparación detallada pues su licencia es propietaria. Luego de diseñar e implementar dos casos de pruebas para comparar el comportamiento de ambos gestores ante los escenarios de Lecturas Intensivas y Lectura/Escritura, se concluyó que ambos poseen excelentes prestaciones para el almacenamiento de históricos. Se sugiere, el análisis y desarrollo de pruebas específicas acorde al dominio de aplicación de estas dos tecnologías.<hr/>ABSTRACT The storage and processing for historical supervisory and control systems in industrial settings to show problems handling large volumes of data managed by the relational model. This research aims to analyze the current state of these supervisory and control systems, their advantages and disadvantages and make an art studio for a lesson is-not sql data base for recording time series. The development work focused on comparing storage managers oriented columns are: Hbase, Cassandra and Big Table. The latter was removed from the detailed comparison because it’s proprietary license. After design and implement two test cases to compare the performance of both managers to the stage and intensive reading / writing reading was concluded that both have excellent facilities for the storage of historical. It is suggested, analysis and development according to specific application domain evidence of these two technologies. <![CDATA[<strong>Proceso de réplica de datos con Microsoft SQL Server para el Replicador de Datos Reko</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000300013&lng=es&nrm=iso&tlng=es RESUMEN El Replicador de Datos Reko pretende cubrir las principales necesidades relacionadas con la distribución de datos entre los gestores de bases de datos más populares como PostgreSQL, MySQL y Oracle, pero no contaba con un mecanismo que resolviera la replicación de datos con Microsoft SQL Server. Cuando se deseaba replicar datos con Microsoft SQL Server haciendo uso del Replicador de Datos Reko se hacía necesaria la utilización de métodos tradicionales de distribución de datos, lo que causaba una gestión de la información lenta y posibles errores en la consistencia de los datos. Con el objetivo de desarrollar un dialecto para el Replicador de Datos Reko que permitiese la replicación de datos con Microsoft SQL Server se utilizaron como métodos científicos de investigación los métodos teóricos: “Análisis Histórico-Lógico” y “Analítico-Sintético”. Además, se aplicó la metodología de desarrollo ágil Open Up que abarca todo el proceso de desarrollo del software con iteraciones pequeñas. El software ha sido diseñado e implementado en su totalidad usando herramientas Open Source y librerías de clases con licencias gratuitas, como: Visual Paradigm, Eclipse STS, Apache ActiveMQ, Apache Tomcat, entre otras. El dialecto de Microsoft SQL Server para Reko facilitará realizar configuraciones de réplica para este gestor, sincronizar, enviar y recibir datos con el gestor de base de datos Microsoft SQL Server y replicar datos desde Microsoft SQL Server hacia otros gestores, por lo que constituirá una solución madura y viable ante las necesidades de los sistemas que utilicen este replicador.<hr/>ABSTRACT Reko Data Replicator intends to cover the principal needs related to data distribution between most popular databases managers as PostgreSQL, MySQL and Oracle, but did not have a mechanism to resolve data replication with Microsoft SQL Server. When you want to replicate data using the database manager Microsoft SQL Server required the use of traditional methods of data distribution, what caused a slow information management and possible errors in the data consistency. With the objective of developing a dialect for Reko Data Replicator that allow data replication with Microsoft SQL Server were used scientific methods of investigation, they were the theoretical methods: "Logical-Historical Analysis" and "Analytic-Synthetic". Also applied the agile development methodology Open Up spanning the entire software development process with small iterations. The software has been designed and implemented entirely using Open Source tools and class libraries with free licenses such as: Visual Paradigm, Eclipse STS, Apache ActiveMQ and Apache Tomcat. The Microsoft SQL Server dialect for Reko facilitate replication configurations for this manager, sync, send and receive data in Microsoft SQL Server manager and replicate data from Microsoft SQL Server to other managers, so it will be a mature and viable solution to the needs of systems using this replicator.