Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920160005&lang=pt vol. 10 num. lang. pt <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<em><b>Automated Process of Anaerobic Biodigestion</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500001&lng=pt&nrm=iso&tlng=pt RESUMEN El objetivo fundamental de esta investigación consistió en la creación de un sistema automatizado que permitirá realizar el seguimiento de las variables fundamentales de un proceso de biodigestión, las cuales son: temperatura, pH y presión; con el propósito de controlar dicho proceso, para la obtención de un gas energéticamente aprovechable para el uso doméstico e industrial. El sistema propuesto está conformado por un programa creado mediante el uso integrado de entornos de programación entre los cuáles podemos mencionar: FlowCode, Proteus y Visual Basic, con el fin de comunicar la aplicación creada con el hardware, el cual está integrado por un controlador de interfaz periférica y una serie de sensores conectados a el mismo, de manera que estos transmitan la información obtenida en tiempo real. Además, la aplicación permite establecer alarmas para cada variable del proceso y visualizarlas en un ordenador. En cuanto a los elementos empleados para la recolección de datos y monitoreo de variables, se consideraron para su selección una serie de características particulares, a fin de que su implementación sea acorde a la naturaleza del proceso que será posteriormente evaluado y controlado obteniendo datos precisos con el mínimo porcentaje de error.<hr/>ABSTRACT The main objective of this research was the creation of an automated system that will track the fundamentals of a bio-digestion process, which are: temperature, pH and pressure; with the purpose of controlling the process for obtaining a usable energy for domestic and industrial use gas. The proposed system consists of a program created by the integrated programming environments use among which include: FLOWCODE, Proteus and Visual Basic, to communicate the application created with the hardware, which is made by a controller peripheral interface and a number of sensors connected to the same, so that these convey the information obtained in real time. In addition, the application allows you to set alarms for each process variable and display them on a computer. As for the elements used for data collection and monitoring variables were considered for selection a number of unique characteristics, so that its implementation is consistent with the nature of the process that will be subsequently evaluated and controlled obtaining accurate data the minimum percentage of error.<hr/>Key words: Automation; Monitoring; Variables; Biodigestión; Gas <![CDATA[<strong>Determination of close packed polytype sequence by computational simulation</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500002&lng=pt&nrm=iso&tlng=pt RESUMEN Se trabaja en la obtención de la secuencia de apilado en estructuras compactas de capas (CPs), a partir de información contenida en el patrón de difracción de rayos x. Este problema solo se había abordado anteriormente de forma analítica, y su solución exacta es intratable para secuencias reales. Con este fin se emplea un algoritmo de búsqueda meta-heurística para problemas de optimización global: simulated annealing. Se tomó como entrada del problema las funciones de correlación de capas, las cuales son extraídas del antes mencionado patrón de difracción en muestras policristalinas. Para reducir la complejidad computacional del problema se tienen en cuenta una serie de aspectos que pasan por áreas como la cristalografía teórica y la computación de alto rendimiento (generación de politipos). Se hace una revisión de magnitudes importantes dentro de este tema, como son, la longitud de correlación y la matriz de correlación. Se han validado los resultados obtenidos mediante secuencias sintéticas generadas en un amplio rango de tipos, y proporción de defectos planares. Se muestran partes de estos resultados, haciendo énfasis en algunos tipos de estructuras compactas de capas ampliamente conocidas como son las: fcc, hcp y dhcp.<hr/>ABSTRACT We aim at producing the close packed polytype sequence (CPs), based on information contained in the x-ray diffraction pattern. This problem has previously been addressed analytically (Estevez and Azanza, 2014), and its solution is intractable for real sequences. We use optimization algorithm based on meta-heuristic procedures, simulated annealing. The probability correlation functions, which can be extracted from the aforementioned diffraction pattern in polycrystalline samples, was taken as input to the problem. To reduce the computational complexity of the problem a number of consideration are taken into account, from areas such as theoretical crystallography and high-performance computing (polytypes generation). Important quantities are reviewed, as, the correlation length and the correlation matrix. We have validated the results obtained using synthetic sequences generated in a wide range of types, and proportion of planar defects. Partial results are shown, with emphasis on some types of close packed structures widely known such as: fcc, hcp and dhcp. <![CDATA[<strong>A fuzzy optimization model for the berth allocation problem</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500003&lng=pt&nrm=iso&tlng=pt RESUMEN El problema de asignación de atraques (BAP) en un terminal marítimo de contenedores se define como la asignación factible de atraques a los barcos entrantes. En este trabajo, desarrollamos un modelo de optimización difusa para el BAP continuo y dinámico. Se asume que el tiempo de llegada de los barcos es impreciso, en el sentido que los barcos pueden adelantarse o retrasarse hasta una tolerancia permitida. Se utilizan conjuntos difusos para representar la imprecisión en la llegada de los barcos. Para la solución del modelo se aplica el método de α - cortes. El modelo propuesto ha sido codificado en CPLEX y evaluado en diferentes instancias. Los resultados obtenidos muestran que el modelo propuesto puede ayudar a los administradores de un terminal marítimo de contenedores, pues tiene a su disposición planes de atraque con diferente grado de adelanto o retraso permitido y optimizados respecto al tiempo de espera.<hr/>ABSTRACT The berth allocation problem (BAP) in a maritime container terminal is defined as a feasible allocation of berths to incoming vessels. In this paper, we developed a fuzzy mathematical programming model for continuous and dynamic BAP. It is assumed that the arriving time of vessels is imprecise, in the sense that the vessels can have an advance or delay but only up to a permitted tolerance. Fuzzy sets are used to represent the imprecision. α - cuts method is applied to the model solution. The proposed model has been codified in CPLEX solver and evaluated in different instances. The obtained results show that the proposed model can help the container terminal managers, since it has available berth plans with different degrees of allowed advance or delay, which are optimized according to the waiting time. <![CDATA[<strong>Revenue Assurance´s Method in Software Development´s Environments</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500004&lng=pt&nrm=iso&tlng=pt RESUMEN En los entornos orientados a proyectos de desarrollo de software ocurren numerosos errores tanto en la planificación como en el control y seguimiento de los mismos que están provocando pérdida de ingresos en las organizaciones. Es un hecho solo aproximadamente el 38% de los proyectos de tecnología de la información son satisfactorios, el resto son renegociados o cancelados. Estas dificultades provocan pérdidas de ingresos en los proyectos y las organizaciones que lo desarrollan. En este trabajo se propone un método para el aseguramiento de ingresos en organizaciones orientadas a proyectos que combina técnicas de la gestión de proyectos con técnicas de minería de datos y soft computing. Entre las técnicas de gestión de proyectos empleadas se encuentran: técnicas de gestión de riesgos, las técnicas asociadas a la planificación de tiempo, planificación de los costos, la gestión del alcance y la gestión de las adquisiciones. Entre las técnicas de minería de datos y soft computing que se combinan se encuentran: las técnicas para la minería de datos anómalos, el aprendizaje automático y la computación con palabras. Se proponen de esta forma un método novedoso para el tratamiento de la incertidumbre de la información y la imprecisión de los datos en los procesos de planificación de proyectos. En la validación de los resultados se emplean técnicas de validación cruzada para la comparación de varios métodos, a partir de su aplicación en bases de datos del repositorio de datos para investigaciones del Laboratorio de Investigaciones en Gestión de Proyectos. Los resultados del trabajo aportaron que el algoritmo CLARA reportó mejores resultados que el KMeans y que el uso de la computación con palabras en la evaluación de los riesgos aporta mayor robustez en la propuesta.<hr/>ABSTRACT In software projects usually many defects and human errors are introduced. Some of these errors have to do with the planning processes whereas others are associated to control and making decisions processes. Frequently revenue assurance processes are affected for these errors. In fact, just 38% of projects are considered successfully whereas the rest are challenged or canceled. In this work, authors proposed a method, for revenue assurance in project management organizations based on combination of project management techniques with data mining and soft computing techniques. Different project management techniques, such as: risk management techniques, scheduling techniques, scope techniques and cost techniques, are combined with computer sciences techniques. In order, to manage imprecision and uncertainty on data, authors proposed the use soft computing techniques such as computing with words and fuzzy machine learning techniques. Authors applied the method in project management data sets published in repository of research of Project Management Laboratory. Authors applied cross-validation techniques by comparing different methods, CLARA algorithm report better results than Kmeans algorithm. <![CDATA[<strong>Three dimensional visualization of geographic information layers from digital elevation models</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500005&lng=pt&nrm=iso&tlng=pt RESUMEN La representación en tres dimensiones de información geográfica georreferenciada es de gran utilidad en diversas áreas de la ciencia. Los modelos digitales de elevación utilizados con este propósito pueden alcanzar elevadas dimensiones, lo que dificulta la visualización directa de los mismos. Otro elemento que favorece la representación realista de la escena es la introducción de fenómenos ópticos en las superficies de agua, como es el caso de la reflexión y refracción de la luz. El principal objetivo del presente trabajo se enmarcó en la visualización realista de modelos digitales de elevación de altas dimensiones incluyendo aquellos con superficies de agua. Con este fin se utilizó el modelo de Mallas Dinámicas Adaptativas por Lotes para la obtención en tiempo real de la geometría en distintos niveles de detalle y la técnica de Mapeo de Textura de Proyección con el objetivo de dotar a las capas de agua de los fenómenos ópticos antes mencionados. Los resultados obtenidos demostraron la efectividad de las técnicas utilizadas, permitiendo la visualización realista de superficies de terreno y de agua a partir de modelos digitales de elevación en el orden de los cientos de millones de puntos.<hr/>ABSTRACT Three dimensional representation of georeferenced geographic information is quite useful in several science fields. The digital elevation models used on that purpose may be large in size, making impossible their direct visualization. Another element favoring the realistic representation of the scene is the insertion of optical phenomena in the water surfaces, e.g. light reflection and refraction. The main goal of the present work is focusing on the realistic visualization of large digital elevation models including the ones with water surfaces. The batched dynamic adaptive meshes model was used to obtain the geometry in different levels of detail and the Projection Texture Mapping technique to supply the water layers with the already mentioned optical properties. Results shown the effectiveness of the employed techniques, allowing the realistic visualization of terrain and water surfaces from large digital elevation models in the order of hundreds of millions of samples. <![CDATA[<strong>Experiences by using genetic algorithms in project scheduling</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500006&lng=pt&nrm=iso&tlng=pt RESUMEN Los procesos de planificación de proyectos se presentan como el problema de organizar un conjunto de actividades respetando sus relaciones de precedencia, asignando, además, recursos humanos y no humanos a las mismas y sin violar su disponibilidad en cada instante de tiempo. Actualmente aproximadamente el 61% de los proyectos de tecnologías de la información son renegociados o cancelados provocando impacto negativo tanto económicos como sociales. Muchos de estos fracasos se deben a deficientes procesos de planificación provocados por la poca alineación a estándares, la insuficiente experiencia y la falta de herramientas que ayuden a generar cronogramas de proyectos óptimos o cuasi óptimos en entornos de múltiples proyectos. En este contexto los procesos de planificación han sido tratados en la literatura científica como problemas de planificación de proyectos con recursos limitados; siendo este un problema de optimización combinatoria de la clase NP-Duro. El objetivo de este trabajo es presentar algunas experiencias para la resolución de este problema aplicando algoritmos genéticos. Se presenta la modelación matemática de este problema de optimización adaptado al escenario de aplicación de organizaciones orientadas a proyectos de desarrollo de software. Se discute el diseño de un algoritmo genético con diferentes variantes de operadores. Finalmente se muestran los resultados de la aplicación de las técnicas propuestas en la biblioteca PSLIB y en un escenario real de aplicación asociado a las bases de datos experimentales generadas a partir de la aplicación de la plataforma para la dirección integrada de proyectos GESPRO.<hr/>ABSTRACT Usually project scheduling is presented as problem to order project tasks keeping the tasks precedence relationship. Besides, in this problem, human and non-human resources should be assign to each tasks without violate the resources availability each time. Nowadays around 61% of software´s projects are challenged o cancelled with high negative impacts both economic and social too. Many of these fails have a commons reasons such as: project scheduling errors, low level of knowledge of standards and not enough tools to help specialist in project scheduling. Different authors present project scheduling problems, as optimization NP-hard problem, with limited resources. In order to solve projects scheduling in software´s projects environments. In this paper authors discuss mathematics formalization of multiple projects optimization problem. They present a genetic algorithm´s design and different crossover and mutation operators. Finally, the genetic algorithm designed, were applied in two project scheduling´s data sets: PSLIB data set and scheduling data set of Project management Laboratory generated form GESPRO system. <![CDATA[<strong>Dynamical visualization tool for the diffusion process of microfluids with biological components</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500007&lng=pt&nrm=iso&tlng=pt RESUMEN Los softwares para la visualización desempeñan un papel protagónico en la actualidad ya que permiten observar paso a paso la evolución de un sistema en estudio. Estas pueden ser estáticas o dinámicas, en el primer caso toda la información necesita ser visible a la vez, lo que puede conducir a algunos problemas incluso si se trabaja con un conjunto pequeño de datos; en el segundo caso se pueden crear diferentes vistas de los mismos datos, las características fundamentales son la animación, la interacción y que la visualización se realiza en tiempo de ejecución. En la simulación de sistemas físicos, en los que se quiere realizar una predicción del comportamiento en correspondencia con ciertos parámetros descriptivos, que además pueden ser variables en el tiempo, se hace necesario que la visualización se realice de una manera dinámica debido a que de esta manera se pueden corregir estos parámetros para lograr un comportamiento lo más cercano al real. Se desarrolló una herramienta de software de visualización para microfluidos con componentes biológicos, con un protocolo de comunicación basado en socket que puede ser integrado a diversos softwares de simulación que hagan consumo de este protocolo.<hr/>ABSTRACT The software for visualization play a leading role today and for observing step by step the evolution of a system under study. These can be static or dynamic, in the first case all the information needs to be visible at a time, which can lead to some problems even if working with a small data set; in the second case you can create different views of the same data, the main features are animated, interaction and visualization are done at runtime. In the simulation of physical systems, in which one wants to make a prediction of behavior corresponding to certain descriptive parameters, which can also be time varying, it is necessary that the display is performed in a dynamic manner because this so you can correct these parameters to achieve a behavior as close to real. A dynamic visualization software tool for microfluidics with biological components was developed, with a communication protocol based on socket that can be integrated into various simulation software to make use of this protocol. <![CDATA[<strong>Learning Experience of Change management in Engineering Education</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500008&lng=pt&nrm=iso&tlng=pt RESUMEN Los ingenieros en informática y computación en su vida profesional tienen que realizar múltiples proyectos de cambio asociados a tecnología, sin embargo, en general no han sido formados para ello y cuando lo han sido usualmente es de una forma teórica o muy centrada en el conocimiento intelectual. Este artículo muestra la experiencia de diseño y realización de un curso de posgrado de gestión del cambio para ingenieros que trabajan en tecnología, computación e informática. Este integra dos modelos. El primero un modelo sistémico de gestión del cambio. El segundo un modelo de formación mediante metodologías experienciales que sitúan al estudiante como protagonista de su proceso de aprendizaje. Esta unión ha generado un curso muy bien evaluado por sus estudiantes y que ha generado resultados concretos en decenas de proyectos de cambio en organizaciones. La gestión del cambio, es una disciplina orientada al liderazgo y la gestión de los procesos de cambio, aumentando su probabilidad de éxito y disminuyendo los costos y los riesgos asociados. Analiza los problemas de gestión críticos, tales como el papel de la coordinación, diseño de procesos y estrategias de implementación. Se presta especial atención a las habilidades blandas, tales como la gestión de las emociones, la comunicación de los objetivos y logros del proyecto y la gestión del poder. Los ingenieros de hoy necesitan habilidades y conocimientos para gestionar y movilizar a los procesos de cambio. Esta disciplina es central para la gestión de proyectos en tecnología, computación e informática.<hr/>ABSTRACT In their professional endeavors, computer Engineers must participate in many projects associated with technological change, even though they have not in general been trained to do so. Their training is theoretical, as well as theoretically and intellectual focused. But today engineers need and new set of skills and knowledge to manage and mobilize change processes. This article shows the experience of designing and conducting a postgraduate course on change management for engineers working in technology, computing and information technology. It integrates two models. The first is a systemic change management model. The second, a training model using experiential methodologies that place students as key players in their learning process. This mix has been the basis of a series of courses, which students positively appreciate, as well as in a series of change projects in organizations with positive and measurable results. Change management is a discipline that focuses in the leadership and management of change processes, increasing their chances of success and reducing costs and risks. It analyzes critical issues such as the role of coordination, process design and implementation strategies management. Particular attention is given to soft skills such emotion management, power management, and communication of project goals and achievements. Change management has thus become a central discipline to project management technology, computing and information technology. <![CDATA[<strong>Fuzzy economic criteria for software projects feasibility analysis, in environments of uncertainty</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500009&lng=pt&nrm=iso&tlng=pt RESUMEN El análisis de factibilidad de proyectos constituye un proceso indispensable para las entidades desarrolladoras de software que resulta complejo por ser el software un producto intangible. Este proceso puede ser modelado como un problema de toma de decisiones multiexperto y multicriterio, donde se evalúan generalmente más de un proyecto, en entornos de incertidumbre. Este trabajo propone un método que mediante números triangulares borrosos modifica el cálculo de los criterios económicos tradicionales VAN, TIR y PRI. La propuesta considera tres posibles escenarios: pesimista, más certero y optimista, para simular las variaciones que pueden ocurrir durante el ciclo de vida del proyecto en aspectos como: los precios de materiales directos e indirectos, la estabilidad de la fuerza de trabajo y otros riesgos que puedan impactar en el cronograma, en el alcance o en la calidad de los entregables. Se describen las dos fases del método, detallando las actividades de cada una con sus entradas y salidas. Los expertos se seleccionan mediante el análisis de la síntesis curricular de los candidatos. Para ponderar los criterios se utiliza la matriz de comparación por pares del método AHP. Se emplea el modelo lingüístico 2-tuplas para obtener la evaluación de cada proyecto, por criterios y global, unido a la certeza de esa información. Ese resultado constituye una entrada importante para la identificación y gestión de los riesgos del proyecto. Experimentalmente el método se aplicó a cinco proyectos, con la participación de cinco expertos. Todos resultaron factibles, aunque con diferente grado de factibilidad.<hr/>ABSTRACT The software project feasibility analysis it is an essential process for developer’s entities, that it is complex, being software an intangible product. This process can be modeled as a multi expert and a multi criteria of making decisions is generally evaluated more than one project in uncertain environments. This paper proposes a method using fuzzy triangular numbers, to evaluate classical economic criteria such as NPV, IRR and PRI. It described the two phases of the method (initiation and evaluation), detailing the activities of each with its inputs and outputs. The experts are selected by analyzing the curricular synthesis of candidates. The evaluation criteria are defined using Focus Group. The proposal allows to treat the variations that may occur during the life cycle of the project in aspects such as: prices of direct and indirect materials, the stability of the workforce and other risks that impact the schedule, scope or quality of deliverables. As a final result the overall assessment of each project is obtained by order of feasibility considering the outcome of the criteria in three possible scenarios: one pessimistic, one more accurate and one optimistic. The latter is an important tool for identifying and managing project risks. Experimentally, the method was applied to three projects, evaluating three criteria and with the participation of three experts. The three projects were feasible, although with a different order of feasibility. <![CDATA[<strong>Cerebrospinal fluid volume detection through Magnetic Resonance Imaging</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500010&lng=pt&nrm=iso&tlng=pt RESUMEN Para los anestesistas se hace necesario calcular la cantidad de anestesia espinal a utilizar en cada paciente, debido al riesgo que corren estos, si se le aplica la dosis equivocada. Esta dosis depende en gran medida del volumen de líquido cefalorraquídeo que posea el paciente, sin embargo, no existe un equipo capaz de calcular este volumen. En este artículo se presenta un algoritmo de segmentación heurístico para la detección y posterior segmentación del líquido cefalorraquídeo. El algoritmo fue diseñado a partir del conocimiento de expertos en el campo de la medicina del hospital Arnaldo Milián Castro de Santa Clara, Villa Clara, e utiliza imágenes de resonancia magnética. También se realiza una comparación entre los valores de volúmenes alcanzado por el algoritmo y los calculados por técnicos especializados en este campo, tal y como se realiza hoy en día.<hr/>ABSTRACT In this work we introduce a heuristic segmentation algorithm for the detection and subsequent segmentation of the volume of cerebrospinal fluid (CSF) that allows from MRI to calculate the CSF due to the importance of this represents to calculate the amount of anesthesia to be used in patients. The algorithm was designed from medical knowledge from Arnaldo Milián Castro hospital from Santa Clara, Villa Clara. Also is made a comparison between the algorithm volume values and the volume gathered from technician (this is the way to get the volume today). <![CDATA[<strong>Choice between an agile and traditional methodology based on soft computing techniques</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500011&lng=pt&nrm=iso&tlng=pt RESUMEN Desarrollar proyectos de software con alta calidad del producto final, de bajo costo, mínimo de esfuerzo y entrega en tiempo, depende en gran medida de las actividades que conllevan a su construcción, donde la selección de la metodología adecuada juega un papel clave para el éxito del proyecto. La diversidad de los proyectos de software existentes, las habilidades que los evaluadores tienen de manejar la incertidumbre y la ambigüedad en la evaluación de los contextos sobre ellos, agregan un elevado nivel de subjetividad en el análisis de la información para la toma de decisión sobre la metodología a usar para los proyectos. En este trabajo se presenta un modelo para la toma de decisiones en escenarios de evaluación y selección entre las metodologías de desarrollo de software ágil o formal, donde existe imprecisión en el análisis de la información por parte de los expertos basado en técnicas de soft computing.<hr/>ABSTRACT Developing software projects with high quality in the final product, low costs, minimal effort and on time delivery depends largely on the activities that involve its construction, where the selection of the appropriate methodology plays a key role for success of the project. The diversity of software projects, the skills that evaluators must have to deal with uncertainty and ambiguity in assessing contexts over them, add a high level of subjectivity in the analysis of information for decision making on the methodology to be used. This paper presents a decision-making model based on techniques of soft computing for scenarios evaluation and selection of agile or formal development methodologies, where the experts find imprecision in the information analysis. <![CDATA[<strong>Evolutionary Algorithms with Cellular Distribution Estimation</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500012&lng=pt&nrm=iso&tlng=pt RESUMEN En este artículo se presenta un tipo de algoritmo evolutivo: los Algoritmos con Estimación de Distribuciones (EDA) celular, una nueva clase de algoritmos de optimización estocásticos basados en poblaciones. Como resultado de este trabajo se obtiene un algoritmo EDA con aprendizaje basado en pruebas de independencias y esquemas descentralizados para reducir el número de evaluaciones en la resolución de problemas de optimización discretos.<hr/>ABSTRACT This article describes a kind of evolutionary algorithm is presented: The Algorithms with cellular Estimation of Distribution (EDA), a new class of stochastic optimization algorithms based on populations. As a result of this work an EDA algorithm with learning based on independence tests and decentralized schemes to reduce the number of evaluations in solving discrete optimization problems is obtained. <![CDATA[<strong>Experiences in processes integration for software projects organizations</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500013&lng=pt&nrm=iso&tlng=pt RESUMEN En el trabajo se hace un análisis de los principales estándares de gestión de proyectos y algunas de las herramientas informáticas para el control y seguimiento de proyectos. A partir de la revisión bibliográfica se analizan las ventajas y desventajas de las mismas identificando elementos que influyen en el éxito o fracaso de los proyectos. Este trabajo se centra en lograr el aumento de la productividad en empresas PYMES orientadas a proyectos de tecnologías de la información a partir de introducir en las mismas, un modelo basado en la integración de tres componentes: un programa de formación de los recursos humanos de la organización, un sistema de trabajo para el desarrollo de investigaciones a ciclo completo y un sistema informático como soporte a la innovación. Para la construcción del modelo se revisan diferentes programas de formación y su alineación con estándares internacionales, además se identifican los problemas fundamentales que influyen en la productividad de las organizaciones objeto de estudio y se desarrolla e introduce una herramienta para la gestión de proyectos. Se valida el modelo propuesto a partir de su aplicación en cinco entidades ecuatorianas dedicadas al desarrollo de software. Para la validación del modelo propuesto en el caso de estudio se analizan los siguientes indicadores: obtención de nuevos productos, alineación del programa de formación con estándares internacionales, análisis de la herramienta informática propuesta como parte del modelo con otras herramientas alternativas y respecto a la viabilidad económica del modelo propuesto.<hr/>ABSTRACT In the paper we analyze the main project management standards and some of the tools for control and monitoring of projects is done. From the literature review the advantages and disadvantages of these identifying elements that influence the success or failure of projects are analyzed. This work focuses on achieving increased productivity in PYMES oriented to software projects. Authors propose a model based on the integration of three components: a training program for human resources organization, a research system to support innovation and a informatic tools for project management. The proposed model was applied in five Ecuadorian organizations dedicated to software development. Authors validate the proposed based on indicators of productivity and human resources development in the five organizations. <![CDATA[<strong>Geometric modeling of polyhedral granular microstructures</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500014&lng=pt&nrm=iso&tlng=pt RESUMEN La influencia de las heterogeneidades micro-estructurales en el procesamiento de materiales es un tema de vital importancia, la cual explica la necesidad de modelar materiales virtuales equivalentes estadísticamente a la micro-estructura considerada, y conectar esta descripción con un método numérico como el Método de Elementos Finitos (MEF) o Método de Elementos Discretos (MED). La modelación se basa en el uso de un método de avance frontal para la generación de partículas esféricas y el método de particiones de Laguerre, permitiendo obtener una aproximación de la forma y tamaño de los granos reales del material. El método de avance frontal asegura datos estadísticos como el tamaño de los granos. Se presenta un ejemplo de modelación de la microestructura de rocas.<hr/>ABSTRACT The influence of micro-structural heterogeneities in materials processing is a vital issue, which explains the need to model equivalent statistically virtual materials to the micro-structure considered, and connect this description with a numerical method such as Finite Elements Methods (FEM) or Discrete Element Method (DEM). The modeling is based on the use of advancing front method for the generation of spherical particles and Laguerre tessellations, allowing an approximation of the shape and size of the material grains. The advancing front method ensures statistical data such as the size of the grains. An example of modeling the microstructure of rocks is presented. <![CDATA[<strong>Outliers mining applications in project management organizations</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500015&lng=pt&nrm=iso&tlng=pt RESUMEN La minería de datos anómalos es un área de la minería de datos que aborda el problema de la detección de datos raros o comportamientos inusuales en los datos. Esta disciplina tiene una alta aplicabilidad en disímiles escenarios entre los que se destacan el aseguramiento de ingresos en las telecomunicaciones, la detección de fraudes financieros, la seguridad y la detección de fallas. En este trabajo los autores presentan distintos métodos para el descubrimiento de datos anómalos bajo un enfoque que agrupa las técnicas de minería de datos anómalos en: métodos supervisados, métodos no supervisados y métodos semisupervisados. Se presenta además la aplicabilidad de la minería de datos anómalos en la detección de errores y fallas, en la gestión de organizaciones orientadas al desarrollo de proyectos de software. En particular se presentan las técnicas de minería de datos anómalos asociadas a procesos de aseguramiento de ingresos, bajo un enfoque reactivo, en estas organizaciones. Se discuten en el trabajo los resultados de la comparación de varios algoritmos de minería de datos anómalos, tomando como datos para el experimento la base de datos de investigaciones para la planificación disponible en el Laboratorio de Investigaciones de Gestión de Proyectos de la Universidad de las Ciencias Informáticas. Finalmente se realizan pruebas estadísticas no paramétricas para la comparación de los resultados basados en la capacidad de detección de los algoritmos. Se arriban a conclusiones y se identifican que algoritmos presentaron los mejores desempeños.<hr/>ABSTRACT Outliers mining are a data mining area of ​​data mining; have to do with detecting rare data or unusual behavior data. This discipline has high applicability in dissimilar scenarios among which include revenue assurance in telecommunications, financial fraud detection and security. In this paper the authors present different methods for the discovery outlier’s data on an approach that combines the techniques of outliers mining such as: supervised methods, unsupervised methods and semi-supervised ​​methods for outlier’s detection. The applicability of outliers mining is also presented in detecting errors and failures in the management of organizations oriented software development projects. In particular, these techniques could be used in revenue assurance process, in organizations oriented to software projects. Finally, authors presented results to apply, algorithm designed in "tasks and resources" data set published by Project Management Laboratory and generated GESPRO system. At the end, non-parametric statistical tests for comparing different algorithms, based on its detection performance. They arrive at conclusions and identify which algorithms presented the best performance. <![CDATA[<em><b>Multilayer neural network for assessment of labor competences</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500016&lng=pt&nrm=iso&tlng=pt RESUMEN Los recursos humanos constituyen un recurso estratégico dentro de una organización orientada a proyectos y la evaluación de las competencias laborales se ha identificado como un proceso clave para gestionarlos. Existen herramientas que gestionan datos necesarios para la evaluación de las competencias, pero no cuentan con funcionalidades que integren técnicas que faciliten la utilización de esos datos. La Inteligencia Artificial (IA) emergió del estudio filosófico y del razonamiento de la inteligencia humana, combinado con la exploración del hombre en como imitar la naturaleza circundante, hasta inclusive querer imitarse a sí mismo. Esta búsqueda incesante permitió la creación de diversas técnicas entre las que se encuentra las Redes Neuronales Artificiales (RNA’s). En el presente trabajo se realizó un estudio de las RNA’s principalmente de las de tipo Perceptrón Multicapa y la evaluación de las competencias. Se implementó una red neuronal multicapa para evaluar las competencias de recursos humanos, mediante funciones creadas utilizando el lenguaje PL/R. Como resultado se obtuvo una red neuronal entrenada que permite la evaluación de competencias laborales en el sistema XEDRO GESPRO. A través de su aplicación experimental se comprobó que la RNA propuesta aumenta la eficiencia comparada con métodos tradicionales y tiene niveles de eficacia aceptables.<hr/>ABSTRACT Human resources are a strategic resource within a project-oriented organization, and evaluation of labor competencies has been identified as a key process to manage them. There are tools that manage data needed for competences evaluation, but do not have features that integrate techniques to facilitate the use of such data. Artificial Intelligence (AI) emerged from philosophical study and reasoning of human intelligence, combined with the exploration of man as to imitate the surrounding nature until the wish of to imitate even himself. This incessant search allowed the creation of various techniques including Artificial Neural Networks (ANN's). In this paper a study of RNA's, mainly of Multilayer Perceptron type and skills assessment, was performed. A multilayer neural network is implemented to evaluate the human resources competences, through functions created using the language PL / R. It is obtained as a result a trained neural network that allows assessment of labor competences in the XEDRO GESPRO system. Through its experimental application it was found that the RNA proposal increases the efficiency compared to traditional methods and it has acceptable levels of effectiveness. <![CDATA[<strong>Dense packing of general-shaped particles using analytical and minimization techniques</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500017&lng=pt&nrm=iso&tlng=pt ABSTRACT The Discrete Element Method (DEM) is a numerical method that has achieved general acceptance as an alternative tool to model discontinuous media, with a wide range of practical applications. Given that spheres are not always a suitable shape for DEM simulations, other particle shapes need to be used. However, for shapes different from spheres, there are not many advancing front packing algorithms, which are, in many cases, the best algorithms that allow obtaining an appropriate initial set of particles for a DEM simulation. This lack of advancing front packing algorithms for shapes different from spheres is mostly due to the difficulty of solving the problem of placing a mobile particle in contact with other two (in 2D) or three (in 3D) particles. In this paper, new methods for solving the problem of the particle in contact are proposed. First, the problem of the particle in contact is formally defined. In the case of the wrappers solution method, it is applied to geometrical shapes to which has not been applied before. In the case of the minimization method, which is an original creation of the authors, it is shown to be a promising alternative for spherocylinders.<hr/>RESUMEN El Método de Elementos Discretos (MED) es un método numérico que ha alcanzado una gran aceptación como herramienta alternativa para modelar medios discontinuos, con un ampllio rango de aplicaciones prácticas. Dado que las esferas no son siempre apropiadas para simulaciones con el MED, es necesario usar otras formas de partícula. Sin embargo, para formas diferentes de las esferas, no se dispone de muchos algoritmos de empaquetamiento de avance frontal, los cuales son, en muchos casos, los mejores algoritmos que permiten obtener un conjunto inicial de partículas apropiado para una simulación con el MED. Esta falta de algoritmos de avance frontal para formas no esféricas se debe principalmente a la dificultad de resolver el problema de colocar una partícula móvil en contacto con otras dos (en 2D) o tres (en 3D) partículas. En este artículo son propuestos nuevos métodos para resolver el problema de la partícula en contacto. Primero, el problema de la partícula en contacto es formalmente definido. En el caso de la solución con envolventes, esta es aplicada a formas a las cuales no había sido aplicado antes. En el caso del método de minimización, el cual es una creación original de los autores, se muestra que es una alternativa promisoria para esferocilindros. <![CDATA[<em><b>GESPRO-16.05 Software Ecosystem for Project Management</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500018&lng=pt&nrm=iso&tlng=pt RESUMEN El objetivo del trabajo es presentar las experiencias en el desarrollo de herramientas para la toma de decisiones en dirección integrada de proyectos, basadas en Ecosistemas de Software. Se muestran las experiencias en el desarrollo del ecosistema GESPRO que produce un conjunto de herramientas entre las que se encuentran: la suite para la dirección integrada de proyectos GESPRO 16.05, un sistema ERP para la gestión de entidades orientadas a proyectos GESPRO-Gerencial 16.05 y la plataforma para el análisis de datos GESPRO-Reporte 16.05. Todas estas plataformas basadas en la combinación de diferentes herramientas de software libre tomando como modelo de desarrollo un enfoque de núcleo abierto sobre una arquitectura común. Se combinan satisfactoriamente herramientas para el análisis de datos y soluciones para la gestión empresarial produciendo una suite de herramientas de alto valor agregado. El modelo de desarrollo propuesto apoyado en las tecnologías libres además de garantizar altos niveles de soberanía tecnológica permite el desarrollo rápido de soluciones con un bajo costo garantizando un modelo eficiente para las organizaciones que lo apliquen.<hr/>ABSTRACT This paper presents different experiences in development project management tools based on Software Ecosystems. We present a software ecosystem model called GESPRO that produce a suite of tools for making decisions in project management organizations. We present some examples of our experiences through explain the construction process of following tools: system for project management GESPRO 16.05, system for enterprise planning resources GESPRO-Gerencial 16.05 in project oriented organizations and the suit of data analysis GESPRO-Reporte 16.05. All these tools are based on the same architecture and can be combine in order to improve the efficiency in companies to applied them. The proposed model provides a low cost and agile method to build enterprise planning resource systems with high efficiency. <![CDATA[<em><b>Information analysis of pattern and randomness</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500019&lng=pt&nrm=iso&tlng=pt ABSTRACT Complex patterns are ubiquitous in nature and its emergence is the subject of much research using a wide range of mathematical tools. On one side of complexity lies completely periodic system, and in the other side random behavior, both trivially simple from a statistical point of view. A fingerprint of complexity is the existence of large spatio-temporal correlations in the system dynamics. In this contribution, we will review two threads in complexity analysis, both steaming from information theory: Lempel-Ziv analysis of complexity, and computational mechanics. We discuss the usefulness of both approaches through the analysis of several examples. A first system will be the spatio-temporal evolution of cellular automata where transfer of information can be quantified by Lempel-Ziv measures. A second example will be random walk with bias and persistence; computational-mechanics will prove adequate for assessing the amount of wandering vs the patterned movement of the walker. Finally, disorder and pattern forming in layer crystal structure will be analyzed. Wrapping up, some discussion on the general nature of the examples analysis will be carried pointing to the appropriateness of the developed tools for studying the computational processing capabilities of complex systems<hr/>RESUMEN Los patrones complejos son comunes en la naturaleza y su surgimiento es objeto de mucha investigación utilizando una amplia gama de herramientas matemáticas. A un lado de la complejidad se encuentra la repetición completamente periódica, y en el otro, lo totalmente aleatorio, ambos trivialmente simples desde el punto de vista estadístico. Una huella dactilar de la complejidad es la existencia de correlaciones temporales o espaciales de largo alcancen la dinámica de los sistemas. En esta contribución, revisaremos brevemente dos métodos de realizar el análisis de la complejidad, ambos derivados de la teoría de la información: a través de la aleatoriedad de Lempel-Ziv y utilizando la mecánica computacional. La utilidad de ambas aproximaciones será discutida a través del análisis de varios ejemplos. Un primer sistema será la evolución espacio temporal de autómatas celulares, donde la transferencia de información será cuantificada utilizando Lempel-Ziv. Un segundo ejemplo será el del caminante aleatorio con sesgo y persistencia, la mecánica computacional demostrará ser apropiada para determinar la cantidad de deambular versus el movimiento predictible del caminante. Finalmente, desorden y formación de patrones en estructuras de capas será analizado. Para terminar, se discute la naturaleza general del análisis, insistiendo en la utilidad de las herramientas presentadas para el estudio de las capacidades de procesamiento computacional de los sistemas complejos. <![CDATA[<em><b>Library of algorithms for obtaining 2D partitioned and his inverse problem</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500020&lng=pt&nrm=iso&tlng=pt RESUMEN La presente investigación describe la realización de una biblioteca de algoritmos para obtener particionados 2D, utilizados para modelar componentes en el entorno de un Sistema de Información Geográfica 2D, SIG-2D. Se utiliza como base para el desarrollo de la misma, los algoritmos de Voronoi directo, inverso e inverso generalizado. La biblioteca propuesta permite obtener particionados de figuras en 2D y su problema inverso, destacándose como algoritmo fundamental el inverso generalizado de Voronoi 2D. Para guiar el proceso de desarrollo se hace el uso de la metodología Agile Unified Process y se hizo uso de una mezcla entre las arquitecturas N-Capas y orientada a objetos. Se define para su implementación el uso de tecnologías de escritorio, con el lenguaje de programación C++. Todas las tecnologías empleadas en su desarrollo son libres.<hr/>ABSTRACT This research describes the realization of a library of algorithms for 2D partitioned, used to model components in the environment of a 2D GIS, GIS-2D. It is used as a basis for the development of the same, Voronoi algorithms direct, inverse and generalized inverse. The proposed library allows for partitioned figures in 2D and inverse problem, highlighting the fundamental algorithm Voronoi generalized inverse. To guide the development process using Agile Unified Process methodology is made, using the fusion of N-Layers architectures and object-oriented. It is defined for implementation using desktop technologies with the programming language C ++. All technologies used in its development are free. <![CDATA[<strong>Measuring Software Quality in Open Source Communities Through the Lens of Social Capital</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500021&lng=pt&nrm=iso&tlng=pt ABSTRACT In this paper we propose a model for assessing free and open source software (FOSS) product quality by examining the social relations that exist within FOSS communities and the extent to which the social network structures and/or the quality of trust relationships amongst key members within these communities’ impact product quality. Empirical studies suggest an increase in the adoption of FOSS products both for personal use as well as in mission critical IT systems in organizations. Consequently, as individuals and firms consider adopting FOSS solutions they are faced with the challenge of evaluating the uncertainties of key software quality related facets and this challenge is further compounded by the findings of empirical studies that argue that FOSS product quality is difficult to determine using established traditional quality models. Additionally, empirical studies argue that the centrality of members who report software bugs influences the extent to which bugs are resolved which by extension impacts on product quality. Using the constructs and measures associated with the structural and relational dimensions of social capital theory, this paper proposes a theoretical model to explore the social interactions between open source project members by examining both the social network structures as well as the quality of member relationships, using appropriate social network measures. The model also examines the extent to which these relationships are moderated by the average weighted centrality of members who report bugs in these communities.<hr/>RESUMEN En este artículo se propone un modelo para la evaluación de software libre y de código abierto (FOSS) la calidad del producto mediante el examen de las relaciones sociales que existen dentro de las comunidades de software libre y el grado en que las estructuras de la red social y / o la calidad de las relaciones de confianza entre los miembros clave dentro esta calidad comunidades producto impacto. Los estudios empíricos sugieren un aumento en la adopción de los productos de software libre, tanto para uso personal, así como en sistemas de misión críticos de TI en las organizaciones. En consecuencia, como individuos y las empresas consideren la adopción de soluciones de software libre que se enfrentan con el reto de evaluar las incertidumbres de los aspectos clave relacionados con la calidad de software y de este desafío se agrava aún más por los resultados de estudios empíricos que sostienen que la calidad del producto de software libre es difícil determinar utilizando los modelos tradicionales de calidad establecidos. Además, los estudios empíricos argumentan que la centralidad de los miembros que reportan los errores de software influye en el grado en que se resuelven los errores que, por impactos de extensión sobre la calidad del producto. El uso de las construcciones y las medidas relacionadas con las dimensiones estructurales y relacionales de la teoría del capital social, este documento propone un modelo teórico para explorar las interacciones sociales entre los miembros del proyecto de código abierto mediante el examen tanto de las estructuras de las redes sociales, así como la calidad de las relaciones miembro, utilizando medidas de redes sociales apropiadas. El modelo también examina el grado en que estas relaciones son moderadas por la centralidad promedio ponderado de los miembros que informan de errores en estas comunidades. <![CDATA[<em><b>Quality attributes for open source applications selection and assessment in Cuba</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500022&lng=pt&nrm=iso&tlng=pt RESUMEN Desde el año 2004 Cuba anunció su intención de migrar paulatina y ordenadamente hacia tecnologías de código abierto, para ello se creó como soporte tecnológico el sistema operativo Nova y la Guía Cubana para la migración a código abierto. Este último documento posee las aplicaciones informáticas recomendadas para ser usadas en el proceso de migración. La selección de las mismas está basada en las experiencias de los usuarios, sin embargo, no siempre son las más adecuadas para las instituciones. El presente trabajo propone un conjunto de atributos de calidad que deben tenerse en cuenta para la evaluación y selección de aplicaciones de código abierto en Cuba. Como parte del estudio del estado del arte se analizan tres modelos empleados sobre el tema y que poseen una amplia documentación. Los atributos propuestos son documentados. Finalmente se propone un caso de estudio para la selección de la alternativa libre a la herramienta Microsoft Office Word, teniendo como punto de partida un proyecto de migración real que tuvo lugar en el año 2014.<hr/>ABSTRACT Since 2004 Cuba stand its interest in an ordered and incremental migration to free and open source technologies, therefore was created as a technological basement the GNU/Linux distribution Nova and the "Cuban Guide for migration to open source". This document contains a list of the recommend applications to be used in the migration process. The selection of such applications is based on the user experience, but this isn't always the best choice for institutions. In this paper is presented a set of quality attributes that must be considered in the assessment and selection of open source applications in Cuba. As part of the State of the Art study are analyzed three well documented models. The proposed attributes are documented. In conclusion is proposed a study case for the selection of a free alternative to Microsoft Office Word (R), which is based on the experiences acquired in a real migration project held in 2014. <![CDATA[<em><b>Calculating the TCO of the migration project to Nova 5.0 Operating System</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000500023&lng=pt&nrm=iso&tlng=pt RESUMEN El presente trabajo se centra en el estudio y análisis del Modelo Total Cost of Ownership (TCO), para obtener como resultado una estrategia de precios para el proceso de migración al sistema operativo Nova que se está realizando en las computadoras de los Organismos de la Administración Central del Estado y empresas cubanas. Se explica en que consiste el modelo TCO y se realiza un estudio de diferentes aplicaciones del modelo en casos reales. Luego de realizado el estudio se definen un conjunto de factores a tener en cuenta para determinar el costo del proceso de migración en una determinada empresa.<hr/>ABSTRACT This paper focuses on the study and analysis of Model Total Cost of Ownership (TCO), to result in a price strategy for the migration process to Nova operating system that is being made on computers of the agencies of the Central State Administration and Cuban companies. It explains of that there consists the model TCO and there is realized a study of different applications of the model in real cases. After realized the study a set of elements are defined to take into account to determine the cost of the migration process in a particular company.