Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920200004&lang=pt vol. 14 num. 4 lang. pt <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Estimation of distribution algorithm based on Bayesian networks learning with dependency analysis for integer optimization problems]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400001&lng=pt&nrm=iso&tlng=pt RESUMEN A partir del estudio del algoritmo de estimación de distribuciones (EDA) basado en poliárboles se propone e investiga la clase de algoritmos EDA que utilizan pruebas de independencias en el aprendizaje de la estructura probabilística. Estos algoritmos se conocen como EDA basados en restricciones los que definen una clase de EDA llamada algoritmos de estimación de distribuciones con restricciones (CBEDA). Como resultado se propone un nuevo algoritmo CBEDATPDA que utiliza el método de detección de dependencias de tres fases para el aprendizaje de redes Bayesianas. Los resultados experimentales demuestran que la nueva propuesta exhibe adecuadas cualidades numéricas para la solución de problemas con codificación entera como son las funciones decepcionantes y el problema de la predicción de estructuras de proteínas (PSP, del inglés, Protein Structure Prediction). Los resultados son comparados con otros algoritmos del estado del arte de la computación evolutiva, incluyendo propuestas del campo de los EDA.<hr/>ABSTRACT From the study of the Estimation of Distribution Algorithms (EDA) based on polytrees, we propose and evaluate the class of EDA algorithms that use independence tests for learning the probabilistic model. These algorithms are known as constraint-based EDA which define a class of EDA called constraint-based estimation of distribution algorithms (CBEDA). As a result, a new CBEDA TPDA algorithm is proposed using the three-phase dependence detection method for learning Bayesian networks. The experimental results show that the new proposal has adequate numerical qualities for the solution of optimization problems with integer representation such as the deceptive functions and the problem of protein structure prediction (PSP). The results are compared with other state-of-the-art algorithms in evolutionary computation, including proposals from the EDA field. <![CDATA[Learning with meta-classifiers from non-stationary data streams]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400020&lng=pt&nrm=iso&tlng=pt RESUMEN Muchas fuentes generan grandes cantidades de datos constantemente en el tiempo, los cuales son conocidos como flujos de datos. Debido a que estos son adquiridos a lo largo del tiempo y a la dinámica de muchas situaciones reales, la distribución de probabilidades (concepto objetivo) que rige los datos puede cambiar en el tiempo, un problema comúnmente denominado cambio de concepto. Este artículo presenta un nuevo algoritmo basado en ensambles de clasificadores para el aprendizaje a partir de flujos de datos con posibles cambios de concepto. El algoritmo propuesto usa meta-clasificadores para combinar las predicciones de los clasificadores bases del ensamble, y mantiene un conjunto de clasificadores adaptativos para manipular posibles cambios de concepto. El método propuesto cumple con los requerimientos comunes para el aprendizaje en línea a partir de flujos de datos: es capaz de procesar los datos de entrada con complejidad temporal y espacial constante, y además solo procesa cada ejemplo de entrenamiento una vez. En este trabajo se compara empíricamente el nuevo algoritmo con los métodos de ensamble existentes más conocidos para el aprendizaje en línea. Los experimentos realizados muestran que el algoritmo propuesto frecuentemente alcanza mayores niveles de precisión en los conjuntos de datos seleccionados<hr/>ABSTRACT Many sources generate large amounts of data constantly over time, which are known as data streams. Because of these are acquired over time and the dynamics of many real situations, the distribution of probabilities (target concept) that governs the data can change over time, a problem commonly called concept drift. This article presents a new algorithm based on classifiers ensembles for learning from data streams with possible concept drifts. The proposed algorithm uses meta-classifiers to combine the predictions of the base classifiers of the ensemble, and maintains a set of adaptive classifiers to manipulate possible concept drifts. The proposed method meets the common requirements for online learning from data streams: it is capable of processing input data with constant temporal and spatial complexity, and also only processes each training example once. In this work, we compared the new algorithm empirically with the most known existing ensemble methods for online learning. The experiments carried out show that the proposed algorithm frequently reaches higher levels of accuracy in the selected data sets. <![CDATA[Application of neuro-fuzzy systems in the classification of reports in scheduling problems]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400034&lng=pt&nrm=iso&tlng=pt RESUMEN La secuenciación de tareas es un área muy amplia en la cual muchos investigadores se han enfocado en los últimos años. En las empresas generalmente esta planificación se realiza de forma manual o semiautomática. En este trabajo se propone la aplicación de sistemas neuroborrosos en la clasificación de reportes en problemas de secuenciación, paso necesario para identificar en que recurso se procesará el reporte y posteriormente conformar la secuencia o planificación de trabajo del día. Para la clasificación de los reportes que arriban al sistema se utilizan cuatro algoritmos neuroborrosos. Los experimentos muestran que el algoritmo que mejores resultados obtiene es IVTURS, y las reglas difusas obtenidas por el mismo son analizadas para arribar a conclusiones sobre la distribución de reportes entre los recursos.<hr/>ABSTRACT Scheduling is a very broad area in which many researchers have focused in the past years. In most of the companies this process is usually done manually or semi automatically. In this work we propose the application of neuro-fuzzy systems in the classification of reports in scheduling problems, a necessary step to identify in which resource the report will be processed, in order to build the work sequence or schedule for the day. For the classification of the reports arriving to the system four neuro-fuzzy algorithms are used. The experiments show that the algorithm that obtains the best results is IVTURS, and the fuzzy rules obtained are analyzed to arrive to conclusions regarding the distributions of reports among the resources. <![CDATA[An ER/SBVR Approach to Database Conceptual Modeling of Integrity Constraints]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400048&lng=pt&nrm=iso&tlng=pt RESUMEN Los métodos tradicionales carecen de los medios necesarios para la expresión de la mayoría de los requisitos obtenidos durante la fase de modelación conceptual, lo cual conduce a la detección tardía de errores que por naturaleza son conceptuales y, en consecuencia, a implementaciones poco auténticas. Por tanto, es necesario expresar tales requisitos de una manera natural pero con una base formal, y así cerrar la brecha que existe entre analistas del negocio y expertos del dominio, y también que ayude en la transformación automática hacia otros lenguajes y modelos. En consecuencia, se propuso elaborar un método para expresar las restricciones de integridad derivadas de reglas de negocio mediante un lenguaje natural controlado basado en la especificación de SBVR, dado un esquema Entidad-Relación que represente la estructura de la información. La propuesta se analizó a través de un caso de estudio para mostrar su viabilidad. Como resultado, se obtuvo un conjunto de plantillas para ayudar a modeladores y expertos del dominio en el proceso de especificar las restricciones de integridad no representadas mediante un esquema Entidad-Relación, y se determinó la correspondencia de los conceptos de este con los de SBVR con el propósito de lograr la expresión coherente de los requisitos con ambos modelos. El caso de estudio demostró que la propuesta es viable y que el lenguaje natural controlado basado en SBVR, aumenta la expresividad en la modelación conceptual de bases de datos sin abandonar un enfoque tradicional y popular como el del modelo Entidad-Relación.<hr/>ABSTRACT Traditional methods lack the necessary means for the expression of most of the requirements obtained during the conceptual modeling stage, which leads to the late detection of errors and not so faithful implementations. Therefore, it is necessary to express such requirements in a natural and formal way in order to close the gap between business analysts and domain experts, and to support the automatic transformation to other languages and models. Therefore, to develop a method for expressing the integrity constraints derived from business rules by means of a controlled natural language based on the SBVR specification, given an Entity-Relationship schema that represents the structure of the information. The proposal was analyzed through a case study in order to show its viability. A set of templates was obtained to help modelers and domain experts in the process of specifying integrity constraints not represented by an Entity-Relationship scheme, and the correspondence of the concepts of this model with those of SBVR was determined, to express in a consistent manner the requirements with both models. The case study showed that the proposal is viable and that the SBVR based controlled natural language increases expressiveness in database conceptual modeling, without abandoning a traditional and popular approach like that of the Entity-Relationship model. <![CDATA[Feature Selection and Ranking to Characterize Ironic Texts]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400067&lng=pt&nrm=iso&tlng=pt RESUMEN Las opiniones textuales imponen grandes retos a las aplicaciones de minería de opinión ya que varios problemas están presentes; entre ellos: la escritura de opiniones de manera irónica o sarcástica. Una de las tendencias que existen para detectar la ironía consiste en la clasificación basada en rasgos. En investigación anterior se propone un conjunto de rasgos que permiten detectar ironía en opiniones textuales; sin embargo, el cálculo de estos rasgos es costoso computacionalmente. Por lo que en este artículo nos proponemos estudiar dicho conjunto de rasgos con el objetivo de detectar un subconjunto de éste que discrimine entre textos cortos irónicos y no irónicos, sin afectar la eficacia de los clasificadores. El principal resultado de este trabajo consiste en la obtención de un subconjunto de rasgos que logre detectar de manera efectiva la ironía, mediante la aplicación de técnicas de selección y de ranking de rasgos, y la evaluación de varias técnicas de aprendizaje supervisado. El conjunto obtenido de siete rasgos es suficiente para discriminar entre opiniones irónicas y no irónicas, obteniéndose resultados estadísticamente comparables con aquellos obtenidos al utilizar un conjunto mayor y más complejo de rasgos.<hr/>ABSTRACT Textual opinions impose great challenges to opinion mining applications since several problems are present; among them: writing opinions ironically or sarcastically. One of the trends that exist to detect irony is the classification based on features. In previous research a set of features that allow detecting irony in textual opinions is proposed; however, the calculation of these features is computationally costly. In this paper, we propose to study this set of features to detect a subset of it that discriminates between ironic and non-ironic short texts, without affecting the effectiveness of the classifiers. The main result of this work consists of obtaining a subset of features that can effectively detect irony, through the application of selection and feature ranking techniques, and the evaluation of several supervised learning techniques. The set obtained from seven features is enough to discriminate between ironic and non-ironic opinions, obtaining statistically comparable results with those obtained by using a larger and more complex set of features. <![CDATA[Image fusion algorithm for phase-contrast and phase retrieval images]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400085&lng=pt&nrm=iso&tlng=pt RESUMEN En la puesta punto de un tomógrafo de mamas usando haces de sincrotrón se obtuvieron imágenes de contraste de fase (PBI) y de su mapa de cambios de fase (PRI). Dichas imágenes se desean fusionar en una sola imagen que conserve las ventajas de cada modalidad. Se programaron algoritmos de fusión de imágenes y se comparó su desempeño. En los experimentos se utilizaron imágenes de un maniquí físico en modalidad PBI y PRI, adquiridas en las instalaciones SYRMEP, Trieste-Italia. Se seleccionaron regiones de interés y se calcularon indicadores de calidad de imagen como son: relación señal ruido, contraste y visibilidad de los bordes, para comparar el desempeño de los algoritmos. De los tres métodos de fusión programados el de mejores resultados fue el M3, pues establece el mejor compromiso en la mejoría en los índices de calidad utilizados En la imagen fusionada se reduce el nivel de ruido con respecto al imagen PBI, se aumenta el contraste y se evita el efecto de emborronamiento de los bordes de la imagen PRI, pues se mejora la visibilidad de estos. Esto permite observar mayor cantidad de detalles que en las imágenes PBI y PRI por separado. Lo anterior tiene importancia tanto desde el punto de vista de diagnóstico como de ahorro de tiempo de trabajo para los especialistas.<hr/>ABSTRACT During the set-up of phase-contrast breast CT with synchrotron radiation, propagation-based imaging (PBI) and phase-retrieval imaging (PRI) methods were used to obtained medical images. It is desirable to merge both image modalities keeping the advantages of each one. Image fusion algorithms were programmed and their performance was compared. The experiments used PBI and PRI images from a physic phantom, acquired at SYRMEP facilities, Trieste-Italy. Regions of interest were selected and image quality indexes were estimated such as: noise signal ratio, contrast and visibility of the edges, to compare the performance of the algorithms. Of the three programmed fusion methods, the one with the best results was the M3, since it established the best compromise in the improvement on the quality indices used. In the merged image the noise level was reduced with respect to the PBI image, the contrast was increased and the edge blurring effect of the PRI image was avoided due to visibility index improvements. This result allowed to observe a greater amount of detail in the merged image than in the PBI and PRI images separately. It is important from the point of view of the diagnosis and also save working time for specialists. <![CDATA[Algorithms to estimate the instantaneous-frequency of a respiratory time-varying sequence]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400102&lng=pt&nrm=iso&tlng=pt ABSTRACT On various occasions, algorithms to estimate instantaneous-frequency from a cyclic (seasonal) sequence to detect slow changes are needed. That is the case of the estimation of the variations of the respiratory rate for diagnostic purposes. There are a few possible procedures to estimate such an instantaneous-frequency, but without a thorough assessment to compute the respiration rate from a volumetric surrogate signal. This paper discusses the implementation of some algorithms for instantaneous-frequency estimation in MATLAB, comparing their performance from known synthetic signals, which resemble real-world respiratory signals, by using the goodness of fit parameters. We used a method based on the first conditional spectral moment of the time-frequency distribution of the input signal x, and other using the derivative of the phase of the analytic signal of x (found using the Hilbert transform). We also used methods based on second-order auto-regressive models. We computed the goodness of fit (maximum absolute and mean-squared errors) between the estimated and the expected ideal instantaneous-frequencies. The root MUSIC algorithm outperforms the others under assessment, showing its superiority for instantaneous-respiratory frequency estimation from a volumetric surrogate signal.<hr/>RESUMEN En varias ocasiones se necesitan algoritmos para estimar la frecuencia instantánea a partir de una secuencia cíclica (estacional) para detectar cambios lentos. Ese es el caso de la estimación de las variaciones de la frecuencia respiratoria con fines de diagnóstico. Hay unos pocos procedimientos posibles para estimar esa frecuencia instantánea, pero sin una evaluación exhaustiva para calcular la frecuencia respiratoria a partir de una señal sustitutiva volumétrica. En este documento se analiza la aplicación de algunos algoritmos para la estimación de la frecuencia instantánea en MATLAB, comparando su rendimiento a partir de señales sintéticas conocidas, que se asemejan a las señales respiratorias del mundo real, mediante el uso de la bondad de los parámetros de ajuste. Utilizamos un método basado en el primer momento espectral condicional de la distribución tiempo-frecuencia de la señal de entrada x, y otro utilizando la derivada de la fase de la señal analítica de x (que se encuentra utilizando la transformada de Hilbert). También utilizamos métodos basados en modelos autorregresivos de segundo orden. Calculamos la bondad del ajuste (errores máximos absolutos y cuadrados medios) entre las frecuencias instantáneas estimadas y las ideales esperadas. El algoritmo de la raíz MUSIC supera a los otros que se están evaluando, mostrando su superioridad para la estimación de la frecuencia respiratoria instantánea a partir de una señal sustitutiva volumétrica. <![CDATA[Image-based representation to myoelectric pattern recognition in the presence of inter-sessions variability]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400123&lng=pt&nrm=iso&tlng=pt RESUMEN Los sistemas de control mioeléctrico basados ​​en reconocimiento de patrones son capaces de clasificar adecuadamente la intensión de movimiento a partir de la señal EMG superficial. Sin embargo, estos sistemas presentan variabilidad inter-sesiones mostrado una caída en el rendimiento en la sesiones de prueba respecto a la sesión de entrenamiento. El objetivo de este trabajo es investigar una nueva representación de la señal HD-EMG basada en rasgos de imágenes para mejorar el reconocimiento inter-sesiones. En este trabajo se compara la utilización de rasgos calculados a partir de una representación 2D instantánea que se forma al considerar cada muestra de la señal HD-EMG como un pixel de una imagen con la utilización de rasgos dominio-temporales calculados a partir de cada canal de HD-EMG. Los rasgos en el dominio del tiempo considerados son el valor medio absoluto, el número de cruces por cero, la longitud de la forma de onda y el cambio de signo de la pendiente. Los rasgos a partir de la representación 2D que se consideran son basados en el valor del pixel y basados en la textura. La utilización de los rasgos propuestos mejora en 15 % (p&lt;0.05) la utilización de los rasgos en el dominio del tiempo cuando se utiliza cada una de las sesiones como sesión de entrenamiento y la otra como sesión de prueba. Los resultados sugieren que la utilización de rasgos a partir de la representación 2D propuesta en este trabajo muestra una mayor robustez a la variabilidad inter-sesiones.<hr/>ABSTRACT The myoelectric control systems based on pattern recognition are able to adequately classify the movement intention from the surface EMG signal. However, these systems present intersession variability, reporting a drop in performance in the test sessions compared to the training session. The objective of this work is to investigate an alternative representation of the HD-EMG signal based on imaging features to improve inter-session recognition. In this work, we implement features calculated from an instantaneous 2D representation that is formed by considering each sample of the HD-EMG signal as a pixel of an image. This feature set is compared with the use of temporal domain features calculated from each channel of HD-EMG. The time-domain features considered are the absolute mean value, the number of zero crossings, the length of the waveform, and the sign change of the slope. The features from the 2D representation that are considered are based on the pixel value and based on the texture. The proposed features improve by 15% (p &lt;0.05) the use of the time-domain features when each session is used as a training and the other as a test. The results suggest that using features from the 2D representation proposed in this work show greater robustness to inter-session variability. <![CDATA[Feature integration and semi-supervised learning for functional enzyme classification by using Spark K-means]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400134&lng=pt&nrm=iso&tlng=pt RESUMEN La clasificación funcional de las enzimas constituye un campo de gran interés para la bioinformática desde hace varios años. Dicha clasificación debe tener en cuenta la escasa información de algunas clases, el desbalance entre ellas y el número creciente de enzimas a clasificar. En este artículo investigamos el uso de algoritmos de agrupamiento semi-supervisados y no supervisados para agrupar secuencias similares de enzimas, a partir de la integración de descriptores de proteínas libres de alineamiento basados en el método de k-mers con diferentes valores de k. Se implementaron en Spark cuatro algoritmos que agrupan las enzimas de acuerdo a su función enzimática. Estos estas basados en transformaciones a métodos existentes como el Combinatorio Lógico Global, el K-medias y el Ensamblado de Agrupamientos. La calidad del agrupamiento se midió usando como medida interna el índice de silueta y como medida externa la medida-F. En la experimentación, se tomaron como referencia 58 secuencias funcionalmente caracterizadas de 501 enzimas de la familia Glicosil Hidrolasa-70 (GH-70) (con un alto valor para la biotecnología y que a su vez pueden ocasionar pérdidas millonarias en la producción de azúcar) de la base de datos CAZy, con el objetivo de comparar los resultados de los métodos de agrupamiento implementados. Se obtuvieron valores moderados del índice de silueta como medida interna pero mejor que los obtenidos con el método K-medias. Se alcanzaó el mejor valor de 0.9 de la medida-F del método del Ensamblado de Agrupamientos combinado con el aprendizaje semi-supervisado.<hr/>ABSTRACT The functional classification of enzymes has been a field of great interest for bioinformatics for several years. This classification must take into account the scarce information of some classes, the imbalance between them and the increasing number of enzymes to be classified. In this article we investigate the use of semi-supervised and unsupervised clustering algorithms to group similar enzyme sequences, from the integration of alignment-free protein descriptors based on the k-mers method with different k values. Four algorithms were implemented in Spark that group enzymes according to their enzymatic function. These are based on transformations to existing methods such as the Global Logic Combinatorial, the K-means and the Ensemble Clustering. The quality of the clustering was measured using the silhouette index as an internal measure and the F-measure as an external measure. In the experiment, 58 functionally characterized sequences of 501 enzymes of the Glicosil Hidrolasa-70 (GH-70) family (with a high value for biotechnology and that can cause millionaire losses in sugar production) from the CAZy database were taken as reference, with the objective of comparing the results of the implemented grouping methods. There were obtained moderate values of the silhouette index as an internal measure but better than those obtained with the K-means method. The best value of 0.9 of the F-measure of the Ensemble Clustering method combined with semi-supervised learning was achieved. <![CDATA[Behaviour of the albumin in pediatric patients in the stages of sepsis]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400162&lng=pt&nrm=iso&tlng=pt RESUMEN Las proteínas constituyen uno de los elementos estructurales más importantes del organismo, dentro de ellos la albúmina es la más abundante y se considera imprescindible para el transporte de diversas sustancias así como para mantener el equilibrio hídrico tisular. Esto motivó a realizar un estudio sobre cómo afectan sus niveles sanguíneos a la salud humana. El presente trabajo tiene como objetivo determinar el comportamiento de la albúmina y su influencia en la evolución de pacientes pediátricos en diferentes estadíos de la sepsis. Para ello se elaboró una base de casos con los pacientes pediátricos en diferentes estadíos de sepsis en la cual se recogen todas las variables de interés para el estudio incluida el nivel de albúmina. Se realizó análisis estadístico utilizando tablas de contingencia, V de Cramer, técnicas de Inteligencia Artificial, entre otros; para obtener los resultados. Se muestra que la hipoalbuminemia constituye un factor que incrementa la mortalidad por shock séptico en los pacientes pediátricos, más aún si se asocia a comorbilidades como las enfermedades oncohematológicas. Los niveles de albúmina pueden influir en la evolución de los pacientes pediátricos con sepsis y podrían convertirse en un predictor de mortalidad.<hr/>ABSTRACT The proteins constitute one of the most important structural elements of the organism, within them the albumin is the most abundant and it is considered essential for the transport of diverse substances as well as to maintain the water hydric balance. This prompted a study on how their blood levels affect human health. The goal of this paper is to determine the behavior of albumin and its influence on the evolution of pediatric patients in different stages of sepsis. For it a database was elaborated with pediatric patients in different stages of sepsis in which all the variables of interest for the study, including the albumin level, were collected. Statistical analysis was carried out using contingency tables, V de Cramer, Artificial Intelligence techniques, among others; to get the results. Hypoalbuminemia as a factor that increases mortality due to septic shock in pediatric patients, even more so if it is associated with comorbidities such as oncohematological diseases was showed. The Albumin levels can influence the evolution of pediatric patients with sepsis and could become a predictor of mortality. <![CDATA[A tool for evaluating the quality of business process models]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400174&lng=pt&nrm=iso&tlng=pt RESUMEN Problemática: En la ingeniería de dominio, asegurar la calidad del modelado de procesos de negocio influye decididamente en el ciclo de desarrollo del software. El uso de herramientas computacionales que apliquen directrices prácticas de calidad, ayudan a garantizar la calidad del modelado. Objetivo(s): Evaluar modelos de procesos de negocio BPMN creados en las herramientas Bonita y Bizagi aplicando directrices prácticas de calidad relacionadas con diseño, etiquetado, morfología y tamaño. Metodología: Para el análisis se utilizan los modelos de procesos de negocio y se convierten en grafos dirigidos representados en listas de adyacencia para su estudio. Cada componente del proceso se corresponde con un vértice del grafo y los flujos de secuencias son las aristas que unen a su vez los vértices; los nombres de los vértices se corresponden con el identificador de los componentes, logrando que todos los componentes queden representados por vértices. En la implementación se emplea el patrón de diseño Estrategia. Resultados y discusión: La herramienta obtenida tiene como entrada modelos de procesos de negocio creados con Bonita o Bizagi y propone cambios en la visualización de los modelos desde su evaluación empleando directrices prácticas de modelado y medidas asociadas para garantizar una buena calidad de los modelos. Conclusiones: Se obtiene una herramienta que aplica directrices prácticas de calidad y medidas para evaluar modelos de procesos de negocio y detectar errores a partir de su visualización. Además, se contribuye a la enseñanza de los temas de modelado de procesos de negocio.<hr/>ABSTRACT In domain engineering, ensuring the quality of business process modeling has a decisive influence on the software development cycle. The use of computational tools that apply practical guidelines of quality help to guarantee the quality of modeling. Evaluate BPMN business process models by applying practical quality guidelines related to design, labeling, morphology and size. For the analysis, business process models are used and converted into directed graphs represented in adjacency lists. Each component of the process corresponds to a node of the graph and the streams of sequences are the edges that join nodes; the names of nodes correspond to the components’ identifier, achieving that all the components are represented by nodes. In the implementation the Strategy design pattern is used. The tool obtained has as input business process models created with Bonita or Bizagi and proposes changes in the visualization of the models from their evaluation using practical modeling guidelines and associated measures to guarantee a good quality of the models. A tool that applies practical quality guidelines and measures to evaluate business process models and detect errors based on their visualization is obtained. In addition, it contributes to the teaching of business process modeling topics. <![CDATA[Application of business intelligence and data analysis techniques in the Cuban business environment: challenges and perspectives]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400191&lng=pt&nrm=iso&tlng=pt RESUMEN Se presenta una caracterización del uso de sistemas informáticos para la gestión y dirección empresarial en Cuba, mostrando las fortalezas y debilidades actuales. Se presenta un recorrido cronológico en cuanto a herramientas para la inteligencia de negocios y análisis de datos en el mundo, identificando las mas utilizadas. Se presenta al sistema BIMAS, un sistema ejecutivo para la planificación de estrategias y el seguimiento a su ejecución, desarrollado por DESOFT, con las propuestas de su evolución futura. Se concluye la carencia de demanda de este tipo de soluciones en el país y la necesidad de contar con las mismas para aumentar la eficacia y eficiencia de la gestión empresarial.<hr/>ABSTRACT A characterization of the use of computer systems for business management and direction in Cuba is presented, showing the current strengths and weaknesses. A chronological tour of tools for business intelligence and data analysis in the world is presented, identifying the most used. The BIMAS system is presented, an executive system for planning strategies and monitoring their execution, developed by DESOFT, with proposals for their future evolution. The lack of demand for this type of solutions in the country and the need to have them to increase the effectiveness and efficiency of business management is concluded. <![CDATA[CASE jMDA for Model Driven Architecture for Information Systems]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000400210&lng=pt&nrm=iso&tlng=pt RESUMEN El desarrollo de un software es un proceso complejo y difícil de gestionar en el que intervienen múltiples elementos. El ciclo de vida de este producto se ve permeado de disímiles problemáticas que lo afectan, hasta no responder a las necesidades identificadas. El Object Management Group, ha prestado especial atención al problema de interoperabilidad e integración de software, definiendo numerosas especificaciones y estándares, y en el 2001, establece el marco de trabajo “Model Driven Architecture”, como arquitectura para el desarrollo de aplicaciones. En este paradigma de desarrollo, los modelos guían todo el proceso. Varias herramientas se han desarrollado a partir de esta idea internacionalmente, pero muchas son de autor o privativas, y además no cubren el modelo completo. En la Universidad Central de Las Villas se ha estado desarrollando una herramienta jMDA que pretende cumplir con las tres transformaciones establecidas teóricamente, entre las cuatro fases, a partir de la creación de tres módulos independientes pero que tienen comunicación entre todos, lo que permite cumplir con un ciclo completo del MDA, constituyendo de hecho en una herramienta CASE totalmente soberana y basada en software libre. El primer módulo cuenta con 2 versiones, el segundo ya tiene 5, y el tercero 4, todas desarrolladas a partir de investigaciones del autor con la colaboración de estudiantes terminales de Ciencia de la Computación e Ingeniería Informática.<hr/>ABSTRACT The development of software is a complex and difficult process in which multiple elements intervene. The software life cycle is permeated with dissimilar problems that affect it, until it does not respond to the identified needs. The Object Management Group has paid special attention to software interoperability and integration problem, defining numerous specifications and standards, and in 2001, established the framework "Model Driven Architecture", as an architecture for the development of applications. In this development paradigm, models guide the entire process. Several tools have been developed from this idea internationally, but many are proprietary, and also do not cover the complete model. At the Central University of Las Villas, a jMDA tool has been developed that aims to comply with the three theoretically established transformations, among the four phases, from the creation of three independent modules that have communication between all of them, which allows to comply with a complete MDA cycle, in fact constituting a fully sovereign CASE tool based on free software. The first module has 2 versions, the second already has 5, and the third 4, all developed from the author's research with the collaboration of terminal students of Computer Science and Computer Engineering.