Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920190002&lang=en vol. 13 num. 2 lang. en <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Algorithms to Generate Random Samples following the Swerling Models]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200001&lng=en&nrm=iso&tlng=en ABSTRACT This article presents in an easily reproducible way, algorithms to generate samples of the radar video-signal ruled by the four Swerling models, in addition to the case of non-fluctuating target. The two widely used linear and quadratic detectors are taken into account for samples generation and it is verified that these samples present the required statistical characteristics. The proposed algorithms constitute the basis to develop simulations where it is necessary to reproduce video signals prior to any real implementation.<hr/>RESUMEN Este artículo presenta de una manera fácilmente reproducible, los algoritmos para generar muestras de la señal de video del radar regidas por los cuatro modelos de Swerling, además del caso de blanco no fluctuante. Los detectores linear y cuadrático, ampliamente utilizados, son tenidos en cuenta para generar las muestras y se verifica que las mismas presentan las características estadísticas requeridas. Los algoritmos propuestos constituyen la base para desarrollar simulaciones donde sea necesario reproducir señales de video previamente a cualquier implementación real. <![CDATA[Relevance of the use of Multi-Agent Protocols of Electronic Trading using Quality Metrics]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200013&lng=en&nrm=iso&tlng=en ABSTRACT Mastering Multi-Agent System or distributed artificial intelligence is a science and art that deals with the systems of artificial intelligence network. Within these scope mechanisms called electronic trading protocols are handled, representing the patterns or set of rules that model the possible interactions in the system. This investigation is aimed at improving the electronic auction process through the use of electronic trading protocols in Multi-Agent Systems. As part of the paper submitted evaluations of some quality metrics are described and evaluated, in order to analyze the relevance of the application of certain electronic trading protocols in Multi-Agent environments. The metrics chosen are associated with the quality criteria: Rapidness, Efficiency, Scalability and Completeness. Two of the Trading protocols most known and defined by Foundation for Intelligent Physical Agents (FIPA) were used to obtain important results: FIPA English-Auction and FIPA Dutch-Auction. In conclusion, Multi-Agent Trading Systems are a very effective alternative to take into account in those environments in which it is necessary to choose a Trading algorithm or strategy depending on certain circumstances.<hr/>RESUMEN El dominio de sistemas multiagente o la inteligencia artificial distribuida, es una ciencia y un arte que se ocupa de los sistemas de red de inteligencia artificial. Dentro de este alcance, se manejan mecanismos llamados protocolos de comercio electrónico, que representan los patrones o el conjunto de reglas que modelan las posibles interacciones en el sistema. Esta investigación tiene como objetivo mejorar el proceso de subasta electrónica mediante el uso de protocolos de comercio electrónico en sistemas multiagentes. Como parte del documento presentado, se describen y evalúan algunas métricas de calidad, con el fin de analizar la relevancia de la aplicación de ciertos protocolos de comercio electrónico en dichos entornos. Las métricas elegidas están asociadas con los criterios de calidad: Rapidez, Eficiencia, Escalabilidad e Integridad. Se obtuvieron dos de los protocolos de negociación más conocidos y definidos por la Fundación para Agentes Físicos Inteligentes (FIPA) para obtener resultados importantes: FIPA English-Auction y FIPA Dutch-Auction. En conclusión, los sistemas de negociación de multiagentes son una alternativa muy efectiva a tener en cuenta en aquellos entornos en los que es necesario elegir un algoritmo o estrategia de negociación dependiendo de ciertas circunstancias. <![CDATA[Geographic Information System for sugarcane agriculture in the province of Villa Clara]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200030&lng=en&nrm=iso&tlng=en RESUMEN El empleo de los Sistemas de Información Geográficos en ramos como la agricultura brindan soporte para aumentar la eficiencia de las tareas de cultivos. Específicamente en la agricultura cañera, estos permiten analizar diversas fuentes de información geográfica disponibles en la actualidad, como son: las imágenes aéreas y los datos de cosecha de las maquinarias agrícolas; lo que posibilita la obtención de indicadores productivos que sientan las bases para la aplicación de técnicas avanzadas de cultivo. El objetivo del presente trabajo es proponer un Sistema de Información Geográfica basado en el software libre para la aplicación de nuevas técnicas de gestión de parcelas en la provincia de Villa Clara. Como resultado de esta investigación se obtuvo una plataforma integradora de la información espacial relacionada con las áreas de cultivo de la caña de azúcar de la provincia, de conjunto con los datos de cosecha proporcionados por las novedosas maquinarias agrícolas que se han venido importando al país desde hace algunos años. Con base a esta información y de conjunto con geoalgortimos presentes en QGIS fue posible la obtención de indicadores productivos que sustenten la toma de decisiones administrativas y la planificación de futuras contiendas.<hr/>ABSTRACT The use of geographic information systems in branches such as agriculture provides support to increase the efficiency of farming tasks. Specifically, in sugarcane agriculture, they allow the analysis of various sources of geographic information currently available, such as aerial images and harvest data of agricultural machinery; This allows obtaining productive indicators for the application of advanced cultivation techniques. The objective of this work is to propose a Geographical Information System based on free software for the application of new techniques of crop management in the province of Villa Clara. As a result of this research, a spatial information integration platform was obtained related to sugarcane cultivation areas in the province, together with the harvest data provided by the new agricultural machinery that has recently been imported into the country. Based on this information and together with the geo-algorithm present in QGIS, it was possible to obtain productive indicators that support administrative decision making and the planning of future competitions. <![CDATA[Model of growth and development of vegetables in greenhouses by fuzzy cognitive maps]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200047&lng=en&nrm=iso&tlng=en RESUMEN En la actualidad, la agricultura cubana necesita de la búsqueda de nuevas vías tecnológicas para la optimización de los recursos y el aumento de las producciones. El modelado en la agricultura presenta gran complejidad debido a su naturaleza estocástica. Esto se puede revertir, con una de las técnicas más modernas de inteligencia artificial, los mapas cognitivos difusos, que han sido utilizados en gran cantidad de aplicaciones en el modelado de complejos escenarios reales. Las casas de cultivo en Cuba necesitan de modelos que permitan el desarrollo de una agricultura provechosa y sostenible en el tiempo. Este trabajo se propone establecer un modelo utilizando los mapas cognitivos difusos en el crecimiento y desarrollo de hortalizas en cultivo protegido, a través del criterio de expertos por el método Delphi. Como resultado, se obtuvieron 14 variables involucradas en el crecimiento y desarrollo de hortalizas, donde el número de frutos y el rendimiento poseen el mayor grado de relevancia para el modelado. La metodología utilizada demuestra que es posible el modelado, a través de dicha herramienta, para el crecimiento y desarrollo de hortalizas en cultivo protegido.<hr/>ABSTRACT Currently, Cuban agriculture needs to search for new technological ways to optimize resources and increase production. Modeling in agriculture presents great complexity due to its stochastic nature. This can be reversed, with one of the most modern techniques of artificial intelligence, fuzzy cognitive maps, which have been used in a large number of applications in the modeling of complex real scenarios. The greenhouses in Cuba lack models that allow the development of a profitable and sustainable agriculture in time. The objective of this work is to establish a model using fuzzy cognitive maps in the growth and development of vegetables in greenhouses, through expert’s judgment by the Delphi method. As a result, we obtained 14 variables involved in the growth and development of vegetables, where the number of fruits and yield have the highest degree of relevance for modeling. The methodology used shows that modeling is possible, through said tool, for the growth and development of vegetables in greenhouses. <![CDATA[Data Warehouse for study management of hazard, vulnerability and risk in Cuba]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200061&lng=en&nrm=iso&tlng=en RESUMEN El Estado Cubano invierte cuantiosos recursos en el establecimiento de planes de preparación a fin de mitigar y minimizar los impactos negativos de fenómenos naturales. Como muestra de ello, son realizados en el país desde el año 2010 los estudios de peligro, vulnerabilidad y riesgos (PVR), sin embargo, la forma en que son analizados los resultados que se derivan de este arduo trabajo presentan algunas limitaciones por la excesiva cantidad de datos que se encuentran en ocasiones dispersos y poco entendibles para ser usados de manera rápida en los Centros de Gestión de Riesgos. El presente trabajo expone el modelo para la gestión de estudios de Peligro, Vulnerabilidad y Riesgo en Cuba, con énfasis ante la ocurrencia de eventos hidrometeorológicos extremos en territorios vulnerables, y la estructura básica de la herramienta informática propuesta que modifica el actual procedimiento de análisis de estos estudios en el país. Como resultados de investigación, se diseña e implementa para el caso de la provincia de Santiago de Cuba, la base de datos multidimensional, que centraliza los resultados de los estudios para eventos hidrometeorológicos extremos de los años 2011 y 2016, así como el almacén que, soportado en técnicas y metodologías de Inteligencia de Negocios, permite analizar estos estudios de forma integrada y obtener información relevante y mejor representada a través de reportes dinámicos, para garantizar una rápida y efectiva toma de decisiones.<hr/>ABSTRACT Considerable resources in the establishment of preparation plans in order to mitigate and minimize the negative impacts of natural phenomena are invested by the Cuban State. As a sample of this, the studies of hazard, vulnerability, and risks (PVR) have been carried out in the country since 2010. However, the analysis’ way of the results that derive from this arduous work shows limitations due to the excessive amount of data found, sometimes dispersed and not very understandable to be quickly used in the Risk Management Centers. The model for the management of studies of Hazard, Vulnerability, and Risk in Cuba with emphasis on the occurrence of extreme hydrometeorological events in vulnerable territories, and the basic structure of the proposed computer tool that modifies the current procedure of analysis of these studies in the country is shown in this work. As research results, the multidimensional database is designed and implemented in the case of Santiago de Cuba province, which centralizes the results of the studies for extreme hydrometeorological events of the years 2011 and 2016, as well as the warehouse that, supported by Business Intelligence techniques and methodologies, allows the analysis of data in an integrated way, and obtain relevant and better represented information through dynamic reports to guarantee a quick and effective decision making. <![CDATA[The non-functional software requirements. A strategy for its development in the Medical Informatics Center]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200077&lng=en&nrm=iso&tlng=en RESUMEN Los Requisitos No Funcionales (RNF) de software forman una parte significativa de la especificación de requisitos y en algunos casos estos son críticos para el éxito del producto. Con frecuencia estos requisitos son ignorados o subestimados debido a que para muchos proyectos estos implican una cantidad considerable de trabajo y esfuerzo; resultan ser más complejos y requieren un mayor nivel de conocimiento. En el desarrollo de software para la salud estos problemas se incrementan dada la complejidad del mismo. El presente artículo describe una estrategia de desarrollo de requisitos no funcionales en aplicaciones para la salud, basada en un conjunto de normas y modelos internacionales; la cual propone acciones, métodos y técnicas cuya finalidad es lograr especificaciones de RNF de mayor calidad de manera que se incremente la calidad de estos productos software.<hr/>ABSTRACT The Non-Functional Requirements (RNF) of software form a significant part of the requirements specification and in some cases these are critical to the success of the product. Often these requirements are ignored or underestimated because for many projects these involve a considerable amount of work and effort; they turn out to be more complex and require a higher level of knowledge. In the development of software for health these problems are increased given the complexity of it. This article describes a strategy for developing non-functional requirements in applications for health, based on a set of international standards and models; which proposes actions, methods and techniques whose purpose is to achieve higher quality RNF specifications in order to increase the quality of these software products. <![CDATA[Component for the calculation of the relevance in the Orion searcher]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200091&lng=en&nrm=iso&tlng=en RESUMEN La presente investigación describe el proceso de desarrollo de un componente para el buscador Orión que incrementará la precisión con que son devueltos los resultados de las consultas. Esta herramienta permitirá mejorar el cálculo de la relevancia de información de dichos resultados, a través del análisis del Perfil de Búsqueda del Usuario y las categorías de los documentos. Se estudiaron motores de búsqueda a nivel nacional e internacional para determinar sus características, así como sus estrategias para el cálculo de la relevancia de información. Para la implementación se utilizó el entorno de desarrollo integrado NetBeans 7.4, como Sistema Gestor de Bases de Datos (SGBD) PostgreSQL 9.1 y Visual Paradigm 8.0 como herramienta de modelado. Para guiar todo el proceso de desarrollo se usó la metodología AUP en su personalización para la UCI. Se emplearon el servidor web Apache 2 y los lenguajes Java, UML, SQL 1.4 y XML. Como herramienta gráfica para la administración del SGBD se utilizó el PgAdminIII 1.14. Las pruebas realizadas permitieron construir un producto con calidad y controlaron el proceso de validación del funcionamiento de la aplicación. Como resultado del trabajo realizado se obtiene un producto con una documentación que sirve de base para futuras investigaciones o modificaciones a la solución.<hr/>ABSTRACT This research describes the process of developing a component for the Orion search engine that will increase the precision with which the results of the queries are returned. This tool will make it possible to improve the calculation of the information relevance of said results, through the analysis of the User's Search Profile and the categories of the documents. Search engines were studied at a national and international level to determine their characteristics, as well as their strategies for calculating the relevance of information. For the implementation, the integrated development environment NetBeans 7.4 was used, as the Database Management System (SGBD) PostgreSQL 9.1 and Visual Paradigm 8.0 as a modeling tool. To guide the entire development process, the AUP methodology was used in its customization for the UCI. The Apache 2 web server and the Java, UML, SQL 1.4 and XML languages were used. As a graphic tool for the administration of the DBMS, PgAdminIII 1.14 was used. The tests carried out allowed us to build a product with quality and controlled the validation process of the operation of the application. As a result of the work done, a product is obtained with documentation that serves as the basis for future research or modifications to the solution. <![CDATA[Deep learning for aspect extraction in textual opinions]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000200105&lng=en&nrm=iso&tlng=en RESUMEN La extracción de aspectos en opiniones textuales es una tarea muy importante dentro del análisis de sentimientos o minería de opiniones, que permite lograr mayor exactitud al analizar la información y contribuir a la toma de decisiones. El aprendizaje profundo agrupa varios algoritmos o estrategias que han obtenido resultados relevantes en diversas tareas del procesamiento del lenguaje natural. Existen varios artículos de revisión sobre el análisis de sentimientos que abordan el aprendizaje profundo como una de las técnicas existentes para la extracción de aspectos; sin embargo, no existen artículos de revisión que se dediquen exclusivamente al empleo del aprendizaje profundo en el análisis de sentimiento. El objetivo de este artículo consiste en ofrecer un análisis crítico y comparativo de las principales propuestas y trabajos de revisión que emplean estrategias de aprendizaje profundo para la extracción de aspectos, profundizando en la forma de representación, modelos, resultados y conjuntos de datos empleados en esta tarea. En esta propuesta se hace el análisis de 89 artículos publicados durante el período 2011 a 2019 resaltando sus principales aciertos, fisuras, y retos de investigación. Finalmente, proponemos algunas direcciones de investigación futuras.<hr/>ABSTRACT Aspect extraction in textual opinions is a very important task within the sentiment analysis or opinion mining, which allows achieving greater accuracy when analyzing information, and thus, contributing to decision making. Deep learning includes several algorithms or strategies that have obtained relevant results in various natural language processing tasks. There are several review papers on sentiment analysis that address deep learning as one of the existing techniques for extracting aspects; however, there are no review papers focus exclusively on to the use of deep learning in sentiment analysis. The main objective of this review paper is to offer a critical and comparative analysis of the main proposals and revision works that employ deep learning strategies for aspect extraction, by focusing on the representation approaches, principal models, obtained results and data sets used in experiments. In our proposal, the analysis of 53 papers published during the period 2011 to 2018 by highlighting their main successes, fissures, and research challenges is made. Finally, we propose some future research directions.