Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920200001&lang=es vol. 14 num. 1 lang. es <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Aplicación informática sobre Matlab® para la resolución de modelos de confort térmico]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000100001&lng=es&nrm=iso&tlng=es RESUMEN Como parte de la investigación realizada en la temática de confort térmico se desarrolló una aplicación visual sobre Matlab® que agrupó los diferentes modelos existentes de confort y disconfort térmico. Para ello se utilizó un entorno de programación visual disponible en este asistente matemático. Con dicha aplicación se pudo establecer comparaciones entre los mismos y se analizó las posibles dependencias entre los factores y parámetros tanto ambientales como personales con el índice de confort o estrés térmico. Esto permitió demostrar que los controles monovariables efectuados en la mayoría de los edificios para garantizar confort, dándole importancia solo a la variable temperatura, limita la influencia de otras variables que tienen incidencia en la satisfacción de los clientes como es el caso de la presión, la humedad relativa, la velocidad del aire, entre otras, lo que también afecta de cierta manera el consumo energético en el ámbito de la edificación pues dejan de regularse alguna de estas variables determinantes en el mismo.<hr/>ABSTRACT As part of the research carried out in the field of thermal comfort, a visual application was developed on Matlab® that grouped the different existing models of thermal comfort and discomfort. For this, a visual programming environment available in this mathematical assistant was used. With this application, comparisons between them could be established and the possible dependencies between environmental and personal factors and parameters with the comfort or thermal stress index were analyzed. This allowed to demonstrate that the monovariable controls carried out in most of the buildings to guarantee comfort, giving importance only to the temperature variable, limits the influence of other variables that have an impact on customer satisfaction such as pressure, relative humidity, the speed of the air, among others, which also affects in a certain way the energy consumption in the field of the building because some of these determining variables in the same cease to be regulated. <![CDATA[Operador por selección para la agregación de información en Mapa Cognitivo Difuso]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000100020&lng=es&nrm=iso&tlng=es RESUMEN La evaluación de habilidades permite la clasificación de individuos para la toma de decisiones. Las habilidades pueden ser modeladas mediante sus relaciones causales, siendo necesario desde el punto de vista computacional utilizar técnicas de Soft Computing. En este sentido los Mapas Cognitivos Difusos (FCM) permiten representar las relaciones causales de diferentes conceptos. Sin embargo, los FCM no contemplan al conjunto de criterios clásicos empleados para la toma de decisiones, lo que imposibilita la evaluación de habilidades desde diferentes escenarios como pudiera ser, el optimista o pesimista. Un escenario de implementación pesimista, representaría la naturaleza menos favorable de la inferencia, mientras que el escenario optimista representaría la inferencia más favorable. En la presente investigación describe una solución a la problemática planteada mediante la implementación de un operador para la agregación de información en FCM que integra la selección de tres criterios para la toma de decisiones. Se implementa un caso de estudio con la utilización del operador de agregación en el que se evalúa la habilidad para determinar la toma de decisiones sobre el acceso a prácticas de laboratorios en un Sistema de Laboratorios Remotos.<hr/>ABSTRACT The evaluation of skills allows the classification of entities for decision making. The skills can be modeled by their causal relationships, requiring from the computational point of view the application of Soft Computing techniques. In this sense, Fuzzy Cognitive Maps (FCM) allows to represent the causal relationships of different concepts. However, there are several existing criteria for decision making that may affect the result of the evaluation of skills that are not contemplated in the FCM. The present investigation describes a solution to this problem one raised by means of the implementation of an operator for the aggregation of information in FCM that integrates the selection of three criteria for the taking of decisions. With the use of the aggregation operator is implemented a case study. In this is evaluated the ability to determine the decision making on access to laboratory practices in a Distance Laboratory System. <![CDATA[Plataformas de software libre para la virtualización de servidores en pequeñas y medianas empresas cubanas]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000100040&lng=es&nrm=iso&tlng=es RESUMEN La virtualización representa un elemento importante en el trabajo con servidores porque permite crear entornos virtuales con facilidades de uso. Esta tecnología constituye un activo fundamental en la implementación del cloud computing y para soportar los diferentes servicios digitales de las organizaciones con un marcado ahorro de costos y recursos. Existen dos tipos de plataformas de virtualización: tipo 1 (bare metal), se instalan directamente en el hardware del servidor y tipo 2 (virtualización alojada), se instalan en el sistema operativo anfitrión del usuario. En la literatura consultada se identificó que la selección de estas plataformas se realiza según sus características, rendimientos, el hardware disponible y las tendencias del mercado. No se identificaron investigaciones enmarcadas en las necesidades de los clientes, específicamente enfocadas en las características y requerimientos tecnológicos de las pequeñas y medianas empresas cubanas. En esta investigación se comparó cuantitativamente el desempeño de las principales herramientas de virtualización tipo 1 basadas en software libre en el entorno real de una mediana empresa cubana. Se utilizaron como métodos científicos el analítico-sintético, la triangulación teórica y el método experimental. Para las pruebas de rendimiento y escalabilidad se emplearon las herramientas Unixbench, iPerf3 y htop. Los resultados obtenidos evidenciaron que Proxmox 5.4 es una opción eficiente para la virtualización de servidores con ahorro y uso óptimo de los recursos de hardware.<hr/>ABSTRACT Virtualization represents an important element to work with servers because it allows to create virtual environments with ease of use. This technology is a fundamental asset in the implementation of cloud computing and to support the different digital services of organizations with a marked saving of costs and resources. There are two types of virtualization platforms: type 1 (bare metal), installed directly on the server hardware and type 2 (hosted virtualization), installed on the user's host operating system. In the literature consulted, it was identified that the selection of these platforms is made according to their characteristics, its performance, available hardware and market trends. No research was identified framed in the needs of clients, specifically focused on the characteristics and technological requirements of Cuban small and medium enterprises. This research quantitatively compared the performance of the main type 1 virtualization tools based on free software in the real environment of a Cuban SME. The analytical-synthetic, theoretical triangulation and experimental methods were used as scientific methods. For performance and scalability tests, Unixbench, iPerf3 and htop tools were used. The results obtained showed that Proxmox 5.4 is an efficient option for server virtualization with savings and optimal use of hardware resources. <![CDATA[Una revisión sistemática de la literatura sobre los enfoques de detección de intrusiones]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000100058&lng=es&nrm=iso&tlng=es ABSTRACT Nowadays, intrusion detection systems play a major role in system security. Ideally, intrusion detection systems are capable of detecting intrusions in real time to prevent intruders from causing any harm to computer systems. Intrusion detection systems can be implemented using different intrusion detection approaches with its strengths and limitations. This paper provides an overview of the strengths and limitations of the different intrusion detection approaches, including Statistical-Based Anomaly, Pattern Matching, Data Mining and Machine Learning approach. The results show that Machine Learning is the most suitable approach for implementing intrusion detection system solutions, because of its ability to work as an automated process, which hardly needs human intervention. Using this partial conclusion, different machine learning techniques are studied and presented, also with their strengths and limitations. After the study, it can be concluded that the best technique to implement this kind of system is recurrent neural networks. An intrusion detection systems that hardly needs human intervention, can be developed and implemented, using this technique.<hr/>RESUMEN Hoy en día, los sistemas de detección de intrusos juegan un papel importante en la seguridad de los sistemas informáticos. Idealmente, los sistemas de detección de intrusos son capaces de detectar intrusiones en tiempo real para evitar que los intrusos causen daños a los sistemas informáticos. Los sistemas de detección de intrusos se pueden implementar utilizando diferentes enfoques de detección de intrusos con sus puntos fuertes y limitaciones. Este documento proporciona una visión general de las fortalezas y limitaciones de los diferentes enfoques de detección de intrusos, incluido el enfoque de anomalías basadas en estadísticas, coincidencia de patrones, minería de datos y aprendizaje automático. Los resultados muestran que el aprendizaje automático es el enfoque más adecuado para implementar soluciones de sistemas de detección de intrusos, debido a su capacidad para funcionar como un proceso automatizado, que apenas necesita intervención humana. Usando esta conclusión parcial, se estudian y presentan diferentes técnicas de aprendizaje automático, enfatizando en sus fortalezas y limitaciones. Después del estudio realizado, se puede concluir que la mejor técnica para implementar este tipo de sistema son las redes neuronales recurrentes. Mediante esta técnica, se puede desarrollar e implementar un sistema de detección de intrusos que apenas necesita intervención humana. <![CDATA[Métodos para eliminación de las derivas de línea base en señales de ECG: Estudio comparativo]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000100079&lng=es&nrm=iso&tlng=es ABSTRACT Cardiovascular diseases are the leading cause of death worldwide, accounting for 17.3 million deaths per year. The electrocardiogram (ECG) is a non-invasive technique widely used for the detection of cardiac diseases. To increase diagnostic sensitivity, ECG is acquired during exercise stress tests or in ambulatory way. Under these acquisition conditions, the ECG is strongly affected by some types of noises, mainly by baseline wander (BLW). In this work, nine methods, widely used, for the elimination of BLW were implemented, which are: interpolation using cubic splines, finite impulse response (FIR) filter, infinite impulse response (IIR) filter, least mean square adaptive filtering, moving-average filter, independent component analysis, interpolation and successive subtraction of median values in RR interval, empirical mode decomposition, and wavelet filtering. For the quantitative evaluation, the following similarity metrics were used: absolute maximum distance, the sum of squares of distances and percentage root-mean-square difference. Several experiments were performed using synthetic ECG signals generated by ECGSYM software, real ECG signals from QT Database, artificial BLW generated by software and real BLW from the Noise Stress Test Database. The best results were obtained by the method based on FIR high-pass filter with a cut-off frequency of 0.67 Hz.<hr/>RESUMEN Las enfermedades cardiovasculares son la principal causa de muerte en el mundo, y representan 17,3 millones de muertes por año. El electrocardiograma (ECG) es una técnica no invasiva ampliamente utilizada para la detección de enfermedades cardíacas. Para aumentar la sensibilidad diagnóstica, el ECG se adquiere durante las pruebas de esfuerzo o de forma ambulatoria. En estas condiciones, el ECG se ve fuertemente afectado por algunos tipos de ruidos, principalmente por las derivas de línea base (BLW). En este trabajo se implementaron nueve métodos ampliamente utilizados para la eliminación de BLW, que son: interpolación utilizando splines cúbicos, filtro de respuesta a impulso finita (FIR), filtro de respuesta a impulso infinita (IIR), filtrado adaptativo de mínimos cuadrados medios, filtro de media móvil, análisis de componentes independientes, interpolación y substracción sucesiva de los valores de la mediana en el intervalo RR, descomposición en modos empíricos y filtrado de wavelets. Para la evaluación cuantitativa, se utilizaron las siguientes métricas de similitud: distancia máxima absoluta, la suma de los cuadrados de las distancias y la diferencia porcentual de la raíz media cuadrática. Se realizaron varios experimentos utilizando: señales de ECG sintéticas generadas por el software ECGSYM, señales de ECG reales de la base de datos QT, BLW artificiales generadas por software y BLW reales de la base de datos “Noise Stress Test Database”. Los mejores resultados se obtuvieron mediante el método basado en el filtro FIR paso alto con una frecuencia de corte de 0,67 Hz. <![CDATA[Modelos para predecir las demandas de productos perecederos en empresas comercializadoras de alimentos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000100110&lng=es&nrm=iso&tlng=es ABSTRACT Determining the demands for products and services is an issue of interest to the international scientific community and represents an effective tool to raise the economic profits and competitiveness of business in the market. Currently, research on models for forecasting perishable food demands is few compared to the amount of forecasting research in other fields. Accurate forecasting of perishable foods prevents the loss of these products and contributes to increased customer satisfaction. In this article, we conducted a systematic review of the literature on the main models for forecasting perishable food demands in small and medium enterprises developed during the period 2013-2018. The analysis of the available information allowed the authors to determine that forecasting methods using soft computing techniques and time series are the most used in the literature. The main input variables of these models and the factors that influence the variation in the demands were also determined.<hr/>RESUMEN Determinar las demandas de productos y servicios constituye un tema de interés para la comunidad científica internacional y representa una herramienta efectiva para elevar las ganancias económicas y la competitividad de los negocios en el mercado. Los estudios sobre pronósticos poseen una amplia aplicación en disímiles campos de la sociedad. En la actualidad, las investigaciones sobre modelos para pronosticar las demandas de alimentos perecederos son pocas respecto a la cantidad de investigaciones sobre pronósticos en otros campos. La realización precisa de pronósticos de demandas de alimentos perecederos evita la pérdida de estos productos y contribuye a elevar la satisfacción de los clientes. En este artículo se realizó una revisión sistemática de la literatura sobre los principales modelos para pronosticar las demandas de alimentos perecederos desarrollados durante el período 2013-2018. El análisis de la información disponible permitió a los autores determinar que los métodos de pronóstico que emplean técnicas de softcomputing y series de tiempo son los más utilizados en la literatura. También se determinaron las principales variables de entrada de estos modelos y los factores que inciden en la variación de la demanda de estos alimentos.