Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920200002&lang=pt vol. 14 num. 2 lang. pt <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Virtual learning object created with H5P open source plattform and its impact on learning]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200001&lng=pt&nrm=iso&tlng=pt RESUMEN El propósito de este trabajo es evaluar el impacto que tiene un Objeto Virtual de Aprendizaje desarrollado con la plataforma H5P en el aprendizaje de estudiantes de un programa académico a nivel licenciatura. Para ello, se realizó un estudio piloto de diseño cuasi-experimental, con enfoque cuantitativo y muestreo intencional en donde participaron 46 estudiantes en una universidad. Se conformaron dos grupos: un grupo de control, al cual se le presentó material en formato tradicional y uno experimental que utilizó un Objeto Virtual de Aprendizaje creado con H5P mediante la plataforma Moodle. Para evaluar el impacto entre uno y otro recurso, se aplicó un pre-test y un post- test a cada grupo de participantes. Los datos fueron analizados en el software Minitab 18 para generar estadísticos y resúmenes gráficos para su interpretación. Los resultados del estudio indican un impacto positivo en el aprendizaje de los estudiantes al utilizar el Objeto Virtual de Aprendizaje como material de apoyo.<hr/>ABSTRACT The purpose of this work is to evaluate the impact of a Virtual Learning Object developed with the H5P platform on student learning in an academic program at the undergraduate level. For this, a quasi-experimental design pilot study was carried out, with a quantitative approach and intentional sampling in which 46 students participated in a university. Two groups were formed: a control group, which was presented with material in traditional format and an experimental one that used a Virtual Learning Object created with H5P through the Moodle platform. To assess the impact between one resource and another, a pre-test and a post-test were applied to each group of participants. The data was analyzed in the Minitab 18 software to generate statistics and graphical summaries for interpretation. The results of the study indicate a positive impact on student learning when the virtual learning object is used as support material. <![CDATA[C++ library for work with clusters]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200015&lng=pt&nrm=iso&tlng=pt RESUMEN Los clusters de computadoras son importantes para el desarrollo de investigaciones científicas complejas. Estudios realizados evidencian que las herramientas empleadas en el proceso de trabajo con clusters, resultan complicadas para los usuarios menos relacionados con especialidades técnicas. Este trabajo presenta el diseño e implementación de una biblioteca en C++ orientada a los programadores, que organiza el proceso de trabajo con un cluster en una jerarquía de capas. Esto permite que el programador solo haga uso de funciones de alto nivel de abstracción, más cercanas al problema a resolver por el usuario. La biblioteca, además de permitir a los programadores integrar aplicaciones de escritorio específicas de los usuarios con clusters, viabiliza parte del trabajo con estos de forma desatendida y agiliza la realización de estudios de escalabilidad de programas paralelos. Asimismo, especifica los recursos del cluster y características de aplicaciones necesarios para ejecutar los programas mediante recetas predefinidas. Como parte de la implementación se utilizó el componente de gestión de trabajo de la biblioteca GridMD, y las bibliotecas boost_serialization y boost_filesystem. Las pruebas realizadas para comprobar el funcionamiento de la biblioteca sobre un cluster con Linux y Slurm mostraron un buen desempeño sin errores identificados.<hr/>ABSTRACT Computer clusters are important for the development of complex scientific research. Some studies demonstrate that tools used on clusters are complicated for users less related to technical sciences. This paper presents the design and implementation of a C++ library targeted to programmers, which arranges the work with a cluster into layer architecture. This allows programmers to use high-level abstraction functions, closer to the user's problem to be solved. The library allows not only integrate user´s desktop applications with clusters but also makes part of the work with them in an unattended way and speeds up scalability studies of parallel programs. Likewise, specifies cluster resources and job features required to run the programs by using predefined recipes. As part of the implementation, the job manager component of the GridMD library, and the boost_serialization and boost_filesystem libraries were used. All the tests carried out to the library on a cluster with Linux and Slurm have shown a good performance without identified errors. <![CDATA[Using K-means algorithm for regression curve in big data system for business environment]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200034&lng=pt&nrm=iso&tlng=pt ABSTRACT Predictive analysis quickly becomes a decisive advantage for desired range of Business activities. It involves methods and technologies for organizations to identify models or patterns for data. Big data bring enormous benefits to the business process. Big data properties such as volume, velocity, variety, variation and veracity, render the existing techniques of data analysis not sufficient. Big data analysis requires the fusion of regression techniques for data mining with those of machine learning. Big data regression is an important field for many researchers, several aspects, methods, and techniques proposed. In this context, we suggest regression curve models for big data system. Our proposition is based on cooperative MapReduce architecture. We offer Map and Reduce algorithms for curve regression, in the Map phase; data transform in the linear model, in the reduce phase we propose a k-means algorithm for clustering the results of Map phase. K-means algorithm is one of the most popular partition clustering algorithms; it is simple, statistical and considerably scalable. Also, it has linear asymptotic running time concerning any variable of the problem. This approach combines the advantage of regression and clustering methods in big data. The regression method extract mathematic models, and in clustering, k-means algorithm select the best mathematic model as clusters.<hr/>RESUMEN El análisis predictivo se convierte rápidamente en una ventaja decisiva para la gama de actividades comerciales deseadas. Implica métodos y tecnologías para que las organizaciones identifiquen modelos o patrones de datos. Los grandes datos aportan enormes beneficios al proceso empresarial. Las grandes propiedades de los datos, como el volumen, la velocidad, la variedad, la variación y la veracidad, hacen que las técnicas existentes de análisis de datos no sean suficientes. El análisis de grandes datos requiere la fusión de las técnicas de regresión para la minería de datos con las de aprendizaje automático. La regresión de grandes datos es un campo importante para muchos investigadores, varios aspectos, métodos y técnicas propuestas. En este contexto, sugerimos modelos de curvas de regresión para grandes sistemas de datos. Nuestra propuesta se basa en la arquitectura cooperativa de MapReduce. Ofrecemos algoritmos Map y Reduce para la regresión de la curva, en la fase Map; la transformación de datos en el modelo lineal, en la fase reduce proponemos un algoritmo k-means para agrupar los resultados de la fase Map. El algoritmo K-means es uno de los algoritmos de clustering de particiones más populares; es simple, estadístico y considerablemente escalable. Además, tiene un tiempo de ejecución asintótica lineal en relación con cualquier variable del problema. Este enfoque combina la ventaja de los métodos de regresión y agrupación en grandes datos. El método de regresión extrae modelos matemáticos, y en la agrupación, el algoritmo k-means selecciona el mejor modelo matemático como agrupaciones. <![CDATA[Computer solution for the selection of the web server during the migration to open source]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200049&lng=pt&nrm=iso&tlng=pt RESUMEN La presente investigación se centró en el objetivo de desarrollar una solución informática para aumentar la eficiencia en la selección de los servidores web Apache 2 y Nginx durante el proceso de migración a código abierto. Se aplicó el método Analítico-Sintético para el estudio de Apache 2 y Nginx y la determinación de las particularidades de cada uno. La realización de un estudio de caso aplicando la Norma Cubana ISO/IEC 25023:2017 y el método estadístico, permitió el procesamiento de la información recopilada acerca del comportamiento de Apache 2 y Nginx, esto sirvió de base para formular la teoría relacionada con la eficiencia de ambos servidores. A partir del tipo de contenido y del total de peticiones concurrentes se definieron 60 escenarios para la selección del servidor más eficiente, teniendo en cuenta todos los indicadores o cada medida específica: Rendimiento, Utilización de recursos y Capacidad. Las tres variantes a seleccionar son: Apache 2, Nginx o Nginx como proxy inverso de Apache 2. El resultado obtenido se materializa en la Herramienta para la Migración y Administración de Servicios Telemáticos, la cual posee un componente Web que permite la selección del servidor web que más se ajusta a la institución y la activación del módulo correspondiente para su administración. La solución se validó a través de un estudio de caso, del criterio de expertos en su variante Delphi y la técnica de Iadov. Finalmente, la triangulación metodológica permitió confirmar el resultado satisfactorio de todos los métodos aplicados y el cumplimiento del objetivo planteado.<hr/>ABSTRACT The present research focused on the objective of developing a computer solution to increase efficiency in the selection of Apache 2 and Nginx web servers during the open source migration process. The Analytical-Synthetic method was applied for the study of Apache 2 and Nginx and the determination of the particularities of each one. The realization of a case study applying the Cuban Standard ISO/IEC 25023:2017 and the statistical method, allowed the processing of the information collected about the behavior of Apache 2 and Nginx, this served as the basis to formulate the theory related to the efficiency of both servers. From the content type and the total of concurrent request, 60 scenarios were defined for the most efficient server selection, taking into account all the indicators or each specific measure: Performance, Resource utilization and Capacity. The three variants to select are: Apache 2, Nginx or Nginx as a reverse proxy of Apache 2. The result obtained is materialized in the Tool for Migration and Administration of Telematic Services, which has a Web component that allows the selection of the web server that more it adjusts to the institution and the activation of the corresponding module for its administration. The solution was validated through a case study, expert criteria in its Delphi variant and the Iadov technique. Finally, the methodological triangulation allowed to confirm the satisfactory result of all the applied methods and the fulfillment of the proposed objective. <![CDATA[Single-Shot Person Re-Identification based on Unsupervised Saliency Information]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200070&lng=pt&nrm=iso&tlng=pt ABSTRACT Person re-identification task is important in video surveillance to improve security in public place. In recent years there is a lot of investigation about this thematic. However, the performance in these algorithms is affected by different problems in the scenes, for example, complex background, atmospheric conditions, etc. Some methods as deep learning and saliency descriptor have been used to solve these problems in the real world. In this paper, we developed a method based on the combination of convolutional neural network without fine-tuning and a saliency descriptor to weight all the information present into a person image. Feature maps are extracted from the last convolutional layer of a neural network and merged with other salient map obtained in spatial domain. Finally, different features are generated based on color histograms and local binary patterns. To verify the effectiveness of our proposal, the method is validated using VIPeR dataset and compared with others state of the art algorithms. The results shown that our proposal is easy to implement and is comparable with other approach using the Cumulative Matching Characteristic curve.<hr/>RESUMEN La re-identificación de personas es una tarea importante en video protección para mejorar la seguridad en áreas públicas. En los últimos años existe un gran incremento en las investigaciones sobre este tema. Sin embargo, el desempeño de estos algoritmos es afectado por diferentes problemas presentes en las escenas, por ejemplo, fondos complejos, condiciones atmosféricas y otros. Algunos métodos como el aprendizaje profundo y descriptores de saliencia han sido usados para contrarrestar estos problemas en el mundo real. En el presente artículo, es desarrollado un método basado en la combinación de redes neuronales por comvolución sin aplicar fine-tuning y un descriptor de saliencia para ponderar toda la información presente en la imagen de la persona. Los mapas de rasgos son extraídos desde la última capa de convolución de una red neuronal y combinado con otro mapa de saliencia obtenido en el dominio espacial. Finalmente, diferentes rasgos son generados basados en un histograma de color y patrones binarios locales. Para verificar el desempeño del método propuesto, es validado en la base de datos VIPeR y comparado con otros algoritmos del estado del arte. Los resultados muestran que el método propuesto es fácil de implementar y es comparable con otros métodos usando la curva de correspondencia cumulativa. <![CDATA[ERP for information management in the marketing and distribution of medical products of the company "EMCOMED" of Sancti Spíritus]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200083&lng=pt&nrm=iso&tlng=pt RESUMEN La presente investigación consiste en la presentación de la propuesta de un ERP para la gestión de la información en la comercialización de productos médicos de la empresa ENCOMED de la provincia de Sancti Spíritus el cual surge a partir de la necesidad que tenía la empresa de centralizar la información generada pues ésta se encontraba dispersa, siendo difícil de localizar y almacenada de forma manual lo que traía consigo que el flujo de información fuera lento, los datos que se enviaban no fueran correctos o no llegaran íntegros. Por tanto, el problema de la investigación fue: ¿Cómo mejorar la gestión de información para la comercialización y distribución de productos médicos de la empresa EMCOMED de la provincia de Sancti Spíritus? El documento recoge las características del sistema explicadas a partir de las funcionalidades principales del mismo, así como los elementos arquitectónicamente significativos para la implementación. Además, hace un análisis de los beneficios obtenido a partir de la puesta en práctica del producto en la empresa, los cuales radican principalmente en ahorro de tiempo y de recursos y el control centralizado de los procesos realizados por la empresa.<hr/>ABSTRACT The present investigation consists in the presentation of the proposal of an ERP for the management of infor-mation in the commercialization of medical products of the company ENCOMED of the province of Sancti Spíritus which arises from the need that the company had to centralize the Information generated because it was scattered, being difficult to locate and stored manually, which meant that the flow of information was slow, the data sent were not correct or did not arrive in full. Therefore, the problem of the investigation was: How to improve the manage-ment of information for the commercialization and distribution of medical products of the EMCOMED Company of the province of Sancti Spiritus? The document includes the characteristics of the system explained from the main functionalities of the system, as well as the architecturally significant elements for the implementation. In addition, it makes an analysis of the benefits obtained from the implementation of the product in the company, which mainly lie in saving time and resources and centralized control of the processes carried out by the company. <![CDATA[Modular arithmetic as a security and vulnerability mechanism in the RSA cryptographic system]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200098&lng=pt&nrm=iso&tlng=pt RESUMEN La aritmética modular es la base matemática para el mecanismo de seguridad del sistema criptográfico de clave pública asimétrica RSA. Se mostrará los fundamentos matemáticos de la aritmética modular para el cifrado y descifrado de un texto plano, se definió la base sobre el uso de las operaciones aritméticas de adición, multiplicación y exponenciación sobre la aritmética módulo-n. Se mencionará los criterios de generación de dos números primos 𝑝 y 𝑞 para calcular la clave pública y privada mediante el algoritmo RSA. Se mostrará la importancia de la cantidad de cifras significativas de estos números primos como un mecanismo de seguridad para evitar la factorización de los mismos, además de las vulnerabilidades y ataques a nivel de protocolo; a nivel matemático y de canal lateral, que el sistema RSA posee debido al uso de la aritmética módulo-𝑛. Se desarrolla e implementa en base al lenguaje de programación imperativo Python, la ejecución matemática del algoritmo RSA para la generación de las claves, el cifrado y el descifrado.<hr/>ABSTRACT Modular arithmetic is the mathematical basis for the security mechanism of the cryptographic system of RSA asymmetric public key. We will show the mathematical foundations of modular arithmetic for the encryption and decryption of a plain text, we define the basis on the use of arithmetic addition operations, multiplication and exponentiation on module-n arithmetic. We will mention the criteria for generating two prime numbers p and q to calculate the public and private key using the RSA algorithm. We will show the importance of the number of significant figures of these prime numbers as a security mechanism to avoid factoring them, in addition to vulnerabilities and attacks at the protocol level; to mathematical and lateral channel level, which the RSA system has due to the use of modulo-n arithmetic. I know develops and implements based on the imperative programming language Python, the mathematical execution of the RSA algorithm for key generation, encryption and decryption. <![CDATA[The causes of the change in software requirements]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000200131&lng=pt&nrm=iso&tlng=pt RESUMEN La investigación muestra que una de las principales razones del fracaso de un proyecto de desarrollo de software es el cambio en los requisitos. El éxito o fracaso de estos proyectos depende en gran medida de cómo se trabaje con los requisitos cambiantes. El conocimiento que se tenga sobre las causas del cambio de requisitos puede mejorar la capacidad para tomar mejores decisiones y gestionar los requisitos cambiantes de manera efectiva. El objetivo de la presente investigación es presentar los resultados de un estudio que tuvo como objetivo identificar las causas de los cambios en los requisitos en las fases de desarrollo de software. Se realizó una revisión bibliográfica teniendo en cuenta los elementos fundamentales para esta. La búsqueda produjo una gran cantidad de artículos, pero después de una filtración cuidadosa solo quedaron seis estudios, cuyos principales autores son Munera Bano, Shalinka Jayatilleke, Naved Ali y Muhammad Azeem Akbar, siendo este último autor principal de 3 artículos estudiados. En Todos estos se pudieron encontrar conocimientos empíricos de las causas del cambio de requisitos. Se han identificado diferentes causas y su frecuencia en las fases de desarrollo del software. A pesar de que los requisitos han sido ampliamente citados como uno de los principales desafíos que enfrentan los ingenieros de requisitos, se hace difícil encontrar evidencias empirícas sobre las causas de los cambios. Por esto se hace difícil generalizar los resultados de la investigación. Es necesario realizar más investigaciones empíricas para identificar y comprender completamente las causas del cambio de requisitos.<hr/>ABSTRACT Research shows that one of the main reasons for the failure of a software development project is the change in requirements. The success or failure of these projects depends to a large extent on how they work with the changing requirements. Knowledge of the causes of changing requirements can improve the ability to make better decisions and manage changing requirements effectively. The objective of this research is to present the results of a study that aimed to identify the causes of the changes in the requirements in the software development phases. A bibliographic review was made taking into account the fundamental elements for this. The search produced a large number of articles, but after a careful filtration there were only five articles (six studies) that reported on empirical knowledge of the causes of the change in requirements. Different causes have been identified and their frequency in the software development phases. Although the requirements have been widely cited as one of the main challenges faced by the requirements engineers, it is difficult to find empirical evidence on the causes of the changes. This makes it difficult to generalize the results of the investigation. More empirical research is needed to identify and fully understand the causes of the change in requirements.