Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920210005&lang=es vol. 15 num. 4 lang. es <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Utilización de los entornos virtuales de aprendizaje en la Ingeniería en Bioinformática]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500001&lng=es&nrm=iso&tlng=es RESUMEN La utilización del entorno virtual de aprendizaje en las asignaturas de la carrera de Ingeniería en Bioinformática, constituye una meta a lograr en el actual contexto cubano, de modo que responda a las demandas sociales y al cambio tecnológico del siglo XXI, en función de los procesos formativos de la Universidad de las Ciencias Informáticas, por lo que, se pretende como objetivo general proponer un perfil de proyecto de investigación que permita el logro de esta meta. Entre los resultados que se esperan alcanzar una vez que se desarrolle el proyecto se encuentran: Referentes teóricos que sustentan el pensamiento crítico en la nueva universidad y la estrategia como resultado científico, que se sustente en la utilización de los entornos; además, del diagnóstico de los procesos formativos y los sustentados en las Tecnologías de la Información y la Comunicación en particular, a partir de la mediación pedagógica, tecnológica y comunicacional; los fundamentos pedagógicos de la estrategia didáctica de innovación; y las indagaciones teóricas y empíricas que proporcionen los rasgos distintivos y las etapas de la estrategia didáctica que se propondrá. El resultado concreto que se espera alcanzar en el perfil del proyecto que se propone será la estrategia didáctica de innovación para la utilización del entorno en las asignaturas de la carrera; de modo que los estudiantes se desempeñen como constructores de saberes y no como receptores, y los docentes como orientadores, mediadores y facilitadores del autoaprendizaje. Como metodología general de la investigación se empleará esencialmente el Enfoque de Marco Lógico.<hr/>ABSTRACT The use of the virtual learning environment in the subjects of the Bioinformatics Engineering career constitutes a goal to be achieved in the current Cuban context, so that it responds to the social demands and the technological change of the 21st century, in correspondence with the formative processes of the University of Computer Sciences, therefore, the general objective is to propose a project profile of about a research project that allows the achievement of this goal. Among the results expected in the project are: Theoretical references that support alternative thinking in the new university and the strategy as a scientific result, specifically that one based on the use of environments; furthermore, the diagnosis of formative processes in general and those supported by Information and Communication Technologies in particular, based on a pedagogical, technological and communicational mediation; the pedagogical foundations of the didactic strategy of innovation; and the theoretical and empirical inquiries that provide the distinctive features and stages of the didactic innovation strategy that will be proposed. The concrete result that is expected to be achieved in the project profile that is proposed is the didactic strategy of innovation for the use of the environment in the subjects of the career; so that students act as builders of knowledge and not as receivers, and teachers as self-learning counselors, mediators and facilitators. As a general research methodology, the Logical Framework Approach will be used. <![CDATA[Aritmética sobre Torres de Campos Finitos de característica dos, aplicada a la generación de polinomios primitivos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500017&lng=es&nrm=iso&tlng=es RESUMEN Con el avance de la Criptografía y las nuevas herramientas puestas a su disposición, la seguridad de los algoritmos criptográficos se basa principalmente en el empleo de campos finitos de grandes dimensiones lo que dificulta la aritmética sobre ellos, además los sistemas simétricos que emplean polinomios primitivos sobre estos campos, también presentan grandes dificultades para la determinación de los mismos. En este trabajo se analizan las torres de campos finitos como herramienta para lograr una aritmética eficiente, también se exponen ejemplos de estas, a través de la representación de los elementos, pertenecientes a campos de característica dos en bases normales, haciendo énfasis en la operación de exponenciación. Por último, se propone el empleo de torres de campos sobre bases normales en el cálculo del polinomio mínimo, operación fundamental y de mayor complejidad en el algoritmo de generación de polinomios primitivos de E. Madarro en 2017.<hr/>ABSTRACT With the advancement of cryptography and the new tools made available, the security of cryptographic al- gorithms is based mainly on the use of finite fields of big dimensions what makes difficult the arithmetic on them, besides the symmetrical systems that use primitive polynomials on these fields, also present great difficulties for the determination of the same. In this work we analyze the towers of finite fields as a tool for efficient arithmetic, examples of these are also given, through the representation of the elements, belonging to fields of characteristic two on normal bases, emphasizing in exponentiation operation. Finally, is analyzed a proposal that employs towers with representation on normal bases in the algorithm of generation of primitive polynomials exposed by E. Madarro in 2017. <![CDATA[Breve revisión sobre Resolución de Restricciones Geométricas]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500033&lng=es&nrm=iso&tlng=es RESUMEN Usando el software de diseño paramétrico asistido por computadora (CAD) los diseñadores pueden crear modelos geométricos que son actualizados a través de la modificación de los valores de los parámetros de control. Una de las vías mediante las cuales se controla la geometría con tales parámetros es mediante la Resolución de Restricciones Geométricas (GCS), y esta es fundamental para resolver un Problema de Restricciones Geométricas (GCP). Estos problemas aparecen en diferentes áreas como la ingeniería mecánica, modelado químico molecular, visión por computadora, diseño asistido por computadora, localización en re- des de sensores inalámbricos, análisis de tolerancia, geometría dinámica, realidad virtual y robótica. En el presente trabajo se realiza una breve revisión de los métodos empleados para realizar la Resolución de Restricciones Geométricas, entre los que se encuentran los enfoques algebraicos, basados en grafos, basados en lógica, geometría dinámica y métodos evolutivos. Además, se realiza la descripción de diferentes softwares y marcos de trabajo que implementan diferentes enfoques y métodos para resolver estos tipos de problemas.<hr/>ABSTRACT Using parametric computer-aided design (CAD) software, designers can create geometric models that are up- dated by modifying the values of control parameters. One of the ways in which geometry is controlled with these control parameters is through Geometric Constraint Solving (GCS). GCS is fundamental to solving a geometric constraint problem. These problems appear in different areas such as mechanical engineering, mo- lecular chemical modeling, computer vision, computer aided design, localization in wireless sensor networks, tolerance analysis, dynamic geometry, virtual reality and robotics. In this paper, a brief review of the methods used to perform Geometric Constraint Resolution is made, among which are algebraic, graph-based, logic- based, dynamic geometry and evolutionary approaches. In addition, a description of different software and frameworks that implement different approaches and methods to solve these types of problems is made. <![CDATA[Implementación de operador OWA en un sistema computacional para la evaluación del desempeño]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500059&lng=es&nrm=iso&tlng=es RESUMEN La evaluación del desempeño representa una medida de la trayectoria de las personas en un período de tiempo. En las instituciones de la Educación Superior de Cuba los profesores son evaluados anualmente. El proceso evaluativo establece, a partir de un conjunto de criterios evaluativos, una propuesta de evaluación. Sin embargo, este proceso es realizado mediante modelos evaluativos previamente definidos lo que dificulta la gestión de la información y la ayuda a la toma de decisiones. Problemas de esta naturaleza han sido abordados en la literatura científica mediante un enfoque multicriterio. La presente investigación propone una solución a la problemática planteada a partir de la implementación de un operador para la agregación de información codificado en un sistema computacional. El sistema propuesto gestiona el flujo de trabajo del proceso de evaluación, rige el proceso de inferencia mediante el empleo del operador de agregación de información OWA con múltiples selectores. Se obtiene del proceso experimental en un conjunto de evaluaciones que varían su comportamiento a partir del criterio de selección del operador seleccionado.<hr/>ABSTRACT Performance evaluation represents a measure of the trajectory of people over a period of time. In Cuban Higher Education institutions, teachers are evaluated annually. The evaluation process establishes an evaluation proposal based on a set of evaluative criteria. However, this process is carried out using previously defined evaluative models, which makes it difficult to manage information, help decision-making. Problems of this nature have been addressed in the scientific literature using a multi-criteria approach. The present investigation proposes a solution to the problem raised from the implementation of an operator for the aggregation of encoded information in a computer system. The proposed system manages the workflow of the evaluation process, governs the inference process through the use of the OWA information aggregation operator with multiple selectors. It is obtained from the experimental process in a set of evaluations that vary its behavior from the selection criteria of the selected operator. <![CDATA[Modelo de representación de superficies de estructuras macromoleculares]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500075&lng=es&nrm=iso&tlng=es RESUMEN Algunas estructuras biológicas como macromoléculas, proteínas y plaquetas tienen cientos o miles de estructuras atómicas, donde las estructuras internas son irrelevantes a la hora de evaluar la interacción entre ellas. Al evaluar la interacción entre estructuras, la información presente en su superficie es suficiente, por esta razón, es importante contar con un modelo que abstraiga toda la estructura interna, manteniendo solo la presente en la superficie y evitando cálculos innecesarios. Proponemos un módulo de Python nombrado pysurmolmesh para la construcción de un modelo representativo de las superficies de estructuras macromoleculares a través de una malla de partículas interactuantes que reflejan sus propiedades mecánicas y químicas, evitando contener información sobre las estructuras macromoleculares internas.<hr/>ABSTRACT Some biological structures as macromolecules, proteins, and platelets have hundreds to thousands of atomic structures, where internal structures are irrelevant when evaluating the interaction between them. When evaluating the interaction between structures, the information present on their surface is sufficient, for this reason, it is important to have a model that abstracts the entire internal structure, keeping only the one present on the surface and avoiding unnecessary computations. We propose a Python module named pysurmolmesh for the construction of a representative model of the surfaces of macromolecular structures through a mesh of inter- acting particles that reflect their mechanical and chemical properties, avoiding containing information on the internal macromolecular structures. <![CDATA[Planificación eficiente de rutas de distribución. Caso de estudio de una tienda virtual]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500086&lng=es&nrm=iso&tlng=es RESUMEN La mayoría de las situaciones que involucran una cadena de distribución pueden ser modeladas como el Problema de Ruteo de Vehículos. En los últimos años las tiendas virtuales han ganado popularidad en Cuba, destacándose la plataforma TuEnvio. Actualmente, la plataforma carece de un sistema que le permita la obtención de rutas óptimas para la entrega de compras a un gran número de clientes. En este artículo se propone la solución del Problema de Ruteo de Vehículos a partir del problema p-Median Capacitado en combinación con el Problema del Agente Viajero. Para la solución de instancias grandes del problema, se proponen tres estrategias de descomposición para resolver el Problema de Ruteo de Vehículos. El método de solución consiste en dividir grandes instancias del VRP en subinstancias más pequeñas haciendo uso de la información geográfica de los nodos. Cada subinstancia es resuelta agrupando cada nodo en su ruta correspondiente resolviendo el problema p-Median Capacitado utilizando Búsqueda Local Iterada. La secuencia de recorrido de cada nodo dentro de su ruta correspondiente es determinada resolviendo el Problema del Agente Viajero utilizando la heurística Farthest Insertion. La solución propuesta es validada mediante un caso de estudio en el contexto de la entrega de paquetes de la tienda en virtual TuEnvío, en La Habana, Cuba. Los resultados obtenidos indican que dividiendo la instancia original por municipios se obtienen rutas de menor recorrido, pero descomponiendo la instancia recursivamente resolviendo el problema p-Median para determinar las subinstancias requiere un menor esfuerzo computacional y obtiene rutas de longitud aceptable.<hr/>ABSTRACT Most situations involving a distribution chain can be modeled as a Vehicle Routing Problem. The past few years virtual stores have gained a lot of popularity in Cuba, specially the platform TuEnvio. Currently, the platform lacks a system to optimize delivery routes for a large number of clients. To solve this Vehicle Rou- ting Problem, a mix of Capacitated p-Median problem and the Traveling Salesman Problem is proposed. To solve large instances of the Vehicle Routing Problem, three instance decomposition strategies are proposed. The solution method consists in dividing a large instances of the problem into smaller sub-instances using the geographic information of the nodes. Each sub-instance is then solved clustering all nodes in their correspon- ding route solving the Capacitated P-Median problem through Iterated Local Search. The sequence of each node in their corresponding route is determined by solving the TSP using the Farthest Insertion heuristic. The proposed solution is applied to a case study in the context of package delivery of the virtual store TuEnvio, in Havana, Cuba. The obtained results indicate that dividing the original instance by municipalities results in smaller routes, but decomposing the instances by recursively solving the P-Median problem to determine the sub-instances takes considerably less computational effort and obtains routes of acceptable length. <![CDATA[Análisis preliminar de la potencialidad de las diferentes subregiones genómicas de SARS-Cov-2 para su uso como marcadores filogenéticos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500101&lng=es&nrm=iso&tlng=es RESUMEN El uso de herramientas filogenéticas pudiera ser clave en la toma de decisiones en el manejo de las epidemias. La reconstrucción filogenética requiere de marcadores apropiados, que contengan la información necesaria y permitan reconstruir la historia evolutiva del patógeno. Para el estudio el SARS-Cov-2 a nivel internacional se han secuenciado múltiples genomas completos del virus partiendo de aislados de varios países. Esta información, disponible en bases de datos internacionales, ha facilitado la realización de estudios filogenómicos. En el caso de Cuba, las capacidades tecnológicas no permiten secuenciar genomas completos, lo que obliga a evaluar las diferentes regiones genómicas del SARS-Cov-2 para su potencial uso como fuentes de información. En este trabajo se describe un análisis, realizado a inicios de la pandemia, de las regiones genómicas del SARS-Cov-2, para evaluar su posible uso como marcadores filogenéticos. Para ello se emplearon secuencias y herramientas públicas, teniendo en cuenta su variabilidad, tendencia a la saturación y presencia de ruido, además de evaluar su capacidad para reconstruir las mismas relaciones filogenéticas que las obtenidas con el análisis de todo el genoma. Debido a la relativamente baja tasa evolutiva del virus, y al poco tiempo transcurrido desde el comienzo de la transmisión del SARS-Cov-2 en humanos en el momento del estudio, se observa que la variabilidad en las regiones genómicas individuales no aporta el mismo nivel de información, que el genoma completo, y que la longitud del segmento seleccionado y el muestreo taxonómico son determinantes en la capacidad resolutiva de los métodos filogenéticos empleados.<hr/>ABSTRACT The use of phylogenetic tools could be key in making decisions in the management of epidemics. Phylogenetic reconstruction requires appropriate markers, which contain the necessary information and allow reconstructing the evolutionary history of the pathogen. For the study of SARS-Cov-2 at the international level, multiple complete genomes of the virus have been sequenced starting from isolates from several countries. This information, available in international databases, has facilitated phylogenomic studies. In the case of Cuba, technological capabilities do not allow complete genomes to be sequenced, which makes it necessary to evaluate the different SARS-Cov-2 genomic regions for their potential use as sources of information. This work describes an analysis, carried out at the beginning of the pandemic, of the genomic regions of SARS-Cov-2, to evaluate their possible use as phylogenetic markers. For this, sequences and public tools were used, taking into account their variability, tendency to saturation and presence of noise, in addition to evaluating their ability to reconstruct the same phylogenetic relationships as those obtained with the analysis of the entire genome. Due to the relatively low evolutionary rate of the virus, and the short time that has elapsed since the beginning of the transmission of SARS-Cov-2 in humans at the time of the study, it is observed that the variability in the individual genomic regions does not contribute the same level of information, that the complete genome, and that the length of the selected segment and the taxonomic sampling are decisive in the resolution capacity of the phylogenetic methods used. <![CDATA[Desarrollo de una nueva versión de BioBlender, un módulo de Blender para visualización de biomoléculas]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500120&lng=es&nrm=iso&tlng=es RESUMEN Las macromoléculas biológicas, como las proteínas y los ácidos nucleicos, son los motores principales de la célula viva. Conocer su estructura tridimensional y la manera en que interactúan entre ellas y con el entorno, contribuye a entender el funcionamiento de la maquinaria celular. Dentro de la visualización científica, se en- cuentra el arte y la ciencia de la animación 3D, técnica utilizada por diversos programas, como, por ejemplo, el software de modelado 3D de código abierto Blender. Precisamente, sobre la base de este fue desarrollado el paquete de software BioBlender, un módulo de Blender que permite la representación intuitiva de pro- piedades de superficie de biomoléculas, mostrando su superficie de manera fotorrealista, permitiendo así la visualización de complejas propiedades como el potencial electrostático y el potencial lipofílico molecular. BioBlender fue desarrollado y mantenido por la Unidad de Visualización Científica del Consejo Nacional de Investigación de Italia, para una versión ya caducada de Blender, por lo que es necesario desarrollar una nueva versión que se integre a los cambios vigentes en Blender, constituyendo el objetivo de la investigación. Para ello, se ha hecho uso de modelos extraídos de la base de datos biológica Protein Data Bank, de herramientas de desarrollo como el entorno de desarrollo integrado PyCharm y de la utilización exclusiva del lenguaje de programación Python con librerías científicas como Numpy, Scipy y Prody. A pesar de los avances significativos, el trabajo sigue en curso, en desarrollo de nuevo métodos y técnicas para construir una secuencia razonable de movimiento para las proteínas.<hr/>ABSTRACT Biological macromolecules, such as proteins and nucleic acids, are the main engines of the living cell. Kno- wing their three-dimensional structure and the way in which they interact with each other and with the environment, contributes to understanding the functioning of the cellular machinery. Within scientific visualization, there is the art and science of 3D animation, a technique used by various programs, such as the open source 3D modeling software Blender. Precisely, on the basis of this, the BioBlender software package was developed, a Blender module that allows the intuitive representation of surface properties of biomolecules, showing their surface in a photorealistic way, thus allowing the visualization of complex properties such as electrostatic potential and the molecular lipophilic potential. BioBlender was developed and maintained by the Scientific Visualization Unit of the National Research Council of Italy, for an already expired version of Blender, so it is necessary to develop a new version that integrates with the current changes in Blender, constituting the objective of the investigation. For this, use has been made of models extracted from the Protein Data Bank biological database, development tools such as the PyCharm integrated development environment and the exclusive use of the Python programming language with scientific libraries such as Numpy, Scipy and Prody. Despite significant advances, work is still ongoing, developing new methods and techniques to construct a reasonable sequence of movement for proteins. <![CDATA[Tendencias actuales del desarrollo del pensamiento computacional desde el proceso de enseñanza-aprendizaje de la Matemática Discreta]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500131&lng=es&nrm=iso&tlng=es RESUMEN La Matemática Discreta se ha constituido en la base de una buena parte del conocimiento humano en la actualidad, fundamental para la informática, una de las ciencias cuyo basamento matemático es muy fuerte, combinando en ella pensamiento algorítmico y pensamiento matemático, en una simbiosis que se reconoce hoy en la literatura como pensamiento computacional. Después de realizadas observaciones frecuentes al Proceso de Enseñanza-Aprendizaje, análisis documental del trabajo Docente-Metodológico en cuanto a programas analíticos, preparación de asignaturas e informes de control a clases durante el curso 2019-2020, y mediante encuesta realizada a los profesores de Matemática Discreta, la sistematización de investigaciones relacionados con el pensamiento computacional y su aplicación en diferentes subsistemas educacionales, así como la experiencia profesional de los autores y otros profesores que imparten la asignatura de Matemática Discreta, permitió identificar insuficiencias en el desarrollo del pensamiento computacional desde la asignatura Matemática Discreta. El objetivo de este trabajo consiste en realizar la descripción de las tendencias actuales del desarrollo del pensamiento computacional desde la Matemática Discreta en la Universidad de las Ciencias Informáticas. En el trabajo se analizan y se contextualizan los referentes teóricos que sustentan el pensamiento computacional desde el enfoque sistémico-estructural-funcional.<hr/>ABSTRACT Discrete Mathematics has become the basis of a good part of human knowledge today, fundamental for computer science, one of the sciences whose mathematical foundation is very strong, combining algorithmic thinking and mathematical thinking, in a symbiosis that is recognized as Computational Thinking in the literature today. After frequent observations of the Teaching-Learning Program, a documentary analysis of the Teaching-Methodological work in terms of analytical programs, preparation of subjects and control reports to classes in the study during the 2019-2020 academic year, and by means of a survey carried out to the Discrete Mathematics teachers, as well as the systematization of the professional experience of the author and other teachers who teach the Discrete Mathematics subject, it was possible to identify shortcomings in the development of Computational Thinking in the Discrete Mathematics subject. The objective of this work: to describe the current trends in the development of Computational Thinking from Discrete Mathematics at the Informatics Sciences University. In the work, the theoretical references that support Computational Thinking from the systemic-structural-functional approach are analyzed and contextualized, on that basis important investigations related to Computational Thinking and its application in different educational subsystems could be verified. <![CDATA[La realidad aumentada como recurso didáctico en la enseñanza superior]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500146&lng=es&nrm=iso&tlng=es RESUMEN La motivación de los estudiantes es un componente esencial en el buen desempeño de los mismos y en la asimilación de los contenidos de las diversas disciplinas que reciben durante su carrera. Los profesores, en busca de despertar el interés de los estudiantes y como parte de su trabajo metodológico, buscan constantemente nuevos recursos didácticos que enriquezcan la experiencia de enseñanza-aprendizaje. La Realidad Aumentada, como recurso didáctico, ha contribuido a despertar verdadero interés entre los estudiantes. Esta afirmación ha sido corroborada por diferentes estudios internacionales que muestran altos niveles de satisfacción cuando el alumnado utiliza esta tecnología y el aumento significativo de los niveles de motivación cuando los estudiantes están inmersos en acciones formativas con esta tecnología. Junto a la motivación, se ha evidenciado que el uso de la Realidad Aumentada potencia escenarios formativos más motivadores, colaborativos e interactivos y ayuda a una educación más abierta y creativa. Por lo tanto, el objetivo de esta investigación fue elevar la motivación de los estudiantes, así como la formación de habilidades en la asignatura Arquitectura de Computadoras de la carrera de Ingeniería Informática a través una herramienta didáctica que hizo uso de la Realidad Aumentada. Dicha herramienta fue aplicada al 2do año de la carrera mencionada y luego de un estudio comparativo de los resultados obtenidos por los estudiantes durante 3 cursos, incluyendo el actual, se evidenciaron aumentos de la motivación y de la apropiación de habilidades, expresados en las evaluaciones de desempeño obtenidas.<hr/>ABSTRACT The motivation of the students is an essential component in their good performance and in the assimilation of the contents of the various disciplines they receive during their career. Teachers, in search of arousing the interest of students and as part of their methodological work, constantly seek new teaching resources that enrich the teaching-learning experience. Augmented Reality, as a teaching resource, has contributed to arouse true interest among students. This statement has been corroborated by different international studies that show high levels of satisfaction when students use this technology and a significant increase in motivation levels when students are immersed in training activities with this technology. Together with motivation, it has been shown that the use of Augmented Reality enhances more motivational, collaborative and interactive training scenarios and helps a more open and creative education. Therefore, the objective of this research was to raise the motivation of the students, as well as the formation of competencies in the Computer Architecture course of the Computer Engineering degree through a didactic tool that made use of the Augmented Reality. This tool was applied to the 2nd year of the aforementioned career and after a comparative study of the results obtained by the students during 3 courses, including the current one, there were evidenced increases in motivation and appropriation of skills, expressed in the performance evaluations obtained. <![CDATA[Estimar conocimiento latente en grandes volúmenes de datos utilizando el algoritmo Bayesian Knowledge Tracing]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500165&lng=es&nrm=iso&tlng=es RESUMEN Ante la masividad de los datos que se generan en la educación, se han tenido que cambiar los métodos tradicionales para el descubrimiento de conocimientos. Uno de los algoritmos es el Bayesian Knowledge Tracing (BKT) que permite Estimar Conocimiento Latente (ECL). La ECL no es más que la forma de medir el conocimiento de un estudiante sobre habilidades y conceptos específicos, que es evaluada por sus patrones de corrección sobre esas habilidades. Dicho algoritmo está diseñado para ser utilizado en volúmenes de datos pequeños, afectándose su rendimiento ante la presencia de grandes volúmenes de datos. Para dar solución al problema se presentará como resultado la transformación del algoritmo BKT teniendo en cuenta la programación paralela y distribuida. Se utilizaron herramientas de procesamiento en paralelo como el marco de trabajo Apache Spark en un entorno de minado. Se valida la propuesta de solución mediante pruebas para medir rendimiento y eficacia, usando métricas como speedup, eficiencia, error medio cuadrático del diferencial de probabilidades y error medio cuadrático del diferencial del área bajo la curva ROC; para las pruebas fueron empleadas bases de datos educacionales.<hr/>ABSTRACT Given the massive amount of data generated in education, the traditional methods for knowledge discovery have had to be changed. One of the algorithms is the Bayesian Knowledge Tracing (BKT) that allows to Estimate Latent Knowledge (LKE). LKE is nothing more than a way of measuring a student's knowledge about specific skills and concepts, which is evaluated by his or her correction patterns on those skills. This algorithm is designed to be used on small volumes of data, affecting its performance in the presence of large volumes of data. In order to solve the problem, the transformation of the BKT algorithm will be presented as a result, taking into account parallel and distributed programming. Parallel processing tools such as the Apache Spark framework were used in a mining environment. The proposed solution is validated through tests to measure performance and effectiveness, using metrics such as speedup, efficiency, mean squared error of the differential of probabilities and mean squared error of the differential of the area under the ROC curve; educational databases were used for the tests. <![CDATA[Mejorar los procesos de intercambio de información al implementar la función de información del Estado a nivel interno]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500181&lng=es&nrm=iso&tlng=es ABSTRACT The information function is one of the key components of the State’s entire mechanism, the entire system of state bodies. Cloud computing is now becoming one of the most common IT technologies for deploying applications due to its key features: flexible solutions, on-demand availability and good price/quality ratio. Due to the fact that cloud computing bring with them new challenges in the field of information security, it is imperative for organizations to control the process of information risk management in the cloud. This paper proposes a risk assessment approach for assessing the potential damage from the attack on the implementation of components of confidential data and justifies the need for the inclusion of private clouds with a high degree of protection in a hybrid cloud computing environment. Suggested approach to information security risk estimation allows conduction of cloud environment security functioning in conditions of considered vulnerability class influence and also an effectiveness of measure and facility complex to withstand these vulnerabilities. On the basis of received estimation an opportunity to choose between different variants of cloud computing environment configuration and choose more appropriate way according to security requirements arises.<hr/>RESUMEN La función de información es uno de los componentes clave de todo el mecanismo del Estado, todo el sistema de órganos estatales. La computación en la nube se está convirtiendo en una de las tecnologías de TI más comunes para implementar aplicaciones debido a sus características clave: soluciones flexibles, disponibilidad bajo demanda y buena relación precio / calidad. Debido a que la computación en la nube trae consigo nuevos desafíos en el campo de la seguridad de la información, es imperativo que las organizaciones controlen el proceso de gestión de riesgos de la información en la nube. Este documento propone un enfoque de evaluación de riesgos para evaluar el daño potencial del ataque a la implementación de componentes de datos confidenciales y justifica la necesidad de incluir nubes privadas con un alto grado de protección en un entorno de computación en nube híbrida. El enfoque sugerido para la estimación de riesgos de seguridad de la información permite la conducción del funcionamiento de la seguridad del entorno de nube en condiciones de influencia de clase de vulnerabilidad considerada y también una eficacia de medida y complejo de instalaciones para resistir estas vulnerabilidades. Sobre la base de la estimación recibida, surge la oportunidad de elegir entre diferentes variantes de configuración del entorno de computación en la nube y elegir la forma más adecuada de acuerdo con los requisitos de seguridad. <![CDATA[Arquitectura distribuida de alta disponibilidad para la detección de fraude]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500199&lng=es&nrm=iso&tlng=es RESUMEN La detección temprana, rápida y eficaz del fraude en el sector de las telecomunicaciones se ha convertido en la punta de lanza para enfrentar las más complejas y diversas vías en la que pueden producirse los ataques y el fraude. Para su detección se emplean diferentes técnicas, herramientas y algoritmos como el aprendizaje automático el cual es una rama de la Inteligencia Artificial que permite a las computadoras aprender. Para poder aprovechar al máximo las ventajas del aprendizaje automático, se configuran arquitecturas de hardware y software robustas. Estas son configuradas de forma distribuida permitiendo a un conjunto de equipos trabajar como uno solo de forma transparente, aumentando el rendimiento y su procesamiento. El objetivo del pre- sente trabajo es desarrollar una arquitectura distribuida de alta disponibilidad mediante la plataforma de datos Hortonworks que permita aplicar técnicas de aprendizaje automático en la detección de fraude. Se instalaron y configuraron los componentes de Apache que presenta como Spark, HBase y Hadoop los cuales permiten analizar tráfico en grandes cantidades de datos. Se muestra un ejemplo del resultado de aplicar el algoritmo de aprendizaje automático K-means empleando la librería PySpark para la creación de clusters. La instalación y configuración de la plataforma de datos Hortonworks dio como resultado una arquitectura que cuenta con alta disponibilidad, flexible, escalable, tolerante a fallos y permite emplear el aprendizaje automático en la detección de fraude.<hr/>ABSTRACT Early, fast and effective fraud detection in the telecommunications sector has become the spearhead for dealing with the most complex and diverse ways in which attacks and fraud can occur. Different techniques, tools and algorithms are used for detection, such as machine learning, which is a branch of Artificial Intelligence that allows computers to learn. In order to take full advantage of the benefits of machine learning, robust hardware and software architectures are set up. These are configured in a distributed manner allowing a set of computers to work as one in a transparent way, increasing performance and processing. The objective of this work is to develop a highly available distributed architecture using the Hortonworks data platform that allows the application of machine learning techniques in fraud detection. Apache components such as Spark, HBase and Hadoop were installed and configured to analyze traffic in large amounts of data. An example of the result of applying the K-means machine learning algorithm using the PySpark library for the creation of clusters is shown. The installation and configuration of the Hortonworks data platform resulted in an architecture that is highly available, flexible, scalable, fault tolerant and allows the use of machine learning for fraud detection. <![CDATA[Riesgos de Seguridad en Pruebas de Penetración Web]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500225&lng=es&nrm=iso&tlng=es RESUMEN En el presente trabajo se realiza una sistematización de los principales riesgos de seguridad que pueden estar asociados a las pruebas de penetración en aplicaciones web. Para la realización del estudio se consultaron fuentes bibliográficas y reportes de un alto nivel científico y técnico. Se identificaron y describieron 31 riesgos clasificados en dos grupos: los asociados a daños directos a la confidencialidad, integridad y disponibilidad de la información de la aplicación web y aquellos relacionados con la realización de una prueba de penetración deficiente y cuyos resultados parciales también afectan de manera indirecta la seguridad web; estos últimos fueron dividido en cuanto a riesgos de alcance y tiempo, infraestructura tecnológica y personal. Para el tratamiento de los riesgos descritos, se brinda un conjunto de 14 recomendaciones bases para la conformación de una estrategia de mitigación en función de los escenarios de pruebas. Se particulariza también en los modos de aplicación de las herramientas automatizadas de evaluación de vulnerabilidades para limitar los daños en las aplicaciones web. Los resultados alcanzados tienen una alta pertinencia dada por la necesidad de los implicados en los procesos de pruebas de penetración de contar con una base de partida conceptual que favorezca el tratamiento de riesgos y contextualice mejor las decisiones tomadas en función de solucionar las vulnerabilidades de seguridad halladas a través de este tipo de evaluación de seguridad.<hr/>ABSTRACT This paper systematizes the main security risks that may be associated with penetration testing in web applications. Bibliographic sources and reports of a high scientific and technical level were consulted for the study. Thirty-one risks were identified and described, classified into two groups: those associated with direct damage to the confidentiality, integrity and availability of web application information and those related to the performance of a deficient penetration test and whose partial results also indirectly affect the security of web portals, the latter were divided into risks of scope and time, technological infrastructure and personnel. For the treatment of the described risks, a set of 14 basic recommendations is provided for the conformation of a mitigation strategy according to the existing test scenarios. It also focuses on how to apply automated vulnerability assessment tools to limit damage to web applications. The results achieved are highly relevant given the need for those involved in penetration testing processes to have a conceptual starting point that favors the treatment of risks and better contextualizes the decisions taken in order to solve the security vulnerabilities found through this type of security assessment. <![CDATA[Algoritmos de detección de anomalías con redes profundas. Revisión para detección de fraudes bancarios]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500244&lng=es&nrm=iso&tlng=es RESUMEN Los diversos avances en las ciencias y los grandes volúmenes de datos que se han generado sólo en los últimos años han sobrepasado la capacidad humana para recolectar, almacenar y comprender los mismos sin el uso de las herramientas adecuadas limitando las capacidades de detección de fraudes en las instituciones. Una forma de fraude bancario es el que ocurre con las tarjetas de crédito/débito; estas se han convertido en un método de pago muy popular en las compras online de bienes y servicios. Es por estos motivos que se realizó un análisis de los principales algoritmos de detección de anomalías basados en aprendizaje profundo enfocado en el fraude bancario. Se determinó que las arquitecturas basadas en AEs destacan en tareas no supervisadas y las (Long short-term memory) LSTM para tareas de clasificación.<hr/>ABSTRACT The various advances in science and the large volumes of data that have been generated only in recent years have surpassed the human capacity to collect, store and understand them without the use of the appropriate tools, limiting the fraud detection capabilities of companies. institutions. One form of bank fraud is that which occurs with credit / debit cards; these have become a very popular payment method for online purchases and services. It is for these reasons that an analysis of the main anomaly detection algorithms based on deep learning focused on bank fraud was carried out. Architectures based on AEs were found to excel at unsupervised tasks and (Long short-term memory) LSTMs for classification tasks. <![CDATA[Arquitectura para la detección violaciones a políticas de seguridad]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500265&lng=es&nrm=iso&tlng=es RESUMEN Las trazas poseen una gran relevancia en la gestión de la seguridad informática, debido a que la información que en ellas se registran contribuye en las actividades de auditoría y análisis forense, en el apoyo a investigaciones internas, establecimiento de líneas base y en la identificación de tendencias operacionales y problemas de comportamiento de los sistemas de información. Entre las trazas asociadas a la seguridad se encuentran las trazas generadas por el acceso a los servicios de red, específicamente a internet a través de un proxy. El proceso de detección de violaciones de seguridad a partir del análisis de trazas de la navegación de Internet de los usuarios, requiere de variantes que normalicen los formatos existentes. Se deben definir estrategias de análisis y búsquedas que permitan la generación de alarmas y reportes ante la detección de alguna violación de seguridad a las políticas establecidas en la organización. En el presente artículo se expone un análisis de los diferentes formatos para definir la estructura de las trazas. Se propone una arquitectura para la detección de violaciones de seguridad a partir del análisis de trazas de navegación de internet de los usuarios, así como los componentes necesarios como resultado del análisis desarrollado. Se determina un formato común para la estandarización de la estructura de las trazas, permitiendo una mayor capacidad de análisis. Se evalúan las herramientas necesarias para la implantación de la arquitectura propuesta.<hr/>ABSTRACT Logs are highly relevant in the management of computer security, because the information recorded in them contributes to auditing and forensic analysis activities, supporting internal investigations, establishing baselines and identifying operational trends and behavior problems of information systems. Among the logs associated with security are the logs generated by access to network services, specifically the internet through a proxy. The process of detecting security violations from the analysis of logs of users' Internet browsing requires variants that standardize the existing formats. Analysis and search strategies must be defined that allow the generation of alarms and reports in the event of the detection of any security violation to the policies established in the organization. This article presents an analysis of the different formats to define the structure of the Logs. An architecture is proposed for the detection of security violations from the analysis of Internet browsing Logs of users, as well as the necessary components as a result of the analysis developed. A common format is determined for the standardization of the structure of the logs, allowing a greater capacity for analysis. The tools necessary for the implementation of the proposed architecture are evaluated. <![CDATA[Actividades de calidad para la eficiencia del desempeño desde etapas tempranas del software]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500281&lng=es&nrm=iso&tlng=es RESUMEN La eficiencia del desempeño como característica de calidad del producto es un factor importante a tener en cuenta desde inicio del desarrollo del sistema, pues el mal desempeño de esta característica afecta la satisfacción del usuario. Por ello, es significativo conocer el comportamiento de la eficiencia del desempeño en cada etapa y nivel de desarrollo del software a través de diferentes actividades de calidad. En el presente artículo se analizan normas, estándares, modelos, metodologías y criterios de autores reconocidos a nivel internacional con el objetivo identificar las actividades de calidad que se realizan para conocer el comportamiento de la eficiencia del desempeño en el software. Se definen objetivos, precondiciones, frecuencia de uso, productos de trabajo y los resultados esperados de las actividades de calidad propuestas asociadas a la eficiencia del desempeño. Se considera la ejecución de estas actividades como parte del proceso de control y aseguramiento de la calidad en las instituciones y empresas desarrolladoras de software. Es necesario la incorporación de las actividades desde inicio del desarrollo y realizarlas de forma transversal a las actividades de análisis, diseño e implementación del software. Para valorar la contribución de la propuesta dada, se utiliza el método Delphi y criterios de expertos, siendo exitosamente aceptada y aprobada por los mismos.<hr/>ABSTRACT Performance efficiency as a quality characteristic of the product is an important factor to take into account from the beginning of the development of the system, since the poor performance of this characteristic affects user satisfaction. Therefore, it is significant to know the behavior of performance efficiency at each stage and level of software development through different quality activities. In this article, norms, standards, models, methodologies and criteria of internationally recognized authors are analyzed in order to identify the quality activities that are carried out to know the behavior of the performance efficiency in the software. Objectives, preconditions, frequency of use, work products and the expected results of the proposed quality activities associated with performance efficiency are defined. The execution of these activities is considered as part of the quality control and assurance process in institutions and software development companies. It is necessary to incorporate the activities from the beginning of the development and carry them out transversally to the analysis, design and implementation of the software. To assess the contribution of the given proposal, the Delphi method and expert criteria are used, being successfully accepted and approved by them. <![CDATA[Buenas prácticas de experiencia de usuario ante los factores críticos: tiempo, experiencia y presupuesto]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500297&lng=es&nrm=iso&tlng=es RESUMEN La experiencia de usuario constituye un factor esencial en el desarrollo de los sistemas informáticos que va más allá de hacer las interfaces fáciles de usar. En la actualidad existen infinidad de métodos para evaluar la experiencia de usuario. La elección de una buena práctica dependerá de muchos factores, entre ellos la experiencia del que lo ejecuta, las limitaciones de tiempo y financieras. En este trabajo se realiza un análisis de la bibliografía entorno a la evaluación de experiencia de usuario que se adapten a las necesidades de los proyectos productivos cubanos, incluyendo los centros de desarrollo de la Universidad de las Ciencias Informáticas, donde están presentes los factores críticos: tiempo, presupuesto y experiencia. El objetivo de este trabajo es identificar y seleccionar buenas prácticas de evaluación de la experiencia de usuario, teniendo en cuenta los factores críticos: tiempo, presupuesto y experiencia identificados en los proyectos productivos cubanos. Para el análisis se tienen en cuenta los criterios de inclusión: aplicabilidad, costo, garantía de uso, tiempo y experiencia. Como resultado del análisis de la bibliografía se proponen siete prácticas para la evaluación de la experiencia de usuario, tres métodos de inspección y cuatro métodos de prueba.<hr/>ABSTRACT User experience is an essential factor in the development of computer systems that goes beyond making interfaces easy to use. There is now a myriad of methods for evaluating user experience. The choice of a good practice will depend on many factors, including the experience of the implementer, time and financial constraints. In this work, an analysis of the bibliography on the evaluation of user experience that is adapted to the needs of Cuban productive projects, including the development centers of the University of Informatics Sciences, where the critical factors are present: time, budget and experience. The objective of this work is to identify and select good practices of user experience evaluation, taking into account the critical factors: time, budget and experience identified in Cuban productive projects. For the analysis, the following inclusion criteria are taken into account: applicability, cost, guarantee of use, time and experience. As a result of the analysis of the bibliography, seven practices for the evaluation of user experience, three inspection methods and four test methods are proposed. <![CDATA[Mejora del modelo de estimación del esfuerzo en proyectos de la Universidad de las Ciencias Informáticas]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500314&lng=es&nrm=iso&tlng=es RESUMEN La planificación en el mundo de la Industria del Software, se ha convertido en uno de los principales retos para la gestión de proyectos y una actividad fundamental para desarrollar software de alta calidad. La misma requiere estimaciones que garanticen la eficacia del producto. Para planificar es imprescindible la aplicación de buenos métodos de estimación por la creciente influencia que ejercen en el control preciso y predecible, los procesos de producción y los productos de software. En junio del 2016, el proceso productivo de la Universidad de las Ciencias Informáticas estuvo siendo evaluado por el Software Industry Excelence Center de México en conjunto con Especialistas de la universidad. Se certificó el nivel 2 del Capability Maturity Model Integration, detectándose brechas en el área de Planeación de Proyecto relacionadas a la estimación del esfuerzo. En ese contexto se propone la construcción de un modelo de estimación para el esfuerzo en el desarrollo de software adaptándolo a los distintos escenarios con que cuenta la universidad, que pretende mejorar la precisión utilizando una Red Neuronal Artificial de tipo Wavelet Radial Híbrida que combina los conceptos de un sistema heurístico de Búsqueda local y el algoritmo Colonia de abejas. Se utiliza el método Delphi y los criterios de expertos para validar la contribución de la propuesta. Se concluye que la técnica propuesta ayuda al proceso de estimación de los proyectos de desarrollo de la universidad.<hr/>ABSTRACT Planning in the world of Software Industry has become one of the main challenges for project management, and a fundamental activity to develop high quality software. It requires estimates that guarantee the efficiency of the product. The application of good estimation methods is essential for planning because of the increasing influence they have on accurate and predictable control, production processes and software products. In June 2016, the production process of the University of Informatics Sciences was being evaluated by the Software Industry Excellence Center of Mexico in conjunction with specialists from the university. It was certified as Level 2 of the Capability Maturity Model Integration, detecting gaps in the Project Planning area related to effort estimation. In this context, the construction of an estimation model for the effort in software development is proposed, adapted to the different scenarios that the university has, which aims to improve accuracy using an Artificial Neural Network of Hybrid Radial Wavelet type, combining the concepts of a heuristic system of Local Search and the Colony of Bees algorithm. The Delphi method and expert criteria are used to validate the contribution of the proposal. It is concluded that the proposed methodology helps the estimation process of university software development projects. <![CDATA[Procedimiento para evaluar seguridad a productos de software]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500333&lng=es&nrm=iso&tlng=es RESUMEN En la industria del software, la realización de pruebas de calidad constituye la principal forma para la detección de errores y vulnerabilidades, sin embargo, muchas investigaciones y tendencias evidencian que se realizan luego de finalizado el producto y muchas veces solo se ejecutan pruebas funcionales. Esto supone un problema ya que en muchas ocasiones en los resultados de la realización de las pruebas se detectan problemas de tipo: vulnerabilidad, fallos en la integridad de los datos, disponibilidad, pérdidas y costo mediante la manipulación y robo de información. Para garantizar un mayor nivel de seguridad en los sistemas, se realizan las pruebas de seguridad para evaluar específicamente estos elementos fundamentales. En el presente artículo se describe un procedimiento para realizar pruebas no funcionales para evaluar la característica de calidad del producto de seguridad. Es independiente del negocio, del tipo de producto y de la metodología de desarrollo de software. El procedimiento tiene en cuenta buenas prácticas documentas en modelos, normas y estándares reconocidos internacionalmente, que a su vez fueron enriquecidas y particularizadas por expertos de organizaciones cubanas. Se describe el qué probar y el cómo hacerlo, y se muestran los resultados de la valoración de la propuesta por expertos.<hr/>ABSTRACT In the software industry, the performance of quality tests is the main way to detect errors and vulnerabilities, however many investigations and trends show that they are carried out after the product is finished and many times only functional tests are executed. This is a problem since in many cases, in the results of the tests, problems of type are detected: vulnerability, failures in the integrity of the data, availability, losses and cost through the manipulation and theft of information. To ensure a higher level of security in systems, security tests are performed to specifically evaluate these critical elements. This article describes a procedure for performing non-functional tests to evaluate the quality characteristic of the security product. It is independent of the business, the type of product and the software development methodology. The procedure takes into account good documented practices in internationally recognized models, norms and standards, which in turn were enriched and individualized by experts from Cuban organizations. What to try and how to do it is described, and the results of the evaluation of the proposal by experts are shown. <![CDATA[Aplicación de un proceso para la gestión de la mantenibilidad en el desarrollo de software]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500350&lng=es&nrm=iso&tlng=es RESUMEN La inadecuada atención a la mantenibilidad desde etapas tempranas provocará que la mayor parte del tiempo que dedican los programadores al desarrollo, sea invertido en la etapa de mantenimiento. Además, para obtener un producto de software de calidad, es indispensable la ejecución de acciones que garanticen una correcta gestión de la mantenibilidad y disminuyan los altos costos del mantenimiento de los sistemas una vez sean entregados al cliente. A partir de la importancia de esta característica para el éxito en la mejora de los procesos de software, se elaboró un proceso con las actividades a realizar en las disciplinas ingenieriles de desarrollo, así como los roles y artefactos de entrada y salida a estas. Luego, se aplicó el método estudio de casos en un proyecto de desarrollo de software, con el objetivo de obtener las diferencias a partir de la comparación de métricas de mantenibilidad, antes y después de ejecutado el proceso. Los resultados obtenidos fueron satisfactorios, ya que tanto la complejidad como la densidad de código duplicado disminuyeron luego de aplicado el proceso.<hr/>ABSTRACT The inadequate attention to maintainability from early stages will cause that most of the time that programmers dedicate to development will be invested in the maintenance stage. Furthermore, in order to obtain a quality software product, it is essential to implement actions that ensure proper maintainability management and reduce the high costs of maintaining the systems once they are delivered to the customer. Based on the importance of this characteristic for the success in the improvement of software processes, a process was elaborated with the activities to be performed in the development engineering disciplines, as well as the roles and input and output artifacts. Then, the case study method was applied in a software development project, with the objective of obtaining the differences from the comparison of maintainability metrics, before and after the process was executed. The results obtained were satisfactory, since both the complexity and the density of duplicated code decreased after the process was applied. <![CDATA[Aplicación de la gamificación en el diseño de actividades en la Educación a Distancia]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500366&lng=es&nrm=iso&tlng=es RESUMEN Las generaciones actuales de jóvenes necesitan encontrar respuesta en el contexto educativo, a sus preocupaciones tecnológicas y de conocimientos. Esto trae consigo la responsabilidad de profesores e instituciones, de innovar la enseñanza con metodologías emergentes, usadas para incorporar en sus clases estrategias que favorezcan el aprendizaje autónomo y significativo de sus estudiantes. Todo ello en función de aumentar la motivación, el compromiso y de proporcionar todas las herramientas y recursos posibles a sus educandos. El objetivo de este trabajo es hacer una revisión teórica de los beneficios del uso de la gamificación y conocer su aplicación en el contexto educativo. En este trabajo se adopta una metodología cualitativa, basada en investigación de contenido, donde se realiza un análisis de experiencias gamificadas, teniendo en cuenta los elementos de diseño de videojuegos. Los resultados indican que los procesos de gamificación en educación generan en los alumnos importantes beneficios, mayormente relacionados a la generación de compromiso en el aprendizaje. Tras esta argumentación, el artículo concluye a favor de beneficios de la gamificación en educación a distancia como la motivación, la inmersión, el compromiso y la socialización a través de la interactividad, la narrativa para la generación de emociones y la interacción en los espacios educativos.<hr/>ABSTRACT The current generations of young people need to find answers in the educational context to their technological and knowledge concerns. This brings with it the responsibility of teachers and institutions to innovate teaching with emerging methodologies, used to incorporate in their classes’ strategies that favor the autonomous and meaningful learning of their students. All this in order to increase motivation, commitment and to provide all possible tools and resources to their students. The objective of this work is to make a theoretical review of the benefits of the use of gamification and to know its application in the educational context. This work adopts a qualitative methodology, based on content research, where an analysis of gamified experiences is carried out, taking into account the elements of video game design. The results indicate that gamification processes in education generate important benefits for students, mostly related to the generation of commitment to learning. After this argumentation, the article concludes in favor of the benefits of gamification in a distant education such as motivation, immersion, engagement and socialization through interactivity, narrative for the generation of emotions and interaction in educational spaces. <![CDATA[Métodos de detección de comunidad en redes híbridas aplicado al análisis de redes académicas]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500381&lng=es&nrm=iso&tlng=es ABSTRACT In the real-world, multiple-typed objects are interconnected, making heterogeneous information networks. Hybrid network is a heterogeneous network which contains a variety of node types and a variety of relationship types. The concept of heterogeneous network emphasizes the complexity at the level of network structure, while the network formed by the integration of multiple nodes and multiple relationships emphasizes the richness of studied functions. The characteristics of the multi-node and multi-relationship hybrid network are mainly reflected in the following two aspects: first, the diversity of nodes, including a variety of node types and, second, the richness of relationships. Community structure detection is a method used to identify clusters of nodes in a network. Community structure detection is the most widely studied structural features of complex networks. In this paper, we present a review about the method of community detection in hybrid network, and the application to the network analysis. Here, we present a revision of the main techniques, methods, data sets and algorithms used in the literature and, a short description of the general features of the community detection topics. Main authors and their contributions to this fields are introduced. The study is focused on the analysis of the multi-node and multi-relationship hybrid networks with the idea to apply these results to the academic network analysis. Considering the revised literature, we propose a hybrid network community detection algorithm based on meta-path, seed nodes and extend modularity method to study the academic networks.<hr/>RESUMEN En el mundo real, múltiples tipos de objetos están interconectados, creando redes de información heterogéneas. Una red híbrida es una red heterogénea con una variedad de tipos de nodos y una variedad de tipos de relaciones. El concepto de red heterogénea enfatiza la complejidad a nivel estructural de la red y la riqueza de funciones estudiadas. Las características de la red híbrida de múltiples nodos y relaciones se reflejan principalmente en los dos aspectos siguientes: primero, la diversidad de nodos, incluida la variedad de tipos de nodos y, segundo, la riqueza de las relaciones entre ellos. La detección de estructuras comunitarias es un método que se utiliza para identificar grupos de nodos en una red. La detección de estructuras comunitarias es la característica estructural más estudiada de las redes complejas. Aquí presentamos una revisión sobre el método de detección de comunidades en redes híbridas y la aplicación al análisis de redes. Presentamos una revisión de las principales técnicas, métodos, conjuntos de datos y algoritmos utilizados en la literatura y, una breve descripción de las características generales de los temas de detección de comunidades. Se presentan los principales autores y sus contribuciones a estos campos. El estudio se centra en el análisis de las redes híbridas multinodo y multirelación con la idea de aplicar estos resultados al análisis de redes académicas. Teniendo en cuenta la literatura, proponemos un algoritmo de detección de comunidad de red híbrida basado en meta-ruta, nodos semilla y método de modularidad extendida para estudiar las redes académicas. <![CDATA[Principales mecanismos para el enfrentamiento al phishing en las redes de datos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992021000500413&lng=es&nrm=iso&tlng=es RESUMEN En los últimos años se han utilizado diversos mecanismos para detectar ataques de phishing. El papel desempeñado por las técnicas de aprendizaje automático ha sido significativo, principalmente por los niveles de eficacia obtenidos en la detección de estos ataques. Independientemente del servicio en el que se desarrollen, siempre es posible extraer un conjunto de rasgos que permitan identificar cuándo hay o no phishing. Las características pueden extraerse de diversas fuentes como las URL, el contenido compartido a través de un sitio web, una red social o simplemente un mensaje de correo electrónico, el motor de búsqueda, el certificado digital, el tráfico de red, entre otros. La precisión de la solución Anti Phishing depende del conjunto de rasgos, los datos de entrenamiento y el algoritmo de autoaprendizaje. Este artículo presenta un análisis actualizado de los métodos de aprendizaje automático y las herramientas informáticas utilizadas para detectar ataques de phishing en redes.<hr/>ABSTRACT In recent years, various mechanisms have been used to detect phishing attacks. The role played by machine learning techniques has been significant, mainly because of the levels of effectiveness obtained in detecting these attacks. Regardless of the service in which they are developed, it is always possible to extract a set of features to identify when phishing is or is not taking place. The features can be extracted from various sources such as URLs, content shared through a website, a social network or simply an email message, search engine, digital certificate, network traffic, among others. The accuracy of the Ant Phishing solution depends on the feature set, training data and self-learning algorithm. This paper presents an updated analysis of machine learning methods and computational tools used to detect phishing attacks in networks.