Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920190001&lang=es vol. 13 num. 1 lang. es <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Detección de crisis epilépticas no convulsivas usando Mínimos Cuadrados Parciales]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100001&lng=es&nrm=iso&tlng=es ABSTRACT Nonconvulsive status epilepticus (NCSE) is a condition where the patient is exposed to abnormally prolonged nonconvulsive epileptic seizures (NCES)(epileptic seizures without evident physical symptoms). Hence, the diagnosis can only be stated by means of EEG monitoring. NCSE and NCES are associated with severe irreversible brain damage and poor outcome. Hence, the prompt recognition of patients at risk of suffering NCSE is necessary in order to manage them properly and to prevent further brain injury. However, despite the clinical efforts to manage NCES and NCSE, and improve the patient’s outcome, monitoring this pathology in real-time is very difficult. In a previous work of these authors, a patient specific method is proposed to detect the NCES. This method identifies the NCES by exploiting the similarity between the first NCES detected by the physician on the EEG and the rest of NCES in the recording. The method used a support vector machine classifier to perform the classification, obtaining specificity, and sensitivity, results over 98%. However, the method was vulnerable to missclassify epochs with EEG patterns resembling a NCES. In this paper, we propose a complementary method based in partial least squares (PLS) to improve the identification of the NCES patterns of the previously proposed method in dubious EEG segments. The proposed method improved the SVM based model performance obtaining specificity ans sensitivity values over 99%.<hr/>RESUMEN El status epiléptico no convulsivo (NCSE, por sus siglas en inglés) es una afección en la que el paciente está expuesto a crisis epilépticas no convulsivas (NCES, por sus siglas en inglés) anormalmente prolongadas (crisis epilépticas sin síntomas físicos evidentes). Por tanto, el diagnóstico solo puede establecerse mediante el monitoreo del EEG. NCSE y NCES están asociados con daño cerebral irreversible y altos índices de morbilidad y mortalidad. Por ello es necesario el reconocimiento rápido de los pacientes en riesgo de sufrir NCSE a fin de manejarlos adecuadamente y prevenir más lesiones cerebrales. Sin embargo, a pesar de los esfuerzos clínicos para manejar NCES y NCSE y mejorar el resultado del paciente, monitorear esta patología en tiempo real es muy difícil. En un trabajo previo de estos autores, se propone un método paciente-específico para detectar el NCES. Este método identifica el NCES al explotar la similitud entre la primera NCES detectada por el médico en el EEG y el resto de NCES en la grabación. El método utiliza una máquina de vectores de soporte para realizar la clasificación, obteniendo resultados de especificidad y sensibilidad, superiores al 98 %. Sin embargo, el método demuestra ser vulnerable a clasificar mal las épocas con patrones de EEG que se asemejan a NCES. En este artículo, proponemos un método complementario basado en mínimos cuadrados parciales (PLS) para mejorar la identificación de los patrones NCES del método propuesto en (Rodríguez Aldana et al., 2018) para segmentos de EEG dudosos. El método aquí propuesto mejoró el rendimiento del modelo basado en SVM obteniendo valores de especificidad y sensibilidad superiores al 99 %. <![CDATA[Un marco de interoperabilidad semántica basado en datos enlazados para bibliotecas digitales]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100014&lng=es&nrm=iso&tlng=es ABSTRACT The growing popularity of the adoption of the linked data is increasing the semantic interoperability in the digital libraries era. The linked data principles provide an efficient way to interlink resources across diverse datasets. Several digital libraries around the world are publishing their legacy data from catalogs and authority files following the linked data principles. In this paper, we propose a linked data-based semantic interoperability framework for digital libraries. The proposed framework is based on three layers, supporting the data acquisition, linked data publication process and the building of value-added services for the digital libraries users. In order to evaluate the feasibility of the framework proposed, we have built a prototype as a proof of concept. The prototype demonstrates the effective implementation of wrappers as a data integration method to deals with the heterogeneity of the diverse data sources. Moreover, illustrates the importance of dealing with the quality of the bibliographic metadata form early stages of development.<hr/>RESUMEN La creciente popularidad de la adopción de los datos enlazados está aumentando la interoperabilidad semántica en la era de las bibliotecas digitales. Los principios de los datos enlazados proporcionan una manera eficiente de interconectar recursos a través de diversos conjuntos de datos. Varias bibliotecas digitales en todo el mundo están publicando sus datos heredados de catálogos y archivos de autoridad siguiendo los principios de los datos enlazados. En este artículo, se propone un marco de interoperabilidad semántica basado en los datos enlazados para bibliotecas digitales. El marco propuesto se basa en tres capas, que soportan la adquisición de datos, el proceso de publicación de datos enlazados y la creación de servicios de valor agregado para los usuarios de las bibliotecas digitales. Para evaluar la viabilidad del marco propuesto, hemos creado un prototipo como prueba de concepto. El prototipo demuestra la implementación efectiva de envoltorios como un método de integración de datos para abordar la heterogeneidad de las diversas fuentes de datos. Además, ilustra la importancia de tratar con la calidad de los metadatos bibliográficos desde las primeras etapas del desarrollo. <![CDATA[Ensamble de clasificadores para el aprendizaje a partir de flujos de datos no estacionarios.]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100031&lng=es&nrm=iso&tlng=es ABSTRACT Nowadays, many sources generate unbounded data streams at high incoming rates. It is impossible to store these large volumes of data and it is necessary to process them in real time. Because these data are acquired over time and the dynamism of many real world situations, the target function to be learned can change over time, a problem commonly called concept drift. This paper presents a new ensemble algorithm called Classifier Ensemble Algorithm (CEA), able for learning from data streams with concept drift. CEA manipulates these changes using a change detector in each base classifier. When the detector estimates a change, the classifier in which the change was estimated is replaced by a new one. CEA combines the simplicity of the bagging algorithm to train base classifiers and Exponentially Weighted Moving Average (EWMA) control charts to estimate the weights of each base classifier. The proposed algorithm is compared empirically with several bagging family ensemble algorithms able to learn from concept-drifting data. The experiments show promising results from the proposed algorithm (regarding accuracy), handling different types of concept drifts.<hr/>RESUMEN En la actualidad, muchas fuentes generan flujos de datos ilimitados a altas tasas de entrada. Es imposible almacenar estos grandes volúmenes de datos por lo que es necesario procesarlos en tiempo real. Debido a que estos datos se adquieren a lo largo del tiempo y la dinámica de muchas situaciones reales, la función objetivo que se debe aprender puede cambiar con el tiempo, un problema que comúnmente conocido como cambio de concepto. En este artículo se presenta un nuevo algoritmo de ensamble denominado Algoritmo de Ensamble de Clasificadores (CEA), capaz de aprender de flujos de datos con cambios de concepto. CEA manipula estos cambios utilizando un detector de cambios en cada clasificador base. Cuando el detector estima un cambio, el clasificador en el que se estimó el cambio se reemplaza por uno nuevo. CEA combina la simplicidad del algoritmo de bagging para entrenar clasificadores base y el esadístico EWMA para estimar los pesos de cada clasificador base. El algoritmo propuesto se compara empíricamente con varios algoritmos de ensamble basados en bagging capaces de aprender de flujos de datos con cambios de concepto. Los experimentos muestran que el algoritmo propuesto muestra resultados prometedores (con respecto a la precisión), manipulando diferentes tipos de cambios de concepto. <![CDATA[Método para determinar comunidades de desarrollo y actores más influyentes en repositorios de sistemas operativos libres.]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100045&lng=es&nrm=iso&tlng=es RESUMEN Las comunidades de software libre consisten en grupos de usuarios o desarrolladores experimentados que contribuyen a la mejora del sistema operativo, su contribución puede verse de forma práctica en los repositorios de paquetes. El estudio de las interacciones que establecen los desarrolladores de estos paquetes a partir de intereses comunes, contribuye a identificar sus comunidades, promueve la colaboración entre equipos de desarrollo, ayuda a determinar los desarrollos críticos y actores más influyentes. El objetivo de esta investigación es desarrollar un método para determinar comunidades de desarrolladores y actores más influyentes en repositorios de sistemas operativos libres para fortalecer la colaboración entre equipos de desarrollo. En la investigación se realizó un estudio sobre conceptos asociados a la teoría de grafos, análisis de redes colaborativas, detección de comunidades y medidas de centralidad. Además, se describió el procedimiento que sigue el método presentado y se realizaron pruebas en aras de verificar la calidad de la solución. Como resultado final se obtuvo un método que facilitó la búsqueda de paquetes en repositorios de sistemas operativos libres, la extracción de los ficheros de control de cambios de cada uno de estos, la extracción de los nombres de paquetes y sus desarrolladores, así como la creación de una red colaborativa a partir de la relación entre desarrolladores y otra red con la relación paquete - desarrollador. El trabajo con Gephi permitió a su vez visualizar las redes colaborativas y detectar las comunidades y actores más influyentes.<hr/>ABSTRACT Communities consist of groups of experienced users or developers who contribute to the improvement of the operating system, the contribution of communities can be seen in a practical way in the package repositories. The study of the interactions that the developers of these packages establish based on common interests, helps to identify their communities, promotes collaboration between development teams, and helps to determine the critical developments, leaders, experts or most influential actors. The aim of this research is to develop a method for determining communities of developers and more influential actors in free software repositories. A study was carried out on concepts associated with graph theory, collaborative network analysis, algorithms for community detection and centrality measurements. In addition, the implementation process of the presented method was described and different tests were carried out in order to verify the quality of the solution. The final result was a method that facilitated the search for packages in free software repositories and the extraction of change control files from each of these. The method implemented facilitated the extraction of the names of packages and their developers. Gephi Toolkit allowed visualize the detected collaborative networks and distinguish the most influential communities and actors, allowing to strength the collaboration between development teams. <![CDATA[Sistema Experto para el diagnóstico presuntivo de enfermedades fúngicas en los cultivos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100061&lng=es&nrm=iso&tlng=es RESUMEN El impacto negativo de los hongos fitopatógenos es una amenaza importante para la seguridad alimentaria en varios países. El diagnóstico rápido del tipo de hongo que afecta a los cultivos es indispensable para detener la proliferación de la enfermedad y de esta manera lograr minimizar las pérdidas. Este trabajo presenta el Sistema Experto Fungi, para el diagnóstico presuntivo de enfermedades fúngicas en los cultivos. Para el desarrollo de este Sistema Experto se utilizó SWI-Prolog para la creación de la base de conocimientos y Java para la creación de la interfaz de usuario. Este sistema permite realizar un diagnóstico rápido y fiable de los hongos que afectan a los cultivos, específicamente los cultivos que pueden ser diagnosticados con Fungi son: arroz, frijol, tabaco, plátano, ajo, cebolla, maíz, cafeto y cacao. También Fungi se destaca por estar desarrollado sobre las bases del software libre. Además, la comparación de los diagnósticos realizados por expertos humanos y los realizados por Fungi permitió validar el conocimiento formulado en la base de conocimiento. La aplicación de las pruebas de caja negra y del criterio de especialistas permitieron corroborar el correcto funcionamiento del sistema experto propuesto.<hr/>ABSTRACT Countries all over the world have experienced the negative impact that phytopathogenic fungi have on food security. A fast diagnose of the kind of fungus that affect to the crops is essential to stop the disease proliferation and so minimize the losses. This work presents an Expert System for the presumptive diagnosis of fungal diseases in the crops, call Fungi. To the development of this Expert System was used SWI-Prolog for the creation of the knowledge base and Java to the graphic user interface. This system allows a fast and reliable diagnosis of the kind of fungus that is affecting the crops, the specific crops that can be diagnosed with Fungi are: rice, bean, tobacco, banana, garlic, onion, corn, coffee and cocoa. Fungi is developed under free software license. Besides, the comparison of human experts diagnoses and Fungi diagnoses allowed to validate the knowledge base of the system. The application of the black box tests and specialist criterion allowed corroborating the correct operation of the proposed expert system. <![CDATA[Aplicación de software libre para diseño de tecnologías de soldadura manual por arco eléctrico]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100076&lng=es&nrm=iso&tlng=es RESUMEN La informatización de los procesos de fabricación constituye una imperiosa necesidad en la modernización de la industria mecánica cubana. El presente trabajo describió la implementación de una aplicación para el diseño de tecnologías de soldadura manual de aceros con electrodos revestidos. La misma facilitó la selección de las preparaciones de bordes normalizadas y de los electrodos a utilizar, así como el cálculo del régimen de soldadura, los tiempos y los costos del proceso. El programa dispone de una base de datos personalizable, para simplificar la entrada de datos del material base y la máquina de soldadura. La aplicación también permite la especificación del equipamiento auxiliar y de los requisitos tecnológicos literales. La tecnología diseñada con la ayuda del software, es presentada en forma de una especificación de proceso de soldadura, de acuerdo con los requerimientos de las normas ASME. La aplicación ha sido implementada como software libre y de código abierto, con un uso estricto de herramientas de desarrollo distribuidas bajo estas mismas condiciones. También es multiplataforma, pudiendo ser ejecutada tanto en Linux como en MS Windows. Las pruebas preliminares, realizadas en tres empresas manufactureras, han mostrado ahorros significativos en el tiempo de diseño de las tecnologías, así como mejoras en la calidad y la trazabilidad de los resultados.<hr/>ABSTRACT Computerization of manufacturing processes is a demanding need for updating the Cuban mechanical industry. This work describes the implementation of an application for designing shielded metal arc welding technologies of steels. It simplifies selecting the standardized joint preparations and the electrodes to be used, and computing the welding parameters, process time and costs. The application has a customizable database, for marking straightforward the input of material and welding machine data. It also allows stating the auxiliary equipment and word-based technological requirements. The computer aided designed technology is presented as a welding procedure specification, accomplishing the ASME standards. The application has been implemented as open code and free software, by a strict use of development tools distributed under these conditions. It is also multi-platform and can be executed either on Linux or on MS Windows. Preliminary tests, which were carried out in three manufacturing enterprises, have shown a significant saving in time consumption for technology design and improvements in the outcomes quality and traceability. <![CDATA[Biblioteca de clases para optimización multiobjetivo mediante el método de entropía cruzada]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100090&lng=es&nrm=iso&tlng=es RESUMEN La optimización multiobjetivo juega un papel fundamental en la ingeniería moderna, ya que permite diseñar sistemas y procesos donde se mejoran varios criterios simultáneamente. En este campo, se destaca el uso del llamado enfoque a posteriori, basado en la obtención de las soluciones no dominadas (conocidas también como el conjunto de Pareto) para, posteriormente, seleccionar de ellas la alternativa más conveniente para las condiciones reales. Este ha mostrado ser la opción más efectiva, ya que evita el suministro previo de cualquier indicación de preferencia con respecto a los objetivos. Este trabajo presenta la implementación de una biblioteca de clases para la optimización multiobjetivo a través del método de entropía cruzada. Esta se basa en una biblioteca previa, de MATLAB, desarrollada y publicada por los autores. La biblioteca fue implementada en C++, evitando el uso de otras bibliotecas aparte de la estándar, para garantizar su portabilidad y su capacidad de integración. Será distribuida bajo la Licencia Pública General Reducida de GNU (versión 3). Para comprobar no sólo el funcionamiento de la biblioteca, sino también su inserción en otros programas, se desarrolló una aplicación. Todas las pruebas realizadas mostraron un buen desempeño sin errores identificados. Como desarrolló futuro de este trabajo, se prevé la implementación de otras heurísticas de optimización multiobjetivo, tales como los algoritmos genéticos y la optimización de hormiguero. También deberá ser integrada esta biblioteca en aplicaciones para resolver problemas industriales reales, como son la optimización de la sostenibilidad de procesos de fabricación y el diseño de microindustrias alimentarias.<hr/>ABSTRACT Multi-objective optimization plays a key role in modern engineering practice, as it allows designing systems and processes where several criteria are simultaneously improved. In this field, it should be highlighted the use of the so-called a posteriori approach, which is based on obtaining the non-dominated solutions (also known as the Pareto set) for, after that, choosing from them the most convenient alternative for the actual conditions. It has emerged as the most effective choice, as it avoids the previous supply of any preference indication with respect to the objectives. This work presents the implementation of a class library for multi-objective optimization by using the cross-entropy method. It is based in a previous MATLAB toolbox developed and published by the authors. The library was implemented in C++, avoiding the use of any library but the standard ones, for guarantying the portability and integration capability. It will be distributed under the GNU Lesser General Public License (version 3). For testing not only the behavior of class library but also its insertion in other programs, an application was developed. All the tests carried out to the software have shown a good performance without identified mistakes. As a future development of this work, it has been foreseeing the implementation of other multi-objective optimization heuristic, such as genetic algorithms and ant colony optimization. It should be also integrated this library in applications for solving actual industrial problems, such as optimization of sustainability of manufacturing processes and design of micro-industries for food processing. <![CDATA[DEPTHWAVE: aplicación para la simulación gráfica del comportamiento del mar.]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100105&lng=es&nrm=iso&tlng=es RESUMEN Ofrecer herramientas que faciliten la capacitación del personal especializado, la planificación estratégica y la predicción eficiente en la industria marítima representa enormes ventajas al reducir sustancialmente la utilización de prototipos físicos. El desarrollo de un sistema con estas características impone como desafío la necesidad de contar con una representación del entorno marino, debido a que los movimientos de la embarcación son inducidos mayormente por el oleaje, fenómeno natural complejo, que cambia continuamente a causa de la velocidad del viento y otros factores. En el presente trabajo se presenta la aplicación DEPTHWAVE desarrollada con la distribución de software libre del motor gráfico OGRE3D, y basada en la implementación de un método matemático fundamentado en el espectro direccional Pierson Moskowitz con el objetivo de generar y visualizar de forma realista la superficie del mar.<hr/>ABSTRACT Providing tools that facilitate the training of specialized personnel, strategic planning and efficient prediction in the maritime industry represents enormous advantages by substantially reducing the use of physical prototypes. The development of a system with these characteristics imposes as a challenge the need to have a representation of the marine environment, because the movements of the boat are mainly induced by the swell, a complex natural phenomenon that changes continuously due to the speed of the water, the wind and other factors. This paper presents the DEPTHWAVE application developed with the free software distribution of the OGRE3D graphic engine, and based on the implementation of a mathematical method supported by the Pierson Moskowitz directional spectrum with the objective of generating and realistically visualizing the surface of the sea. <![CDATA[Aplicación de tecnologías para la determinación de la competencia de los expertos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100116&lng=es&nrm=iso&tlng=es RESUMEN Dentro del sector educacional se identifican y describen tecnologías que tienen y que tendrán un impacto significativo en la sociedad. Esto trae consigo la necesidad de valorar las posibilidades didácticas de estas tecnologías en relación con los objetivos y fines que se pretenda alcanzar en las universidades. Para dar respuesta a la necesidad de muchos docentes que requieren de ayuda para la selección de los expertos, como etapa del método de evaluación de expertos, que por lo general, lo emplean en sus investigaciones científicas, con el fin de evaluar la calidad y efectividad del modelo teórico propuesto y/o comprobar la validez de los instrumentos de investigación que serán aplicados en sus investigaciones; surge la idea del presente trabajo que define como objetivo mostrar las posibilidades didácticas de algunas tecnologías para la determinación de la competencia de los expertos como apoyo a la práctica investigativa de los docentes. Para ello se diseñó y se desarrolló un fichero MS-excel como herramienta de Windows, una aplicación de escritorio multiplataforma y una aplicación para dispositivos móviles. El impacto de estos resultados se evidenció por el nivel de satisfacción de los docentes que participaron en diferentes formas organizativas de superación, ofertadas en la Universidad de las Ciencias Informáticas, referidas al método Delphi para la evaluación de los criterios de expertos.<hr/>ABSTRACT Within the educational sector, technologies that have and that will have a significant impact on society are identified and described. This brings with it the need to assess the didactic possibilities of these technologies in relation to the objectives and aims that are to be achieved in universities. To respond to the need of many teachers who need help in the selection of experts, as a stage of the evaluation method of experts, who usually use it in their scientific investigations, in order to evaluate the quality and effectiveness of the proposed theoretical model and / or verify the validity of the research instruments that will be applied in their investigations; the idea of ​​the present work emerges that defines as objective to show the didactic possibilities of some technologies for the determination of the competence of the experts as support to the investigative practice of the teachers. For this, an MS-excel file was designed and developed as a Windows tool, a multiplatform desktop application and an application for mobile devices. The impact of these results was evidenced by the level of satisfaction of the teachers who participated in different organizational forms of improvement, offered at the University of Computer Science, referring to the Delphi method for the evaluation of expert criteria. <![CDATA[Revisión sobre directrices prácticas para la calidad del modelado de procesos de negocio]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100127&lng=es&nrm=iso&tlng=es RESUMEN Las organizaciones se enfrentan a procesos cada vez más grandes y complejos, los modelos de procesos son clave para facilitar el entendimiento de los procesos en las organizaciones y en el diseño de sistemas de información. La etapa de modelado del negocio es crucial en el proceso de desarrollo de software debido a que los errores en el modelado pueden generar nefastas consecuencias en la calidad de un sistema. Considerando estos elementos, en este trabajo se realizó una revisión en la literatura científica sobre el modelado de procesos de negocio y su calidad, siguiendo una metodología definida previamente. Se obtuvo como resultado que la tendencia en la comunidad científica está en la definición de directrices prácticas para el modelado de procesos de negocio que mejoran la comprensibilidad de los modelos. Estas directrices están enfocadas en mejorar estructuralmente los modelos para que sean más comprensibles. La utilización de un lenguaje de modelado no asegura que los modelos que se obtienen cuenten con características de calidad deseables, sino que además es vital contar con herramientas que permitan verificar que los modelos satisfagan adecuadamente las construcciones del lenguaje, incluyendo la utilización de directrices para el modelado y restricciones del dominio que pueden ser representadas a través de ontologías.<hr/>ABSTRACT Organizations are faced with increasingly large and complex processes, the process models are key to facilitate the understanding of processes in organizations and in the design of information systems. The stage of modeling the business is crucial in the software development process because errors in modeling can have harmful consequences on the quality of the system. Considering these elements, in this work a review is made in the scientific literature about the business processes modeling and their quality, following a previously defined methodology. It is obtained as a result that the tendency in the scientific community is in the definition of practical guidelines for the business processes modeling that improve the comprehensibility of the models. These guidelines are focused on structurally improving the models to make them more understandable. The use of a modeling language does not ensure that the models that are obtained have desirable quality characteristics, but it is also vital to have tools to verify that the models adequately meet the language constructions including the use of guidelines for modeling and domain restrictions that can be represented through ontologies. <![CDATA[Revisión de elementos conceptuales para la representación de las arquitecturas de referencias de software]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100143&lng=es&nrm=iso&tlng=es RESUMEN La representación de conocimiento de las arquitecturas de referencias de software abarca elementos que particularizan una arquitectura de software, así como la descomposición y definición estándar de sus componentes. La presente investigación identificó las formas comunes para representar las arquitecturas de referencias de software; aportó, además, los elementos relevantes de las arquitecturas y sus insuficiencias. Como resultado de la revisión se obtuvo que existen diferentes formas de representación para las arquitecturas de referencias de software, descritas usualmente en lenguaje natural, limitando el uso de herramientas o notaciones utilizadas para el análisis y reutilización de la información, así como el chequeo de la correctitud de las especificaciones. Los hallazgos relacionados con las arquitecturas de referencias de software se tuvieron en cuenta para el desarrollo de una propuesta que permitió representar el conocimiento arquitectónico relativo a las decisiones arquitectónicas y su razonamiento.<hr/>ABSTRACT The knowledge representation of the software reference architectures covers elements that particularize software architecture, as well as the decomposition and standard definition of its components. The present research identifies the common ways to represent software reference architectures; it also contributes the relevant elements of the architectures and their insufficiencies. As a result of the review it was obtained that there are different forms of representation for software reference architectures, usually described in natural language, limiting the use of tools or notations used for the analysis and reuse of information as well as the verification of correctness of the specifications. The findings related to the architecture of software references will be taken into account for the development of a proposal that allows representing the architectural knowledge related to architectural decisions and their reasoning. <![CDATA[Literatura y creatividad artificial en la época de la singularidad]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100158&lng=es&nrm=iso&tlng=es RESUMEN El objetivo del presente artículo fue analizar la convergencia de las plataformas emergentes de narrativa digital y la asimilación de la creatividad literaria humana por la creatividad artificial en el contexto de la noción de singularidad. Actualmente, las plataformas de escritura y lectura digital como Wattpad ya aplican la Inteligencia Artificial (IA) para la captura de datos de sus usuarios. Tanto los millones de historias, el comportamiento de los autores y lectores, así como sus interacciones registradas por la plataforma, configuran un almacén de información narrativa con el cual se podrían alimentar los nuevos procesos de aprendizaje de los robots creativos narradores, tal como ya lo hace Quill, un algoritmo que genera contenido periodístico. A través del análisis crítico se ofrece una revisión del contexto filosófico de la IA. Como resultado, el artículo aporta un entendimiento más adecuado de la creatividad literaria, la creatividad artificial y el relato de la singularidad como fundamento filosófico de la IA.<hr/>ABSTRACT This article analyses the convergence of emerging platforms of digital narrative and the assimilation of human literary creativity by artificial creativity in the context of the notion of Singularity. Currently, digital reading and writing platforms such as Wattpad already applies Artificial Intelligence (AI) to capture data from its users. Both the millions of stories and the behavior of the authors and readers (interactions collected by the platform), configure a store of information with which the new machine learning processes of the creative narrative could be fed, as Quill already does, an algorithm that generates journalistic content. Through critical analysis, this article offers a review of the philosophical context of AI. As a result, the paper provides a more adequate understanding of literary creativity, artificial creativity and the narrative of singularity as a philosophical foundation of AI. <![CDATA[Repositorio de datos para investigaciones en gestión de proyectos]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992019000100176&lng=es&nrm=iso&tlng=es RESUMEN Los repositorios de datos permiten el desarrollo de investigaciones, el descubrimiento de conocimiento y la prueba de nuevos algoritmos de aprendizaje. El presente trabajo tiene como objetivo presentar un repositorio para el desarrollo de investigaciones en gestión de proyectos. En el trabajo los autores presentan un conjunto de procesos técnicas para la gestión del repositorio. El repositorio está compuesto por 18 bases de datos que cubren diferentes áreas de conocimiento en gestión de proyectos. Los datos reflejan el comportamiento de proyectos de desarrollo de software. En la sección de resultados y discusión los autores referencias un conjunto de tesis de doctorado, tesis de maestría y artículos que emplearon los datos del repositorio para diferentes investigaciones. Los autores evalúan la calidad percibida de los investigadores aplicándole a los mismos un cuestionario que evalúa las variables pertinencia y usabilidad.<hr/>ABSTRACT Data repositories allow the sharing, reuse and localization of data for learning and discovery of new knowledge within organizations. In this work authors presents a repository for investigations in project management. This repository consists of 18 databases covering the most of project management areas. All data are from software projects and can be use in different investigations. The paper presents to processes and techniques to manage the databases in repository. In section results and discussion authors presents different references of phd thesis, master degree thesis and papers that used repository´s databases. Authors evaluate the quality perceived of researchers by applying a questionnaire to evaluate two variables pertinence and usability.