Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920200003&lang=es vol. 14 num. 3 lang. es <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[Evaluar la calidad de la comunicación visual para una mayor usabilidad del software de gestión empresarial]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300001&lng=es&nrm=iso&tlng=es RESUMEN El Diseño de la Comunicación Visual del software aporta a un mejor empleo, satisfacción y aceptación del usuario con las aplicaciones informáticas. Por su impacto en la Usabilidad, las organizaciones productoras de software de gestión empresarial debieran contemplar como parte de su gestión de calidad, la evaluación del Diseño de la Comunicación Visual. Ello contribuye a que los productos sean más eficientes y eficaces en su uso y mensaje a comunicar, tanto en las interfaces gráficas como en los medios de apoyo técnico. El presente trabajo tiene como objetivo compartir la elaboración y validación de un instrumento que profundiza en la valoración de la Usabilidad, mediante la evaluación de la calidad del Diseño de Comunicación Visual del software de gestión empresarial. Los principales métodos y técnicas empleados fueron, el análisis documental, para el estudio de autores y normas nacionales e internacionales. La observación participante, para el proceso de evaluación del software de gestión empresarial y la entrevista a evaluadores de dichos productos. El método Delphi, para recopilar criterios de expertos sobre el instrumento.<hr/>ABSTRACT The Design of the Visual Communication of the software contributes to a better use, satisfaction and acceptance of the user with the computer applications. Due to its impact on Usability, organizations producing business management software should consider as part of their quality management, the evaluation of Visual Communication Design. This contributes to making the products more efficient and effective in their use and message to be communicated, both in the graphic interfaces and in the technical support means. The objective of this work is to share the development and validation of an instrument that deepens the assessment of Usability, by evaluating the quality of the Visual Communication Design of business management software. The main methods and techniques used were documentary analysis for the study of authors and national and international standards. The participant observation, for the evaluation process of the business management software and the interview to evaluators of said products. The Delphi method, to collect expert judgment on the instrument. <![CDATA[Nuevo método para el descubrimiento de subgrupos no redundantes]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300018&lng=es&nrm=iso&tlng=es RESUMEN El descubrimiento de subgrupos es una tarea de la Minería de Datos que tiene como objetivo identificar subconjuntos de ejemplos con un comportamiento inusual con respecto a una característica de interés. Un problema que puede afectar la comprensibilidad de los modelos obtenidos por los métodos de descubrimiento de subgrupos, es la redundancia. En este artículo se presenta DINOS, un algoritmo para la extracción de subgrupos no redundantes y con alta inusualidad en forma de reglas cuantitativas. Para ello se emplea un algoritmo genético multiobjetivo que permite optimizar inusualidad, sensibilidad, confianza y comprensibilidad, mientras realiza un aprendizaje evolutivo de los intervalos de los atributos que intervienen en las reglas de subgrupos. Además, este algoritmo emplea criterios para determinar redundancia basados en cobertura y los intervalos de confianza del oddratio, para filtrar los subgrupos redundantes. Un estudio experimental basado pruebas no paramétricas y una comparación pareada con los modelos obtenido por varios algoritmos del estado del arte demuestra la novedad y validez de la propuesta. Los resultados muestran que DINOS obtiene los mejores valores en las métricas estudiadas entre los algoritmos involucrados en el estudio.<hr/>ABSTRACT Subgroup Discovery is a Data Mining task to identify descriptions of subsets of a data set that show an interesting behavior with respect to certain interestingness criteria. A major problem that affect the comprehensibility of the results is the redundancy feature. Dependencies between the non-target attributes lead to large numbers of variations of a particular subgroup. Since many descriptions can have a similar coverage of the given data. In this work a new algorithm for the description induction of not overlapped subgroups (DINOS) is proposed. This algorithms is able to automatically determine the intervals for the numerical attributes of a data set. The experimental study shows that DINOS obtains subgroups with high quality that improves the results reported in the literatura. <![CDATA[Diseñando procesos para cerrar el ciclo de I+D+i en organizaciones de software]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300041&lng=es&nrm=iso&tlng=es RESUMEN El dinamismo de la industria del software exige constantes cambios, basado en el uso intensivo de la información y el conocimiento, con énfasis en la aplicación de la ciencia y la tecnología a los procesos productivos. El objetivo es diseñar el sistema de gestión de los procesos institucionales que generan valor a los clientes/usuarios de las soluciones informáticas desarrolladas en los Centros, basados en la NC ISO 9001:2015 y el Modelo de Capacidad y Madurez (CMMI), sustentado en herramientas y técnicas para la evaluación y mejora de la gestión por procesos. Los principales resultados referencian procesos de gestión y de realización de soluciones integrales que determinan las relaciones entre componentes del sistema gestionándolos de manera sistémica. Se obtuvo una guía fundamentada en el Manual del Sistema, que contribuye a la eficacia y eficiencia en el logro de los objetivos, en función del cambio organizacional que propicie el desarrollo de la industria.<hr/>ABSTRACT The dynamism of the industry of the software demands constant changes, based in the intensive informational use and the knowledge, with emphasis in the scientific application and the technology to the productive processes. The objective is designing the management system of the institutional procedures that generate value to the customers/users of the comprehensive solutions accomplished in the Centers, based in the NC ISO 9001:2015 and the Capability Maturity Model Integration (CMMI), held in tools and techniques for the evaluation and improvement of the step for processes. The main results reference processes management and realization of comprehensive solutions that determine the relations between the components of the system negotiating them of systemic way. A guideline based in the System Manual is obtained, that it contributes to efficacy and efficiency in the achievement of the objectives, in terms of the organizational change that propitiates the development of the industry. <![CDATA[Ajuste de parámetros de algoritmos genéticos: propuesta de método compuesto]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300059&lng=es&nrm=iso&tlng=es RESUMEN El ajuste de parámetros permite encontrar la mejor configuración de los métodos de optimización ante un determinado problema. Este es un proceso extremadamente costoso desde el punto de vista computacional. Algunos procesos como la optimización estructural requieren un enorme consumo de recursos computacionales, por lo que resulta casi imposible ajustar los parámetros del método utilizado. Una manera de evitar este inconveniente es utilizar funciones analíticas (o de referencia) que simulen las características principales de las funciones objetivo reales. En este artículo se utiliza la función Eggholder para ajustar los parámetros de los algoritmos genéticos (GA), utilizando como utilidad la representación gráfica de la curva de rendimiento promedio y su correspondiente valor MBF. Los resultados obtenidos plantean que, para optimizar este tipo de funciones de alta complejidad, y obtener resultados satisfactorios utilizando GA simple, es necesario establecer tamaños de población grandes (300 o más). La mejor configuración resultó ser realizar la selección uniforme, el cruzamiento heurístico, la reproducción estableciendo un elitismo del 15 % de la población total y una fracción de cruzamiento de 0.60. Debido a la incapacidad del GA simple de encontrar el óptimo global de manera regular se plantean otras soluciones. La primera es optimizar utilizando variables enteras. La segunda consiste en generar una población inicial utilizando el propio algoritmo de GA simple, lo cual denominamos método compuesto. Esta estrategia fue capaz de encontrar el óptimo global el 100% de las pruebas, a costa de un incremento del costo computacional en un 16%.<hr/>ABSTRACT Parameter tuning deals with finding the best configuration of an optimization method in a given problem. It is an extremely high computing process. Some problems, such as structural optimization, need enormous resource consumption, so tuning the method´s parameters in these processes is certainly expensive. One way to avoid this drawback is to use analytical functions (or benchmark functions), simulating the main features of real ones. In this paper, the Eggholder function is used as case study to tune the parameters of the Genetic Algorithms (GA), using as utility the graphical visualization of the average performance curve, and its correspondent MBF value. The results showed that for optimizing these high-complexity functions, it is necessary to establish high population sizes (300 or more). The best configuration reached was using uniform selection, heuristic crossover, reproduction establishing an elitism of 15 % of the population size and a crossover fraction of 0.60. Due to the inability of simple GA of finding the global optimum regularly, other solutions are recommended. The first one is using discrete variables in the optimization process. The second one consists on creating an initial population, using the simple GA itself. This is what we call compound method, and it was capable to find the global optimum the 100% of the tests, demanding only 16% more computational consumption. <![CDATA[Estrategia de pruebas para organizaciones desarrolladoras de software]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300083&lng=es&nrm=iso&tlng=es RESUMEN La realización de pruebas para evaluar el software se ha convertido en una tendencia en la industria, pero disimiles investigaciones y tendencias evidencian que se realizan luego de finalizado el producto y muchas veces solo se ejecutan pruebas funcionales. Esto supone un problema pues se aleja la detección del defecto del momento en que se introduce, lo que incide en los costos de corrección y alargan los cronogramas del proyecto, sin cubrir las pruebas estructurales y no funcionales. En el presente artículo describe una estrategia de pruebas que abarca pruebas funcionales, no funcionales, estructurales y asociadas al cambio, es independiente del negocio, del tipo de producto y de la metodología de desarrollo de software. La estrategia tiene en cuenta buenas prácticas documentas en modelos, normas y estándares reconocidos internacionalmente, que a su vez fueron enriquecidas y particularizadas por expertos de organizaciones cubanas. Se integra el qué probar a partir del tipo de prueba por niveles y el cómo probar a partir de describir los objetivos, objetos de pruebas típicos, bases de pruebas, enfoques y responsabilidades, defectos y tipos de fallas típicos y técnicas y estrategias. Se muestran los resultados de la valoración de expertos y un estudio de casos para mejor comprensión de la propuesta.<hr/>ABSTRACT Testing to evaluate software has become a trend in the industry but dissimilar investigations and trends show that they are carried out after the product is finished and often only functional tests are executed. This is a problem since the detection of the defect is moved away from the moment it is introduced, which affects the correction costs and lengthens the project schedules, without covering the structural and non-functional tests. This article describes a testing strategy that encompasses functional, non-functional, structural and change-associated tests, independent of the business, the type of product and the software development methodology. The strategy takes into account good documented practices in internationally recognized models, norms and standards, which in turn were enriched and individualized by experts from Cuban organizations. It integrates what to test from the level test type and how to test from describing the objectives, typical test objects, test bases, approaches and responsibilities, defects and typical failure types and techniques and strategies. The results of the expert assessment and a case study are shown to better understand the proposal. <![CDATA[Programación de un controlador lógico difuso en un PLC M241: Aplicación práctica a un túnel de lavado industrial de textil]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300105&lng=es&nrm=iso&tlng=es RESUMEN En este artículo se presenta un nuevo sistema de dosificación automática de productos químicos en correspondencia al grado de suciedad del tejido para un túnel de lavado industrial de textil. Para ello fue desarrollado un caso práctico de un sistema de control automático difuso que selecciona la receta más eficaz de dosificación. El controlador fue sintetizado en dos variantes: una utilizando el asistente matemático conocido como Matlab® y otra empleando un programa en el lenguaje de texto estructurado para controladores lógicos programables. Los resultados se compararon a través de simulaciones obteniendo resultados muy provechosos con respecto a los programas preestablecidos por el usuario.<hr/>ABSTRACT This article presents a new system for automatic dosing of chemical products according to the degree of dirtiness of the fabric for an industrial textile washing machine tunnel. For this purpose, a practical case of a diffuse automatic control system that selects the most effective dosage recipe was developed. The controller was synthesized in two variants: one using the mathematical assistant known as Matlab® and another using a program in the structured text language for programmable logic controllers. The results were compared through simulations obtaining very profitable results with respect to the programs pre-established by the user. <![CDATA[Aspectos claves para la informatización y el Gobierno Electrónico]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300124&lng=es&nrm=iso&tlng=es RESUMEN El empleo intensivo y creativo de las Tecnologías de la Información y la Comunicación introduce cambios al modo en que los bienes y servicios son producidos y distribuidos, modifica las rutinas de vida de los ciudadanos y produce un cambio radical en sus expectativas, lo que significa una transformación cultural. El proceso de informatización, núcleo de esa transformación, resulta todavía desconocido para muchos jefes, especialistas y para la sociedad en general. Esto motiva, entre otros problemas, que en su adopción predominen los enfoques técnicos y poco sistémicos, lo cual entorpece el avance del proceso a cualquier nivel, especialmente en las instituciones. En la búsqueda de solución para estas carencias y tomando como punto de partida que la informatización de procesos es base fundamental para un Gobierno Electrónico exitoso, los autores proponen varios aspectos que consideran esenciales para el desarrollo efectivo de la informatización en las instituciones, siempre desde una perspectiva tecnológica y organizativa. Se realizan propuestas de las definiciones de partida para informatizar una organización, se identifican los pasos esenciales para la informatización de un proceso, así como los principales actores que intervienen. Por último, se complementan las propuestas anteriores con la formulación de un grupo de buenas prácticas.<hr/>ABSTRACT The intensive and creative use of Information and Communication Technologies introduces changes in the way goods and services are produced and distributed, modifies citizens' life routines and produces a radical change in their expectations, which leads to comprehend that means a cultural transformation. The informatization process, the core of this transformation, is still unknown for bosses, specialists and for society in general. Technical and non-systemic approaches predominate in its treatment, which hinders the progress of the process in institutions and in society. Looking for solutions to these lacks, and taking as a starting point the informatization of processes as a fundamental basis for a successful e-government, the authors propose several aspects that they consider essential for the effective development of informatization in institutions, always from a technological and organizational perspective. They make proposals for the initial definitions to informatize an organization, identify the essential steps for the informatization of a process, as well as the main actors involved. Finally, the previous proposals are complemented with the formulation of a group of good practices. <![CDATA[Factores que contribuyen en la pérdida de información en las organizaciones]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300148&lng=es&nrm=iso&tlng=es RESUMEN Resguardar la información es garantizar su integridad, confidencialidad y disponibilidad, pero en algunos casos estas características se ven comprometidas. El objetivo de la revisión fue identificar los factores que contribuyen a la pérdida de información en las organizaciones. Para su desarrollo, se realizó una búsqueda de artículos científicos publicados en revistas indexadas a base de datos como Latindex, Scielo, Ebsco y Scopus entre los años 2016 y 2020. La revisión permitió identificar factores tales como los recursos humanos dados por empleados, ex empleados y personas ajenas a la organización; además de factores presupuestales; el poco conocimiento en temas de seguridad de la información por parte de la organización; los desastres naturales y los agentes maliciosos. Se concluyó que estos factores afectan la imagen y la estabilidad de la organización, causando pérdidas económicas y de información, lo que puede incluso conducir a estas a cerrar sus operaciones.<hr/>ABSTRACT Safeguarding the information is to guarantee its integrity, confidentiality and availability, but in some cases these characteristics are compromised. The objective of the review was to identify the factors that contribute to the loss of information in organizations. For its development, we carried out a search for scientific articles published in journals indexed to databases such as Latindex, Scielo, Ebsco and Scopus between the years 2016 and 2020. The review allowed identifying factors such as human resources given by employees, former employees and people outside the organization; in addition to budget factors; the organization's little knowledge of information security issues; natural disasters and malicious agents. We concluded that these factors affect the image and the stability of the organization, causing economic and information losses, which can even lead them to close their operations. <![CDATA[Revisión de algoritmos de detección y seguimiento de objetos con redes profundas para videovigilancia inteligente]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992020000300165&lng=es&nrm=iso&tlng=es RESUMEN En la actualidad cada vez más se utilizan las redes neuronales profundas para resolver problemas de visión por computadora, como el reconocimiento y seguimiento de personas a través de una red de cámaras. Se realizó una revisión de los principales algoritmos de rastreo y detección de objetos, basados en redes profundas que permitirían conformar la arquitectura de un sistema de videovigilancia inteligente. Se determinó que: los algoritmos one-stage, son considerablemente más rápidos que los basados en propuestas de regiones, donde destaca SSD, y los algoritmos de rastreo offline tienen una mayor precisión comparado con los online, destacando a DeepSort como el más eficiente.<hr/>ABSTRACT Today, deep neural networks are increasingly used to solve computer vision problems, such as recognizing and tracking people through a network of cameras. A review of the main algorithms for tracking and object detection, based on deep networks, was carried out, which would make it possible to shape the architecture of an intelligent video surveillance system. It was determined that: one-stage algorithms are considerably faster than those based on region proposals, where SSD stands out, and offline tracking algorithms have a higher accuracy compared to online ones, highlighting DeepSort as the most efficient.