Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920170004&lang=pt vol. 11 num. 4 lang. pt <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<em><b>VHDL Implementation of a Clutter Averaging Processor Adapted to Statistical Changes in Weibull Clutter</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400001&lng=pt&nrm=iso&tlng=pt La cancelación de los efectos perjudiciales causados por la señal de clutter está entre los principales problemas que presentan los detectores de radar actuales. Específicamente, la variación estadística lenta del clutter hace que el detector de promediación de celdas (CA-CFAR) vea su probabilidad de falsa alarma operacional desviada del valor concebido en el diseño. Para corregir este problema, los autores desarrollaron una mejora del CA-CFAR que rectifica continuamente el factor de ajuste, a partir de estimaciones realizadas con el método de los momentos y expresiones matemáticas tomadas de estudios recientes. La solución se implementó en VHDL para su aplicación directa en instalaciones operativas. Conjuntamente, se construyó el esquema en MATLAB, hecho que permitió validar los resultados por comparación con lo obtenido en VHDL. El nuevo detector, denominado W-MoM-CA-CFAR, contribuye al desarrollo de la teoría de los detectores de radar, a la vez que busca mejorar el parque de radares cubanos.<hr/>The cancellation of the undesired effects caused by the clutter signal is among the main problems faced by today’s radar detectors. The clutter slow statistical variations usually force the false alarm probability of the CA-CFAR detector to deviate from the design value. The authors developed an enhanced CA-CFAR which continually corrects its adjustment factor by performing estimations with the method of moments and applying mathematical expressions taken from recent studies. The solution was implemented in VHDL for its direct application in operational systems. In addition, the scheme was reproduced on MATLAB, which allowed to validate the results by comparing with the VHDL output. The new detector, called W-MoM-CA-CFAR, contributes to the development of radar detectors theory, and seeks to improve Cuban radar systems. <![CDATA[<em><b>Multi Dimensional Access Control In PostgreSQL</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400002&lng=pt&nrm=iso&tlng=pt Una base de datos tiene informaciones para apoyar todos los procesos productivos de una empresa, independentiemente de su estructura laboral. Así se encontrarán, p.ej. catálogos de venta, descripciones de productos, datos contables, listas de empleados, etc. Siendo claro que no todos los empleados de una empresa necesitan acceso a todas las informaciones se pone la cuestión de cómo gestionar este acceso de forma confiable. Este proceso de selección se llama autorización y es disponible en todos los sistemas de base de datos. En PostgreSQL el control de acceso se organiza mediante el empleo de roles. El sistema clásico de autorización es vertical, es decir que permite elegir cuáles tablas o columnas de una tabla son accesibles para un usuario. Desde la versión 9.5, PostgreSQL introdujo la posibilidad de un control de acceso horizontal. El control de acceso a nivel de filas (row level security) permite elegir en base a unos criterios configurables, cuáles filas son visibles y por lo tanto gestionables para un usuario. La combinación de técnicas de control vertical y horizontal permite obtener una granularidad en el acceso alcanzable en el pasado solo por medio de soluciones alternativas difíciles de gestionar y, por ende, inseguras.<hr/>A database contains the information required to support all the business processes of a company, independently of its personnel structure. Therefore you will have, e.g. sales catalogues, product descriptions, accounting information, lists of employees, etc. Obviously not all employees are supposed to have access to all data, thus posing the question on how to manage their access to them in a secure way. This selection process is called authorization and is available in all database systems. In PostgreSQL, access control is organized around roles. The classic authorization system is vertical. This means that it allows to choose which tables or columns thereof are accessible to a user. Since version 9.5, PostgreSQL introduced the possibility of a horizontal access control. This type of access (row level security) allows to choose based on a configurable set of crieteria which rows are visible, and therefore modifiable, by a user. The combination of vertical and horizontal access control techniques enables a granularity in the configuration that, in the past, could only be achieved through workarounds difficult to maintain and, therefore, insecure. <![CDATA[<strong>Properties inspection to support understandability in business processes modeling with IDEF0</strong>: <strong>a case study</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400003&lng=pt&nrm=iso&tlng=pt En el presente trabajo se propone un mecanismo de inspección de propiedades en complemento a la utilización del lenguaje IDEF0 con el objetivo de facilitar la comprensibilidad en el análisis de mejoras durante el diseño de los procesos de una organización. Para ello, se define un grupo de dimensiones de la comprensibilidad como atributo de calidad en el modelado de procesos de negocio mediante la realización de un Análisis Formal de Conceptos. Este mecanismo de inspección se ha incluido en el software de modelado de procesos CAPYROX y en este trabajo se muestra su utilización en la representación de los procesos de una empresa de aplicaciones informáticas. Los resultados obtenidos indican que el mecanismo de inspección de propiedades tiene una alta capacidad para facilitar la comprensibilidad en las acciones de modelado a través de su accionar en la sintaxis abstracta, lo cual aumenta la posibilidad de evaluar alternativas de mejoras organizacionales mediante la estimulación al intercambio de criterios entre los participantes.<hr/>A mechanism of properties inspection as a complement to the use of IDEFO language in order to facilitate understandability in improvements analysis during organizational process design is proposed in this paper. To this end, we define a group of dimensions of understandability as quality attribute in business process modeling by using a Formal Concept Analysis. This inspection mechanism including in the processes modeler software CAPYROX is used in processes representation at an enterprise of software applications. The obtained results indicate that the mechanism of properties inspection has a high capacity to facilitate understandability in modeling actions through its work in the abstract syntax and that increases the possibility of analyze alternative of organizational improvement by stimulating opinion exchanging among participants. <![CDATA[<strong>Evaluation of Projects by using Genetic Rules Based Systems</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400004&lng=pt&nrm=iso&tlng=pt En el presente trabajo se evalúa el comportamiento del algoritmo evolutivo MCGEP en diferentes versiones de una base de datos con información sobre la evaluación de proyectos informáticos. La idea fundamental del trabajo es evaluar la posibilidad de aplicación de un algoritmo evolutivo que utiliza programación de expresiones genéticas frente a otros siete algoritmos muy utilizados del estado del arte. Los algoritmos utilizados en la evaluación son capaces de generar modelos de clasificación interpretables utilizando técnicas evolutivas para obtenerlos. Los experimentos se realizaron en cinco versiones creadas a partir de un repositorio de datos con información sobre la evaluación de proyectos. Se logró mostrar como el algoritmo MCGEP queda en primer lugar entre los algoritmos comparados para la métrica de exactitud predictiva, además mejora significativamente a la mayoría de estos algoritmos en esta métrica. Por otro lado, la complejidad de los modelos que genera para lograr estos resultados no es demasiado elevada por lo cual MCGEP sobresale junto al algoritmo GASSIST como los más balanceados si se tienen en cuenta ambas métricas al mismo tiempo. Como valor añadido se aprovecha la capacidad de selección de atributos implícita que tiene este tipo de técnicas para sacar algunas conclusiones sobre cuáles son los indicadores de medición que más influyen en la evaluación de un proyecto y cuál o cuáles indicadores permiten detectar a tiempo que un proyecto no logrará una buena evaluación al finalizar.<hr/>In the present work is assessed the behavior of the evolutionary algorithm MCGEP in different versions of a project management database which contains information for projects evaluation. The main idea of this work is to confirm the possibility of applying an evolutionary algorithm that uses genetic expression programming in front of seven other widely used algorithms in the state of the art. The algorithms used in the assess are able to generate interpretable classification models, using evolutionary techniques to obtain them. The experiments were carried out in five versions created from the database with information of the projects evaluation. The MCGEP algorithm achieves the first among the algorithms compared for the predictive accuracy metric; also, it significantly improves the majority of these algorithms for this metric. On the other hand, the complexity of the generated models was acceptable to achieve these results, so MCGEP and GASSIST algorithms excel as the most balanced if both metrics are taken into account at the same time. As value added, we take advantage of the implicit process of feature selection capability that have these kinds of techniques. With this, we draw some conclusions about which are the measurement indicators that most influence the evaluation of a project and which indicators can detect in time which project will not achieve a good evaluation when finalized. <![CDATA[<strong>The security risk of information in database managers based on trapezoidal fuzzy numbers</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400005&lng=pt&nrm=iso&tlng=pt En este trabajo se plantea una solución para evaluar el riesgo de la seguridad de la información para los gestores de bases de datos. Teniendo como premisa de entrada, el riesgo cualitativo de cada parámetro de la lista de chequeo de seguridad. Para lograr este objetivo se propone la utilización de números difusos trapezoidales basado en el área. Se realiza una revisión de la literatura de nuevas funciones de semejanza, las cuales utilizan los números difusos, para argumentar la selección del modelo escogido para resolver el objetivo en este trabajo. Se muestra un caso de estudio para explicar el funcionamiento del modelo propuesto e indicar la viabilidad del mismo para manejar los términos lingüísticos de las premisas de entrada y lograr la determinación de la evaluación del riesgo de seguridad de la información igualmente de una manera cualitativa. Además, mostrar los resultados obtenidos con la propuesta a través de una herramienta desarrollada que permitió automatizar el modelo propuesto.<hr/>In this paper is proposed one solution for assessing the information security risk for database managers. It´s based on the qualitative risk of each parameter in the security checklist. To achieve this objective is proposing the use of trapezoidal fuzzy numbers based on area. A review of the literature of new similarity functions, which use the fuzzy numbers, is made to argue the selection of the chosen model to solve the objective in this work. A case study is presented to explain the operation of the proposed model and indicate its feasibility to handle the linguistic terms of the input premises and to achieve the determination of the information security risk assessment in a qualitative way. Also show the results obtained with the proposal through a tool developed that allowed to automate the proposed model. <![CDATA[<strong>Experimental Study for the Comparison of Naïve Bayes with other Bayesian Classifiers</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400006&lng=pt&nrm=iso&tlng=pt En este artículo se realiza un estudio experimental para la comparación del desempeño de la clasificación de Naïve Bayes con otros métodos bayesianos. Otros experimentos reportan su competitividad, pero no utilizan la metodología mucho más apropiada que fue propuesta por Demšar. Por tanto, el propósito es volver sobre el estudio de Naïve Bayes frente a otros métodos bayesianos. Para ello se escogieron cinco clasificadores bayesianos más Naïve Bayes, todos implementados en WEKA; y también, tres conjuntos de bases de datos para realizar un experimento general, uno sobre atributos irrelevantes y un tercero sobre ejemplos ruidosos. Finalmente, siguiendo la metodología de Demšar, se mostró evidencia empírica que ubica aún a Naïve Bayes como una alternativa competitiva frente al resto de los clasificadores bayesianos seleccionados.<hr/>An experimental study is conducted for the comparison of Naïve Bayes classification performance with other Bayesian classifiers. There are some other similar reports of experiments, but they do not use the more suitable methodology proposed by Demšar. That is why the purpose is revisiting Naïve Bayes in comparison with other Bayesian classifiers. In consequence, we chose five Bayesian classifiers and Naïve Bayes; all of them are implemented in WEKA. In addition, we chose three set of databases for the three set of experiments: a general experiment, an irrelevant feature experiment and a noisy values experiment. Finally, we showed by means of the Demšar methodology that there is empirical evidence for stating that Naïve Bayes still is a competitive alternative to the rest of the selected Bayesian classifiers. <![CDATA[<strong>Component for automatic metadata extraction from textual corpus in PDF</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000400007&lng=pt&nrm=iso&tlng=pt Las bibliotecas digitales se encargan de la gestión documental de los recursos digitales que almacenan, realizando tres procesos fundamentales: la selección, tratamiento y explotación de los recursos. La extracción de los metadatos es una de las tareas del tratamiento de los documentos digitales, facilita la búsqueda, acceso y recuperación de la información. La extracción de metadatos es un proceso que requiere tiempo para su ejecución y en caso de ejecutarse manualmente puede existir el riesgo de introducir errores humanos. Estos problemas se pueden aliviar con el uso de herramientas automatizadas que apoyen esta actividad. En este artículo se describe un componente web para la extracción automática de metadatos bibliográficos. El componente está basado en tres procesos fundamentales que siguen un flujo de datos representando una arquitectura de tuberías y filtros, donde la salida de un proceso constituye la entrada al próximo. Para validar si el componente de extracción de metadatos reduce el tiempo de extracción se realiza un diseño experimental a partir de un caso de estudio. Además de validar el componente a través del diseño experimental se le aplican un conjunto de pruebas de calidad. Estas pruebas van encaminadas a comprobar si el funcionamiento del componente es el adecuado, si las funciones implementadas se ejecutan correctamente, si los resultados obtenidos son los deseados y si el usuario final tiene un nivel alto de aceptación con el componente de extracción de metadatos.<hr/>Digital libraries are responsible for management of stored digitals resources and perform three fundamental processes: the selection, treatment and exploitation of resources. One of the functions of treatment is the metadata extraction process; in order to facilitate its use, that is, allow the search, access and retrieval of information. Metadata extraction is a process that requiring time for its execution and if executed manually could there is the risk of introducing human errors. These problems can be reduced by the use of automated tools to support this process. In this article, we describe a web component for automatic extraction of bibliographic metadata from PDF files. The component is based on three fundamental processes that follow a data flow that represents a tubes and filters architecture, where the output of one process constitutes the input to the next. To validate if the metadata extraction component reduces the extraction time, an experimental design is made using a case study. Furthermore, a set of quality tests is applied. These tests are aimed at verifying if the functioning of the component is correct, if the implemented functions are executed correctly, if the obtained results are the desired ones and if the user has a high level of acceptance with the component of extraction of metadata.