Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920160001&lang=es vol. 10 num. 1 lang. es <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<strong>KSAS. </strong><strong>Algoritmo para la búsqueda por palabras clave en documentos XML</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100001&lng=es&nrm=iso&tlng=es La búsqueda por palabras clave en documentos XML es muy útil y ampliamente usada como forma de recuperación de información. Existen diferentes algoritmos que permiten realizar esta búsqueda y otros que permiten identificar nodos significativos en documentos XML. En este artículo se explican los algoritmos más eficientes para realizar la búsqueda por palabras clave, se plantea un modelo matemático que soluciona problemas de este tipo. También se presenta un estudio de la metaheurística Optimización basada en Colonias de Hormigas y en especial del algoritmo Sistema de Hormigas. A continuación, se propone un algoritmo basado en el algoritmo Sistema de Hormigas y para finalizar se realizan pruebas estadísticas para tratar de demostrar la superioridad del algoritmo propuesto en cuanto a tiempo de ejecución sin que por ello se degrade la calidad de la solución.<hr/>The keyword search in XML documents is very useful and widely used as a method of information retrieval. There are different algorithms to perform this search and others to identify significant nodes in XML documents. This article explains the most efficient algorithms for keyword searching; a mathematical model is proposed to solve such problems. It also presents a study of the Ant Colony Optimization metaheuristic, especially the Ant System algorithm. A heuristic based on the Ant System algorithm is proposed and finally statistical tests are performed in order to demonstrate the superiority of the algorithm proposed in terms of computational time without degrading the quality of the solutions. <![CDATA[<strong>Módulo de filtrado y segmentación de imágenes médicas digitales para el proyecto Vismedic</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100002&lng=es&nrm=iso&tlng=es El avance tecnológico de los dispositivos de exploración radiológica para la obtención de imágenes médicas digitales y el avance de los sistemas de cómputo, permite mejorar la calidad de visualización a través de algoritmos de filtrado y segmentación. Permitiendo seleccionar estructuras anatómicas de interés de las imágenes médicas digitales para un mejor diagnóstico clínico. En el presente trabajo se propone un módulo que encapsula varias técnicas de filtrado y segmentación de imágenes médicas digitales utilizando la biblioteca Insight Segmentation and Registration Toolkit (ITK), con el objetivo de mejorar la calidad de la visualización de las imágenes. Para desarrollar este trabajo se utiliza el lenguaje de modelado UML, la herramienta CASE Visual Paradigm, el lenguaje programación C++, como marco de desarrollo Qt y como entorno de desarrollo QT Creator. El módulo propuesto se independiza de las etapas de Reconstrucción y Visualización de estructuras tridimensionales del proyecto Vismedic, a través de la transformación de los datos adquiridos para su procesamiento y su devolución en el mismo tipo de dato que se recibió. Como resultado se obtuvo una aplicación con una interfaz de comunicación común que brinda la posibilidad de agregar nuevos algoritmos de filtrado y segmentación para extender la aplicación sin modificar otras etapas de la visualización de las imágenes médicas digitales. Se realizaron comparaciones entre los algoritmos de filtrado y segmentación incorporados en la solución en cuanto a la calidad de la imagen final que se obtiene.<hr/>Technological advancement devices for obtaining radiological examination of digital medical images and advancement of computer systems, improves display quality through filtering and segmentation algorithms. Allowing select anatomical structures of interest of digital medical images for better clinical diagnosis. In this paper a module that encapsulates various filtering techniques and segmentation of digital medical images using the Insight Segmentation and Registration Toolkit (ITK) library, with the aim of improving the quality of the display of these images is proposed. To develop this work, the modeling language UML used the CASE tool Visual Paradigm, the C++ programming language, such as Qt development framework, as development and QT Creator. The proposed module is independent from the steps of Reconstruction and Visualization of three-dimensional structures of Vismedic project, through the transformation of the acquired data for processing and returning in the same type of data that was received. As an application result was obtained with a common communication interface that provides the ability to add new filtering and segmentation algorithms to extend the application without modifying other stages of the visualization of digital medical images. Comparisons between filtering and segmentation algorithms incorporated in the solution in terms of the quality of the final image obtained was performed. <![CDATA[<strong>Selección de sistemas de código abierto para gestionar reglas de negocio : un estudio de caso</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100003&lng=es&nrm=iso&tlng=es RESUMEN En esta investigación se evaluaron sistemas de código abierto para gestionar reglas de negocio en el “Control de historias clínicas para el trasplante renal”. Se realizó una revisión sistemática de la literatura para crear la lista inicial de programas que gestionan reglas de negocio. Además, se aplicó el método de Graham que valora propiedades tecnológicas y culturales del software y la organización que lo usa. El sistema de gestión de reglas de negocio Drools obtuvo los mejores resultados pues es capaz de procesar el mayor número de reglas, transacciones y usuarios. Permite escribir reglas en lenguaje cercano al natural y su licencia ASL2 no impone restricciones sobre el software derivado. OpenRules y OpenL Tablets obtuvieron el segundo y tercer lugar. Se sugiere utilizar Drools en escenarios donde exista un elevado número de reglas y los usuarios del negocio sean los encargados de su gestión. Cuando el número de reglas no es elevado se sugiere OpenRules, si la licencia GPL es un problema se sugiere OpenL Tablets. Se mostró una arquitectura basada en Drools que puede ser generalizada para soluciones que utilicen OpenRules u OpenL Tablets.<hr/>ABSTRACT In this research were evaluated open source systems that manage business rules in the "Control of medical records for kidney transplantation." A systematic literature review was conducted to establish the initial list of programs that manage business rules. It was applied the method of Graham to evaluate ​​technological properties of the software and cultural characteristics of the organization that uses it. The business rules management system Drools obtained the best results as it is capable of processing more rules, transactions and users. It allows you to write rules near to natural language, also its ASL2 license places no restrictions on derivative software. The second and third position were reached by OpenRules and OpenL Tablets. We suggest using Drools in scenarios where a large number of rules exists and business users are responsible for their management. When the number of rules is not high OpenRules is suggested and if the GPL license is a problem then OpenL Tablets is recommended. There was presented a Drools based architecture that can be generalized to solutions that use OpenRules or OpenL Tablets. <![CDATA[<strong>Propuesta metodológica para la orientación de aplicaciones informáticas hacia BPM y SOA</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100004&lng=es&nrm=iso&tlng=es RESUMEN El papel que juegan los procesos de negocio en una empresa constituye un factor de gran importancia; por lo que eficacia en estos y su agilidad para adaptarse a los cambios internos y externos; proporciona un mayor crecimiento organizacional. Como apoyo existen diversas herramientas para la gestión de procesos. Una de ellas es Gestión de Procesos de Negocio y Arquitectura Orientada a Servicios. Estas se perfilan como una nueva tendencia para aumentar la eficiencia del negocio, generar las ventajas competitivas que exige el mercado, proporcionarles a los procesos de las empresas una simulación para analizar su rendimiento antes de implementarlos, mayor agilidad y flexibilidad, un mejoramiento continuo y supervisión en tiempo real. Aunque el uso de estas tecnologías crece de manera exponencial, en la mayoría de los casos no existe una adecuada metodología para orientar aplicaciones hacia ellas. El presente artículo recoge una propuesta metodológica para la orientación de aplicaciones informáticas a la Gestión de Procesos de Negocio y una Arquitectura Orientada a Servicios.<hr/>ABSTRACT The role of business processes in a company is an important factor; so effectively in these and agility to adapt to the internal and external changes; provides greater organizational growth. As there are various tools to support process management. One is Business Process Management and Service Oriented Architecture. These are emerging as a new trend to increase business efficiency, generate competitive advantages that the market demands, to provide business process simulation to analyze their performance before deploying, greater agility and flexibility, continuous improvement and monitoring in real time. Although the use of these technologies is growing exponentially, in most cases there is no appropriate methodology to guide applications to them. This research proposes the development of a methodology for computing the orientation of the Business Process Management and Service Oriented Architecture applications. <![CDATA[<strong>Reducción de Redundancia en Reglas de Asociación</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100005&lng=es&nrm=iso&tlng=es RESUMEN El minado de reglas de asociación es uno de los campos más estudiados y aplicados en minería de datos. Los modelos descubiertos usualmente contienen un número de reglas demasiado grande. Esto reduce la capacidad de los especialistas para utilizar los mismos con vista a la toma de decisiones. Esta deficiencia se acentúa cuando hay presente reglas redundantes dentro del modelo. En este trabajo se propone una definición de redundancia que tiene en cuenta el conocimiento previo de los usuarios con respecto al dominio. Se desarrolla un método, en la etapa de post-procesamiento, para reducir la redundancia de los modelos de reglas de asociación. La propuesta permite encontrar modelos más compactos que facilitan su utilización en el proceso de toma de decisiones. Los experimentos realizados han mostrado niveles de reducción cercanos al 90% del modelo. Las reglas consideradas como conocimiento previo no superan el 10% de las presentes en el modelo original. El método desarrollado facilita la utilización de las reglas de asociación en la toma de decisiones y por tanto aumenta la eficiencia de la minería de reglas de asociación.<hr/>ABSTRACT Association Rules Mining is one of the most studied and widely applied fields in Data Mining. However, the Discovery models usually result in a very large sets of rules; so the analysis capability, from a user point of view, are dismissing. It is difficult to use the found model in order to help the decision-making process. The previous handicap is accentuated in presence of redundant rules in the final set. In this work a new definition of redundancy in association rules is proposed, based in user’s prior knowledge. A post-processing method to eliminate this kind of redundancy, using association rules known by user is developed. Our proposal allows to find more compact models of association rules to facilitate its use in the decision-making process. The developed experiments have shown reduction levels that exceed 90% of all generated rules, using prior knowledge always below 10%. So our method improves the efficiency of association rules mining and the utilization of discovered association rules. <![CDATA[<strong>Técnicas de programación paralela aplicadas al procesamiento de datos ráster mediante la biblioteca GDAL</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100006&lng=es&nrm=iso&tlng=es RESUMEN El modelo de datos ráster es uno de los modelos de datos geoespaciales comúnmente utilizado en el almacenamiento y análisis de información de la superficie terrestre. Generalmente, para realizar operaciones sobre este tipo de datos, se emplea la Biblioteca de Abstracción de Datos Geoespaciales, más conocida como GDAL, capaz de manejar alrededor de cien formatos de archivos ráster. El tiempo de respuesta de dicha biblioteca durante el análisis de los datos, se ha visto condicionado por la tendencia al aumento gradual del volumen de los mismos, gracias al continuo perfeccionamiento de las técnicas de obtención de datos de la superficie terrestre. Por esta razón, este trabajo se centra en el estudio crítico de las principales contribuciones que marcan su interés en la aplicación de técnicas de programación paralela al proceso de análisis de la información ráster con el fin de incrementar el rendimiento en términos de velocidad. Como resultado del estudio realizado, se logró determinar que la utilización de la computación voluntaria para el aprovechamiento de los recursos de hardware disponibles en las organizaciones y el uso de técnicas de programación paralela que permitan garantizar la heterogeneidad entre plataformas de cómputo, emergen como alternativas interesantes a combinar e incluir en el diseño de estrategias para el procesamiento paralelo de información ráster. Estas variantes resultan aplicables en las entidades dedicadas al análisis de información geoespacial en Cuba, teniendo en cuenta las limitaciones del entorno computacional que las caracterizan.<hr/>ABSTRACT The raster data model is one of the geospatial data models commonly used to store and analyze information of the Earth's surface. Generally, to perform operations over these data, it is used the Geospatial Data Abstraction Library, known as GDAL, capable of handling about a hundred raster file formats. The response time of these library during data analysis, has been conditioned by the trend of gradually increasing the volume of these, thanks to the continuous improvement of the technical data acquisition of the land surface. For this reason, this work focuses on the critical study of the major contributions that mark their interest in applying parallel programming techniques to process raster data analysis in order to increase performance in terms of speed. As a result of the study, it was determined that the use of volunteer computing for the utilization of hardware resources available in organizations and the use of techniques to ensure the heterogeneity between computing platforms, emerge as interesting alternatives to combine and include in the design of strategies for parallel processing of raster data. These variants are applicable in institutions dedicated to the analysis of geospatial information in Cuba, considering the limitations of the computational environment that characterize them. <![CDATA[<strong>Clasificación de células cervicales mediante el algoritmo KNN usando rasgos del núcleo</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100007&lng=es&nrm=iso&tlng=es RESUMEN La prueba de Papanicolaou, es un examen de pesquisa ginecológica que permite apreciar cambios en la morfología de las células del cuello uterino. Dicho estudio puede alertar sobre patologías tan frecuentes en las mujeres como el cáncer del cuello del útero. El análisis de este tipo de imágenes es importante en la generación de diagnósticos y en las investigaciones que se llevan a cabo, por lo que se hace necesario el desarrollo de nuevas técnicas que efectúen un análisis práctico de las muestras. La búsqueda por similitud es uno de los procedimientos más frecuentes en problemas que involucran el procesamiento de datos, una variante consiste en la búsqueda de los k-vecinos-más-cercanos (kNN). En este trabajo, se propone el uso del clasificador kNN y de una de las distancias utilizadas por el mismo para dar solución al problema de la clasificación de las células del cuello uterino en las clases normal y anómala, basándose solamente en las características extraídas de la región del núcleo. A partir del estudio realizado, entre las distancias manhattan, euclidiana y mahalanobis y teniendo en cuenta para la evaluación las medidas F, AUC, predictividad negativa y media H, se comprobó que manhattan mostró un buen desempeño manteniendo valores de 97.1% de AUC. Los resultados obtenidos indican una reducción respecto a la tasa de falsos negativos en la prueba de Papanicolaou. Se utilizó la media H con el propósito de comparar los resultados de kNN respecto a otras investigaciones, obteniendo un 92.33% con respecto a las mismas.<hr/>ABSTRACT The Pap test is a test of gynecological screening that allows appreciating changes in the morphology of the cells of the cervix. This study can alert on such frequent pathologies in women as cancer of the cervix. The analysis of these kinds of images is important in the generation of diagnostic and the investigations that carried out, so that developing new techniques that made a practical analysis of the samples is necessary. Similarity search is one of the most common procedures in problems involving processing of data, an alternative to solve this problem is the kNN search (k-Nearest Neighbors). In this paper, the kNN classifier was used together with a specific distance function, to provide a solution to the real problem associated with the classification of cervical cells in normal and abnormal classes, the features used for classification were in this case based solely on information extracted from the nuclei region. From the study, among the manhattan distance, Euclidean and Mahalanobis and considering measures for evaluating F, AUC, negative predictivity and H-mean was found that manhattan performed well holding 97.1% values of AUC. The results indicate a reduction compared to the rate of false negative Pap test. H-mean with the purpose of comparing the results of other investigations regarding kNN, obtaining 92.33% with regard thereto. <![CDATA[<strong>Generalización del Método Puntos de Función utilizando lógica difusa</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100008&lng=es&nrm=iso&tlng=es RESUMEN En los últimos años se ha incrementado la utilización del método Puntos de Función para la estimación del software. A pesar de los buenos resultados que se alcanzan con este método, aún existen dificultades que afectan la exactitud de las estimaciones, dentro de estas dificultades se destacan el "arranque en frio" y los "límites bruscos". En este trabajo se propone una generalización del método Puntos de Función mediante el uso de la lógica difusa que contribuye a atenuar el efecto de los "límites bruscos" y al mismo tiempo, es capaz de operar con eficacia en situaciones en las que no existen resultados históricos en la organización sobre desarrollos anteriores, por lo que no se ve afectado este proceso por el "arranque en frio". La efectividad de la propuesta es constatada mediante un experimento en el cual se obtiene la estimación utilizando el método de Puntos de Función clásico y la generalización propuesta en un caso de estudio. Los resultados alcanzados con la generalización mostraron ser más cercanos a la realidad que las estimaciones realizadas con el enfoque clásico.<hr/>ABSTRACT In the last years it has increased the use of Function Point method for estimating software. Despite the good results achieved with this method, there are difficulties that affect the accuracy of the estimates, among these difficulties highlight the "cold start" and "rough limits". In this paper a generalization of the method Function Point is proposed by using fuzzy logic, which helps to mitigate the effect of "rough limits" and at the same time is able to operate effectively in situations where the organization don't have historic results about previous developments, so it is not affected this process by the "cold start". The effectiveness of the proposal is proven by an experiment in which the estimate is obtained using the classical method Function Points and the generalization proposed in a case study. The results achieved with the generalization showed to be closer to reality than estimates using the classical approach. <![CDATA[<strong>Aprendizaje de métrica para el reconocimiento de rostros a partir de imágenes de baja resolución</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100009&lng=es&nrm=iso&tlng=es RESUMEN El reconocimiento de rostros a partir de imágenes de baja resolución es un problema muy difícil. En esta situación, la galería o base de datos contiene imágenes de alta resolución, pero la imagen a ser reconocida es de baja resolución. En consecuencia, se trata de un problema de desajuste de resolución para las imágenes de entrenamiento y prueba. Los métodos estándar de reconocimiento facial fallan en este contexto, sugiriendo que los enfoques de representación de características actuales no son suficientes para hacer frente a este problema. Por lo tanto, se propone el uso de representaciones de disimilitud como alternativa al uso de representación de características. El siguiente trabajo es una extensión a un artículo previo en el que se utilizó el espacio de disimilitudes para el reconocimiento de rostros usando imágenes de baja resolución. En el presente proponemos reemplazar una distancia euclidiana calculada sobre los vectores de características por una distancia de Mahalanobis aprendida automáticamente optimizando un criterio de clasificación en el conjunto de entrenamiento. Se propone también reemplazar la propia distancia Euclidiana en el espacio de disimilitud por una aprendida automáticamente. Los experimentos en dos conjuntos de datos faciales estándar demuestran que el uso del aprendizaje de métricas supera la distancia euclidiana inicial para el reconocimiento de rostros de baja resolución. Se utilizó la mejor estrategia obtenida en el trabajo previo para resolver el problema del desajuste en la resolución que consiste en submuestrear y luego escalar las imágenes de entrenamiento y escalar las de prueba.<hr/>ABSTRACT Low-resolution face recognition is a very difficult problem. In this setup, the database or gallery contains high-resolution images but the image to be recognized is a low-resolution one. Thus we are dealing with a resolution mismatch problem for training and test images. Standard face recognition methods fail in this setting, which suggests that current feature representation approaches are not adequate to cope with this problem. Therefore, we propose the use of dissimilarity representations as an alternative to the use of feature representations. This work is an extension of a previous one, in which the dissimilarity space was used for low-resolution face recognition. In this paper we propose to replace a Euclidean distance computed over the vector features for a Mahalanobis distance, which is a metric automatically learned by optimizing a classification criterion in the training set. We also propose to replace the Euclidean distance in the dissimilarity space by a metric automatically learned. Experiments on two standard face datasets demonstrate that the use of metric learning outperforms the initial Euclidean distance for low-resolution face recognition. To solve the mismatch problem, the best strategy obtained in previous work was used, which consist on subsample and then scale the training images and scale test. <![CDATA[<strong>Estudio de las Técnicas de fusión de Imágenes para el iris</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100010&lng=es&nrm=iso&tlng=es RESUMEN En el reconocimiento biométrico del iris, la fusión de imágenes ha tomado recientemente un papel importante en el proceso final del reconocimiento. El objetivo fundamental de este proceso de fusión, que bajo este contexto es llamado fusión de segmentaciones, es que a partir de un conjunto de imágenes segmentadas y normalizadas se obtenga una única imagen normalizada, logrando una mejor precisión en el reconocimiento final del iris. En este trabajo se presenta el resultado de un estudio sobre las diferentes técnicas utilizadas en esta tarea.<hr/>ABSTRACT The process of image fusion, has become today one of the most crucial to achieve accuracy and quality of an image forms. In the biometric iris recognition, image fusion has also played an important role in the final process of recognition, making better focus on the segmentation process, since an error during this stage would lead to serious errors in the final result. The main objective of this process under this context is called fusion segmentation is based on a set of segmented and normalized images for a single normalized image, for greater precision in the final iris recognition. This is why it has dedicated a study of the state of art of different techniques for image fusion, and a study of different measures to assess the quality of the fused image. <![CDATA[<strong>Método para la Clasificación de Polaridad basado en Aspectos de Productos</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100011&lng=es&nrm=iso&tlng=es RESUMEN Este artículo presenta un método para la clasificación de la polaridad de aspectos de productos. La característica más relevante de la propuesta radica en la construcción automática de recursos de polaridad dependientes del dominio a través del empleo de la técnica de Análisis de Semántica Latente. El método permite generar recursos de polaridad para varias unidades textuales como bigramas y trigramas y es independiente del idioma. La clasificación de la polaridad de los aspectos es realizada en dos fases fundamentales: extracción de las palabras y frases de opinión, y la clasificación de la polaridad. La etapa de extracción de las palabras y frases de opinión consiste en extraer de un contexto lineal y sintáctico relacionado con el aspecto las unidades textuales para las cuales fueron generadas recursos de polaridad. Finalmente, la polaridad del aspecto, en una crítica dada, es determinada por los valores de polaridad positivo y negativo de cada una de las palabras y frases de opinión extraídas. Los resultados obtenidos por la propuesta son alentadores si consideramos que el proceso de construcción de los recursos se realiza completamente de manera automática.<hr/>ABSTRACT This paper presents a method for aspect-based sentiment analysis on user products reviews. The most outs-tanding feature in this proposal is the automatic building of domain-depended sentiment resource using Latent Semantic Analysis. The proposed method can be adapted to different textual units such as bigrams and trigrams and is language independent. The aspect term polarity classification is carried out in two phases: opinion words and phrases extraction and polarity classification. The extraction phase involve the search of surface and parse feature of the aspect, getting polarities scores of the textual units generated on the previous phase. Finally, the polarity of the aspect, in a given review, is determined from the positive and negative scores of each words and phrases extracted. The results obtained by the approach are encouraging if we consider that the construction of the domain-dependent polarity lexicon is performed fully automatic. <![CDATA[<strong>Reconocimiento de armas en imágenes de rayos X mediante Saco de Palabras Visuales</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100012&lng=es&nrm=iso&tlng=es RESUMEN El diseño de un sistema automático que reconozca objetos peligrosos en imágenes de rayos X de equipos de inspección ha sido un problema complejo en los últimos años. La inspección de equipajes por rayos X presenta limitantes en cuanto a la eficiencia en el reconocimiento de objetos peligrosos y la demora que se toma el proceso. No existe una herramienta software que detecte automáticamente la presencia de armas en imágenes de rayos X y facilite el trabajo del operador de inspección. En este trabajo se desarrolló e implementó un algoritmo para el reconocimiento de armas cortas en imágenes de rayos X usando el método Saco de Palabras Visuales. Para realizar esto se implementó una etapa de pre-procesado, se construyó el vocabulario de palabras visuales que tuviera el mejor comportamiento frente a este tipo de imágenes, se representó un conjunto de imágenes mediante los histogramas de palabras visuales y se realizó el entrenamiento de un clasificador de tipo Máquina de Soporte Vectorial. Este algoritmo se desarrolló sobre la plataforma Matlab y con el apoyo de la biblioteca de funciones VLFeat. Se realizaron diversos experimentos variando los parámetros del método obteniéndose como mejor resultado una razón de verdaderos positivos de un 97.12% y una razón de falsos positivos de 7.4%. Estos resultados muestran que el algoritmo implementado puede servir de apoyo al personal de inspección, aumentar la rapidez del proceso y mejorar la eficiencia en el reconocimiento de armas en las imágenes de rayos X del sistema de inspección de equipajes.<hr/>ABSTRACT An automatic system’s design that recognizes dangerous objects in baggage X-ray images has been a complex problem in recent years. X-ray inspection has difficulties because of the low efficiency in automatic recognition of dangerous objects and inspection process delay. It doesn’t exist a software application that automatically detects weapons in those images and reduce the workload of screeners. In this project was developed and implemented an algorithm for recognizing handguns in X-ray images using the Bag of Visual Words method. In order to achieve this, it was implemented a preprocess, was built a vocabulary of visual words with the better performance for this kind of images, it was represented a set of images by histograms of visual words and it was trained a Support Vector Machine classifier. This algorithm was developed in Matlab platform using VLFeat library. It was performed several experiments handling tunable parameters, getting the most relevant result a true positive rate of 97.12% and a false positive rate of 7.4%. These results show that the implemented algorithm could be a support for inspection screeners and hence increase inspection speed and increase the efficiency of weapons recognition in X-ray images of inspection system. <![CDATA[<strong>Evaluación de diversas variantes de Indexado Aleatorio aplicadas a la categorización de documentos en el contexto del Aprendizaje en Línea</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100013&lng=es&nrm=iso&tlng=es RESUMEN El Indexado Aleatorio es una técnica de reducción de dimencionalidad que permite obtener un espacio de representación para las palabras a partir de un conjunto de contexto en los cuales éstas aparecen. Esta técnica es computacionalmente menos costosa en comparación con otras como LSI, PLSI o LDA. Estas características la convierten en una atractiva opción para ser empleada en ambientes de categorización de textos. En este trabajo comparamos varias variantes de Indexado Aleatorio al ser aplicadas a la tarea de categorización de textos. Los experimentos realizados en una subcolección del conjunto de datos Reuter-21578 muestran que el Indexado Aleatorio obtiene resultados alentadores, identificando algunas variantes que no muestran las ventajas necesarias para ser aplicadas en la tarea de interés.<hr/>ABSTRACT Random Indexing is a recent technique for dimensionality reduction that allows to obtain a word space model from a set of contexts. This technique is less computationally expensive in comparison with others like LSI, PLSI or LDA. These characteristics turn it an attractive prospect to be used in text categorization. In this work, we compare several variants reported in the Random Indexing literature applied to text categorization task. Experiments conducted in a subcollection of the dataset Reuter-21578 show that Random Indexing produces promising results, identifying some versions without actual advantage for the task at hand. <![CDATA[<strong>Detección y correspondencia de marcas faciales en imágenes de rostros</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100014&lng=es&nrm=iso&tlng=es ABSTRACT Soft biometrics traits (e.g. gender, ethnicity, facial marks) are complementary information in face recognition. Although they are not fully distinctive by themselves, recent studies have proven that they can be combined with classical facial recognition techniques to increase the accuracy of the process. Facial marks, in particular, have proven useful in reducing the search for the identity of individuals, although they do not uniquely identify them. Facial marks based systems provide specific and more significant evidence about the similarity between faces. In this paper we propose the use of facial marks (e.g. moles, freckles, warts) to improve the face recognition process. To that end, we implemented an algorithm for automatic detection of facial marks and we proposed two matching algorithms: one based on Histograms of Oriented Gradients (HoG) to represent the marks and the other based on the intensities of the pixels contained in each mark bounding box. Experimental results based on a set of 530 images (265 subjects) with manually annotated facial marks, show that the combination of traditional face recognition techniques with facial marks, increases the accuracy of the process.<hr/>RESUMEN Los soft biometrics (e.g. género, raza, marcas faciales) constituyen información complementaria en el proceso de reconocimiento de rostros. Si bien no son totalmente discriminativos por sí solos, estudios recientes han comprobado que pueden ser combinados con técnicas clásicas de reconocimiento facial para incrementar la eficacia de dicho proceso. Las marcas faciales, de manera particular, han demostrado ser útiles en la reducción de la búsqueda de la identidad de individuos, pese a no identificarlos unívocamente. Los sistemas basados en marcas faciales proporcionan evidencia aún más específica y significativa de la similitud entre rostros. En el presente trabajo se propone el empleo de marcas faciales (e.g. lunares, pecas, verrugas) en beneficio del reconocimiento. Para tales fines se implementó un algoritmo de detección automática de marcas faciales y se propusieron dos algoritmos de correspondencia de marcas: uno basado en Histogramas de Gradientes Orientados (HoG) para establecer la representación de las marcas y el otro en las intensidades de los píxeles contenidos en la región rectangular correspondiente a cada marca. Los resultados experimentales basados en un conjunto de 530 imágenes (265 sujetos) con marcas faciales anotadas manualmente, muestran que la combinación de técnicas clásicas de reconocimiento de rostros (e.g. LBP) con marcas faciales, aumenta la eficacia del proceso. <![CDATA[<strong>Evaluación del desempeño de la metaheurística MOVMO en funciones de prueba con restricciones</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100015&lng=es&nrm=iso&tlng=es RESUMEN Los métodos clásicos de programación matemática presentan limitaciones en la solución de problemas de optimización multiobjetivo. Estas limitaciones se evidencian fundamentalmente en problemas reales con múltiples funciones objetivo en conflicto y con espacios de soluciones complejos. En este contexto se ha extendido el uso de las metaheurísticas debido a su capacidad de lidiar con este tipo de problemas. Sin embargo, a diferencia de los métodos exactos, las metaheurísticas no garantizan encontrar la solución óptima de un problema. Por este motivo se continuán creando métodos que, ya sea mediante la incorporación de nuevas estrategias o a través de la hibridación de las existentes, permitan obtener mejores aproximaciones al frente de Pareto. Tal es el caso de la metaheurística MOVMO creada por los autores del presente trabajo, que es una versión multiobjetivo de la metaheurística VMO. Esta investigación tuvo como objetivo evaluar el desempeño de la metaheurística MOVMO en funciones con restricciones. Los estudios experimentales permitieron evaluar el desempeño de MOVMO con respecto a los métodos NSGA-II, SPEA2 y SMPSO en las funciones ConstrEx, Golinski, Osyczka, Srinivas, Tanaka y Water. Los resultados obtenidos por MOVMO en los indicadores de calidad Epsilon e Hypervolume superaron, con diferencias estadísticamente significativas, a los obtenidos por los restantes métodos en varias de las funciones de prueba. Estos resultados demuestran la competitividad de los operadores y técnicas utilizados por MOVMO en problemas de optimización multiobjetivo con restricciones.<hr/>ABSTRACT Classical mathematical programming methods have limitations solving multi-objective optimization problems. These drawbacks are mainly evident in real problems with multiple functions in conflict and complex solutions spaces. That is why the use of meta-heuristics has extended a great deal at present due to its ability to deal with such problems. But as meta-heuristics do not guarantee finding the optimal solution for a problem, new methods are being created either by means of the incorporation of new strategies or by hybridization of the existing ones, to obtain better approximations to Pareto front. This is the case of MOVMO, created by the authors of this work, which is a multi-objective version of VMO meta-heuristic. The objective of this present research was to evaluate the performance of MOVMO on constrains test problems. The experimental studies allowed us to assess the competence of MOVMO in comparison with NSGA-II, SPEA2 and SMPSO methods on ConstrEx, Golinski, Osyczka, Srinivas, Tanaka, and Water functions. Results achieved by MOVMO in Epsilon and Hypervolume quality indicators were higher with significant statistically differences in comparison with those results from other methods in several test functions. These results prove the competitiveness of operators and techniques used in MOVMO on constrains multi-objective optimization problems. <![CDATA[<strong>Compensación de la variabilidad para la verificación de locutores con señales cortas</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100016&lng=es&nrm=iso&tlng=es ABSTRACT Nowadays, represents an attractive challenge the application of Automatic speaker recognition in real scenarios, where the use of short duration signals for forensic or biometric speaker verification is very common. In this paper we perform an analysis of the behavior of within-class and between-classes scatter matrices, showing the importance to reduce within-class scatter to face the speaker recognition with short duration utterances. In addition, two duration compensation methods for short duration utterances on i-vector framework were proposed. Both of them were evaluated through speaker verification experiments on NIST-SRE 2008 dataset. The proposed methods shown an improvements under enrollment-test matched conditions regard to the duration.<hr/>RESUMEN En la actualidad representa un desafío atractivo la aplicación del reconocimiento automático de locutores en escenarios reales, debido a que es muy común el uso de señales de corta duración para la verificación biométrica y forense de locutores. En esta investigación realizamos un análisis del comportamiento de las matrices de dispesión dentro de las clases y entre clases, mostrando la importancia de reducir la dispersión dentro de las clases para hacer frente al reconocimiento de locutores a partir de expresiones de corta duración. Además, se propusieron dos métodos de compensación de la duración sobre el enfoque i-vector. Ambos métodos fueron evaluados a través de experimentos de verificación del locutor utilizando la base de voces NIST-SRE 2008. <![CDATA[<strong>Detectores espacio-temporales para la detección de rostros en video</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100017&lng=es&nrm=iso&tlng=es RESUMEN La detección de rostros es el primer paso en muchas aplicaciones de video como la video vigilancia, el análisis de expresiones faciales, el seguimiento y el reconocimiento de rostros. Varios algoritmos han sido propuestos para llevar a cabo esta tarea; sin embargo, la mayoría de ellos se basan en técnicas para imágenes fijas y no consideran la información espacio-temporal existente en un video. En este trabajo se desarrollan dos detectores de rostros espacio-temporales, los cuales son evaluados en la base de datos YouTube Faces. Los resultados alcanzados son comparados con los obtenidos por dos detectores que se basan únicamente en la información espacial.<hr/>ABSTRACT Face detection is the first step in many video applications such as video surveillance, facial expression analysis, face tracking and face recognition. Several algorithms have been proposed to this task, but most of them are based on techniques for still images, not considering the spatio-temporal information available in a video. In this paper two spatio-temporal face detectors are developed and evaluated on the challenging YouTube Faces database. The obtained results are compared with those obtained by two frame-based approaches. <![CDATA[<strong>Estimación de costos de desarrollo, caso de estudio:</strong>: <strong>Sistema de Gestión de Calidad del Reactor TRIGA Mark III</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100018&lng=es&nrm=iso&tlng=es RESUMEN El proceso de estimación de costos en Ingeniería del software no es una tarea sencilla, más que eso es un proceso que debe tratarse cuidadosamente para obtener una estrategia que permita resolver problemas asociadas al esfuerzo, costo y tiempo de las actividades que se realizan en un proyecto de desarrollo de sistemas de información. En este contexto, lo principal tanto para desarrolladores como para los clientes es el costo, los primeros para tener una remuneración adecuada por su trabajo y los segundos para sentir que están pagando lo justo por lo solicitado. Sin embargo, en otras disciplinas los costos dependen de la actividad o proceso que se realiza, con lo que se puede deducir que el costo principal del producto final de un proyecto de desarrollo de software es sin duda su tamaño. En este artículo se realiza un estudio comparativo de los modelos de estimación de costos más comunes y utilizados en la actualidad con la finalidad de crear un análisis estructurado que proporcione la información necesaria acerca de costo, tiempo y esfuerzo para la toma de decisiones en un proyecto de desarrollo de software. Posteriormente se muestra la aplicación a un caso de estudio, el cual se denomina Sistema de Monitorización Automática del Sistema de Gestión de Calidad del Reactor TRIGA Mark III.<hr/>ABSTRACT The process of estimating costs in software engineering is not a simple task, it must be addressed carefully to obtain an efficient strategy to solve problems associated with the effort, cost and time of activities that are performed in the development of an information system project. In this context the main goal for both developers and customers is the cost, since developers are worry about the effort pay-load and customers are worry about the product pay-load. However, in other fields the cost of goods depends on the activity or process that is performed, thereby deduce that the main cost of the final product of a development project software project is undoubtedly its size. In this paper a comparative study of common models for estimating costs are developed. These models are used today in order to create a structured analysis to provide the necessary information about cost, time and effort for making decisions in a software development project. Finally the models are applied to a case study, which is a system called Monitorización Automática del Sistema de Gestión de Calidad del Reactor TRIGA Mark III. <![CDATA[<strong>ACI-Polo</strong>: <strong>Sistema computacional para el análisis de la actividad competitiva individual en juegos de polo acuático</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100019&lng=es&nrm=iso&tlng=es RESUMEN La extracción automática de conocimiento e información estadística útil a partir de secuencias de video en juegos reales de polo acuático resulta ser una tarea compleja y poco estudiada actualmente. Siguiendo las directrices de la Metodología Observacional, el presente trabajo propone el uso del sistema computacional ACI-Polo, desarrollado para facilitar el análisis de la actividad competitiva individual en este deporte. ACI-Polo posibilita, a partir de un esquema estructural de juego definido previamente, la realización de análisis estadísticos detallados del juego, así como la identificación de micro-situaciones de especial interés para técnicos y entrenadores. El desempeño del sistema, así como la utilidad y fiabilidad de la información obtenida ha sido comprobado por varios expertos de polo acuático en juegos reales. En este sentido, la aplicación favorece la fundamentación teórica de tareas complejas como son el análisis táctico del juego y la planificación de estrategias con el fin de perfeccionar el entrenamiento individualizado de los polistas.<hr/>ABSTRACT The automatic extraction of useful knowledge and statistical information from waterpolo video sequences is a complex task currently little studied. Following the guidelines of the Observational Methodology, this paper describes the implementation of ACI-Polo, a computer system for the analysis of individual competitive activity in waterpolo games. The developed application allows, from a structural and previously defined game plan, to conduct detailed statistical analysis of the game and the identification of special micro-situations for coaches and trainers. The performance of the system, as well as the usefulness and reliability of the knowledge generated, has been tested by several experts of waterpolo in real games. Moreover, the application has favored the theoretical interpretation of complex tasks such as tactical game analysis and planning strategies, in order to improve the individualized training of waterpolo players. <![CDATA[<strong>PCAECM</strong>: <strong>Modelo  para la Planificación y Control de las Auditorías en Entornos Cubanos Multidominios</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100020&lng=es&nrm=iso&tlng=es RESUMEN En el presente trabajo se describen las necesidades de la Contraloría General de la República de Cuba (CGRC) para informatizar los procesos de planificación y control de las auditorías. Uno de los problemas más fuertemente presentados para realizar la planificación es la compartimentación de las acciones de control asignados a los supervisores, para aumentar el nivel de restricción de acceso al plan anual de auditoría. Por eso en este trabajo se describe un modelo siguiendo un Esquema de Seguridad Multidominio para un sistema de planificación y control. Se muestran los resultados arrojados de una comparación con otras aplicaciones que implementan otros modelos de seguridad a través de indicadores proporcionados por expertos. De esta forma demostrar el fortalecimiento de la seguridad con las mejoras en el control de acceso a través del modelo propuesto y por consiguiente de la confidencialidad de la información.<hr/>ABSTRACT In this paper are described the needs of the Comptroller General of the Republic of Cuba (CGRC) to computerize planning and control audits. One of the hardest problems presented for planning and control actions are the partitioning of information assigned to supervisors to increase the level of restriction of access to the annual audit plan. Therefore, in this work is described a model following a Multidomain Security Scheme for planning and control system. The results obtained are show from a comparison with other applications that implement other security models using indicators provided by experts. Thus are demonstrating the strengthening of security improvements in access control through the proposed model and therefore the confidentiality of the information. <![CDATA[<strong>Detección de sombreros en imágenes de rostro con fondo uniforme</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000100021&lng=es&nrm=iso&tlng=es RESUMEN La determinación de la calidad de una imagen de rostro es un paso importante para los métodos automáticos de reconocimiento de rostros, con el fin de que los algoritmos de reconocimiento de individuos a partir de imágenes de su rostro reciban como entrada imágenes de alto valor identificativo. Para lograr la detección de sombreros se propone la creación de un método de reconocimiento de patrones basado en un modelo de Bolsa de Palabras Visuales. Se realizaron pruebas con descriptores de rasgos SURF (del inglés Speeded Up Robust Features), SIFT (del inglés Scale Invariant Feature Transform), y los novedosos DSIFT (del inglés Dense SIFT) y PHOW (del inglés Pyramid Histogram of visual Words) que obtuvieron los mejores resultados. Además, proponemos ejecutar la clasificación mediante máquinas de vectores de soporte usando el kernel de intersección de histogramas. Este kernel, que hace relativamente poco tiempo se descubrió que cumple las propiedades necesarias para ser usado en el contexto de estos clasificadores, hace el papel de una similitud y es apropiado para tipos de datos como los calculados basados en histogramas. Los resultados experimentales muestran que se logra una alta eficacia en el problema abordado.<hr/>ABSTRACT Determining the quality of a face image is an important step for automatic face recognition methods, for the purpose that the algorithms of recognition and identification of individuals from images of his face receive an image of high identifying value as input. To detect hats, a pattern recognition method based on bag of visual words model is proposed. Testing with SURF, SIFT and the novel DSIFT and PHOW descriptors, which obtained the best results. In addition, classification is performed by SVM using the histogram intersection kernel. Recently it was discovered that this kernel fulfill the necessary conditions to be used in the context of these classifiers. It plays the role of a similarity and it is appropriate for data types such as those calculatedbased on histograms. Experimental results show that a high accuracy in the current problem is achieved.