Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920170001&lang=en vol. 11 num. 1 lang. en <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<strong>Biometric recognition of faces through the analysis of functional data of their three-dimensional models</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100001&lng=en&nrm=iso&tlng=en RESUMEN La representación de los datos del rostro registrados en tres dimensiones con el objetivo de identificar personas, aunque resuelve los problemas de pose e iluminación que afectan el rendimiento de los sistemas basados en dos dimensiones, enfrenta el problema de la alta dimensión de los datos, lo cual provoca errores de clasificación a causa de la llamada “maldición de la dimensionalidad”. Por esta razón la reducción de la dimensión manteniendo altas tasas de reconocimiento es objetivo prioritario de los métodos de representación de los objetos biométricos. Como resultado de esta investigación se propone la representación de la información tridimensional mediante funciones, lográndose una representación compacta que aporta otras ventajas adicionales como la de representar la correlación entre los valores vecinos, y una notable simplificación del cálculo computacional. Los resultados alcanzados demuestran la validez del análisis funcional como vía de reconocimiento de rostros en tres dimensiones completos y con partes perdidas.<hr/>ABSTRACT The representation of face data recorded in three dimensions with the aim of identifying people, while solving the problems of pose and illumination that affect the performance of two-dimensional systems, faces the problem of high data dimension, which causes classification errors because of the so-called "curse of dimensionality". For this reason, the reduction of the dimension maintaining high recognition rates is a priority objective of the methods of representation of the biometric objects. As a result of this research, we propose the representation of three-dimensional information through functions, achieving a compact representation that provides additional advantages such as representing the correlation between neighboring values, and a notable simplification of computational computation. The results obtained demonstrate the validity of the functional analysis as a way of recognition of faces in three dimensions complete and with lost parts. <![CDATA[<strong>Design and Implementation of an Attitude and Heading Reference System (AHRS) using Direction Cosine Matrix</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100002&lng=en&nrm=iso&tlng=en ABSTRACT Attitude and Heading Reference Systems (AHRS) are based on fusion algorithms for Micro-Electro-Mechanical (MEMS) sensors Systems in order to obtain the position and orientation of a given entity. These systems are applied mainly in air navigation services, space exploration and creating interactive software for mobile phones. In an effort for avoiding the high prices of AHRS solutions in the international market, the authors construct a device with individual components using the Direction Cosine Matrix (DCM) alternative as fusion algorithm. As a result, the implementation of a functional architecture is achieved at a reduced cost. Validation’s tests were executed observing the effective detection of the Pitch and Roll angles after rotating a surface where the device was situated.<hr/>RESUMEN Los Sistemas de Referencia de Orientación y Rumbo (AHRS, Attitude and Heading Reference System) se basan en el uso de algoritmos de fusión de Sistemas de Sensores Micro-Electro-Mecánicos (MEMS, MicroElectroMechanical Systems) para conocer la posición y orientación de un cuerpo. Encuentran su aplicación fundamentalmente en la navegación aérea, la exploración espacial y la creación de programas informáticos interactivos para teléfonos celulares. Ante los elevados precios de las soluciones AHRS en el mercado internacional, los autores construyen un dispositivo a partir de componentes individuales utilizando algoritmos de Matrices de Cosenos Dirigidos (DCM, Direction Cosine Matrix) en el rol de mecanismo de fusión. Como resultado, se logra implementar una arquitectura funcional a un costo reducido, validada con pruebas donde se midió la detección efectiva de los ángulos de Cabeceo (Pitch) y Alabeo (Roll) colocando la solución sobre una superficie sometida a rotaciones. <![CDATA[<strong>PET / CT Image Quality Analysis</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100003&lng=en&nrm=iso&tlng=en RESUMEN Se conoce que el tomógrafo híbrido PET/CT presenta altos niveles de sensibilidad y especificidad para detectar lesiones en etapas muy tempranas de diversas patologías, respecto a sus homólogas simples PET y CT. Para determinar los valores típicos para las condiciones cubanas se realiza un análisis tanto objetivo como subjetivo de calidad de imagen, así como cálculos de sensibilidad y especificidad con un equipo de radiólogos nacionales, cuya experiencia proviene básicamente de la radiología fílmica y de la CT simple, así como de la Medicina Nuclear, empleando fotones simples. Se comparan los resultados con los estándares internacionales, como punto de partida para mejorar el entrenamiento de estos profesionales, para sus futuros desempeños con la tecnología PET/CT. La técnica PET/CT presentó mejores valores en la Relación Señal a Ruido de Rose y Contraste Imagen con respecto a las técnicas simples PET y CT. La PET tuvo mejor relación Constraste a Ruido. Sin embargo, los resultados subjetivos no mostraron buena correlación con lo anterior, evidenciándose la necesidad de entrenar al personal.<hr/>ABSTRACT It is known that the hybrid PET / CT scanner has high levels of sensitivity and specificity to detect lesions in very early stages of various pathologies, with respect to its simple PET (Positron Emission Tomography) and CT (Computerized Tomography) homologs. In order to determine the typical values for the Cuban conditions, both objective and subjective image quality analysis are performed, as well as sensitivity and specificity calculations with a team of national radiologists whose experience comes basically from film radiology and simple CT, As well as Nuclear Medicine, using simple photons. Results are compared to international standards, as a starting point to improve the training of these professionals, for their future performances with PET / CT technology. The PET / CT technique presented better values of Rose Signal to Noise Ratio (SNR Rose) and Image Contrast (Cima) with respect to simple PET and CT techniques. The PET had better Contrast to Noise ratio (CNR). However, the subjective results did not show a good correlation with the previous one, evidencing the need to train the personnel. <![CDATA[<strong>Adapting a Reinforcement Learning Approach for the Flow Shop Environment with sequence-dependent setup time</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100004&lng=en&nrm=iso&tlng=en ABSTRACT The tasks scheduling problem on linear production systems, Flow Shop Scheduling Problems, has been a great importance in the operations research which seeks to establish optimal job scheduling in machines within a production process in an industry in general. The problem considered here is to find a permutation of jobs to be sequentially processed on a number of machines under the restriction that the processing of each job has to be continuous with respect to the objective of minimizing the completion time of all jobs, known in literature as makespan or Cmax. Furthermore, its considerate setup-time between two jobs and initial preparation times of machines. This problem is as NP-hard, it is typical of combinatorial optimization and can be found in manufacturing environments, where there are conventional machines-tools and different types of pieces which share the same route. In this paper presents an adaptation of Reinforcement Learning algorithm known as Q-Learning to solve problems of the Flow Shop category. This algorithm is based on learning an action-value function that gives the expected utility of taking a given action in a given state where an agent is associated to each of the resources. Finally, the algorithm is tested with problems of different levels of complexity in order to obtain satisfactory results in terms of solutions quality.<hr/>RESUMEN El Flow Shop Scheduling es un problema de optimización que se presenta con frecuencia en sistemas de producción convencionales automatizados. Este es un problema común donde está involucrada la toma de decisiones con respecto a la mejor asignación de recursos a procesos de información en los cuales se tienen restricciones de temporalidad. Este problema es típico de la optimización combinatoria y se presenta en talleres con tecnología de maquinado donde existen máquinas-herramientas convencionales y se fabrican diferentes tipos de piezas que tienen en común una misma ruta. En este artículo se presenta una adaptación de un enfoque del Aprendizaje Reforzado conocido en la literatura como Q-Learning para resolver problemas de scheduling de tipo Flow Shop con tiempos de configuración entre trabajos y tiempos iniciales de preparación de las máquinas, teniendo como objetivo minimizar el tiempo de finalización de todos los trabajos, conocido en la literatura como makespan o Cmax. Por último, se presentan casos de pruebas para comprobar la validez de dicha adaptación de este algoritmo al problema de secuenciación de tareas. <![CDATA[<strong>Consensus segmentation and ordinal co-occurrence matrix in iris recognition</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100005&lng=en&nrm=iso&tlng=en RESUMEN En los últimos años la identificación biométrica de personas ha ido cobrando gran importancia en el mundo a partir de sus aplicaciones en múltiples escenarios, sobre todo aquellas aplicaciones encaminadas a la seguridad de fronteras, controles de acceso y forenses. En este trabajo se realiza una breve introducción a los sistemas de reconocimiento de personas por el iris y se abordan dos de sus temáticas, que actualmente se encuentran en proceso de investigación. El proceso de segmentación del iris, en una imagen tomada del ojo de una persona, es abordado a partir de la descripción de las investigaciones que los autores han desarrollado en el tema de la fusión de segmentaciones y su mejoramiento. En esta temática es utilizado el concepto de segmentación consenso para mejorar la robustez en el reconocimiento de iris con respecto a la realización de una simple segmentación. El proceso de extracción de rasgos del iris es abordado mediante la descripción de una representación propuesta por los autores sobre la base de los rasgos ordinales de la matriz de co-ocurrencia, para un sistema de reconocimiento de iris, que eleva la exactitud en el reconocimiento. Los resultados experimentales descritos y realizados sobre bases de datos internacionales de referencias, muestran la pertinencia y robustez de estas propuestas.<hr/>ABSTRACT In recent years, the biometric identification of people has gained great importance in the world from its applications in multiple scenarios, especially those applications aimed at border security, access controls and forensics. In this article, a brief introduction to the systems of recognition of people by the iris is made and two of their subjects are addressed, which are currently under research. The process of segmentation of the iris, in an image taken from the eye of a person, is approached from the description of the investigations that the authors have developed in the subject of the fusion of segmentations and their improvement. In this theme the concept of consensus segmentation is used to improve the robustness of the iris recognition with respect to the simple segmentation. The process of iris feature extraction is addressed by describing a representation proposed by the authors based on the ordinal features of the co-occurrence matrix, for an iris recognition system, which raises accuracy in recognition. The experimental results described and performed on international databases of references, show the relevance and robustness of these proposals. <![CDATA[<strong>Smoothing of cellular microscopy images using morphological filtering techniques</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100006&lng=en&nrm=iso&tlng=en RESUMEN Las imágenes que son capturadas por medio del microscopio óptico, aunque ayudan al diagnóstico de diversas patologías, también están sujetas a ser afectadas por diferentes artefactos, fluctuaciones, etc. De hecho, en este trabajo se investiga cómo puede beneficiar el uso de técnicas de filtrado morfológico para el suavizado de este tipo de imágenes. Este problema surge de la necesidad de mejorar la calidad de las imágenes de microscopía celular y acondicionarlas para las tareas de la clasificación y segmentación, cuando es necesario eliminar detalles que no son de interés para el posterior procesamiento y los procesos de análisis automatizado. También se persigue mejorar con esta técnica la evaluación posterior de las mismas, tanto para los sistemas automatizados como para un profesional calificado para esta labor. Además, se llevaron a cabo diversas medidas de calidad para evaluar el resultado de los filtros implementados.<hr/>ABSTRACT Images that are captured by the optical microscope, although they help the diagnosis of various pathologies, are also subject to be affected by different artifacts, fluctuations, etc. In fact, this work investigates how it can benefit the use of morphological filtering techniques for the smoothing of this type of images. This problem arises from the need to improve the quality of cellular microscopy images and to condition them for the tasks of classification and segmentation, when it is necessary to eliminate details that are not of interest for further processing and automated analysis processes. It is also intended to improve with this technique the subsequent evaluation of the same, both for automated systems and for a professional qualified for this work. In addition, various quality measures were carried out to evaluate the results of the implemented filters. <![CDATA[<em><b>Comparison of image quality in Phase Contrast Mammography vs. Digital mammography</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100007&lng=en&nrm=iso&tlng=en RESUMEN El trabajo se enmarca dentro de la evaluación de la calidad de imagen en el procesamiento de imágenes médicas, específicamente la mamografía, la cual es uno de los métodos de radiografía más usados en las técnicas de diagnóstico médico siendo uno de los procedimientos más confiables para la detección y diagnóstico de lesiones mamarias. Por lo tanto, es de gran importancia conocer la tecnología más eficaz para los estudios mamográficos que sea capaz de cumplir con el compromiso de una buena calidad de imagen. En este trabajo se realiza un estudio sobre diferentes imágenes mamográficas tomadas con tres tecnologías diferentes, dos equipos digitales, uno con tecnología Computer Radiography, otro con tecnología Digital Radiography y un tercero que utiliza la técnica del contraste de fase por haces de sincrotrón. En las imágenes se seleccionaron regiones de interés sobre las que se calcularon indicadores para comprobar a partir de una comparación cuál de las técnicas ofrece mejor calidad de imagen. Obteniendo como resultado que la técnica por contraste de fase ofrece mejores resultados ya que muestra mejoras en el contraste de imagen y en la visibilidad de los detalles más pequeños.<hr/>ABSTRACT The work is part of the evaluation of the image quality in the medical image processing, specifically the mammography, which is one of the methods of radiography most used in medical diagnostic techniques being one of the most reliable procedures for the detection and diagnosis of breast lesions. Therefore, it is of great importance to know the most effective technology for mammography studies that is able to meet the commitment of good image quality. In this work, a study on different mammographic images taken with three different technologies, two digital equipment, one with Computer Radiography technology, another with DR Digital Radiography technology and a third one using the technique of phase contrast by synchrotron beams. In the images we selected regions of interest on which we calculated indicators to verify from a comparison which of the techniques offers better image quality. As a result, the phase contrast technique offers better results as it shows improvements in image contrast and in the visibility of smaller details. <![CDATA[<strong>Mapping of digital images of eye fund attending to features of texture</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100008&lng=en&nrm=iso&tlng=en RESUMEN El presente trabajo tiene el interés de contribuir en el análisis automático de imágenes digitales de fondo de ojo. El estudio se realiza con el objetivo de definir una selección óptima de rasgos de textura que facilite la localización del disco óptico y la segmentación de los vasos sanguíneos. Se emplea el software MaZda que permite el mapeo de casi 300 rasgos de textura combinando 6 descriptores estadísticos: histograma, gradiente, matriz Run-Length, matriz de co-ocurrencia, modelo autorregresivo y transformada de Wavelet. Se efectúa el mapeo de 150 imágenes pertenecientes a las Bases de Datos DRIVE y DIARETDB0. Los resultados alcanzados resultan alentadores pues podrían permitir una segmentación de los vasos sanguíneos de un 100% de éxito y un 99.3 % de éxito para la localización del disco óptico. Por lo que se obtiene una selección de rasgos eficiente para el desarrollo o mejoramiento de algoritmos con un pre-procesamiento mínimo.<hr/>ABSTRACT The present work has the interest to contribute in the automatic analysis of digital images of eye background. The aim of this study is to define an optimal selection of texture features that facilitate the location of the optic disc and the segmentation of blood vessels. The MaZda software allows the mapping of almost 300 texture features by combining 6 statistical descriptors: histogram, gradient, Run-Length matrix, co-occurrence matrix, Wavelet transform and autoregressive model. The mapping of 150 images belonging to the Databases DRIVE and DIARETDB0 is carried out. The results obtained are encouraging because they could allow blood vessel segmentation to be 100% successful and 99.3% successful for the location of the optic disc. Thus we obtain an efficient selection of traits for the development or improvement of algorithms with a minimum pre-processing. <![CDATA[<strong>New method to obtain heart instantaneous frequency using time frequency analysis in the seismocardiogram</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100009&lng=en&nrm=iso&tlng=en RESUMEN La adquisición de la señal de seismocardiograma (SCG) resulta simple y económica en comparación con la señal de electrocardiograma (ECG). La señal del SCG puede ser una alternativa para el monitoreo de la variabilidad del ritmo cardíaco (VRC). Existen diferentes métodos para el análisis de la VRC a partir de señales cardíacas mecánicas. Uno de los algoritmos más comunes está basado en la detección de los latidos en el SCG. Dicho algoritmo es proclive a fallos, por esta razón es conveniente estudiar otros algoritmos para obtener la serie de frecuencias cardíacas instantáneas (FCI) evitando la detección de cada uno de los latidos. En este trabajo se propone un algoritmo que mediante un análisis espectro temporal de la señal del SCG se obtiene una serie FCI equivalente a la obtenida por el ECG. Se analizan los resultados logrados por el método propuesto a partir del SCG teniendo como referencia el ECG. Se alcanza más de un 95% de similitud y precisión entre la serie FCI del SCG respecto a la del ECG. Estos resultados muestran que el método implementado puede servir para los especialistas en el monitoreo de la VRC a partir de la señal del SCG.<hr/>ABSTRACT Acquisition of the seismocardiogram (SCG) turn out simple and economic in comparison with the electrocardiogram (ECG) signal. SCG signal can be an alternative for monitoring heart rate variability (HRV). There are different methods for the analysis of HRV using mechanical cardiac signals. One of the most common algorithms is based on detecting the heartbeat in the SCG signal. This algorithm is prone to failure; therefore, it is advisable to study other algorithms to obtain the series of heart instantaneous frequency (HIF) avoiding the detection of each heartbeat. This paper proposes an algorithm that uses a time spectrum analysis of the SCG signal to obtain HIF series. The results achieved by the proposed method from the SCG signal are evaluated having as a reference the ECG signal. More than a 95 % of similarity and precision is reached between HIF series from SCG signal regarding the ECG. This results shows that the implemented method can be useful for the specialists in monitoring of HRV using SCG signals. <![CDATA[<strong>Watershed Segmentation Markers Using Radon Transform</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100010&lng=en&nrm=iso&tlng=en RESUMEN La determinación de marcadores en imágenes puede ser muy útil tanto en imagenología médica como en fotografía convencional. La imposición automática de marcadores en imágenes médicas es una de las cuestiones propuestas en los últimos años por muchos trabajos, por su gran aplicación en el procesamiento digital, pero no existe un algoritmo global. En este trabajo se presenta la utilización de la transformada Radon para determinar marcadores de eritrocitos en imágenes de microscopia celular de glóbulos rojos con fines de segmentación watershed. Para ello, la búsqueda de marcadores se realiza basada en la propiedad de la transformada Radon de detectar parámetros de forma y su comportamiento ante estructuras circulares. Partiendo de una imagen de microscopía óptica de campo claro con extendido de sangre, se determina una imagen gradiente. A la imagen gradiente se le aplica la transformada Radon directa, para después filtrar cada una de las proyecciones del sinograma con un filtro adaptado. Con la transformada Radon reversa se obtiene una imagen con picos en los eritrocitos. Con un umbral automático se obtiene una imagen marcadora que determina la posición de los eritrocitos. En evaluaciones realizadas con diversas imágenes que contienen un total de 1120 eritrocitos con diferente grado de aglomeración se obtuvo una exactitud del 86.54 %, una sensibilidad del 88.02 %, una predictividad positiva del 97.37 % y una medida-F del 92.39 %, resultados comparables con otros métodos publicados.<hr/>ABSTRACT The determination of markers in images can be very useful both in medical imaging and in conventional photography. The automatic imposition of markers on medical images is one of the issues proposed in recent years by many works, due to their great application in digital processing, but there is no global algorithm. This work presents the use of the Radon transform to determine erythrocyte markers in cellular red cell microscopy images for watershed segmentation purposes. For this, the search of markers is made based on the property of the Radon transform to detect shape parameters and their behavior in relation to circular structures. Starting from a clear field optical microscopy image with blood smear, a gradient image is determined. To the gradient image is applied the direct Radon transform, to then filter each of the projections of the sinogram with an adapted filter. With the Reverse Radon transform, an image with peaks in the erythrocytes is obtained. With an automatic threshold, a marker image is obtained that determines the position of the erythrocytes. An accuracy of 86.54%, a sensitivity of 88.02%, a positive prediction of 97.37% and an F-measure of 92.39% were obtained in evaluations performed with diverse images containing a total of 1120 erythrocytes with different degree of agglomeration, results comparable with other published methods. <![CDATA[<strong>Algorithm for the identification of the posterior capsule opacity in images from PENTACAM</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100011&lng=en&nrm=iso&tlng=en RESUMEN En la actualidad la opacidad de la cápsula posterior es la complicación postoperatoria más frecuente después de que un paciente es operado de catarata. En la presente investigación se utiliza el procesamiento digital de imágenes para diagnosticar de forma automática esta enfermedad, utilizando imágenes provenientes del PENTACAM, de alta resolución. La solución se basa en el uso de técnicas de realce, mejora y segmentación para obtener imágenes que faciliten su posterior análisis. Se hace énfasis en una fusión del algoritmo de la Transformada de Hough y el de Contornos Activos pues es necesario identificar regiones con una gran variedad de sus estructuras. Estas técnicas fueron implementadas a partir del uso de tecnologías libres, cumpliendo con las políticas de soberanía tecnológicas establecidas en el país.<hr/>ABSTRACT At present the opacity of the posterior capsule is the most frequent postoperative complication after a patient is operated on for cataract. In the present research digital image processing is used to automatically diagnose this disease, using images from PENTACAM, high resolution. The solution is based on the use of techniques of enhancement, improvement and segmentation to obtain images that facilitate its later analysis. Emphasis is placed on a fusion of the Hough Transform and Active Contours algorithm since it is necessary to identify regions with a great variety of their structures. These techniques were implemented through the use of free technologies, complying with the policies of technological sovereignty established in the country. <![CDATA[<strong>Using ICT to teach preschool Mathematics: the Mathematical Circus</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100012&lng=en&nrm=iso&tlng=en RESUMEN La Matemática es una asignatura fundamental en la vida de cualquier estudiante y tradicionalmente se le ha considerado difícil, sin embargo, ese calificativo no es totalmente justo. Para transformar ese pensamiento negativo deben adoptarse nuevas estrategias de enseñanza-aprendizaje desde que se inicie la formación del individuo. Las tecnologías informáticas pueden ayudar en esa labor, en este trabajo se presentó el sistema multimedia “El Circo de las Matemáticas” que se concibió específicamente para enseñar los números naturales del 1 al 5. La herramienta despliega un ambiente, ameno e interactivo que utiliza un lenguaje adecuado a las edades de los niños a los que va destinado. El experimento se realizó en una institución de la ciudad de Bogotá y se validó con una prueba de tipo prePrueba-PostPrueba que arrojó una mejora significativa en la calidad del aprendizaje. Se usó un diseño de investigación quasi-experimental.<hr/>ABSTRACT Mathematics is a fundamental subject in the life of any student and traditionally has been considered as a difficult subject, but that description is not entirely fair. To transform this negative thinking new teaching and learning strategies should be adopted since the formation of the individual begins. Computer technologies can help in this task, in this work the multimedia system "The Circus of Mathematics", which was specifically designed to teach natural numbers from 1 to 5 was presented. The tool displays an interactive environment that uses an appropriate language to the age of children for whom it is intended. The experiment was conducted at an institution located in Bogota and was validated with a type test pretTest-postTest showing significant improvements in the quality of learning. It was used a quasi-experimental research design. <![CDATA[<strong>Detection of Regions of Interest in Images of the Papanicolaou Test</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100013&lng=en&nrm=iso&tlng=en RESUMEN La detección de anomalías en imágenes médicas es usada en la clasificación y detección de anormalidades. El objetivo de un detector de anomalías es la identificación de las diferencias en una serie de datos, sin tener ninguna información previa de sus propiedades. El objetivo de este trabajo es la construcción de un detector de anomalías para imágenes de la prueba de Papanicolaou, para lo que se diseñó e implementó un algoritmo que determinó regiones de interés. Este algoritmo se probó con 40 imágenes, 20 que sólo contenían células normales y 20 con células anómalas. El 100% de las imágenes con células anómalas presentó regiones de interés. De las 20 imágenes con sólo células normales, sólo 9 contuvieron regiones de interés. Por otro lado, el método propuesto incluyó en las regiones de interés al 92.43% de las células anómalas.<hr/>ABSTRACT The detection of abnormalities in medical images is used in the classification and detection of abnormalities. The purpose of an anomaly detector is to identify the differences in a series of data, without having any previous information of its properties. The objective of this work is the construction of an anomaly detector for images of the Papanicolaou test, for which an algorithm that can determine regions of interest was designed and implemented. This algorithm was tested with 40 images, 20 containing only normal cells and 20 with abnormal cells. 100% of the images with anomalous cells presented regions of interest. Of the 20 images with only normal cells, only 9 contained regions of interest. On the other hand, the proposed method included 92.43% of the abnormal cells in the regions of interest. <![CDATA[<strong>Multi-classifier to predict protein interactions using ant colony optimization</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000100014&lng=en&nrm=iso&tlng=en RESUMEN En los últimos años el desarrollo de sistemas multi-clasificadores se ha convertido en un campo de investigación activo. Un sistema multi-clasificador es un conjunto de algoritmos de clasificación cuyas salidas individuales se funden para una mayor precisión. Muchos estudios teóricos y empíricos han demostrado las ventajas del paradigma de la combinación de clasificadores sobre los clasificadores individuales. Cuando se combinan clasificadores es importante garantizar la diversidad entre ellos de alguna manera, algunas medidas estadísticas pueden utilizarse para estimar la diversidad de un conjunto de clasificadores, estas se llaman medidas de diversidad. Otra cuestión a considerar es el número de clasificadores individuales incluidos en el modelo: cuanto menor sea el número de clasificadores, más simple es el sistema resultante. En términos generales, el principio de parsimonia es muy deseado en tales conjuntos, desde que un conjunto voluminoso también será un modelo que consume mucho tiempo. Encontrar el subconjunto mínimo de los clasificadores individuales que produce el mejor rendimiento del sistema se puede plantear como un problema de optimización combinatoria. En este trabajo se aborda el problema de la construcción de sistemas multi-clasificadores usando la Optimización basada en Colonia de Hormigas, un algoritmo de optimización meta heurístico ampliamente popular y eficaz, la razón principal detrás del uso del mismo radica en su fuerte capacidad para resolver problemas de optimización combinatoria entrelazados. Además, un análisis empírico es incluido para validar estadísticamente nuestra propuesta, mostrándose una aplicación real en la interacción de proteínas.<hr/>ABSTRACT In recent years the development of multi-classifier systems has become an active area ​​research. A multi-classifier system is a set of classification algorithms whose individual outputs are fused for greater accuracy and interpretability. Many theoretical and empirical studies have shown the advantages of paradigm combination of classifiers over individual classifiers. When combined classifiers is important to ensure diversity among them in some way, some statistical measures can be used to estimate the diversity of a set classifiers, these are called diversity measures. Another issue to consider is the number of individual classifiers included in the model: the lower the number of classifiers, simpler is the resulting system. In general terms, the principle of parsimony is very desirable in such sets since a voluminous set also be a time-consuming model. Find the minimum subset of individual classifiers that produces the best system performance can pose as a combinatorial optimization problem. In this paper the problem of building multi-classifiers systems is addressed using Ant Colony Optimization, an optimization algorithm metaheuristic widely popular and effective, the main reason behind the use of it lies in its strong ability to solve problems intertwined combinatorial optimization. In addition, an empirical analysis is included to statistically validate our proposal, showing a real application in protein interaction.