Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920170002&lang=en vol. 11 num. 2 lang. en <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<strong>Image denoising using interscale and intrascale dependencies between wavelet coefficients</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200001&lng=en&nrm=iso&tlng=en RESUMEN En el presente trabajo se analizan los métodos de reducción de ruido en imágenes basados solamente en la correlación intra-escala e inter-escala de los coeficientes wavelet. Se presenta además un novedoso esquema de umbralización wavelet espacialmente adaptativo que incorpora información de los coeficientes vecinos. Las pruebas experimentales muestran que el método propuesto es consistentemente superior a otros métodos del estado del arte que explotan la dependencia intra-escala e incluso ligeramente superior a BiShrink que utiliza la correlación inter-escala.<hr/>ABSTRACT In this paper, image denoising methods, based only on the interscale and intrascale dependencies between wavelet coefficients, are analyzed. In addition, a novel thresholding scheme for spatially adaptive wavelet denoising is presented. The scheme incorporates information from the neighboring coefficients. Experimental results show that the proposed method is consistently superior to others state-of-the-art methods based on intrascale dependencies, and even slightly better than BiShrink which uses the inter-scale correlation. <![CDATA[<strong>FPGA Embedded Web Server to configure the Master Controller of the Cuban Smart Traffic System</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200002&lng=en&nrm=iso&tlng=en RESUMEN En este artículo se presenta la implementación de un servidor web para configurar el Controlador Maestro del Sistema Inteligente de Tráfico desarrollado en Cuba. La programación del servidor se realizó en lenguaje C, para ejecutarse sobre un sistema operativo Linux empotrado en un FPGA. Se logró un mecanismo de configuración sencillo, de bajos recursos de cómputo, rápido y flexible.<hr/>ABSTRACT The implementation of an Embedded Web Server to configure the Master Controller of the Cuban Intelligent Traffic System is presented. The server program was written using a Ccompiler that runs overa version of an embedded Linux operatingsystem fora FPGA. A simple, low resource demanding, fast and flexible configuration mechanism was accomplished. <![CDATA[<strong>Model of logic agent with facts-based inference</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200003&lng=en&nrm=iso&tlng=en RESUMEN La programación lógica se ha mantenido como uno de los principales paradigmas dentro de las investigaciones en el área de la inteligencia artificial. Por otro lado, la inferencia basada en casos es muy utilizada para la creación de sistemas expertos, sobre todo en problemas de clasificación o diagnóstico, donde se puede determinar fácilmente un objetivo o variable dependiente y un conjunto de atributos condicionalmente independientes entre sí, dado el objetivo. En el presente trabajo se utilizan las potencialidades declarativas de la programación lógica y las ventajas del razonamiento basado en casos para elaborar un modelo de agente lógico con inferencia basada en hechos. El mismo fue implementado mediante el desarrollo de una herramienta de código abierto para la enseñanza de la Inteligencia Artificial en la Universidad de las Ciencias Informáticas. El modelo de agente propuesto determina, a partir de sus creencias, el peso de cada atributo aplicando elementos de la teoría de la información, el cálculo de la incertidumbre mediante la teorí­a de las probabilidades y siguiendo un enfoque de Bayes Ingenuo, y brinda información útil para la toma de decisiones en la incorporación de nuevos casos a la base de conocimiento. Además, realiza el aprendizaje mediante la actualización de los valores de creencia de cada valor al realizar nuevas inferencias y al incorporar nuevos casos a la base. El modelo fue implementado y probado, alcanzando resultados de rendimiento favorables.<hr/>ABSTRACT Logic programming has remained as one of the main paradigms in research in the area of artificial intelligence. Furthermore the case-based inference is very used for creating expert systems, especially in problems about classification or diagnosis, which can easily determine a target or dependent variable and a set of conditionally independent attributes each other, given the objective. In this paper is proposed a logical agent model with inference based on facts, using the declarative potential of logic programming and the advantages of the case-based reasoning. The model was implemented by developing an open source tool for teaching Artificial Intelligence at the University of Informatics Science. The proposed agent determines, based on their beliefs, the weight of each attribute using elements of information theory, also calculates uncertainty following a Naive Bayes approach, and provides useful information for decision-making in the incorporation of new cases to the knowledgebase. It also performs learning by updating the belief values of each value to make new inferences and incorporate new cases to the base. The model was implemented and tested, the performance results achieved were favorable. <![CDATA[<strong>SemClustDML: algorithm to clustering scientific papers based on information provided by bibliographic references</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200004&lng=en&nrm=iso&tlng=en RESUMEN El agrupamiento de datos se ha convertido en una de las formas fundamentales de gestión del conocimiento. Particularmente gestionar el conocimiento a partir de la bibliografía científica disponible en internet resulta de gran importancia para los investigadores, es por ello que se han desarrollado técnicas especializadas en el agrupamiento de artículos científicos. Las publicaciones científicas siguen una estructura bien definida donde hay partes fundamentales que siempre están presente como: título, resumen, palabras claves y referencias bibliográficas. Específicamente, las referencias bibliográficas brindan información relevante en el momento de determinar si dos artículos dados tratan temas similares. Por lo cual, potenciar la información brindada por esta subunidad influye de manera significativa en el resultado del agrupamiento. Este trabajo tuvo como objetivo: desarrollar un algoritmo de agrupamiento que haga uso de las características especiales de la matriz de similitud obtenida con la función SimRefBib para mejorar los resultados del agrupamiento de artículos científicos basado en las referencias bibliográficas. Las pruebas realizadas demuestran que el algoritmo propuesto logra mejorar de manera significativa los resultados del agrupamiento de artículos científicos cuando este está basado únicamente en la información brindada por las referencias bibliográficas.<hr/>ABSTRACT Data clustering has become one of the key forms of knowledge management. Particularly knowledge management from the scientific literature available on the internet is very importance for researchers, that why, specialized techniques have been developed in scientific articles clustering. The scientific publications follow a well-defined structure where there are fundamental parts that are always present as: title, abstract, keywords and bibliographical references. Specifically, the bibliographical references provide relevant information when determining whether two articles address similar topics. Therefore, to enhance the information provided by this subunit has a significant influence on the clustering´s result. The objective of this work was to develop a clustering algorithm that makes use of the special characteristics of the similarity matrix obtained with the SimRefBib function to improve the results of scientific articles clustering based on bibliographic references. The tests show that the proposed algorithm improves significantly the results of the grouping of scientific articles when it is based only on the information provided by the bibliographic references. <![CDATA[<strong>OneR Algorithm. Its application on Clinical Trials</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200005&lng=en&nrm=iso&tlng=en RESUMEN Los Ensayos Clínicos constituyen una etapa determinante en el desarrollo de cualquier producto médico. El gran cúmulo de datos que generan y la información oculta en estos continúan siendo una importante disyuntiva para la comunidad científica. La minería de datos se convierte en una de las soluciones para el problema en cuestión. En el presente trabajo se aplica un algoritmo de reglas de inducción, el OneR, con el objetivo de mostrar patrones desde los datos contenidos en el mercado de datos del producto LeukoCIM, en fase de Ensayo Clínico por parte de los especialistas del Centro de Inmunología Molecular. La aplicación del algoritmo se llevó a cabo a través del proceso de minería de datos, guiado por la metodología CRISP-DM e integrado en el Sistema Gestor de Bases de Datos PostgreSQL. Finalmente se obtuvo un conjunto de reglas de clasificación asociadas al grado del evento adverso que presenta la enfermedad base de los pacientes, evidenciando la viabilidad de la utilización del algoritmo OneR en esta sensible rama de la sociedad.<hr/>ABSTRACT Clinical Trials constitute a critical stage in the development of any medical product. The large body of data generated and the information hidden in them, remain as one of the dilemmas for the scientific community. Data mining becomes one of the solutions to the problem at hand. In this paper, a OneR algorithm for induction rules is applied, with the aim of showing patterns from the data contained in the LeukoCIM product data market, in clinical trial phase by the specialists of the Molecular Immunology Center. The application of the algorithm was carried out through the data mining process, guided by the Cross-Industry Standard Process for Data Mining methodology and integrated into the PostgreSQL Database Management System. As a result, it was obtained a set of classification rules related to the level of the adverse event presented in the base disease of patients, demonstrating the feasibility of using the OneR algorithm in this sensitive sector of the society. <![CDATA[<strong>Repairing Data Warehouses with semantic meaning</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200006&lng=en&nrm=iso&tlng=en RESUMEN Un Data Warehouse (DW) es un almacén de datos que se modela utilizando el modelo multidimensional, el cual estructura la información a través de dimensiones y hechos. Una dimensión es un concepto abstracto que agrupa datos que comparten un significado semántico común, modelada mediante jerarquías de categorías, las que contienen elementos. Una dimensión es estricta si cada elemento de toda categoría tiene un único ancestro en cada categoría superior y homogénea si cada elemento tiene al menos un ancestro en cada categoría superior. Una dimensión puede volverse inconsistente con respecto a sus restricciones de integridad estrictas y homogéneas después de una actualización y cuando esto sucede la dimensión debe ser reparada. Una reparación es una nueva dimensión que satisface el conjunto de restricciones estrictas y homogéneas y se obtiene insertando y eliminando arcos entre elementos de las categorías. Si la dimensión se vuelve inconsistente luego de una única operación de reclasificación de elementos es posible computar una reparación, que contiene la actualización, en tiempo polinomial, sin embargo, esta reparación no garantiza la semántica de los datos. En este artículo se indican otra clase de restricciones que guían el proceso de reparación tales como restricciones de prioridad y seguras, nuevas heurísticas y una propuesta algorítmica que permitan encontrar una reparación con correcto sentido semántico, sin embargo, es posible no encontrar una reparación que garantice la semántica de los datos.<hr/>ABSTRACT A Data Warehouse (DW) is a data repository that is modeled using the multidimensional model, which structures the information according to dimensions and facts. A dimension is an abstract concept that brings together data that share a common semantic meaning, modeled by category hierarchies, which contain elements. A dimension is strict if all category each element has a unique ancestor in each upper and covering category if each element has at least one ancestor each higher category. A dimension can become inconsistent with respect to their strictness constraint and covering integrity after update operations and when this happens the dimension must be repaired. A repair is a new dimension that satisfies the set of strictness and covering constraints and that is obtained inserting and deleting arcs between elements of the categories. If the dimension becomes inconsistent after a single operation reclassification of items it is possible to compute a repair, in polynomial time, but this repair does not guarantee the semantics of the data. In this article different kind of restrictions that guide the repair process such as priority and safe constraints, new heuristics and a algorithmic approach that allow to find a repair with a correct semantic meaning, however, it is possible not to find a repair that guarantees the semantics of the data. <![CDATA[<strong>Foundations for the definition of a model of quality assessment for GNU / Linux Nova</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200007&lng=en&nrm=iso&tlng=en RESUMEN La evolución de la industria del software ha establecido modelos de desarrollo que permiten obtener productos de alta calidad que aseguran la competitividad en el mercado. La gestión de la calidad del software tiene dos aristas fundamentales, la calidad del proceso y la calidad del producto, influyendo la primera en la segunda. Entre los distintos productos de software cuya calidad puede ser crítica para su utilización, se encuentran los sistemas operativos, las distribuciones GNU/Linux son una variante de propósito general, que han servido de solución para los países con menos recursos. La Universidad de las Ciencias Informáticas ha creado una distribución GNU/Linux que pudiera sustituir las plataformas privativas del país para contribuir al proceso de migración que se viene impulsando hace varios años. Para su desarrollo actualmente se cuenta con una metodología donde la gestión de la calidad tiene una definición abierta sobre cómo garantizar la calidad del producto y una disciplina de pruebas que verifica y valida los requerimientos definidos, sin embargo, no cuenta con un procedimiento que evalúe la calidad de los productos. El presente trabajo propone los elementos que debe incluir un modelo de evaluación de la calidad del producto para la distribución GNU/Linux Nova, a partir del estudio de estándares de calidad internacionales, modelos de calidad para software libre y a las particularidades de este tipo de productos.<hr/>ABSTRACT The evolution of the software industry has established development models that allow to obtain high quality products that ensure competitiveness in the market. The quality management software has two main approaches, process quality and product quality, influencing one to in the other. Among the various software products whose quality can be critical for use are the operating systems, GNU/Linux distributions are a variant that have served as solution for countries with fewer resources. The University of Informatics Science has created a GNU/Linux distribution that could replace privative platforms to contribute to the process of migration to free software that has been promoting the country for several years. For his development currently has a methodology, where quality management has an open definition on how to ensure product quality and has discipline of tests that verifies and validates the defined requirements, however, it does not have a procedure that evaluates the quality of products. This paper proposes the elements that should include an evaluation model of product quality for the GNU/Linux Nova distribution from the study of international quality standards, quality models for free software and the particularities of this type of product. <![CDATA[<em><b>Computer application based on mathematical models of natural drying of lateritic ore</b></em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200008&lng=en&nrm=iso&tlng=en RESUMEN En la empresa niquelífera “Comandante Ernesto Che Guevara” de Moa se realiza el proceso de secado natural de la mena laterítica. Sin embargo, la tecnología empleada presenta limitaciones porque, entre otros aspectos, no considera la modelación matemática del mismo. Para solucionar la problemática anterior en este trabajo se desarrolló, usando el software Borland Delphi Enterprise, la aplicación informática “SecSolar”, la cual se basa en la implementación de modelos matemáticos del proceso. Finalmente, con la aplicación creada se calculó la distribución de humedad que experimenta el material, para una pila de minerales con características geométricas semejantes a las utilizadas en la industria del níquel. Los resultados obtenidos son congruentes con los reportados en investigaciones precedentes. Por tanto, se evidenció que la aplicación “SecSolar” es satisfactoria para los propósitos para los cuales fue concebida.<hr/>ABSTRACT The natural drying process of lateritic ore is performed in the nickel company "Commander Ernesto Che Guevara" of Moa. However, the technology used has limitations because, among other things, it does not consider its mathematical modeling. To solve the above problem, it was developed in this paper -using the Borland Delphi Enterprise software- the computer application "Sec Solar" which is based on the implementation of mathematical models of the process. Finally, the moisture distribution experienced by the material was calculated with the created application, for stockpiles of ore with similar geometric characteristics to those used in the nickel industry. The results are consistent with those reported in previous research. It is therefore evident that “Sec Solar" application is satisfactory for the purposes it was conceived. <![CDATA[<strong>Algoritmo paralelo para la obtención de predicados difusos</strong>: <strong>Parallel Algorithm to obtain fuzzy predicates</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200009&lng=en&nrm=iso&tlng=en RESUMEN El acelerado desarrollo en las distintas ramas de la ciencia y la ingeniería, exigen el diseño de novedosas técnicas de computación que permitan el procesamiento de grandes cantidades de datos, reduciendo los tiempos de respuesta y posibilitando el tratamiento de problemas complejos. FuzzyPred es un método de minería de datos que permite obtener predicados difusos en forma normal, como vía de representación del conocimiento. Para este método el tamaño de la base de datos es un factor esencial en los tiempos de respuesta del algoritmo, ya que cada predicado generado es evaluado en cada uno de los registros de la base de datos. Cuando este proceso se realiza de forma secuencial, se desaprovechan las arquitecturas de hardware que existen hoy en día para el procesamiento de grandes volúmenes de datos. Esto trae como consecuencia, que, en dependencia del tamaño de la base de datos, se pueden llegar a obtener largos tiempos de ejecución. En este trabajo se propone una versión paralela del algoritmo FuzzyPred, basado en la cantidad de datos que se pueden procesar dentro de cada uno de los hilos de procesamiento, de forma sincrónica e independiente. Los resultados obtenidos durante la experimentación realizada, indican que el algoritmo paralelo puede llegar a ser 10 veces más rápido que el secuencial y es por ello que se considera que puede ser muy útil en la mejora de la eficiencia del algoritmo ante bases de datos muy grandes.<hr/>ABSTRACT The rapid development in several fields of science and engineering, requires the design of novel computational techniques that allow processing large amounts of data, reducing response times and enabling the treatment of complex problems. FuzzyPred is a data mining method that allows obtaining fuzzy predicates in normal forms. For this method the size of the database is an essential factor in the response time of the algorithm, as each predicate is evaluated in each of the records in the database. When process is performed sequentially, it does not employ current hardware architectures that exist today for processing large volumes of data. This results in long runtimes, depending of the size of the database. This paper proposes a parallelized version of FuzzyPred, based on the amount of data that can be processed within each processing threads, synchronously and independent. The results obtained during experimentation indicate that the parallel algorithm is up to 10 times faster than the sequential version and that is why it is considered that can be very useful in improving the efficiency of the algorithm in very large databases. <![CDATA[<strong>A study of the behavior of methods based on prototypes and similarity relations in the face of “hubness”</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200010&lng=en&nrm=iso&tlng=en RESUMEN El fenómeno hubness, es un aspecto del curso de la dimensionalidad descrito recientemente, que está relacionado con la disminución de la especificidad de las similitudes entre los puntos en un espacio de alta dimensión; lo cual va en detrimento de los métodos de aprendizaje automático. En este trabajo se evalúa el impacto del fenómeno hubness en la clasificación utilizando un enfoque basado en prototipos. El estudio experimental realizado demuestra que los métodos de generación y selección de prototipos estudiados ofrecen resultados comparables contra otros métodos basados en el enfoque kNN, encontrados en la literatura, los cuales son hubness-consientes y están diseñados específicamente para lidiar con este problema. Teniendo en cuenta los resultados alentadores de este estudio y las bondades de los métodos basados en prototipos es posible asegurar que la utilización de los mismos permitirá mejorar el desempeño de los sistemas que manejen datos de altas dimensiones y bajo la asunción de hubness.<hr/>ABSTRACT The hubness phenomenon, is an aspect of the curse of dimensionality recently described, that is related to the diminishment of specificity in similarities between points in a high-dimensional space; which is detrimental to the machine learning methods. This paper deals with evaluating the impact of hubness phenomenon on classification based on the nearest prototype. Experimental results show that the studied methods of generation and selection of prototypes offer comparable results against others methods based on kNN approach, found in the literature, which are hubness aware and are specifically designed to deal with this problem. Based on these encouraging results and the extensibility of methods based on prototypes, it is possible argue that it might be beneficial to use them in order to improve system performance in high dimensional data under the assumption of hubness. <![CDATA[<strong>Multiple people tracking in video surveillance applications with low-resolution cameras</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200011&lng=en&nrm=iso&tlng=en RESUMEN La detección y seguimiento de personas es de vital interés por su amplio potencial de aplicaciones, tales como: videovigilancia, sistemas asistidos de conducción, herramientas de evaluación en el ámbito médico, interacción humano-computador. Precisamente en este trabajo es presentada una aplicación para la realización de tareas de videovigilancia con cámaras de baja resolución. Esta aplicación está basada en secuencias de video capturadas desde un sistema distribuido de visión con múltiples cámaras, permitiendo la detección y seguimiento de personas. Se utilizaron métodos y técnicas bien conocidas, integradas de manera creativa para cubrir las diferentes etapas de procesamiento, donde se introdujeron mejoras para una mayor eficiencia computacional del sistema. Especial atención reciben la sustracción de fondo con el modelo de Mezcla Gaussiana en la detección de objetos y el filtro de Kalman para el seguimiento, además los descriptores Histogramas de Gradientes Orientados y Máquina de Soporte Vectorial en la detección de persona. Para demostrar la validez de los métodos implementados se realizan una gran variedad de experimentos con cámaras de baja resolución, en los cuales se obtuvieron resultados satisfactorios. En la etapa de seguimiento de múltiples personas, solo se cometió error en el 11% de las personas detectadas, motivado fundamentalmente por la ocurrencia de oclusiones.<hr/>ABSTRACT People detection and tracking is of vital interest for its many applications, such as video surveillance, driver assisted systems, evaluation tools in the medicine, human-computer interaction. In this work is presented an application to carry out tasks of video surveillance with low resolution cameras. This application is based on video sequences captured from a distributed multi-camera vision system, allowing the people detection and tracking. The methods and techniques used in each stage are well known, these were built creatively in the different stages of processing, and these were improved for greater computational efficiency of the system. Within these receive special attention the background subtraction with Gaussian Mixture Model to objects detection and the Kalman filter to tracking, also the descriptors Histograms of Oriented Gradients and Support Vector Machine in people detection. To demonstrate the validity of the methods implemented is realized a variety of experiments with low-resolution cameras, getting satisfactory results. In the tracking stage of multiple persons only occurred error in 11% of detected people, mainly motivated by the occurrence of occlusions. <![CDATA[<strong>Software component for weapons recognition in X-ray images</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200012&lng=en&nrm=iso&tlng=en RESUMEN Las imágenes de rayos X constituyen una importante herramienta para aplicaciones de seguridad, especialmente en sitios donde la exploración de bultos en busca de objetos peligrosos es de vital importancia. Según los especialistas la inspección de equipajes mediante esta técnica presenta limitantes en cuanto a la eficiencia en el reconocimiento de objetos peligrosos entre otros factores. Esto es influenciado -en alguna medida- por las características propias de las imágenes de rayos X, las cuales son muy diferentes a las imágenes del espectro visible, afectando su interpretación. Es por ello que, tanto los métodos de adquisición, como los algoritmos para la mejora, procesamiento o reconocimiento de objetos en estas imágenes, se caractericen por costosas operaciones de cómputo que repercuten en altos tiempos de ejecución. La reducción del tiempo de ejecución en aplicaciones de seguridad puede ser un objetivo de alta prioridad, en sistemas que soportan la toma de decisiones rápidas, entre otros. Además, las técnicas de programación paralela han demostrado ser una alternativa viable para la solución rápida de problemas de visión computacional. En este trabajo se presenta el desarrollo de un componente de software escrito en C/C++ que describe un procedimiento basado en el algoritmo BoVW para la detección de armas cortas. La implementación emplea técnicas de programación paralela mediante OpenMP, logrando reducir hasta un 93.36% el tiempo de ejecución de una anterior implementación en MATLAB. También se prueba el método de clasificación en una nueva base de datos de imágenes de rayos X de equipos de inspección de energía dual.<hr/>ABSTRACT The x-ray images constitute an important tool for security applications, especially on sites exploration of packages in for searching dangerous objects is very important. According to experts, the inspection of baggage by using the exploration of package techniques present limitations for the terms of efficiency in recognition of dangerous objects among other factors. This is influenced -in some aspects- by the characteristics of the X-ray images, which are very different to the visible spectrum images, affecting the performance of the techniques of exploration packages. For this reason, the acquisition methods, as well as for improving, processing or recognition of objects in these images, are characterize with expensive operations producing high runtimes. The reduction of the runtimes of the security applications can be a target of high priority for systems supported by fast decisions, among others. In addition, parallel programming techniques have proven to be a viable alternative for solving of problems in computer vision. In this paper, we propose a software component written in C/C++ that describes a procedure based on the BoVW algorithm handguns detection. For implementing the proposal, we use techniques of parallel programming with OpenMP, decreasing in 93.36% from a previous implementation of the proposal in MATLAB. The classification method is also tested in a new database of X-ray images, which were obtained by using dual-energy inspection equipment. <![CDATA[<strong>Bi-objective approach based in Reinforcement Learning to Job Shop scheduling</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200013&lng=en&nrm=iso&tlng=en RESUMEN Los problemas de secuenciación de tareas requieren organizar en el tiempo la ejecución de tareas que comparten un conjunto finito de recursos, y que están sujetas a un conjunto de restricciones impuestas por diversos factores. Este tipo de problemas aparecen con frecuencia en la vida real en numerosos entornos productivos y de servicios. El problema consiste en optimizar uno o varios criterios que se representan mediante funciones objetivo. En este artículo se analizaron los problemas de secuenciación tipo Job Shop con los principales objetivos a optimizar para este tipo de problemas, seguidamente se propuso un algoritmo desde un enfoque bi-objetivo basado en la Frontera de Pareto y utilizando Aprendizaje Reforzado para optimizar dos de los objetivos analizados, el tiempo de terminación de todos los trabajos y la suma del tiempo de finalización de todos los trabajos, y se aplicó a un conjunto de instancias de prueba. Por último, se describen los resultados satisfactorios obtenidos de acuerdo a dos métricas propuestas en la literatura para la evaluación de algoritmos bi-objetivo.<hr/>ABSTRACT Scheduling problems require organizing the execution of tasks which share a finite set of resources, and these tasks are subject to a set of constrains imposed by different factors. This kind of problems frequently appears in many production and service environments. The problem is to optimize one or more criteria represented by objective functions. In this paper, the main objectives to optimize were analyzed for Job Shop scheduling problems. After that, a bi-objective algorithm was proposed based on the Pareto Front and using Reinforcement Learning, which optimizes two objectives: the makespan and the total flow time, and this algorithm was applied to benchmarks. To finish, successful results of the algorithm are described according to two metrics proposed in the literature. <![CDATA[<strong>Semantic recommendation systems :</strong> <strong>A State-of-the-Art Survey</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992017000200014&lng=en&nrm=iso&tlng=en RESUMEN Los sistemas de recomendación surgen como respuesta a la necesidad de contar con una herramienta de personalización de contenidos, utilizando información histórica del usuario para recomendarle elementos que le agraden. Uno de los tipos de sistemas de recomendación que están teniendo una amplia cobertura en la literatura científica en los últimos años son los sistemas de recomendación semánticos. Deficiencias que tienen los sistemas de recomendación tradicionales son resueltas utilizando variantes que proponen estos sistemas. Este artículo brinda una visión general de los sistemas de recomendación semánticos teniendo en cuenta su clasificación, tecnologías de la web semántica que utilizan, funcionamiento, arquitecturas, dominios a los que están enfocados, criterios de evaluación y las ventajas y desventajas que presentan.<hr/>ABSTRACT The recommendation systems arise in response to the need to have a content customization tool, using historical information of the user to recommend elements that please him. One of the types of recommendation systems that are having broad coverage in the scientific literature in recent years are semantic recommendation systems. Deficiencies in traditional recommendation systems are solved using variants proposed by semantic recommendation systems. Deficiencies in traditional referral systems are resolved using variants proposed by these systems. This article provides an overview of semantic recommendation systems taking into account their classification, semantic web technologies that use performance, architectures, domains to which they are focused, evaluation criteria and the advantages and disadvantages that they show.