Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920160004&lang=pt vol. 10 num. 4 lang. pt <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<strong>Fuzzy Miner algorithm parallelization with OpenCL</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400001&lng=pt&nrm=iso&tlng=pt RESUMEN La minería de procesos es una disciplina que ofrece un conjunto de algoritmos, que facilitan la obtención de información de registros de eventos. Sin embargo, el procesamiento de grandes cantidades de datos en ocasiones resulta costoso, debido a los tiempos de ejecución dedicados a esta tarea. El presente artículo refleja una implementación del algoritmo de minería de procesos Fuzzy Miner usando el lenguaje C++. El algoritmo implementado es la base de una segunda propuesta realizada en el artículo, en la cual se emplean técnicas de programación paralela, específicamente, OpenCL. El objetivo que se persigue con este estudio es disminuir el tiempo de procesamiento del algoritmo Fuzzy Miner implementado. Las pruebas efectuadas emplean diferentes datos y distintas arquitecturas hardware, logrando disminuir significativamente el tiempo de ejecución al procesar lo datos en paralelo. Los resultados más relevantes se obtienen con los registros de eventos más grandes y las mejores arquitecturas.<hr/>ABSTRACT Process mining is a discipline that provides a set of algorithms that facilitate obtaining information from event logs. However, the processing of large amounts of data sometimes costly, due to the execution times dedicated to this task. This article reflects an implementation of the algorithm Fuzzy Miner mining process using the C ++ language. The implemented algorithm is based on a proposal made in the second article, in which parallel programming techniques are used, specifically, OpenCL. The objective pursued with this study is to reduce the processing time of the algorithm implemented Fuzzy Miner. The tests carried out using different data and different hardware platforms, thus significantly reducing runtime while processing the data in parallel. The most relevant results are obtained with the records of major events and the best architectures. <![CDATA[<strong>The processes of research and development of the Ecuador telecommunications operating companies</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400002&lng=pt&nrm=iso&tlng=pt RESUMEN Las empresas operadoras de servicios móviles y telecomunicaciones en Ecuador tienen el reto de crear nuevos productos o innovaciones, debido al dinamismo del negocio de telecomunicaciones a nivel mundial. En el presente trabajo, se analiza la situación actual de las operadoras debido a que se evidencia la carencia de procesos de Investigación y Desarrollo (I+D) dentro de sus cadenas de valor y la oportunidad que se presenta, para que los centros de I+D de las instituciones de educación superior del país atiendan estas necesidades. Para tal efecto, la investigación realizada fue de tipo exploratorio mediante la aplicación de un instrumento de evaluación a una muestra de 103 informantes claves. Finalmente, los resultados demuestran la no existencia en las empresas examinadas de procesos de I+D dentro de sus cadenas de valor, así como también, incertidumbre y falta de articulación en la vinculación Universidad-Empresa.<hr/>ABSTRACT The Operators of Mobile services and telecommunications in Ecuador have the challenge of creating new products or innovations due to the dynamism of the telecommunications business worldwide. In this paper, the current status of the operators are analyzed because the lack of mechanisms for research and development (R & D) within their value chains and the opportunity the opportunity presented for the R + D of institutions of higher education in the country meet these needs. To this end, research was exploratory by applying an assessment instrument to a sample of 103 key informants. Finally, the results show no stock in the companies examined processes of R & D within their value chains, as well as uncertainty and lack of articulation in the University-Industry entailment. <![CDATA[<strong>Computational model for recommending surgical work teams combining organizational intelligence techniques</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400003&lng=pt&nrm=iso&tlng=pt RESUMEN En la actualidad, el trabajo en equipo constituye un factor de vital importancia en el desarrollo de disímiles actividades. En el sector de la salud y en los servicios quirúrgicos existen estudios que avalan la importancia del trabajo en equipo como mecanismo determinante para aumentar el rendimiento y mejorar la seguridad del paciente. Con el progreso de la industria informática existen enfoques y herramientas que combinan la gestión de flujos de procesos de negocio con el análisis de redes sociales, lo cual permite inferir redes de interacción profesional y mejorar el proceso de toma de decisiones. Para el desarrollo de la investigación se utilizaron diversos métodos científicos, tales como el análisis documental, la entrevista, la encuesta, el criterio de expertos, la técnica Iadov para medir satisfacción y el grupo focal. El objetivo de la presente investigación es desarrollar un modelo computacional para la recomendación de equipos de trabajo quirúrgico en sistemas de información en salud, combinando técnicas de inteligencia organizacional, que contribuya a mejorar la gestión de información como soporte para la toma de decisiones administrativas, en función de proveerle un servicio de calidad al paciente. Como resultado se obtiene un modelo computacional que combina complementos del análisis de redes sociales y métricas de la minería de procesos, para recomendar equipos de trabajo quirúrgicos efectivos y altamente integrados. El proceso de validación permitió constatar la pertinencia y aplicabilidad de la propuesta de solución.<hr/>ABSTRACT Currently the teamwork constitutes a vital importance factor in the development of dissimilar activities. Some studies in health sector and surgical services support the importance of teamwork as a determinant mechanism to enhance performance and to improve patient's safety. The progress of the Informatics industry has influenced in different approaches and tools that combine the business process flow management with the Social Network Analysis. These approaches allow us to infer professional interaction networks and improve the decision-making process. Several scientific methods are used for research development, such as document analysis, interviews, survey, expert’s criteria, focus group and Iadov technique to measure satisfaction. The objective of this research is to develop a computational model for recommending surgical work teams in health information systems, by combining organizational intelligence techniques. It contributes to improve the information management like support for decision-making by administrative personnel, in order to provide a quality service to the patient. The result obtained is a computational model that combines complements of the social network analysis and metrics of the process mining to recommend effective and highly integrated surgical work teams. The validation process allows confirming the pertinence and applicability of the proposed solution. <![CDATA[<strong>A brief review on unsupervised metric learning</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400004&lng=pt&nrm=iso&tlng=pt RESUMEN Muchos de los métodos de aprendizaje automático dependen del cálculo de distancias en un espacio multidimensional para estimar la similitud entre dos ejemplos teniendo en cuenta la estructura de los datos. Está comprobado que se obtienen mejores resultados cuando la métrica se diseña específicamente para un contexto dado, pero esta es una tarea compleja. El aprendizaje de métricas de distancia consiste en aprender una métrica determinada respondiendo específicamente a las características de los datos históricos. En casos particulares donde no se conoce mucha información sobre los datos, se han obtenido buenos resultados utilizando algoritmos no supervisados de aprendizaje de distancias. Estos algoritmos no requieren información de etiqueta de clases, y se han utilizado principalmente para mejorar los resultados de métodos de agrupamiento. En este artículo se mencionan algunos de los aportes más recientes a los algoritmos no supervisados de aprendizaje de distancias, sus ventajas, desventajas y posibles aplicaciones.<hr/>ABSTRACT Several machine learning methods rely on the notion of distances in a multidimensional space, these distances are used for estimating the similarity between two objects, according to historical data. In such cases, when the metric is specifically designed to the context, better results are often obtained. However, designing a metric is a complex task. Metric learning automatically learns a distance metric according to the characteristics of the data. Unsupervised metric learning algorithms have achieved good results in cases where there is not available much information about the data. These algorithms do not require class label information, they are applied to improve unsupervised machine learning methods, mainly for improving clustering results. Here we will mention some of the recent works done in this area, their advantages, disadvantages and applications. <![CDATA[<strong>Modules for simulation of propagation models in the Andromeda tool</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400005&lng=pt&nrm=iso&tlng=pt RESUMEN Con el incremento tecnológico de la actualidad, el desarrollo de las redes inalámbricas ha alcanzado un auge significativo, llevando sus aplicaciones incluso a la automatización de edificios. El diseño del despliegue de la red de sensores inalámbricos en una edificación es una compleja tarea que necesita simular el comportamiento de la señal de radio frecuencia en el interior de edificaciones. El presente trabajo consiste en la implementación de modelos de propagación que permitan determinar con precisión la conectividad entre dispositivos inalámbricos, de forma tal que se puedan posicionar correctamente en el interior de un edificio. En el desarrollo de la propuesta se utilizó Java para la implementación, NetBeans como Entorno de Desarrollo Integrado y Visual Paradigm for UML como herramienta para el modelado. En su primera versión, la solución implementada es capaz de calcular la propagación de ondas utilizando el modelo Multi-Wall y el modelo de Trayecto Dominante.<hr/>ABSTRACT With increased technological present, the development of wireless networks has reached a significant boom, bringing their applications to building automation. The design of the deployment of wireless sensor network in a building is a complex task, which requires the simulation of the radio frequency signal inside buildings. The present work consists in implementing propagation models for determining accurately the connectivity between wireless devices, so that they can be positioned correctly inside of a building. In developing the proposal is used Java for implementing, NetBeans as an Integrated Development Environment and Visual Paradigm for UML as a tool for modeling. In its first version, the implemented solution is able to calculate wave propagation using the Multi-Wall model and the model Parent Path. <![CDATA[<strong>Effect of the features selection in the classification based on prototypes</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400006&lng=pt&nrm=iso&tlng=pt RESUMEN La selección de atributos es una técnica de procesamiento de datos cuyo objetivo es buscar un subconjunto de atributos que mejore el rendimiento del clasificador. Teniendo en cuenta que en los problemas de clasificación, la generación de prototipos es de gran utilidad, el principal aporte de este trabajo es proponer un nuevo método que integre la construcción de prototipos en este tipo de problemas con el método NP-BASIR (utilizando las relaciones de similaridad para realizar la granulación del universo, esta genera clases de similitud de objetos del universo, y para cada clase de similitud se construye un prototipo) combinado con el método de selección de atributos basado en la medida calidad de la similaridad para el cálculo de reductos utilizando la técnica de optimización Particle Swarm Optimization. El principal aporte de esta investigación es demostrar la utilidad de combinar selección de atributos unido a la construcción de prototipos. El algoritmo propuesto fue probado en conjuntos de datos internacionales y se comparó con algoritmos conocidos para la generación de prototipos. Los resultados experimentales muestran que el método propuesto obtuvo resultados satisfactorios, siendo la principal ventaja que se logra reducir en el conjunto de datos la cantidad de objetos y la cantidad de atributos sin variar significativamente la calidad de la clasificación comparada con el conjunto de datos original.<hr/>ABSTRACT Feature selection is a preprocessing technique with the objective of finding a subset of attributes that improves the classifier performance. In this paper is proposed a new method for solving classification problems based on prototypes (NP-BASIR-Class method) using feature selection. When using similarity relations for the granulation of the universe, similarity classes are generated, and a prototype is constructed for each similarity class. The feature selection method used was REDUCT-SIM based in the technique of optimization PSO (Particle Swarm Optimization). The main contribution of this investigation is demonstrating the utility of combining feature selection together to the prototype generation. The proposed algorithm was proven in groups of international data set and it was compared with well-known algorithms for the generation of prototypes. The experimental results show that the proposed method obtained satisfactory results, being the main advantage that is possible to reduce in the data set, the quantity of objects and the quantity of features obtaining satisfactory results without varying significantly the quality of the classification compared with the original data set. <![CDATA[<strong>Method for the integration of ontologies in a credit scoring system</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400007&lng=pt&nrm=iso&tlng=pt RESUMEN Los bancos son entidades financieras en los que se evalúa el riesgo de crédito a clientes. Los sistemas informáticos para la evaluación de créditos apoyan a los analistas de riesgo en ese proceso de evaluación. En la literatura consultada, se constató que existen sistemas para la evaluación de créditos basados en técnicas de Inteligencia Artificial, incluyendo las ontologías como forma de representación del conocimiento. En ese sentido, no se encontró ninguno en el que se integre el modelo ontológico con el modelo relacional. En este artículo se propone un método para la integración de ontologías en sistemas para la evaluación de créditos con bases de datos relacionales. El método está basado en siete actividades que incluyen: desarrollar el modelo relacional, desarrollar el modelo ontológico, cargar el modelo ontológico, poblar el modelo ontológico, inferir conocimiento, brindar las salidas y validar la solución. Para evaluar la aplicabilidad del método propuesto, se utilizó en la implementación de un sistema para la evaluación de créditos basado en ontologías para el Banco Nacional de Cuba. Para el desarrollo de las ontologías se utilizó la herramienta Protégé 5.0 y se siguió la metodología para el desarrollo de ontologías de Rubén Darío Alvarado. Para la carga y manipulación de las ontologías se utilizaron las librerías Jena y OWL API. Con la aplicación del método propuesto se obtuvo un sistema reutilizable, flexible ante los cambios y de fácil mantenimiento.<hr/>ABSTRACT The banks are financial institutions that evaluate the credit risk to customers. The information systems for the credit evaluation support the risk analysts in this evaluation process. In the reviewed literature, we found that there are systems for the evaluation of credits based on Artificial Intelligence techniques, including the ontologies as form of knowledge representation. In this sense, we did not find evidence about credit scoring systems using both, ontological and relational model together. In this paper, we propose a novel method for integrating ontologies in credit scoring systems based on relational databases. The method is based on seven activities that they include: to develop the relational model, to develop the ontological model, to load the ontological model, to populate the ontological model, to infer knowledge, to offer the outputs and to validate the solution. To evaluate the applicability of the proposed method, it was used in the implementation of one system for the evaluation of credits based on ontologies in the National Bank of Cuba. We used Protégé 5.0 as development tool of ontologies and the methodology for the development of ontologies proposed by Rubén Darío Alvarado. In order to the load and manipulation of ontologies were used the framework Jena and OWL API. With the use of the proposed method was obtained a system reusable, flexible and easy to maintain. <![CDATA[<strong>Tool in a web environment for the diagnosis and prognostic of illnesses in the cattle</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400008&lng=pt&nrm=iso&tlng=pt RESUMEN En el presente trabajo se describe la herramienta en un entorno web para el diagnóstico y pronóstico de enfermedades en la ganadería, herramienta que posee entre sus objetivos de trabajo el proceso de gestión de la información que se genera en los departamentos de vigilancia epizootiológica para ejecutar diagnóstico y pronóstico del comportamiento de enfermedades en la ganadería. Se basa en un modelo bajo el paradigma de la gestión de la información y la construcción de redes bayesianas. Presenta opciones adicionales tales como la realización de análisis estadísticos, confección de reportes, importación de datos, de bases de datos externas, creación de bases de casos para los diferentes análisis. La base de datos con la que trabaja se creó a través del gestor de bases de datos MySql, encontrándose esta base de datos normalizada, por lo que puede utilizarse sin restricciones de lenguaje y plataforma. La herramienta se creó en un entorno web cliente-servidor, en su implementación se utilizaron los lenguajes de programación PHP y como servidor web, Apache. La misma constituye un instrumento de trabajo donde se gestiona, almacena y analizan los datos que frecuentemente afectan la ganadería, su gran utilidad radica en el apoyo a la toma de decisiones para que los especialistas de salud animal accedan con tratamientos y controles que ayuden a disminuir las afectaciones que las enfermedades ganaderas ocasionan a la economía del país.<hr/>ABSTRACT In this paper, it is described the web tool for the diagnosis and prognosis of livestock disease, capable of providing information with a greater degree of certainty to support decision-making. The tool is based on the information generated System Epizootiologic information and Surveillance of Animal Health departments. For interaction with external applications the system implements the process through algorithms where all the information generated is managed and then stored in a database previously created which is normalized to use it without language and platform restrictions. The tool was built on a client-server web environment that has the facility to manage information in the database related diseases causing greater involvement in livestock. For the creation of the database was selected manager database MySql; for the implementation were used PHP programming languages and as web server, Apache. The tool is used in the Department of Epidemiological surveillance and management positions of agricultural institutions in the province of Pinar del Rio, for animal health specialists, in order to reduce damages that livestock diseases causes to the economy. <![CDATA[<strong>Graphical Interpretation Engine for calculating Clay Volume</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400009&lng=pt&nrm=iso&tlng=pt RESUMEN Calcular el valor porcentual de arcilla presente en las formaciones de rocas es uno de los primeros pasos en la estimación del volumen de hidrocarburos que puede ser extraídos por un pozo determinado. En la evaluación petrofísica de formaciones son empleados de conjunto: los datos tomados directamente en el pozo mediante los registros geofísicos, y aplicaciones informáticas que permiten procesar estos datos para realizar interpretaciones, cálculo de nuevas propiedades que no pueden ser leídas directamente del pozo y visualización de la información para el análisis de la misma. El presente trabajo tiene como objetivo desarrollar un motor de interpretación gráfica, que permita realizar ajustes de los parámetros de cálculo de volumen de arcilla a través de los módulos que muestran información gráfica en el Sistema de Análisis e Interpretación de Registros de Pozos de Petróleo. Para desarrollar este trabajo se utilizaron métodos científicos como el analítico-sintético, modelado y observación. Además, se utilizó el Rational Unified Process, lenguaje de modelado UML, la herramienta CASE Visual Paradigm, el lenguaje de programación C++ y como marco de desarrollo Qt, y como entorno de desarrollo QT Creator. Como resultado se obtuvo un mecanismo que ante un cambio en los parámetros de cálculo realizado por el usuario es capaz de recalcular los resultados y mostrar los mismos de manera inmediata. La integración del motor de interpretación gráfica al Sistema de Análisis e Interpretación de Registros de Pozos de Petróleo logra que el proceso de interpretación que realiza el usuario sea más interactivo.<hr/>ABSTRACT To assess the percentage of clay present in rock formations is one of the first steps in estimating the volume of oil that can be extracted from a well. For the petrophysical evaluation of formations, along with data being taken directly from the well through the geophysical logs, software applications are used allowing to process data to obtain interpretations, new properties that cannot be read directly from the well and also to display the information for further analysis. This work aims to allow users to adjust parameters for calculating volume of clay through modules that show graphical information in the System Analysis and Interpretation of Oil Well Logs. To develop this work, scientific methods such as analytic-synthetic, modeling and observation were used. In addition, the RUP, UML modeling language, the CASE tool Visual Paradigm, the programming language C + + and Qt as a development framework and the QT Creator as development environment were used. As a result, a mechanism facing a change in the calculation parameters introduced by the user was obtained, which is able to recalculate the results and display them immediately. With the integration of graphic rendering engine to the System Analysis and Interpretation of Oil Well Logs makes possible that the process of interpretation carried out by the user to be done in a more interactive way. <![CDATA[<strong>An efficient algorithm for single machine problems with fuzzy processing times</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400010&lng=pt&nrm=iso&tlng=pt RESUMEN Los modelos clásicos de scheduling en single machine han sido estudiados con diversas características de procesamiento y funciones objetivo. La mayoría de técnicas propuestas para resolver este tipo de problemas no consideraron la naturaleza imprecisa de algunas variables que intervienen en su formulación. En este trabajo se propone un algoritmo para el cálculo del máximo tiempo de culminación ponderada en problemas de single machine con tiempos de procesamiento difusos y asignación de prioridades (pesos) a los trabajos. La metodología planteada representó la imprecisión de los tiempos de procesamiento mediante números difusos triangulares y utilizó una medida de comparación robusta y flexible basada en el concepto del intervalo esperado de un número difuso. Se obtuvo un schedule óptimo y robusto que soporta variaciones en los tiempos de procesamiento. El schedule óptimo se representó en forma gráfica mediante el diagrama de Gantt difuso. El algoritmo propuesto resulta ser eficiente en pruebas para un determinado conjunto de trabajos en la búsqueda de un schedule óptimo para el cálculo del máximo tiempo de culminación ponderada.<hr/>ABSTRACT The classic models of scheduling on single machine have been studied with different processing characteristics and objective functions. Most proposed techniques for solving such problems did not consider the imprecise nature of some variables involved in its formulation. This paper proposes a heuristic for calculating the maximum weighted completion tine in single machine problems with fuzzy processing times and priority assignments (weights) to the jobs. The proposed methodology represented imprecise processing times by triangular fuzzy numbers and used a measure robust and flexible comparison based on the concept of the expected inerval of a fuzzy number. Optimal and robust schedule that support variations in processing times was obtained. The optimal schedule is represented graphically by fuzzy Gantt chart. The proposed algorithm proves to be efficient based on tests made for a given set of jobs with the aim of find feasible schedule to calculate the maximum weighted completion time. <![CDATA[<strong>An evaluation of LVQ algorithm in a textual collection</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400011&lng=pt&nrm=iso&tlng=pt RESUMEN Este trabajo se realizó con el objetivo de obtener información empírica sobre el comportamiento del algoritmo LVQ (Aprendizaje por Cuantificación Vectorial) en la tarea de clasificación de información sobre 24 versiones de una colección de noticias creada previamente, en las cuales se varió la cantidad de términos utilizando el método, Ganancia de Información, para la selección de atributos. Se logra determinar el comportamiento de los algoritmos frente a los efectos de reducción de dimensionalidad. Se encuentra un punto, donde el compromiso entre pérdida de información e incorporación de información irrelevante, logra buenos resultados como promedio entre los distintos algoritmos evaluados.<hr/>ABSTRACT The aim of this work was to obtain empirical information on the behavior of the LVQ (Learning Vector Quantization) algorithm in the task of information classification. We developed an algorithm evaluation on 24 versions of a news-collection previously created. In this collection, we varied the number of terms using the method, Information Gain, to select the attributes. The behavior of algorithms against the effects of dimensionality reduction is determined. We found a point, where the compromise between loss of information and incorporation of irrelevant information, has achieved good results. <![CDATA[<strong>Distance Laboratory System for Automatic Control practices</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400012&lng=pt&nrm=iso&tlng=pt RESUMEN El desarrollo de prácticas de laboratorios en las diferentes especialidades juega un papel importante para complementar los objetivos y contenidos del Proceso Docente Educativo. Para la enseñanza del Control Automático se definen un conjunto de prácticas en dispositivos reales donde el estudiante pueda ajustar controladores definidos por el fabricante y proponer sus propias estrategias de control. Sin embargo, en la actualidad son insuficientes las maquetas o dispositivos físicos para el desarrollo de prácticas de control en el Sistema Educacional Cubano. La presente investigación describe una solución a la problemática planteada a partir del desarrollo de una plataforma de Sistema de Laboratorios a Distancia que permite compartir recursos tecnológicos a través de internet. El sistema propuesto cuenta con cuatro actividades fundamentales evaluación de competencias, identificación de sistemas, simulación de sistemas y diseño de controladores. La plataforma provee al usuario de un conjunto de reportes en tiempo real que facilita la comprensión del fenómeno estudiado en cada práctica. Se aplica además un estudio de caso para determinar la satisfacción de los usuarios en el período lectivo 2015-2016 donde se obtuvo como resultado que la propuesta contribuye a su formación profesional.<hr/>ABSTRACT The development of laboratory practices in different specialties plays an important role in complementing the objectives and content of the educational process. For Automatic Control teach a set of practices on real devices where the student can adjust defined by the manufacturer drivers and propose their own control strategies are defined. However, at present are insufficient physical devices or models for developing control practices in the Cuban Educational System. This research describes a solution to the problems posed from the development of a platform Distances Laboratory System for sharing technological resources via the Internet. The proposed activities have four fundamental skills assessment, system identification, simulation systems and control design system. The platform provides the user with a set of real-time reporting that facilitates understanding of the phenomenon studied in each practice. The platform provides the user with a set of real-time reporting that facilitates understanding of the phenomenon studied in each practice. A case study is also applied to determine user satisfaction for school year 2015-2016 which was obtained as a result that the proposal contributes to their professional training. <![CDATA[<strong>Local linear regression with reduce rank for multitarget regression</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992016000400013&lng=pt&nrm=iso&tlng=pt RESUMEN El propósito de este trabajo es estudiar el algoritmo de regresión con pesado local LWR para su adaptación a problemas de predicción con salidas compuestas. La idea de estimar los parámetros de la regresión lineal multivariada, mediante la descomposición en valores singulares, muestra una solución estable que permite manejar, a través del rango, la capacidad predictiva del algoritmo. Los experimentos desarrollados muestran que el algoritmo LWR es competitivo en el contexto del aprendizaje local basado en instancia. Los resultados obtenidos son un punto de partida para la adaptación de este enfoque, usando diversas estrategias que tomen en cuenta la interdependencia entre las variables de salidas.<hr/>ABSTRACT The purposes of this work is to study Local Weighted Regression LWR algorithm for multi-target prediction problems. The idea to estimate, the parameters of multivariate linear regression trough to singular value decomposition and reduced rank show stable solution to drive the predicting performance of this algorithm. The experimental results show that LWR is a competitive algorithm, in context to instance based learning, for multi-target prediction problems. The preliminary results are the started point for futures adaptations, to this algorithms, take into account the interdependency between outputs variables.