Scielo RSS <![CDATA[Revista Cubana de Ciencias Informáticas]]> http://scielo.sld.cu/rss.php?pid=2227-189920150004&lang=pt vol. 9 num. 4 lang. pt <![CDATA[SciELO Logo]]> http://scielo.sld.cu/img/en/fbpelogp.gif http://scielo.sld.cu <![CDATA[<strong>Some recommendations for designing applications for teaching using concept maps</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400001&lng=pt&nrm=iso&tlng=pt Los mapas conceptuales constituyen un recurso didáctico que recobró relevancia con el surgimiento de las redes de computadoras. Se pueden encontrar diversos sistemas para la enseñanza basados en mapas conceptuales, muchos de ellos no están bien estructurados y solo pretenden organizar, en forma de mapas, contenidos extraídos de diversos documentos, sin tomar en cuenta las premisas que debe seguir una aplicación con fines docentes. En este trabajo, se proponen algunas pautas para confeccionar mapas conceptuales que satisfagan las premisas educativas. Se partió de un análisis inicial acerca de la forma en que se usan los mapas en la enseñanza, después se realizó la propuesta presentada que se ha sometido a la práctica para observar su aceptación, así como su efectividad, con el objetivo de mejorar la propuesta inicial (método investigación-acción). Se implementaron varios sistemas de enseñanza con las ideas sugeridas. Los sistemas han sido bien acogido por los estudiantes pudiéndose observar mejorías cognitivas a partir del momento de su aplicación.<hr/>Concept maps are an educational resource which regained importance with the emergence of computer networks. You can find many education systems based on conceptual maps, many of them are not well structured and are only intended to organize, in the form of maps, contents extracted from various documents, regardless of the premises to be followed by an application for teaching purposes. In this paper, some guidelinesfor making concept maps that meet the educational premises are presented. The experiment started from an initial analysis to assess how maps are used in teaching, after which the proposal has been submitted to different analyzes in order to improve the initial proposal (method research-action). Various education systems with the ideas suggested were implemented. The systems have been well received by the students, who showed cognitive improvements after use. <![CDATA[<strong>Decisional inference engine in computer system performance assessment </strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400002&lng=pt&nrm=iso&tlng=pt La gestión en el proceso de evaluación del desempeño juega un papel importante para garantizar la eficiencia en las entidades laborales. En la Universidad de las Ciencias Informáticas se realiza a través de modelos con indicadores establecidos en los que son reflejadas las competencias de los trabajadores. Sin embargo, no es posible realizar informes sobre sus comportamientos, ni contar con técnicas de ayuda en la toma de decisiones para las evaluaciones. La presente investigación describe una solución a la problemática planteada a partir de la implementación de un motor de inferencia basado en operadores de agregación de información como ayuda a la toma de decisiones sobre la evaluación del desempeño codificado mediante un sistema informático. El sistema propuesto brinda un conjunto de reportes que facilita la gestión de la información a los principales directivos, con agilidad y precisión para disminuir el gasto de recursos materiales y humanos. Se aplica un estudio de caso mediante el cual es posible determinar el índice de concordancia sobre las decisiones asumidas.<hr/>Managing the Performance Evaluation Process plays a leading role in ensuring efficient work entities. At the Management in the process of performance evaluation plays an important role to guarantee the efficiency in labor organizations. In the University of the Informatics Sciences, this process is carried out by using models with indicators to state the workers’ competences. However, it is impossible to make any report about their behaviors, and there is no technique for decision taking when evaluating the workers. In this investigation, a solution to the problem stated out of the implementation of an inference engine based on operators of adding information to help decision taking about the evaluation of the behavior coded with an informatics system is described. The system gives a set of reports to help information management to the managers, with agility and precision to reduce the human and material resources. A study case is developed to determine the set of coincidence about the decision taking <![CDATA[<strong>Association Rules for university library data</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400003&lng=pt&nrm=iso&tlng=pt Con el objetivo de promover e impulsar el uso de los recursos de la biblioteca y a la vez facilitar la labor por parte de su personal, en este trabajo se describe el uso de Minería de Datos, descubrimiento de Reglas de Asociación, en una biblioteca universitaria. Esta tecnología se aplicó a datos de circulación de libros con el propósito de ayudar a proyectar la conveniencia en la disposición física del material librario. En el análisis se plantearon dos escenarios llamados “Espacios Físicos Cerrados” y “Espacios Físicos Abiertos”. El primer escenario refiere a las estanterías de libros que sólo pueden ser accedidas por el personal de la unidad, mientras que el segundo considera estanterías de libre acceso por parte de las personas que concurren a la biblioteca en búsqueda de libros. Para descubrir reglas de asociación relevantes se consideraron, además de las medidas soporte, confianza y lift, las acciones concretas que los encargados del establecimiento realizan habitualmente para satisfacer las demandas de sus socios. Si bien la Minería de Datos ha sido ampliamente utilizada, en el campo de la bibliotecología no se ha explotado al máximo su potencial. Por ello, también se pretende que este estudio ayude a impulsar al personal a incursionar en la aplicación de nuevas tecnologías de manera que puedan lograr un mayor aprovechamiento de los datos que diariamente son recolectados.<hr/>This paper aims at promoting and encouraging the use of library resources and, at the same time, facilitating the library staff tasks when using Data Mining and Association Rules at a university library. This technology has been applied in book circulation data in order to decide the best library material arrangement. As far as the analysis is concerned, two scenarios were presented: “Close Physical Spaces” and “Open Physical Spaces”. The former refers to those bookshelves which can only be accessed by the section staff whereas the latter refers to bookshelves which can be freely accessed by regular book users. To find out the relevant Association Rules, not only support, reliance and lift measures have been considered but also the daily duties that library staff perform regularly to meet their members’ demands. Even though Data Mining has been widely used, its potential has not yet been fully exploited in the library field. Therefore, the present study is also intended to encourage staff to become involved in the application of new technologies so that they can make better use of daily collected data. <![CDATA[<strong>Software component for computing the Coronary Artery Calcium Score</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400004&lng=pt&nrm=iso&tlng=pt Las enfermedades cardiovasculares constituyen la segunda causa de muerte en Cuba. Para combatirlas se destaca el uso de equipos de alta tecnología para la adquisición y procesamiento de imágenes médicas. En las modalidades de imágenes de cardiología, esas herramientas son especializadas y complejas. En los hospitales de Cuba, sólo están disponibles estas aplicaciones en los propios equipos médicos, condicionando su uso a esa estación y requiriendo la presencia del especialista en el lugar para su valoración e informe. En la Universidad de las Ciencias Informáticas, se construyeron aplicaciones para visualizar y procesar imágenes médicas con un propósito general. Debido a la necesidad de contar con herramientas especializadas para cardiología, se realizó esta investigación preliminar. Para ello se visitaron cardiocentros de la capital, con el fin de conocer funcionalidades de software de estos equipos que pudieran extenderse a otras computadoras. Además se conoció que si se adiciona a los factores de riesgo tradicionales, la puntuación de calcio en las arterias coronarias, mejora considerablemente la clasificación del riesgo de padecer enfermedades cardiovasculares. Basado en estos estudios, se desarrolló un componente para la puntuación de calcio en las coronarias con imágenes de tomografía. Para lograrlo se utilizó el método de Agatston, algoritmos de geometría computacional para el cálculo de áreas y segmentación de imágenes por umbralización y crecimiento de regiones. De esta manera se comprobó que es factible el desarrollo de aplicaciones de este tipo, que una vez introducidas, podrán optimizar los servicios especializados de cardiología, brindando soporte al estudio de estas patologías.<hr/>Cardiovascular diseases are the second cause of death in Cuba. Among the resources for combat this problem, stands the purchase of high technology medical equipment for the acquisition and image processing. In the case of imaging modalities in cardiology, these tools are highly specialized and complex. In the Cubans healthcare centers, these applications are available only in the medical own equipment, conditioning its use to that station and requiring specialist presence in place for evaluation and report. At the University of Informatics Sciences, were built applications for displaying and processing medical imaging with a general purpose. Due to the need to count for specialized tools for cardiology, this preliminary research was conducted. For that, some Cardio centers were visited in the capital, with finally to know some software functionalities of these devices that could spread to other computers. Furthermore it was revealed that when Coronary Artery Calcium Score is added to traditional risk factors, it results in a significant improvement in the classification of risk for the prediction of coronary heart disease events in an asymptomatic population. Based on these studies, were developed a component for the Coronary Artery Calcium Score with CT images. To achieve this, were used the method of Agatston, algorithms of computational geometry to calculate areas and image segmentation by thresholding and regions growth. Thus it was found that it is feasible to develop these applications, which once introduced, can optimize the specialized services in cardiology, providing support studies these pathologies. <![CDATA[<strong>Connected Permutations of Vertices for Canonical Form Detection in Graph Mining</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400005&lng=pt&nrm=iso&tlng=pt Checking redundancies is one of the most significant tasks in graph mining. Canonical forms of graphs are widely used to guarantee and speed up this kind of task. In general, canonical form calculation requires to orderly check partial or complete prefixes of vertex permutations for picking up the codification to unambiguously represent a graph. In this paper, novel theoretical results are introduced for reducing the number of candidate prefixes to a specific subset associated with connected permutations. Furthermore, several interesting mathematical properties are also described and proved, including strong linkages among graph mining, discrete mathematics, and different kinds of canonical forms. Although this paper does not declare a scheme for directly reducing the complexity of finding canonical descriptions, our contributions can open novel opportunities for future improvements in graph mining by interrelating concepts from different existing approaches.<hr/>La verificación de redundancias es una de las taras más influyentes en la minería de grafos. Las formas canónicas son ampliamente usadas para garantizar y acelerar este tipo de tarea. En general, el cómputo de una forma canónica requiere la verificación parcial o completa de todos los prefijos de permutaciones de vértices, para seleccionar aquellas que representa sin ambigüedad al grafo. En este artículo, se introducen nuevos resultados teóricos enfocados a reducir el número de candidatos prefijos a un subconjunto específico con las permutaciones conexas. Adicionalmente, varias propiedades son también descritas y probadas, incluyendo fuertes vínculos entre minería de grafos, matemática discreta, y diferentes tipos de formas canónicas. Aunque este artículo no declara un esquema para reducir directamente la complejidad computacional para detectar formas canónicas, nuestras contribuciones pueden abrir nuevas oportunidades para obtener futuras mejoras en la minería de grafos, interrelacionando conceptos provenientes de diferentes enfoques que hasta ahora han sido propuestos de manera aislada. <![CDATA[<strong>The scientific production on Artificial Intelligence: first-quartile journals indexed by Scopus Sciverse</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400006&lng=pt&nrm=iso&tlng=pt Entre los objetivos de trabajo de la Dirección de Investigaciones de la Universidad de las Ciencias Informáticas, se encuentra la elaboración de estrategias para aumentar la visibilidad de la producción científica y el asesoramiento a grupos de investigación para la publicación de sus resultados. Con el fin de economizar el tiempo de consulta del grupo de investigadores de Inteligencia Artificial al acudir a las revistas que más se identifiquen con su área de estudio, se aplican técnicas métricas para la obtención de datos que describen el estado de las publicaciones. A continuación se muestra un estudio que responde a este grupo de investigadores, los resultados de la pesquisa se determinaron desde la revisión de las revistas de Inteligencia Artificial (IA) indexadas por la base de datos bibliográfica Scopus Sciverse. Se caracterizaron las revistas de mayor impacto incluidas en el primer cuartil (Q1) identificadas por el Scimago Journal and Country en el periodo de 2006-2010. Se utilizaron las herramientas EndNote X4 en la normalización y sistematización de los registros bibliográficos obtenidos recurriéndose al Bibexcel, para la generación de conteos y set de datos, y a Ucinet 6 para la creación de grafos de redes sociales. Los resultados en la investigación identificaron las revistas más productivas y sus relaciones de colaboración, las líneas temáticas representadas en el período y la colaboración de las casas editoras y países. Se alcanzó una visión más amplia e íntegra del estado de la IA en la Ciencia de Computación, concediéndole al tema la atención que requiere.<hr/>Bibliometric studies are useful for the development of research strategies. In this work, we characterized the journals indexed in the Scopus Sciverse database under the Artificial Intelligence (AI) area. The scope of the study was limited to the 2006-2010 period and to high impact publications included in quartile 1 (Q1) identified by the Journal and Country Scimago. The EndNote X4 tool were used in the standardization and systematization of bibliographic records obtained, additionally by using Bibexcel, to generate counts and data set and Ucinet 6 for creating graphs of social networks. Different metrics and procedures were applied to the information for the analysis of bibliometric indicators of productivity. The research results identified the most productive journals and partnerships, thematic lines that link between them, and the collaboration among publishing houses and countries. With these results, a more integral vision of AI field in computer science is achieved. <![CDATA[<strong>Techniques to capture changes in data and keep updated a data warehouse</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400007&lng=pt&nrm=iso&tlng=pt Durante los procesos de extracción, transformación y carga es de vital importancia mantener actualizado el almacén y los mercados de datos. En la práctica, varias son las técnicas existentes que se pueden emplear para capturar los cambios en los datos. Aunque desde el punto de vista teórico han sido estudiadas estas técnicas, en la práctica no se visualiza de manera organizada su empleo. Por tanto es necesario caracterizarlas, compararlas y seleccionar la más adecuada. Teniendo en cuenta los aspectos simplicidad, tipos de fuentes en las que se puede utilizar, operaciones que detecta y la no pérdida de información, se eligió la basada en snapshot como la más apropiada. Además se propuso un conjunto de pasos a seguir para ser aplicados ante una problemática real, sugiriéndose el uso de pasos pertenecientes a la herramienta de integración de datos Pentaho Data Integration.<hr/>During the extraction, transformation and loading processes it is critical to keep updated the data warehouse and data marts. In practice, several techniques that can be used to capture changes in the data are available. Although from the theoretical point of view these techniques have been studied, in practice its form of use is not visualized in an organized way. Therefore, it is necessary to characterize, compare them and select the most appropriated. Given the simplicity aspects, types of sources that can be used, operations it can detect and no loss of information, it was chosen the technique based on snapshot as the most appropriated. In addition a set of steps was proposed to follow for application to a real problem, suggesting the use of steps belonging to the data integration tool Pentaho Data Integration. <![CDATA[<em><b>Performance of data mining algorithms in academic indicators: Decision Tree and Logistic Regression</b></em><em> </em>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400008&lng=pt&nrm=iso&tlng=pt La minería de datos se orienta a la presentación prospectiva de información, y para ello, es necesario escoger un algoritmo apropiado que ofrezca los mejores resultados, según el tipo de datos y los objetivos del proyecto. En este documento se presenta un estudio de desempeño de los algoritmos de minería de datos: Árbol de Decisión y Regresión Logística, aplicados a los datos continuos y discretos generados por la función académica de una institución de educación superior. Se buscó determinar el algoritmo con el mejor desempeño a través del uso del método científico y técnicas de estadística descriptiva e inferencial, y los resultados presentan que: no existe una diferencia significativa en el uso de RAM de los algoritmos, el algoritmo de Árbol de Decisión tiene menor tiempo de respuesta, y mayor precisión que el de Regresión Logística, mientras que este último tiene un mejor uso de CPU, concluyendo que el algoritmo de Árbol de Decisión es el de mejor desempeño para el escenario planteado.<hr/>Data mining is aimed at prospective reporting, for which is necessary to choose the most appropriate algorithm, i.e. the one that provides the best results, depending on data types and project objectives. In this paper a study of performance of two data mining algorithms is presented, namely Decision Tree and Logistic Regression, which have been applied to continuous and discrete data generated by the academic function of an institution of higher education. We sought to determine the algorithm with the best performance by means of the scientific method and descriptive and inferential statistical techniques. The results show that the decision tree algorithm is the best algorithm in terms of indicators of response time, CPU usage, RAM usage and accuracy. <![CDATA[<strong>Network of Evolutionary Processors to solve the Problem of the Three Colors. Hardware Implementation</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400009&lng=pt&nrm=iso&tlng=pt En este trabajo se diseña una Red de Procesadores Evolutivos (NEP) para solucionar el Problema de los Tres Colores. Para obtener el resultado, se utilizó como recurso de Hardware un FPGA. El objetivo principal de este trabajo, es demostrar la factibilidad de la implementación física de algoritmos paralelos para solucionar problemas NP - Completos. Con esta implementación se logra que la ejecución de la solución al problema se haga de forma fiable, rápida y eficaz. El proyecto fue desarrollado usando la herramienta ISE 12.1 de Xilinx, utilizando como lenguaje de descripción de hardware al VHDL. Para la simulación se utilizó la herramienta ISim 12.1, también de Xilinx. Los resultados fueron probados utilizando la plataforma Atlys Board de la compañía Digilent la cual contiene un FPGA Spartan-6 LX45, también de Xilinx. Se muestran imágenes de la herramienta empleada, del Kit de Pruebas, así como de la simulación realizada y una tabla con los datos que demuestran que la implementación de este algoritmo complejo utilizó muy pocos recursos del FPGA empleado.<hr/>In this paper, a Network of Evolutionary Processors (NEP) is implemented, to solve the problem of the three colors. To achieve implementation, it was used as an FPGA hardware resource. The main objective of this work is to demonstrate the feasibility of the physical implementation of parallel algorithms to solve problems NP - complete. With this implementation is achieved that the implementation of the solution to be made reliably, quickly and efficiently. The project was developed using the Xilinx ISE 12.1 tool, using hardware description language to VHDL. For the simulation tool was used ISim 12.1, also from Xilinx. The results were tested using the platform Atlys Board Company which contains a Digilent Spartan-6 LX45 FPGA, Xilinx also. Images of the tool used, the Test Kit and simulation performed and a table of data showing that the implementation of this complex algorithm used very few FPGA resources used are shown. <![CDATA[<strong>Method for minutiae representation and identifying information extraction on fingerprint templates</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400010&lng=pt&nrm=iso&tlng=pt La identificación de personas mediante rasgos biométricos, como la huella dactilar, es considerada un mecanismo de autenticación segura. Los sistemas criptográficos propuestos para la protección de plantillas de minucias de huellas dactilares necesitan realizar el proceso de alineación de las plantillas biométricas debido a la variabilidad que presentan los datos en diferentes muestras del mismo rasgo. Los modelos de alineación propuestos en la bibliografía basan su funcionamiento en la selección de un punto focal, la formación de estructuras de minucias o la detección de las singularidades de la huella dactilar. Estas características pueden estar o no presentes en la huella dactilar, pueden variar de una muestra a otra y pueden ser seleccionadas de manera errónea, lo que ocasiona una pérdida del rendimiento de sistema de autenticación. La presente investigación tiene como objetivo la formulación de un método de representación de la información contenida en las plantillas de minucias y la extracción de características identificativas, invariantes a rotación y traslación, que posibilite el análisis de las características obtenidas de las minucias de manera local y global, para disminuir el impacto de la eliminación de minucias reales y la inclusión de minucias falsas, utilizando la combinación de dos estructuras de minucias. El proceso está compuesto por 3 etapas: formación de la estructura compleja de minucias, extracción de características invariantes a rotación y traslación provenientes de las tripletas y la clasificación de las características extraídas. El proceso de comparación se realiza mediante el cálculo de similitud existente entre cada estructura compleja.<hr/>Identifying people using biometric features such as fingerprints, it is considered a secure authentication mechanism. Cryptographic systems proposed for the protection template fingerprint minutiae need to perform the alignment process of the biometric templates due to variability of data in different samples of the same feature. Alignment models proposed in the literature base their operation on the selection of a focal point, the formation of structures of minutiae or detection of the singularities of the fingerprint. These features may or may not be present in the fingerprint, they may vary from one sample to another and may be selected wrongly, consequently resulting in loss of performance of authentication system. This research aims at developing a method of representing the information contained in the minutiae templates and identifying characteristics extraction, rotation and translation invariant, which enables the analysis of the characteristics of the minutiae obtained locally and overall, to lessen the impact of the elimination of real minutiae and the inclusion of false minutiae, using the combination of two structures minutiae. The process consists of 3 stages: formation of the complex structure of minutiae extraction invariant to rotation and translation characteristics from triplets and classification of the extracted features. The comparison process is performed by calculating similarity between each complex structure. <![CDATA[<strong>The introduction of research results, a topical formation of Engineer in Computer Science</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400011&lng=pt&nrm=iso&tlng=pt La comprensión y asimilación de la introducción de resultados investigativos es un problema de actualidad del que no escapan las universidades. Este trabajo es resultado de la investigación realizada en la Universidad de las Ciencias Informáticas, su objeto de estudio se centra en la introducción de resultados investigativos como etapa del proceso de la actividad científica, a partir de los fundamentos teóricos y metodológicos en los que se sustenta. Se describe una concepción teórico-metodológica para el proceso de introducción de resultados investigativos, donde se define la misma como una etapa de la investigación educativa que, por su carácter procesal, comprende a su vez sub-etapas que son: la constatación empírica de los resultados, la introducción o incorporación estable del resultado, y la generalización del resultado. Se conciben como líneas de acción estratégica, los tres factores que condicionan este proceso, ellos son: política científica, competencia investigativa y cultura científica, que en la práctica se interrelacionan y contribuyen a resolver científicamente los problemas de la realidad educativa. La propuesta se caracteriza por el protagonismo de los investigadores y directivos, y el carácter de proceso de la introducción de resultados investigativos.<hr/>The understanding and assimilation of the introduction of research results is a problem of current interest that universities are no exception. This work is the result of research conducted at the University of Computer Sciences, its object of study focuses on the introduction of research results and the stage of scientific activity, from the theoretical and methodological underpinning. We describe a theoretical and methodological concept for the process of introduction of research results, which defines it as a stage of educational research, because of its procedural turn comprises sub-steps are: the empirical observation of results, the introduction or incorporation of the result set, and the generalization of the result. They are seen as strategic action lines, the three factors that influence this process, they are: science policy, research competence and scientific culture, which in practice are interrelated and help solve problems scientifically educational reality. The proposal is characterized by the prominence of the researchers and managers, and the nature of the process of introducing research results. <![CDATA[<strong>Machine Learning algorithms for Splice Sites classification in genomic sequences</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400012&lng=pt&nrm=iso&tlng=pt Las técnicas de clasificación se utilizan frecuentemente en la solución de diferentes problemas de la Bioinformática. Las secuencias de ADN de la mayoría de los genes se transcriben en ARN mensajero que se traducen en proteínas. El ADN contiene en los genes segmentos codificantes (exones) y no codificantes (intrones). Durante el proceso de transcripción los intrones son “cortados”, mecanismo conocido como splicing que coloca a los exones de un gen consecutivamente, listos para traducirse en la secuencia de aminoácidos que conforman la proteína. En los splice sites, el principio del intrón es conocido como donor (par AG), y el final es conocido como acceptor (par GT). El presente trabajo aborda la predicción de sitios de splicing. Se utilizan técnicas de aprendizaje automatizado necesarias en la descripción de dominios biológicos y dos bases de datos de secuencias de nucleótidos, para clasificar verdaderos y falsos splice sites con 7000 casos cada una, 6000 falsos y 1000 verdaderos. Se prueba y compara una serie de algoritmos utilizando WEKA (Waikato Enviroment for Knowledge Analysis) para encontrar los mejores clasificadores. Para hacer la selección del mejor clasificador se aplican las medidas más conocidas basadas en la matriz de confusión: exactitud, razón de verdaderos positivos, curvas ROC, etc. Como resultados del estudio se concluye que los métodos bayesianos maximizaron el número de verdaderos positivos y el área bajo la curva, por lo que es la propuesta a utilizar para realizar la clasificación de sitios de splicing.<hr/>The classification techniques are been used frequently in the solution of different Bioinformatic problems. The ADN sequences in the majority of the gene make a transcript to ARN messenger, whom have led to proteins. The ADN contain in the genes encode segments (exones), and unencode segments (introns). During the process of transcription the introns are cut, that mechanism is call splicing, it put the axons of the gene, one consecutive the other, and ready to lead to the sequence of amino acid to make the protein up. In the splice sites, the beginning of the introns is call donor (AG par), and the end is call acceptor (GT par). A few of these combinations are really splice sites. The present work is about the prediction of splicing. It is used the techniques of machine learning necessary to descript biology domains and two database of nucleates sequences to classify true or false splice sites, with 7000 cases, 6000 false and 1000 true. It is about to proof and compare a series of algorithms using WEKA (Waikato Enviroment for Knowledge Analysis) to find the best classifiers. To make the selection of the best classification it is applied the knowlest measure based in the Matrix of Confusion: accuracy, rate of True Positive (TP), area under the curve of Receiver Operator Curve (ROC), etc. As result of the study it is conclude that the Bayesian methods maximize the number of true positive and the area under the curve, which are the nominations to use to classify splice sites. <![CDATA[<strong>I</strong><strong>ndicators for assessing the quality of engineering education in Computer Science</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400013&lng=pt&nrm=iso&tlng=pt La evaluación y acreditación de Instituciones de nivel terciario se han convertido en elementos clave para la mejora de rendimiento en el trabajo de estas entidades. Se ha constatado que los criterios que figuran en el Sistema de Evaluación y Acreditación de carreras universitarias (SEA -CU) en Cuba, para la evaluación y acreditación de Instituciones de nivel terciario, son muy generales y no se ajustan a las características y peculiaridades del proceso de formación de los ingenieros en la Universidad de las Ciencias Informáticas. Esta investigación tiene como objetivo presentar las variables e indicadores para medir la calidad en el proceso de formación de los ingenieros en la Universidad de las Ciencias Informáticas. En esta propuesta se integran los requisitos generales para la evaluación y acreditación de las carreras de Educación Superior en Cuba y los requisitos específicos para la evaluación de la calidad de la formación del Ingeniero en Ciencias Informáticas. Se identificaron los problemas específicos que afectan a la formación de los estudiantes y las soluciones alternativas para promover el desarrollo de procesos de mejora continua que contribuyan a la determinación de un sistema de gestión de calidad. Esta propuesta es un resultado parcial del proyecto: Calidad de la formación de los ingenieros con sustento en el vínculo universidad - industria y las Tecnologías de la Información y las Comunicaciones, desarrollado por un grupo de investigación del Centro de Innovación de la Calidad Educativa (CICE) de la Universidad de las Ciencias Informáticas.<hr/>The evaluation and accreditation of tertiary institutions have become key to improving work performance of these institutions. It has been established that the criteria contained in the System of Assessment and Accreditation of university courses (SEA CU) in Cuba, for evaluation and accreditation of tertiary institutions, are very general and do not conform to the characteristics and peculiarities process engineering education in the University of Information Science. This research aims to present the variables and indicators to measure the quality in the process of training of engineers in the University of Information Science. In this proposal the general requirements for assessment and accreditation of courses in higher education in Cuba and specific requirements for evaluating the quality of engineering education in computer science are integrated. The specific problems affecting the education of students and the alternative solutions to promote the development of continuous improvement processes that contribute to the determination of a quality management system are identified. This proposal is a partial result of the project: Quality of engineering education with university support in the link - Industry and Information Technology and Communications, developed by a research group of the Center for Innovation in Quality Education (CICE ) of the University of Information Science. <![CDATA[<strong>Experiences in the use of symmetric data replication in educational platform ZERA</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400014&lng=pt&nrm=iso&tlng=pt En el presente artículo se analizan las características de despliegue de la plataforma educativa ZERA como sistema distribuido de base de datos, enfatizando en las necesidades de replicación de forma bidireccional. Se tiene como objetivos presentar un análisis de herramientas de replicación de datos efectuado para la selección de la herramienta SymmetricDS, presentando las experiencias adquiridas en su configuración, así como la configuración realizada, agrupándose las tablas de la base de datos en trece niveles para asegurar su integridad referencial y en tres reglas según las condiciones de replicación de la plataforma ZERA. El despliegue se realizó en México con un total de 43 nodos de réplica distribuidos por 6 estados.<hr/>In this article we analyze the characteristics of deployment ZERA educational platform as distributed database, emphasizing the needs of bidirectional replication system. It objective is to present an analysis of data replication tools made for the selection of the SymmetricDS tool, presenting lessons learned in its configuration and the settings made, grouping tables in thirteen levels to ensure referential integrity and three rules under the terms of replication ZERA platform. The deployment was made in Mexico with a total of 43 nodes distributed in 6 states. <![CDATA[<strong>Algorithm for variants process identification</strong>]]> http://scielo.sld.cu/scielo.php?script=sci_arttext&pid=S2227-18992015000400015&lng=pt&nrm=iso&tlng=pt La minería de proceso es una disciplina que impulsa el desarrollo de técnicas y herramientas para analizar los procesos partiendo de los registros de eventos. Las técnicas de minería de proceso son utilizadas en diferentes etapas de la gestión de procesos de negocio, incluyendo el diagnóstico. El diagnóstico del proceso ayuda a tener una visión general del proceso y de los aspectos más significativos del mismo. Las técnicas de minería de proceso para el diagnóstico son afectadas por el ruido y la ausencia de información en los registros de eventos. Esto dificulta la identificación de los patrones de control de flujo del proceso, limitando la consecución de los objetivos del diagnóstico. En este trabajo se propone un algoritmo para la identificación de variantes de modelos de proceso que considera el ruido y la ausencia de información en la identificación de los patrones de control de flujo. Utilizando una implementación de este algoritmo se experimentó con registros de eventos que combinan situaciones de ruido y ausencia de información. Los resultados obtenidos muestran que el algoritmo identifica correctamente los patrones de control de flujo, aún con la presencia de ruido y ausencia de información.<hr/>Process mining is a discipline that impulse tools and techniques development for process analysis, starting from event logs. Process mining techniques are used in differents stages of business process management, including diagnosis. Process diagnosis is useful to obtain a general process view, and it’s more significative elements. Event logs characteristics like noise and lack of information affects process mining techniques in process diagnosis stage. On these scenarios identification of control flow patterns become a rough task, so diagnosis objectives can be complicated to achieve. On this work, an algorithm for identification of process models variants is presented. The proposed solution takes into account the noise and lack of information. An experiment was performed with event logs that combine noise and lack of information, using an implementation of the algorithm proposed. Obtained results show that proposed algorithm identifies properly the control flow patterns even on events logs with noise and lack of information.