<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>2227-1899</journal-id>
<journal-title><![CDATA[Revista Cubana de Ciencias Informáticas]]></journal-title>
<abbrev-journal-title><![CDATA[Rev cuba cienc informat]]></abbrev-journal-title>
<issn>2227-1899</issn>
<publisher>
<publisher-name><![CDATA[Editorial Ediciones Futuro]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S2227-18992016000100007</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Clasificación de células cervicales mediante el algoritmo KNN usando rasgos del núcleo]]></article-title>
<article-title xml:lang="en"><![CDATA[Cervical cell classification by means of the KNN algorithm using nucleus&#8217; features]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Rodríguez Vázquez]]></surname>
<given-names><![CDATA[Solangel]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Martínez Borges]]></surname>
<given-names><![CDATA[Andy Vidal]]></given-names>
</name>
<xref ref-type="aff" rid="A02"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Lorenzo Ginori]]></surname>
<given-names><![CDATA[Juan Valentín]]></given-names>
</name>
<xref ref-type="aff" rid="A03"/>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Universidad de las Ciencias Informáticas  ]]></institution>
<addr-line><![CDATA[La Lisa Ciudad de la Habana]]></addr-line>
</aff>
<aff id="A02">
<institution><![CDATA[,Empresa de tecnología para la defensa, XETID  ]]></institution>
<addr-line><![CDATA[La Lisa Ciudad de la Habana]]></addr-line>
</aff>
<aff id="A03">
<institution><![CDATA[,Universidad Central Marta Abreu de Las Villas Centro de Estudios de Electrónica y Tecnologías de la Información ]]></institution>
<addr-line><![CDATA[Las Villas ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>01</day>
<month>03</month>
<year>2016</year>
</pub-date>
<pub-date pub-type="epub">
<day>01</day>
<month>03</month>
<year>2016</year>
</pub-date>
<volume>10</volume>
<numero>1</numero>
<fpage>95</fpage>
<lpage>109</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S2227-18992016000100007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S2227-18992016000100007&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S2227-18992016000100007&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[RESUMEN La prueba de Papanicolaou, es un examen de pesquisa ginecológica que permite apreciar cambios en la morfología de las células del cuello uterino. Dicho estudio puede alertar sobre patologías tan frecuentes en las mujeres como el cáncer del cuello del útero. El análisis de este tipo de imágenes es importante en la generación de diagnósticos y en las investigaciones que se llevan a cabo, por lo que se hace necesario el desarrollo de nuevas técnicas que efectúen un análisis práctico de las muestras. La búsqueda por similitud es uno de los procedimientos más frecuentes en problemas que involucran el procesamiento de datos, una variante consiste en la búsqueda de los k-vecinos-más-cercanos (kNN). En este trabajo, se propone el uso del clasificador kNN y de una de las distancias utilizadas por el mismo para dar solución al problema de la clasificación de las células del cuello uterino en las clases normal y anómala, basándose solamente en las características extraídas de la región del núcleo. A partir del estudio realizado, entre las distancias manhattan, euclidiana y mahalanobis y teniendo en cuenta para la evaluación las medidas F, AUC, predictividad negativa y media H, se comprobó que manhattan mostró un buen desempeño manteniendo valores de 97.1% de AUC. Los resultados obtenidos indican una reducción respecto a la tasa de falsos negativos en la prueba de Papanicolaou. Se utilizó la media H con el propósito de comparar los resultados de kNN respecto a otras investigaciones, obteniendo un 92.33% con respecto a las mismas.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[ABSTRACT The Pap test is a test of gynecological screening that allows appreciating changes in the morphology of the cells of the cervix. This study can alert on such frequent pathologies in women as cancer of the cervix. The analysis of these kinds of images is important in the generation of diagnostic and the investigations that carried out, so that developing new techniques that made a practical analysis of the samples is necessary. Similarity search is one of the most common procedures in problems involving processing of data, an alternative to solve this problem is the kNN search (k-Nearest Neighbors). In this paper, the kNN classifier was used together with a specific distance function, to provide a solution to the real problem associated with the classification of cervical cells in normal and abnormal classes, the features used for classification were in this case based solely on information extracted from the nuclei region. From the study, among the manhattan distance, Euclidean and Mahalanobis and considering measures for evaluating F, AUC, negative predictivity and H-mean was found that manhattan performed well holding 97.1% values of AUC. The results indicate a reduction compared to the rate of false negative Pap test. H-mean with the purpose of comparing the results of other investigations regarding kNN, obtaining 92.33% with regard thereto.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[células del cuello del útero]]></kwd>
<kwd lng="es"><![CDATA[clasificación]]></kwd>
<kwd lng="es"><![CDATA[kNN]]></kwd>
<kwd lng="es"><![CDATA[núcleos]]></kwd>
<kwd lng="es"><![CDATA[prueba de Papanicolaou]]></kwd>
<kwd lng="en"><![CDATA[cervical cell]]></kwd>
<kwd lng="en"><![CDATA[classification]]></kwd>
<kwd lng="en"><![CDATA[kNN]]></kwd>
<kwd lng="en"><![CDATA[nuclei]]></kwd>
<kwd lng="en"><![CDATA[Pap test]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p align="right"><font face="Verdana, Arial, Helvetica, sans-serif" size="2"><B>ART&Iacute;CULO  ORIGINAL</B></font></p>     <p>&nbsp;</p>     <p><font size="4"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Clasificaci&oacute;n de c&eacute;lulas cervicales mediante el  algoritmo KNN usando rasgos del n&uacute;cleo</font></strong></font></p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><strong>Cervical cell  classification by means of the KNN algorithm using nucleus&rsquo; features</strong></font></p>     <p>&nbsp;</p>     <p>&nbsp;</p>     <P><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">Solangel  Rodr&iacute;guez V&aacute;zquez<strong><sup>1*</sup></strong>, Andy Vidal Mart&iacute;nez Borges<strong><sup>2</sup></strong>, Juan Valent&iacute;n Lorenzo  Ginori</font></strong><font face="Verdana, Arial, Helvetica, sans-serif"><strong><sup>3</sup></strong></font></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup> 1 </sup>Universidad de las Ciencias  Inform&aacute;ticas. Km 2&frac12; carretera San Antonio de los Ba&ntilde;os, Rpto. Torrens, La Lisa,  Ciudad de la Habana. <a href="mailto:svazquez@uci.cu">svazquez@uci.cu</a></font><font size="2"></font>     <br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>2</sup> Empresa de tecnolog&iacute;a para  la defensa, XETID. Km 2&frac12; carretera San Antonio de los Ba&ntilde;os, Rpto. Torrens, La  Lisa, Ciudad de la Habana. <a href="mailto:avmartinez@xetid.cu">avmartinez@xetid.cu</a></font><font size="2"></font>     ]]></body>
<body><![CDATA[<br>   <font size="2" face="Verdana, Arial, Helvetica, sans-serif"><sup>3 </sup>Centro de Estudios de Electr&oacute;nica y Tecnolog&iacute;as de la Informaci&oacute;n, Universidad  Central &ldquo;Marta Abreu&rdquo; de Las Villas, Cuba. <a href="mailto:juanl@uclv.edu.cu">juanl@uclv.edu.cu</a></font></p>     <P><font face="Verdana, Arial, Helvetica, sans-serif"><span class="class"><font size="2">*Autor para la correspondencia:<a href="mailto:svazquez@uci.cu"> svazquez@uci.cu</a></font></span></font><font face="Verdana, Arial, Helvetica, sans-serif"> </font>     <p>&nbsp;</p>     <p>&nbsp;</p> <hr>     <P><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b>RESUMEN</b> </font>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La prueba de Papanicolaou, es un examen de pesquisa ginecol&oacute;gica que  permite apreciar cambios en la morfolog&iacute;a de las c&eacute;lulas del cuello uterino.  Dicho estudio puede alertar sobre patolog&iacute;as tan frecuentes en las mujeres como  el c&aacute;ncer del cuello del &uacute;tero. El an&aacute;lisis de este tipo de im&aacute;genes es  importante en la generaci&oacute;n de diagn&oacute;sticos y en las investigaciones que se  llevan a cabo, por lo que se hace necesario el desarrollo de nuevas t&eacute;cnicas  que efect&uacute;en un an&aacute;lisis pr&aacute;ctico de las muestras. La b&uacute;squeda por similitud es  uno de los procedimientos m&aacute;s frecuentes en problemas que involucran el  procesamiento de datos, una variante consiste en la b&uacute;squeda de los  k-vecinos-m&aacute;s-cercanos (kNN). En este trabajo, se propone el uso del  clasificador kNN y de una de las distancias utilizadas por el mismo para dar  soluci&oacute;n al problema de la clasificaci&oacute;n de las c&eacute;lulas del cuello uterino en  las clases normal y an&oacute;mala, bas&aacute;ndose solamente en las caracter&iacute;sticas extra&iacute;das  de la regi&oacute;n del n&uacute;cleo. A partir del estudio realizado, entre las distancias  manhattan, euclidiana y mahalanobis y teniendo en cuenta para la evaluaci&oacute;n las  medidas F, AUC, predictividad negativa y media H, se comprob&oacute; que manhattan  mostr&oacute; un buen desempe&ntilde;o manteniendo valores de 97.1% de AUC. Los resultados  obtenidos indican una reducci&oacute;n respecto a la tasa de falsos negativos en la  prueba de Papanicolaou. Se utiliz&oacute; la media H con el prop&oacute;sito de comparar los  resultados de kNN respecto a otras investigaciones, obteniendo un 92.33% con  respecto a las mismas.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Palabras clave:</span></b></font> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">c&eacute;lulas del cuello del &uacute;tero; clasificaci&oacute;n; <em>kNN</em>; n&uacute;cleos; prueba de Papanicolaou</font></p> <hr>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>ABSTRACT</span></b> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">The Pap test is a test of  gynecological screening that allows appreciating changes in the morphology of  the cells of the cervix. This study can alert on such frequent pathologies in  women as cancer of the cervix. The analysis of these kinds of images is  important in the generation of diagnostic and the investigations that carried  out, so that developing new techniques that made a practical analysis of the  samples is necessary. Similarity search is one of the most common procedures in  problems involving processing of data, an alternative to solve this problem is  the kNN search (k-Nearest Neighbors). In this paper, the kNN classifier was  used together with a specific distance function, to provide a solution to the  real problem associated with the classification of cervical cells in normal and  abnormal classes, the features used for classification were in this case based  solely on information extracted from the nuclei region. From the study, among  the manhattan distance, Euclidean and Mahalanobis and considering measures for  evaluating F, AUC, negative predictivity and H-mean was found that manhattan  performed well holding 97.1% values of AUC. The results indicate a reduction  compared to the rate of false negative Pap test. H-mean with the purpose of  comparing the results of other investigations regarding kNN, obtaining 92.33%  with regard thereto.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><b><span lang=EN-GB>Key words: </span></b>cervical cell;  classification; kNN; nuclei; Pap test</font></p> <hr>     ]]></body>
<body><![CDATA[<p>&nbsp;</p>     <p>&nbsp;</p>     <p><font size="3" face="Verdana, Arial, Helvetica, sans-serif"><b>INTRODUCCI&Oacute;N</b></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La mayor&iacute;a de los  c&aacute;nceres de c&eacute;rvix se originan en el revestimiento de las c&eacute;lulas del cuello  uterino. Estas c&eacute;lulas no se tornan en c&aacute;ncer de repente, sino que las c&eacute;lulas normales  del cuello uterino se transforman gradualmente en precancerosas, y pueden con  el tiempo convertirse en c&eacute;lulas malignas. En las ciencias m&eacute;dicas se usan  varios t&eacute;rminos para describir estos cambios precancerosos, incluyendo  neoplasia intraepitelial cervical (CIN, por sus siglas en ingl&eacute;s), lesi&oacute;n  intraepitelial escamosa (SIL, por sus siglas en ingl&eacute;s) y displasia. Estos  cambios se pueden detectar mediante la prueba de Papanicolaou y se pueden  tratar para prevenir el desarrollo de c&aacute;ncer (2014). Estas c&eacute;lulas  anormales muestran ciertas alteraciones precancerosas preliminares que se  denominan displasia o neoplasia cervical intraepitelial (NCI). </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La displasia y la NCI se  clasifican en grados: leve, moderado o grave. La displasia leve (NCI 1)  generalmente se resuelve por su cuenta. La displasia moderada (NCI 2) y grave  (NCI 3) indican alteraciones m&aacute;s peligrosas. La prueba de Papanicolaou, la cual  tambi&eacute;n se denomina frotis de Papanicolaou o evaluaci&oacute;n de la citolog&iacute;a  cervical, consiste en analizar al microscopio los frotis de c&eacute;lulas cervicales  para detectar cambios anormales en las c&eacute;lulas del cuello uterino. A partir de  sus resultados, es posible prevenir la mayor&iacute;a de los c&aacute;nceres cervicales  mediante la detecci&oacute;n de los cambios an&oacute;malos de las c&eacute;lulas del cuello uterino  (prec&aacute;nceres) para que estos puedan ser tratados antes de que tengan la  oportunidad de convertirse en c&aacute;ncer cervical. Este tipo de pruebas ofrecen la  mejor oportunidad para detectar el c&aacute;ncer de cuello uterino en una etapa  temprana cuando es m&aacute;s probable que el tratamiento sea eficaz. Esta prueba fue  descrita por primera vez en el a&ntilde;o 1924 y desde finales de los a&ntilde;os cuarenta ya  se hizo notar que pod&iacute;an detectarse los cambios neopl&aacute;sicos del epitelio del  c&eacute;rvix uterino en las muestras citol&oacute;gicas. Su objetivo es la detecci&oacute;n precoz  de las lesiones premalignas o localizadas, antes de que aparezcan s&iacute;ntomas, y  en estadios en los que el tratamiento es m&aacute;s eficaz. (de Les Corts 1994) </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La sensibilidad y la  especificidad de la citolog&iacute;a de Papanicolaou han sido motivo de discusi&oacute;n y  los valores aportados por los diferentes autores son muy variables. Se plantea  que en el caso de la sensibilidad, sus valores var&iacute;an entre el 55% hasta el 90%  y que la especificidad de la prueba puede ser considerada m&aacute;s alta, en torno a  un 90%, aunque otros autores han dado datos inferiores y situados alrededor del  60% (de Les Corts 1994). La proporci&oacute;n de falsos positivos y negativos depende en  gran medida de la calidad de la toma de la muestra citol&oacute;gica, de su lectura e  interpretaci&oacute;n y de los posibles errores en el procesamiento de la misma. Un  criterio de la calidad muy importante es la observaci&oacute;n en la muestra de  c&eacute;lulas endocervicales. La continuidad y seguimiento de estos criterios mejora  la calidad de la muestra citol&oacute;gica. Los errores derivados de una mala  interpretaci&oacute;n de las muestras, traen consigo consecuencias no favorables a la  persona tanto para los falsos negativos como para los falsos positivos. En el  caso de los falsos negativos, estos pueden tener secuelas importantes debidas a  la no detecci&oacute;n de los casos de displasia o carcinoma in situ que pueden  evolucionar hacia lesiones m&aacute;s avanzadas. Los efectos secundarios de los falsos  positivos son los cl&aacute;sicos de este tipo de pruebas (ansiedad, molestias  derivadas de las pruebas diagn&oacute;sticas o de seguimiento) pero pueden ser de poca  importancia dadas las caracter&iacute;sticas de la prueba. Otro problema importante es  el riesgo del tratamiento innecesario o muy agresivo de algunas displasias (de Les Corts 1994).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La interpretaci&oacute;n de  estas muestras se apoya fundamentalmente en el reconocimiento visual de los  cambios en las zonas m&aacute;s importantes de las c&eacute;lulas (n&uacute;cleo y citoplasma). Sin  embargo, este proceso es tedioso, lleva mucho tiempo y es propenso a errores de  procedimiento debido al alto grado de complejidad de las im&aacute;genes y al  cansancio de los analistas ya que el mismo se realiza de forma manual y se  pueden llegar a analizar cientos de muestras en un d&iacute;a. Por esta raz&oacute;n, se realizan  importantes esfuerzos para dar soluci&oacute;n al problema del an&aacute;lisis de la prueba  de Papanicolaou empleando t&eacute;cnicas de visi&oacute;n computacional.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Varios  m&eacute;todos han sido propuestos para la clasificaci&oacute;n de las c&eacute;lulas en las  im&aacute;genes de la prueba de Papanicolaou y que se refieren a las t&eacute;cnicas tales como  clasificadores bayesianos (Riana and Murni 2009), redes neuronales artificiales (Mat-Isa, Mashor et al. 2008), m&aacute;quinas de vectores soporte (SVM) (Huang, Chan et al. 2007) y vecinos m&aacute;s cercanos (Marinakis, Dounias et al. 2009). Debe tenerse en cuenta que  la mayor&iacute;a de estos m&eacute;todos utilizan im&aacute;genes pre-segmentadas que contienen solo  una c&eacute;lula, por lo que la segmentaci&oacute;n correcta del n&uacute;cleo y el citoplasma es  factible (<a href="#f01">Figura 1 (a)</a>). En las im&aacute;genes que contienen grupos de c&eacute;lulas (<a href="#f01">Figura  1 (b)</a>), la detecci&oacute;n de la frontera del citoplasma es un problema dif&iacute;cil debido  a la superposici&oacute;n de las c&eacute;lulas. &nbsp;Sin  embargo, la detecci&oacute;n y segmentaci&oacute;n de los n&uacute;cleos de las im&aacute;genes que  contienen c&eacute;lulas superpuestas y agrupaciones de c&eacute;lulas ha sido abordado con  &eacute;xito en varios estudios (Plissiti, Nikou et al. 2011a) (Plissiti, Nikou et al. 2011b). Las muestras que se toman en la prueba de Papanicolaou corresponden  con la <a href="#f01">figura 1(b)</a>, por lo que se hace necesario el estudio de la clasificaci&oacute;n  de las c&eacute;lulas en funci&oacute;n de las caracter&iacute;sticas del n&uacute;cleo ya que es m&aacute;s f&aacute;cil  la detecci&oacute;n de fronteras en los n&uacute;cleos que en los citoplasmas.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/f0107116.jpg" alt="f01" width="442" height="156"><a name="f01"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los m&eacute;todos que se  refieren a la clasificaci&oacute;n de im&aacute;genes de Papanicolaou se basan en el c&aacute;lculo  de las caracter&iacute;sticas extra&iacute;das tanto del &aacute;rea n&uacute;cleo como del citoplasma, un  ejemplo de las mismas se muestra en la <a href="#t01">tabla 1</a>. Estas caracter&iacute;sticas se basan  generalmente en caracter&iacute;sticas de forma y la intensidad de los objetos de  inter&eacute;s. A pesar de ello, las caracter&iacute;sticas calculadas no presentan la misma  capacidad de discriminaci&oacute;n (Plissiti and Nikou 2012). Para la determinaci&oacute;n del conjunto de caracter&iacute;sticas m&aacute;s  eficaz que se utiliza como entrada en un clasificador, se han propuesto algunos  esquemas de selecci&oacute;n de caracter&iacute;sticas que se refieren a algoritmos gen&eacute;ticos  (Marinakis, Dounias et al. 2009) y al enjambre de  part&iacute;culas de optimizaci&oacute;n (Marinakis, Marinaki et al. 2008). En el caso de la presente investigaci&oacute;n es importante este  an&aacute;lisis, debido a que la entrada para el clasificador es una matriz      &nbsp;donde los casos son cada una de las c&eacute;lulas a  evaluar) con cada uno de los rasgos extra&iacute;dos de las im&aacute;genes. (Lorenzo-Ginori, Curbelo-Jardines et al. 2013) </font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Sobre  la base de lo antes mencionado, se puede concluir que existe un problema  abierto: lograr la clasificaci&oacute;n correcta de las c&eacute;lulas empleando solo la  informaci&oacute;n extra&iacute;da de los n&uacute;cleos, lo cual comprende entre otras cosas:  determinar el subconjunto de rasgos con mejor capacidad de discriminaci&oacute;n, y  realizar la selecci&oacute;n del clasificador que ofrezca mejores resultados. En  algunas investigaciones como es el caso de (Plissiti and Nikou 2012) se hace uso de los nueve rasgos del n&uacute;cleo y t&eacute;cnicas como spectral  clustering y fuzzy C-means con reducci&oacute;n de la dimensionalidad, a diferencia de  la presente investigaci&oacute;n que se dirige hacia el uso de <em>kNN </em>sin reducci&oacute;n donde solo se utilizan cinco rasgos de los nueve  como <em>&aacute;rea, per&iacute;metro, di&aacute;metro corto,  di&aacute;metro m&aacute;s largo y la redondez</em>. Esta selecci&oacute;n de rasgos persigue demostrar  que, a partir de un conjunto primario de rasgos geom&eacute;tricos, es posible  realizar de forma efectiva la clasificaci&oacute;n binaria de im&aacute;genes en la prueba de  Papanicolaou, mediante el algoritmo <em>kNN</em>.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/t0107116.jpg" alt="t01" width="416" height="284"><a name="t01"></a></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">MATERIALES Y M&Eacute;TODOS </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En  el caso de la presente investigaci&oacute;n de los 9 rasgos pertenecientes al n&uacute;cleo  solo se utilizaron los 5 rasgos mencionados anteriormente debido a que estos a  consideraci&oacute;n de los autores son los rasgos b&aacute;sicos que caracterizan estas  c&eacute;lulas (Velezmoro and Villafuerte 2001). La extracci&oacute;n de rasgos es uno de los pasos fundamentales en el  procesamiento de im&aacute;genes debido a que mientras mejor sea la selecci&oacute;n de los  atributos m&aacute;s acertada ser&aacute; la clasificaci&oacute;n final de las c&eacute;lulas. Esto hace  que la adecuada selecci&oacute;n de los rasgos sea una de las limitantes en las  investigaciones para la clasificaci&oacute;n de im&aacute;genes, debido a que si no se cuenta  con los rasgos apropiados los resultados obtenidos por el clasificador no  tendr&aacute;n la calidad que se necesita (Lorenzo-Ginori, Curbelo-Jardines et al. 2013). Para el caso de la presente investigaci&oacute;n, las matrices de rasgos  utilizadas fueron extra&iacute;das de las im&aacute;genes ya previamente segmentadas (<a href="#f02">Figura  2(b)</a>) pertenecientes a la base de datos Herlev presentada en (Jantzen, Norup et al. 2005).</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para ello se hizo uso de  la herramienta Matlab y de las funciones de procesamiento de im&aacute;genes propias  de la misma. De esta forma se desarroll&oacute; un algoritmo que toma de la base de  datos Herlev aleatoriamente un 80% de las im&aacute;genes y le extrae de ellas los  rasgos antes mencionados. A continuaci&oacute;n, se crea una matriz con los rasgos de  las im&aacute;genes seleccionadas que ser&aacute; la matriz a utilizar para el entrenamiento  del clasificador. Posteriormente se extraen los rasgos del 20% de las im&aacute;genes  restantes y se conforma la matriz de rasgos que se utilizar&aacute; para realizar las  pruebas. Estas matrices tienen como caracter&iacute;stica fundamental que poseen  vectores de rasgos diferentes lo que posibilita una evaluaci&oacute;n correcta del  funcionamiento del clasificador. Se realizaron varias corridas con dicho  algoritmo en las que el 20% se fue &ldquo;rotando&rdquo; de modo que los conjuntos de  entrenamiento y de prueba fueron modificados por cada iteraci&oacute;n.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/f0207116.jpg" alt="f02" width="678" height="152"><a name="f02"></a></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Como se mencion&oacute;  anteriormente la presente investigaci&oacute;n hace uso de im&aacute;genes pertenecientes a  la base de datos de referencia Herlev. Esta base de datos consta de 917  im&aacute;genes, donde cada una est&aacute; compuesta por una &uacute;nica c&eacute;lula (<a href="#f02">Figura 1 (a)</a>), y  las muestras se distribuyen irregularmente en siete clases. Tres de ellas son  consideradas como normales, y las cuatro restantes como an&oacute;malas. La  descripci&oacute;n detallada de la base de datos se representa en la <a href="/img/revistas/rcci/v10n1/t0207116.jpg" target="_blank">tabla 2</a>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los subconjuntos  dimensionales extra&iacute;dos servir&aacute;n como base de entrenamiento y de pruebas en el  clasificador implementado, para el cual se realiza una comparaci&oacute;n entre las  distancias de Mahalanobis, euclidiana y Manhattan, utilizadas en el algoritmo  de clasificaci&oacute;n <em>kNN. </em>Los m&eacute;todos basados en vecindad son fundamentalmente dependientes de la  distancia, estas poseen algunas propiedades como la no negatividad, identidad,  simetr&iacute;a y desigualdad del tri&aacute;ngulo que son importantes en el momento de su  utilizaci&oacute;n. Adem&aacute;s las reglas de clasificaci&oacute;n por vecindad est&aacute;n basadas en  la b&uacute;squeda de un conjunto de los      &nbsp;prototipos m&aacute;s cercanos al patr&oacute;n a clasificar.  (Verbiest, Cornelis et al. 2012) </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El  algoritmo <em>kNN</em> es uno de los  clasificadores no param&eacute;tricos m&aacute;s usados en el campo de miner&iacute;a de datos y de  aprendizaje autom&aacute;tico. En general, un clasificador dispone de datos de  entrenamiento (un sistema de decisi&oacute;n X que  consiste en casos con sus valores de atributos y su clase) e intenta predecir  la clase <em>d</em>(<em>t</em>) de  un caso objetivo <em>t</em>. </font><font size="2"><em><font face="Verdana, Arial, Helvetica, sans-serif">KNN </font></em><font face="Verdana, Arial, Helvetica, sans-serif">resuelve este problema  buscando los <em>k</em> casos  de X m&aacute;s  similares a <em>t</em> y  asignando <em>t</em> a  la clase mayoritaria entre estos <em>k</em> casos.</font></font> A  <font size="2" face="Verdana, Arial, Helvetica, sans-serif">continuaci&oacute;n se describen los pasos a seguir para la implementaci&oacute;n de dicho  algoritmo: (Duda, Hart et al. 2012). En el algoritmo <em>kNN </em>el  conjunto de los datos de entrenamiento incluye, adem&aacute;s de las propiedades  multidimensionales utilizadas para el reconocimiento, clasificadores para  predecir la clase de los datos de entrada. Para clasificar, utiliza un tipo de  distancia, como, por ejemplo, la distancia euclidiana, con la que determina  todas las distancias entre el punto a clasificar y todos los puntos del  conjunto de entrenamiento. Con las distancias calculadas determina los <em>k</em> vecinos  m&aacute;s cercanos y, seg&uacute;n el tipo de la clase para determinar, asigna el punto a  una de ellas. (<a href="/img/revistas/rcci/v10n1/f0307116.jpg" target="_blank">Figuras 3 y 4</a>)</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En  un espacio de representaci&oacute;n bidimensional y una serie de prototipos de una misma  clase representados en &eacute;l, dado un patr&oacute;n cualquiera X, si  se consideran los <em>k</em> prototipos  m&aacute;s pr&oacute;ximos a X, estos  estar&aacute;n localizados en un c&iacute;rculo centrado en X <a href="/img/revistas/rcci/v10n1/f0307116.jpg" target="_blank">(figura  4)</a>. Es bueno tener en cuenta los rangos en los que se mueven los valores  num&eacute;ricos. Esto evita que atributos con valores muy altos tengan mucho mayor  peso que atributos con valores bajos, se normalizar&aacute;n dichos valores con la  ecuaci&oacute;n 1.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/fo0107116.jpg" alt="fo01" width="235" height="48"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En esta ecuaci&oacute;n <em>x<sub>if</sub></em> ser&aacute; el valor <em>i</em> del atributo <em>f</em> siendo <em>min<sub>f</sub></em> el m&iacute;nimo valor del atributo <em>f</em> y <em>max<sub>f</sub></em> el m&aacute;ximo. Por otro lado, el algoritmo permite dar mayor preferencia a  aquellos ejemplares m&aacute;s cercanos al que se desea clasificar. En ese caso, en  lugar de emplear directamente la distancia entre ejemplares, se utilizar&aacute; la  ecuaci&oacute;n 2. </font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/fo0207116.jpg" alt="fo02" width="235" height="48"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La  principal dificultad de este m&eacute;todo consiste en determinar el valor de <em>k</em>, ya  que si toma un valor grande se corre el riesgo de hacer la clasificaci&oacute;n de acuerdo  a la mayor&iacute;a (y no al parecido), y si el valor es peque&ntilde;o puede haber  imprecisi&oacute;n en la clasificaci&oacute;n a causa de los pocos casos empleados para la  decisi&oacute;n. Por lo que para que la &nbsp;<em>k</em> no  sea tan determinante en el momento de la clasificaci&oacute;n para dicha  investigaci&oacute;n, se decidi&oacute; hacer uso de la inversa de su distancia</font> <img src="/img/revistas/rcci/v10n1/fo0307116.jpg" alt="fo03" width="31" height="32"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">con  respecto al ejemplo a clasificar.</font></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">M&eacute;tricas  para medir distancia</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Una  caracter&iacute;stica importante e interesante de <em>kNN</em> es que el m&eacute;todo puede cambiar radicalmente sus resultados de clasificaci&oacute;n sin  modificar su estructura, solamente cambiando la m&eacute;trica utilizada para hallar  la distancia. Por lo tanto, los resultados pueden variar tantas veces como m&eacute;todos  de hallar distancia entre puntos haya. La m&eacute;trica debe seleccionarse de acuerdo  al problema que se desee solucionar. La gran ventaja de poder variar m&eacute;tricas  es que para obtener diferentes resultados el algoritmo general del m&eacute;todo no  cambia, &uacute;nicamente el procedimiento de medida de distancias. La distancia es el  criterio de comparaci&oacute;n principal usado en los m&eacute;todos basados en vecindad, por  eso es conveniente mencionar algunas de las diferentes formas usadas para su  medici&oacute;n (Aggarwal, Hinneburg et al. 2001). En las ecuaciones (3), (4) y (5) se muestran respectivamente las  expresiones para la distancia euclidiana, Manhattan y Mahalanobis.  En esta &uacute;ltima, S   es la matriz de covarianza de los vectores de rasgos.</font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/fo0407116.jpg" alt="fo04" width="347" height="170"></p>     <p><font size="2"><strong><font face="Verdana, Arial, Helvetica, sans-serif">M&eacute;tricas  de evaluaci&oacute;n</font></strong> </font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">La toma de decisiones  cl&iacute;nicas es un proceso extremadamente complejo en el que deber&aacute; finalmente ser  valorada la utilidad para el manejo del paciente de cualquier prueba  diagn&oacute;stica. En este contexto, es imprescindible conocer detalladamente la  exactitud de las distintas pruebas diagn&oacute;sticas, es decir, su capacidad para  clasificar correctamente a los pacientes en categor&iacute;as o estados en relaci&oacute;n  con la enfermedad, t&iacute;picamente dos, por ejemplo: estar o no estar enfermo o  manifestar una respuesta positiva o negativa a la terapia (de Ullibarri Galparsoro and Fern&aacute;ndez 1998). Para que una prueba se incluya en la  pr&aacute;ctica m&eacute;dica rutinaria es necesario que sea capaz de reducir la  incertidumbre asociada con una determinada situaci&oacute;n cl&iacute;nica. Siempre que una condici&oacute;n  cl&iacute;nica y el resultado de la prueba diagn&oacute;stica encaminada a resolverla puedan  plantearse en t&eacute;rminos de dicotom&iacute;a (presencia o ausencia de enfermedad,  positiva o negativa), la exactitud de la prueba puede definirse en funci&oacute;n de  su sensibilidad y especificidad diagn&oacute;sticas. Sin embargo, con mucha frecuencia  los resultados de las pruebas diagn&oacute;sticas est&aacute;n distribuidos en una escala  continua, por lo que es necesario seleccionar un punto de corte o valor l&iacute;mite  adecuado que permita resumir estos resultados en dos categor&iacute;as: positivo y  negativo. En la presente investigaci&oacute;n se utilizaron los &iacute;ndices de efectividad:  sensibilidad, especificidad, predictividad positiva y negativa, as&iacute; como la  tasa de clasificaci&oacute;n correcta para evaluar el rendimiento del clasificador.</font></p>     ]]></body>
<body><![CDATA[<p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Otra  forma de evaluar el rendimiento del clasificador utilizado fue por medio de las  curvas ROC. Dicha curva es una representaci&oacute;n gr&aacute;fica de la sensibilidad frente  a (1 &ndash; especificidad) para un sistema clasificador binario seg&uacute;n se var&iacute;a el  umbral de decisi&oacute;n. Se denomina umbral de decisi&oacute;n a aquel que decide si un  caso      , a partir del vector de  salida del clasificador, pertenece o no a cada una de las clases. Los &iacute;ndices  de efectividad empleados en esta investigaci&oacute;n para evaluar las distancias en  el clasificador fueron el &aacute;rea bajo la curva ROC (AUC), la predictividad negativa  (Pn) y las medidas <em>F </em>y <em>H</em>, dadas por: </font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/fo0507116.jpg" alt="fo05" width="354" height="96"></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">El rendimiento de la clasificaci&oacute;n es  evaluado a trav&eacute;s del desempe&ntilde;o que muestra el clasificador haciendo uso de las  distancias, y el rendimiento final se obtiene por la media de los resultados,  despu&eacute;s de la ejecuci&oacute;n de este experimento con 3 modelos diferentes, en un  esquema de validaci&oacute;n cruzada de 5 iteraciones. Para la implementaci&oacute;n del  algoritmo <em>kNN</em> se hizo uso de las  distancias: euclidiana, Mahalanobis y Manhattan. Con el fin de estimar la capacidad  de discriminaci&oacute;n de los par&aacute;metros internos para el funcionamiento del  algoritmo se realizaron una serie de experimentos donde se compar&oacute; el rendimiento  del mismo con las tres distancias y su resultado con los mismos conjuntos de  datos. Como se mencion&oacute; anteriormente se realizaron una serie de corridas del  algoritmo <em>kNN</em>, en cada una de ellas  se emple&oacute; una base de entrenamiento con los rasgos extra&iacute;dos de 734 im&aacute;genes  (de ellas 540 enfermas y 194 sanas) y una base de pruebas compuesta por una  matriz que contiene: sanas con 47 im&aacute;genes, enfermas con 134 im&aacute;genes con el  objetivo de evaluar dos subconjuntos diferentes y as&iacute; obtener valores que  muestren la eficiencia real del clasificador.</font></p>     <p>&nbsp;</p>     <p><font face="Verdana, Arial, Helvetica, sans-serif"><strong><font size="3">RESULTADOS Y DISCUSI&Oacute;N </font></strong></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Para la comparaci&oacute;n  entre los resultados obtenidos en el uso de las distancias, fueron utilizados  los mismos conjuntos de datos. Adem&aacute;s, de los conjuntos de datos obtenidos en  el particionamiento, se utilizaron las tres particiones que mejores resultados  mostraron en cuanto a las medidas Pn, AUC, la medida <em>F</em> y la media <em>H</em>.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><strong>Comparaci&oacute;n del algoritmo con las distintas distancias</strong></font></p>     <p align="center"><img src="/img/revistas/rcci/v10n1/t0307116.jpg" alt="t03" width="547" height="95"></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v10n1/t0407116.jpg" target="_blank">Tabla 4</a>. Matriz de confusi&oacute;n, resultado  del c&aacute;lculo de los indicadores de desempe&ntilde;o</font></p>     ]]></body>
<body><![CDATA[<p align="center"><img src="/img/revistas/rcci/v10n1/t0507116.jpg" alt="t05" width="536" height="96"></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v10n1/t0607116.jpg" target="_blank">Tabla 6</a>. Matriz de confusi&oacute;n,  resultado del c&aacute;lculo de los indicadores de desempe&ntilde;o</font></p>     <p align="center">&nbsp;</p>     <p align="center"><img src="/img/revistas/rcci/v10n1/t0707116.jpg" alt="t07" width="554" height="91"></p>     <p align="center">&nbsp;</p>     <p align="center"><font size="2" face="Verdana, Arial, Helvetica, sans-serif"><a href="/img/revistas/rcci/v10n1/t0807116.jpg" target="_blank">Tabla 8</a>. Matriz de confusi&oacute;n, resultado  del c&aacute;lculo de los indicadores de desempe&ntilde;o</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados de la  clasificaci&oacute;n se comportan en este algoritmo entre un 84 y 93% de predictividad  negativa, de la misma manera que la predictividad positiva y el &aacute;rea bajo la  curva ROC se mantienen entre rangos de valores que permiten validar la  eficiencia del clasificador empleado para cada uno de los conjuntos de datos.  Los valores obtenidos de acuerdo a las medidas <em>F</em> y <em>H</em> de igual forma se  mantienen entre un 91-92% y 87-92% respectivamente, lo que muestra el nivel de  efectividad del clasificador. Al comparar los valores obtenidos al emplear la  distancia euclidiana y la distancia Manhattan, se observ&oacute; que estos poseen  valores muy similares entre s&iacute; y mejores con respecto a la distancia de  Mahalanobis. Por otra parte, al comparar los tiempos de ejecuci&oacute;n del algoritmo  entre la distancia euclidiana y la distancia Manhattan, se observ&oacute; que el de la  primera es significativamente mayor, por lo que se decidi&oacute; seleccionar el uso  de la distancia Manhattan en el clasificador <em>kNN</em>. Este experimento se realiz&oacute; a trav&eacute;s del uso de funciones  propias de la herramienta Matlab, donde al realizar algunos c&aacute;lculos se  evidencia el costo computacional existente entre ambas distancias.    <br> Un an&aacute;lisis comparativo entre los  resultados obtenidos en esta investigaci&oacute;n con los resultados expuestos en (Plissiti and Nikou 2012), muestra un mejor desempe&ntilde;o del m&eacute;todo <em>kNN</em> con la distancia Manhattan respecto a las t&eacute;cnicas <em>spectral clustering</em> y <em>fuzzy C-means</em> en t&eacute;rminos de la medida <em>H-Mean </em>(Media Arm&oacute;nica)(<a href="/img/revistas/rcci/v10n1/t0907116.jpg" target="_blank">tabla 9</a>).</font></p>     <p align="left">&nbsp;</p>     ]]></body>
<body><![CDATA[<p><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>CONCLUSIONES</B></font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">En este trabajo se ha  presentado una aproximaci&oacute;n a la clasificaci&oacute;n binaria de c&eacute;lulas cervicales  (es decir, en normales y an&oacute;malas), basada en la utilizaci&oacute;n del algoritmo <em>kNN</em> empleando solo rasgos propios de los  n&uacute;cleos celulares. Fueron utilizadas las distancias: Mahalanobis, euclidiana y  Manhattan. Para obtener el mejor rendimiento posible entre dichas distancias se  utiliz&oacute; el algoritmo IBK del Weka, el cual permiti&oacute; evaluar las diferencias  para este tipo de clasificaci&oacute;n entre las distancias y arroj&oacute; como resultado  que la distancia Manhattan fue la m&aacute;s adecuada a utilizar para la clasificaci&oacute;n  de c&eacute;lulas cervicales.</font></p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Los resultados obtenidos  muestran un mejor desempe&ntilde;o en comparaci&oacute;n con los reportados en (Plissiti and Nikou 2012), en cuanto a los resultados de la clasificaci&oacute;n. Esto se  debe a que, a trav&eacute;s de la media <em>H </em>es  posible evaluar el comportamiento de la tasa de falsos negativos, mientras  mayor sea el porciento de la media <em>H</em>,  menor ser&aacute; la tasa de falsos negativos lo que brinda un buen desempe&ntilde;o en la  realizaci&oacute;n de la prueba de Papanicolaou. Como direcci&oacute;n de trabajo futuro, se implementar&aacute;n  otros clasificadores para realizar un an&aacute;lisis comparativo del desempe&ntilde;o de  estos, conjuntamente con los utilizados en esta investigaci&oacute;n. De igual forma,  se introducir&aacute;n otros rasgos y se realizar&aacute; una selecci&oacute;n de &eacute;stos basada en su  efectividad, con el prop&oacute;sito de reducir la dimensionalidad de las matrices de  rasgos sin afectar significativamente el desempe&ntilde;o de los clasificadores. A m&aacute;s  largo plazo, se investigar&aacute; sobre el proceso de clasificaci&oacute;n en varias clases  para las im&aacute;genes de la prueba de Papanicolaou.</font></p>     <p align="left"><font face="Verdana, Arial, Helvetica, sans-serif" size="3"><B>REFERENCIAS    BIBLIOGR&Aacute;FICAS</B></font>     <p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">AMERICAN CANCER SOCIETY (2014) C&aacute;ncer de cuello uterino: detecci&oacute;n temprana y prevenci&oacute;n. AmericanCancer Society. Disponible en: http://www.cancer.org/acs/groups/cid/documents/webcontent/002580-pdf.pdf</font></p>     <p> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">AGGARWAL, C., HINNEBURG, A. AND KEIM, D. (2001) On the Surprising Behavior of Distance Metrics in High Dimensional Space. In Van den Bussche, J. and Vianu, V. (eds), Database Theory &mdash; ICDT 2001. Springer Berlin Heidelberg, pp. 420-434.</font></p>     <!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">DE LES CORTS, T. (1994) Cribado del c&aacute;ncer de cuello de &uacute;tero, Medicina Cl&iacute;nica, 102, 80-84.    </font></p>     <!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">DE ULLIBARRI GALPARSORO, L. AND FERN&Aacute;NDEZ, P. (1998) Curvas ROC, Atenci&oacute;n Primaria en la Red, 5, 229-235.    </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">DUDA, R.O., HART, P.E. AND STORK, D.G. (2012) Pattern classification. John Wiley & Sons.    </font></p>     <!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">HUANG, P.-C., et al. (2007) Quantitative Assessment of Pap Smear Cells by PC-Based Cytopathologic Image Analysis System and Support Vector Machine. In Zhang, D. (ed), Medical Biometrics. Springer Berlin Heidelberg, pp. 192-199.    </font></p>     <!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">JANTZEN, J., ET AL. (2005) Pap-smear Benchmark Data For Pattern Classification. Proc. NiSIS 2005. Natureinspired Smart Information Systems (NiSIS), Albufeira, Portugal, pp. 1 -9.    </font></p>     <!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">LORENZO-GINORI, J.V., et al. (2013) Cervical Cell Classification Using Features Related to Morphometry and Texture of Nuclei. In, Progress in Pattern Recognition, Image Analysis, Computer Vision, and Applications. Springer, pp. 222-229.    </font></p>     <!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MARINAKIS, Y., DOUNIAS, G. AND JANTZEN, J. (2009) Pap smear diagnosis using a hybrid intelligent scheme focusing on genetic algorithm based feature selection and nearest neighbor classification, Computers in Biology and Medicine, 39, 69-78.    </font></p>     ]]></body>
<body><![CDATA[<!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">MARINAKIS, Y., MARINAKI, M. AND DOUNIAS, G. (2008) Particle swarm optimization for pap-smear diagnosis, Expert Systems with Applications, 35, 1645-1656.    </font></p>     <!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">MAT-ISA, N.A., MASHOR, M.Y. AND OTHMAN, N.H. (2008) An automated cervical pre-cancerous diagnostic system, Artificial Intelligence in Medicine, 42, 1-11.     </font></p>     <!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">PLISSITI, M. AND NIKOU, C. (2012) Cervical Cell Classification Based Exclusively on Nucleus Features. In Campilho, A. and Kamel, M. (eds), Image Analysis and Recognition. Springer Berlin Heidelberg, pp. 483-490.    </font></p>     <!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">PLISSITI, M.E., NIKOU, C. AND CHARCHANTI, A. (2011) Combining shape, texture and intensity features for cell nuclei extraction in Pap smear images, Pattern Recognition Letters, 32, 838-853.     </font></p>     <p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">PLISSITI, M.E., ET AL. (2011) Automated Detection of Cell Nuclei in Pap Smear Images Using Morphological Reconstruction and Clustering, IEEE Transactions on information technology in biomedicine, 15, 233&ndash;241.</font></p>     <!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">RIANA, D. AND MURNI, A. (2009) Performance evaluation of Pap smear cell image classification using quantitative and qualitative features based on multiple classifiers. International Conference on Advanced Computer Science and Information Systems, ACSIS.    </font></p>     <!-- ref --><p name="_ENREF_1"> <font size="2" face="Verdana, Arial, Helvetica, sans-serif">VELEZMORO, G.A.B. AND VILLAFUERTE, D.F. (2001) Factores de riesgo que pron&oacute;stican el hallazgo de citolog&iacute;as cervicales anormales en dos poblaciones: mujeres de obreros de construcci&oacute;n civil vs. mujeres control en la posta m&eacute;dica "Construcci&oacute;n Civil" ESSALUD, de junio a septiembre del 2000. Facultad de Medicina Humana. Universidad Nacional Mayor de San Marcos, Lima, Per&uacute;, pp. 67.    </font></p>     <!-- ref --><p name="_ENREF_1"><font size="2" face="Verdana, Arial, Helvetica, sans-serif">VERBIEST, N., CORNELIS, C. AND HERRERA, F. (2012) Selecci&oacute;n de Prototipos Basada en Conjuntos Rugosos Difusos. Proceedings of XVI Congreso espa&ntilde;ol sobre Tecnolog&iacute;as y L&oacute;gica (ESTYLF2012). pp. 638-643.    </font></p>     <p name="_ENREF_1">&nbsp;</p>     <p name="_ENREF_1">&nbsp;</p>     <p><font size="2" face="Verdana, Arial, Helvetica, sans-serif">Recibido: 01/02/2015    <br> Aceptado: 15/03/2015</font></p>      ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="">
<source><![CDATA[AMERICAN CANCER SOCIETY Cáncer de cuello uterino: detección temprana y prevención]]></source>
<year>2014</year>
</nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[AGGARWAL]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[HINNEBURG]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
<name>
<surname><![CDATA[KEIM]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
</person-group>
<source><![CDATA[On the Surprising Behavior of Distance Metrics in High Dimensional Space]]></source>
<year>2001</year>
<page-range>pp. 420-434</page-range><publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DE LES CORTS]]></surname>
<given-names><![CDATA[T]]></given-names>
</name>
</person-group>
<source><![CDATA[Cribado del cáncer de cuello de útero]]></source>
<year>1994</year>
<volume>102</volume>
<page-range>80-84</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DE ULLIBARRI GALPARSORO]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[FERNÁNDEZ]]></surname>
<given-names><![CDATA[P]]></given-names>
</name>
</person-group>
<source><![CDATA[Curvas ROC, Atención Primaria en la Red]]></source>
<year>1998</year>
<volume>5</volume>
<page-range>229-235</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[DUDA]]></surname>
<given-names><![CDATA[R.O]]></given-names>
</name>
<name>
<surname><![CDATA[HART]]></surname>
<given-names><![CDATA[P.E]]></given-names>
</name>
<name>
<surname><![CDATA[STORK]]></surname>
<given-names><![CDATA[D.G]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern classification]]></source>
<year>2012</year>
<publisher-name><![CDATA[John Wiley & Sons]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[HUANG]]></surname>
<given-names><![CDATA[P.-C]]></given-names>
</name>
</person-group>
<source><![CDATA[Quantitative Assessment of Pap Smear Cells by PC-Based Cytopathologic Image Analysis System and Support Vector Machine.]]></source>
<year>2007</year>
<page-range>192-199</page-range><publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[JANTZEN]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Pap-smear Benchmark Data For Pattern Classification]]></source>
<year>2005</year>
<page-range>pp. 1 -9</page-range><publisher-loc><![CDATA[Albufeira ]]></publisher-loc>
</nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[LORENZO-GINORI]]></surname>
<given-names><![CDATA[J.V]]></given-names>
</name>
</person-group>
<source><![CDATA[Cervical Cell Classification Using Features Related to Morphometry and Texture of Nuclei.]]></source>
<year>2013</year>
<page-range>pp. 222-229</page-range><publisher-name><![CDATA[Springer]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARINAKIS]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[DOUNIAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
<name>
<surname><![CDATA[JANTZEN]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<source><![CDATA[Pap smear diagnosis using a hybrid intelligent scheme focusing on genetic algorithm based feature selection and nearest neighbor classification, Computers in Biology and Medicine]]></source>
<year>2009</year>
<volume>39</volume>
<page-range>69-78</page-range></nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MARINAKIS]]></surname>
<given-names><![CDATA[Y]]></given-names>
</name>
<name>
<surname><![CDATA[MARINAKI]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[DOUNIAS]]></surname>
<given-names><![CDATA[G]]></given-names>
</name>
</person-group>
<source><![CDATA[Particle swarm optimization for pap-smear diagnosis, Expert Systems with Applications]]></source>
<year>2008</year>
<volume>35</volume>
<page-range>1645-1656</page-range></nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[MAT-ISA]]></surname>
<given-names><![CDATA[N.A]]></given-names>
</name>
<name>
<surname><![CDATA[MASHOR]]></surname>
<given-names><![CDATA[M.Y]]></given-names>
</name>
<name>
<surname><![CDATA[OTHMAN]]></surname>
<given-names><![CDATA[N.H]]></given-names>
</name>
</person-group>
<source><![CDATA[An automated cervical pre-cancerous diagnostic system]]></source>
<year>2008</year>
<volume>42</volume>
<page-range>1-11.</page-range></nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PLISSITI]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[NIKOU]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
</person-group>
<source><![CDATA[Cervical Cell Classification Based Exclusively on Nucleus Features.]]></source>
<year>2012</year>
<page-range>pp. 483-490</page-range><publisher-name><![CDATA[Springer Berlin Heidelberg]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B13">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PLISSITI]]></surname>
<given-names><![CDATA[M.E]]></given-names>
</name>
<name>
<surname><![CDATA[NIKOU]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[CHARCHANTI]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Combining shape, texture and intensity features for cell nuclei extraction in Pap smear images]]></source>
<year>2011</year>
<volume>32</volume>
<page-range>838-853</page-range></nlm-citation>
</ref>
<ref id="B14">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[PLISSITI]]></surname>
<given-names><![CDATA[M.E]]></given-names>
</name>
</person-group>
<source><![CDATA[Automated Detection of Cell Nuclei in Pap Smear Images Using Morphological Reconstruction and Clustering]]></source>
<year></year>
<volume>15</volume>
<page-range>233-241</page-range></nlm-citation>
</ref>
<ref id="B15">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[RIANA]]></surname>
<given-names><![CDATA[D]]></given-names>
</name>
<name>
<surname><![CDATA[MURNI]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<source><![CDATA[Performance evaluation of Pap smear cell image classification using quantitative and qualitative features based on multiple classifiers]]></source>
<year>2009</year>
</nlm-citation>
</ref>
<ref id="B16">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VELEZMORO]]></surname>
<given-names><![CDATA[G.A.B]]></given-names>
</name>
<name>
<surname><![CDATA[VILLAFUERTE]]></surname>
<given-names><![CDATA[D.F]]></given-names>
</name>
</person-group>
<source><![CDATA[Factores de riesgo que pronóstican el hallazgo de citologías cervicales anormales en dos poblaciones: mujeres de obreros de construcción civil vs. mujeres control en la posta médica "Construcción Civil" ESSALUD]]></source>
<year>2001</year>
<month>ju</month>
<day>ni</day>
<page-range>pp. 67</page-range><publisher-loc><![CDATA[^eLima Lima]]></publisher-loc>
<publisher-name><![CDATA[Universidad Nacional Mayor de San Marcos]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B17">
<nlm-citation citation-type="">
<person-group person-group-type="author">
<name>
<surname><![CDATA[VERBIEST]]></surname>
<given-names><![CDATA[N]]></given-names>
</name>
<name>
<surname><![CDATA[CORNELIS]]></surname>
<given-names><![CDATA[C]]></given-names>
</name>
<name>
<surname><![CDATA[HERRERA]]></surname>
<given-names><![CDATA[F]]></given-names>
</name>
</person-group>
<source><![CDATA[Selección de Prototipos Basada en Conjuntos Rugosos Difusos.]]></source>
<year>2012</year>
<page-range>pp. 638-643</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
