<?xml version="1.0" encoding="ISO-8859-1"?><article xmlns:mml="http://www.w3.org/1998/Math/MathML" xmlns:xlink="http://www.w3.org/1999/xlink" xmlns:xsi="http://www.w3.org/2001/XMLSchema-instance">
<front>
<journal-meta>
<journal-id>0864-2141</journal-id>
<journal-title><![CDATA[Educación Médica Superior]]></journal-title>
<abbrev-journal-title><![CDATA[Educ Med Super]]></abbrev-journal-title>
<issn>0864-2141</issn>
<publisher>
<publisher-name><![CDATA[Centro Nacional de Información de Ciencias MédicasEditorial Ciencias Médicas]]></publisher-name>
</publisher>
</journal-meta>
<article-meta>
<article-id>S0864-21412004000300002</article-id>
<title-group>
<article-title xml:lang="es"><![CDATA[Árboles de regresión y otras opciones metodológicas aplicadas a la predicción del rendimiento académico]]></article-title>
</title-group>
<contrib-group>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bacallao Gallestey]]></surname>
<given-names><![CDATA[Jorge]]></given-names>
</name>
<xref ref-type="aff" rid="A01"/>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Parapar de la Riestra]]></surname>
<given-names><![CDATA[José M]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Roque Gil]]></surname>
<given-names><![CDATA[Mercedes]]></given-names>
</name>
</contrib>
<contrib contrib-type="author">
<name>
<surname><![CDATA[Bacallao Guerra]]></surname>
<given-names><![CDATA[Jorge]]></given-names>
</name>
</contrib>
</contrib-group>
<aff id="A01">
<institution><![CDATA[,Instituto de Ciencias Básicas y Preclínicas Victoria de Girón.  ]]></institution>
<addr-line><![CDATA[Ciudad de La Habana ]]></addr-line>
<country>Cuba</country>
</aff>
<pub-date pub-type="pub">
<day>00</day>
<month>09</month>
<year>2004</year>
</pub-date>
<pub-date pub-type="epub">
<day>00</day>
<month>09</month>
<year>2004</year>
</pub-date>
<volume>18</volume>
<numero>3</numero>
<fpage>1</fpage>
<lpage>1</lpage>
<copyright-statement/>
<copyright-year/>
<self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_arttext&amp;pid=S0864-21412004000300002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_abstract&amp;pid=S0864-21412004000300002&amp;lng=en&amp;nrm=iso"></self-uri><self-uri xlink:href="http://scielo.sld.cu/scielo.php?script=sci_pdf&amp;pid=S0864-21412004000300002&amp;lng=en&amp;nrm=iso"></self-uri><abstract abstract-type="short" xml:lang="es"><p><![CDATA[El presente trabajo se realizó con el fin de construir un algoritmo para detectar estudiantes con alto riesgo de fracaso académico e identificar los mejores predictores del rendimiento. Se caracterizaron los estudiantes que ingresaron en el primer año en el ICBP "Victoria de Girón" durante el curso 2001-2002 de acuerdo con su índice académico del preuniversitario, índice escalafonario, exámenes de ingreso, prueba de inteligencia y un indicador de su motivación profesional. Se emplearon árboles de clasificación para identificar los predictores relevantes y sus puntos de corte óptimos. Se utilizó un modelo de regresión ordinal para evaluar la importancia relativa de los predictores y proponer el algoritmo de predicción. A partir del índice escalafonario, exclusivamente, se obtuvo un procedimiento de clasificación, que permitió identificar a los estudiantes de mayor riesgo de fracaso académico. Los puntos de corte fueron 87 y 91 puntos, que definen una tricotomía para el pronóstico del rendimiento.]]></p></abstract>
<abstract abstract-type="short" xml:lang="en"><p><![CDATA[This paper is aimed at constructing an algorithm to detect students at high risk for academic failure and at identifying the best preformance predictors. The students that were admitted in the first year at Victoria de Girón Institute of Preclinical Basic Sciences during the course 2001-2002 were characterized according to their preuniversity academic index, roster index, admission test, intelligence test and an indicator of their professional motivation. Classification trees were used to identify the relevant predictors and their optimal cut-off points. A model of ordinal regression was used to evaluate the relative importance of the predictors and to propose the prediction algorithm.Starting only from the roster index, it was obtained a classification procedure that allowed to identify students at the highest risk for academic failure. The cut-offs were 87 and 91 points, which define a trichotomy for the performance prognosis.]]></p></abstract>
<kwd-group>
<kwd lng="es"><![CDATA[Arboles de clasificación]]></kwd>
<kwd lng="es"><![CDATA[regresión ordinal]]></kwd>
<kwd lng="es"><![CDATA[predicción del rendimiento]]></kwd>
<kwd lng="es"><![CDATA[admisión en la enseñanza médica superior.]]></kwd>
<kwd lng="en"><![CDATA[Classification trees]]></kwd>
<kwd lng="en"><![CDATA[ordinal regression]]></kwd>
<kwd lng="en"><![CDATA[performance prediction]]></kwd>
<kwd lng="en"><![CDATA[admission at higher medical education]]></kwd>
</kwd-group>
</article-meta>
</front><body><![CDATA[ <p>Instituto de Ciencias B&aacute;sicas y Precl&iacute;nicas &quot;Victoria de  Gir&oacute;n&quot;    <br>     <br> Centro de Investigaciones y Referencia de Aterosclerosis  de La Habana. Policl&iacute;nico &quot;19 de Abril&quot;</p>    <p></p><h2>&Aacute;rboles  de regresi&oacute;n y otras opciones metodol&oacute;gicas aplicadas a la predicci&oacute;n  del rendimiento acad&eacute;mico</h2>    <p></p>    <p></p>    <p><a href="#cargo">Dr.C. Jorge  Bacallao Gallestey,<span class="superscript">1</span> Dr. Jos&eacute; M. Parapar  de la Riestra,<span class="superscript">2</span> Lic. Mercedes Roque Gil<span class="superscript">3</span>  y Lic. Jorge Bacallao Guerra</a><a name="autor"></a>    <br> </p><h4></h4><h4></h4><h4></h4><h4></h4><h4>Resumen</h4>    <p>El  presente trabajo se realiz&oacute; con el fin de construir un algoritmo para detectar  estudiantes con alto riesgo de fracaso acad&eacute;mico e identificar los mejores  predictores del rendimiento. Se caracterizaron los estudiantes que ingresaron  en el primer a&ntilde;o en el ICBP &quot;Victoria de Gir&oacute;n&quot; durante  el curso 2001-2002 de acuerdo con su &iacute;ndice acad&eacute;mico del preuniversitario,  &iacute;ndice escalafonario, ex&aacute;menes de ingreso, prueba de inteligencia  y un indicador de su motivaci&oacute;n profesional. Se emplearon &aacute;rboles  de clasificaci&oacute;n para identificar los predictores relevantes y sus puntos  de corte &oacute;ptimos. Se utiliz&oacute; un modelo de regresi&oacute;n ordinal  para evaluar la importancia relativa de los predictores y proponer el algoritmo  de predicci&oacute;n. A partir del &iacute;ndice escalafonario, exclusivamente,  se obtuvo un procedimiento de clasificaci&oacute;n, que permiti&oacute; identificar  a los estudiantes de mayor riesgo de fracaso acad&eacute;mico. Los puntos de corte  fueron 87 y 91 puntos, que definen una tricotom&iacute;a para el pron&oacute;stico  del rendimiento.</p>    <p><b>Palabras clave</b>: Arboles de clasificaci&oacute;n,  regresi&oacute;n ordinal, predicci&oacute;n del rendimiento, admisi&oacute;n en  la ense&ntilde;anza m&eacute;dica superior. </p>    ]]></body>
<body><![CDATA[<p></p>    <p>Desde la d&eacute;cada  de los 90 se aplica en el Instituto de Ciencias B&aacute;sicas y Precl&iacute;nicas  &quot;Victoria de Gir&oacute;n&quot; un sistema semiautomatizado para el pron&oacute;stico  del rendimiento acad&eacute;mico. A partir de las bases de datos de los estudiantes  de nuevo ingreso y mediante la aplicaci&oacute;n de modelos estad&iacute;sticos  de predicci&oacute;n, se obtiene un &iacute;ndice individual que mide la probabilidad  de fracaso acad&eacute;mico, el que se utiliza para caracterizar a cada uno de  los estudiantes y para aplicar medidas preventivas con los que rebasan cierto  umbral de riesgo.</p>    <p>Para estimar la probabilidad de &eacute;xito, se han utilizado  diversos modelos anal&iacute;ticos de predicci&oacute;n que difieren en su estructura,  en sus supuestos estad&iacute;sticos y en su grado de complejidad. Estos modelos  predictivos (Bacallao J, Ant&oacute;n M. Aspectos metodol&oacute;gicos relativos  a la predicci&oacute;n del rendimiento acad&eacute;mico en los centros de ense&ntilde;anza  m&eacute;dica superior. Trabajo presentado a concurso para el mejor trabajo cient&iacute;fico  del MINSAP en el &aacute;rea de investigaciones aplicadas; 1992) se han empleado  con varios fines: la predicci&oacute;n individual del riesgo,<span class="superscript">1,2</span>  el pron&oacute;stico de la promoci&oacute;n global en un curso acad&eacute;mico<span class="superscript">3</span>  y la identificaci&oacute;n de predictores relevantes.<span class="superscript">4</span>  Tambi&eacute;n se han empleado diversos recursos anal&iacute;ticos de naturaleza  estad&iacute;stica para la validaci&oacute;n de los propios modelos de predicci&oacute;n.<span class="superscript">5,6</span></p>    <p>Las  variables que se emplean para el pron&oacute;stico se eligen dentro de una bater&iacute;a  que hist&oacute;ricamente ha incluido: el &iacute;ndice acad&eacute;mico del preuniversitario,  una prueba de ortograf&iacute;a, pruebas de nivel de entrada, ex&aacute;menes  de ingreso y variantes de diversas pruebas psicom&eacute;tricas. En la actualidad,  la predicci&oacute;n se lleva a cabo mediante la aplicaci&oacute;n de diversos  modelos predictivos o de una heur&iacute;stica simple, a partir del &iacute;ndice  acad&eacute;mico del preuniversitario (IAP), los ex&aacute;menes de ingreso (MAT,  BIOL, HIST), el resultado de una prueba de inteligencia general (INTEL) y un indicador  de motivaci&oacute;n profesional (MOTIV). INTEL se expresa en una escala ordinal  creciente de 7 niveles y MOTIV en una ordinal decreciente de 5 niveles.    <br>     <br>  Otras facultades de Medicina del pa&iacute;s han aplicado tambi&eacute;n diversos  modelos estad&iacute;sticos multidimensionales para predecir el rendimiento y  para identificar predictores relevantes.<span class="superscript">7,8</span></p>    <p>La  direcci&oacute;n del proceso de admisi&oacute;n, usualmente responsabilidad del  personal de la Secretar&iacute;a Docente de las facultades, requiere que este  proceso pueda llevarse a cabo en poco tiempo -1 &oacute; 2 semanas a lo sumo-  mediante la aplicaci&oacute;n de algoritmos simples y f&aacute;ciles de interpretar.  </p>    <p>En un trabajo previo se ha argumentado que los procesos de admisi&oacute;n  deben regirse por estrictas consideraciones de costo-beneficio, lo cual implica  definir con precisi&oacute;n los objetivos que se persiguen y, en funci&oacute;n  de dichos objetivos, simplificar al m&aacute;ximo el proceso. La mayor simplificaci&oacute;n  posible del proceso supondr&iacute;a el empleo del menor n&uacute;mero posible  de indicadores y la conversi&oacute;n de &eacute;stos en variables binarias u  ordinales a partir de la definici&oacute;n de puntos de corte apropiados. El mismo  argumento es v&aacute;lido para la identificaci&oacute;n de estudiantes en riesgo.  </p>    <p>Si fuera posible hacerse con una variable &uacute;nica, toda la evidencia  previa indica que el mejor candidato es el &iacute;ndice acad&eacute;mico del  preuniversitario (IAP) o el &iacute;ndice escalafonario, que integra IAP y los  ex&aacute;menes de ingreso.<span class="superscript">1,2,5-8</span> Si esta simplificaci&oacute;n  se obtuviera sin un sacrificio importante de capacidad predictiva, se dispondr&iacute;a  de un instrumento id&oacute;neo para mejorar los indicadores de aprovechamiento  del proceso de ense&ntilde;anza-aprendizaje, porque se podr&iacute;a actuar oportunamente  sobre los estudiantes en riesgo.</p>    <p>El presente trabajo tiene el prop&oacute;sito  de encontrar los predictores m&aacute;s relevantes y sus cortes &oacute;ptimos  para predecir el riesgo individual de los estudiantes de nuevo ingreso en la carrera  de Medicina, construir un algoritmo sencillo de identificaci&oacute;n de estudiantes  en riesgo y poner a prueba la hip&oacute;tesis de que el &iacute;ndice escalafonario  es suficiente para la contrucci&oacute;n de este algoritmo. </p><h4>M&eacute;todos</h4>    ]]></body>
<body><![CDATA[<p>El  universo del estudio se restringi&oacute; a los nuevos ingresos en la carrera  de Medicina durante el curso 2001 - 2002 con expedientes completos (n=152 estudiantes).  Esta decisi&oacute;n excluye a los estudiantes que ingresan por v&iacute;as que  no exigen pruebas de ingreso o historia acad&eacute;mica del preuniversitario,  y a los que no fueron sometidos a las pruebas que hace de rigor, la unidad de  orientaci&oacute;n estudiantil de la instituci&oacute;n.    <br>     <br> Se consideraron  completos los expedientes que conten&iacute;an las variables siguientes: &iacute;ndice  acad&eacute;mico del preuniversitario, &iacute;ndice escalafonario, resultados  de los ex&aacute;menes de ingreso en Matem&aacute;tica, Biolog&iacute;a e Historia,  resultados del test de inteligencia aplicado, un indicador de motivaci&oacute;n  y los resultados del rendimiento, expresados como promedio de todas las asignaturas.    <br>  El indicador de motivaci&oacute;n consiste en una variable ordinal expresada en  una escala de 1 a 5, que se obtiene a partir de varias pruebas conocidas de actitud  y personalidad.</p>    <p>El promedio de todas las asignaturas se convirti&oacute;  a una variable dicot&oacute;mica que toma el valor 1 (&quot;fracaso&quot;) si  el promedio es inferior a 3,75 y el valor 2 (&quot;&eacute;xito&quot;) en caso  contrario. Esta conversi&oacute;n convencional -exigente para el &eacute;xito-  tiene la intenci&oacute;n de que el algoritmo de selecci&oacute;n resultante tenga  una sensibilidad alta para detectar el riesgo acad&eacute;mico.    <br>     <br> Para  los efectos de validaci&oacute;n del algoritmo resultante de este estudio, se  incluy&oacute; tambi&eacute;n un indicador pron&oacute;stico (&quot;progno&quot;,  indicador ordinal con 4 categor&iacute;as: excelente, bien, tr&aacute;nsito y  riesgo; que emite de rutina la secretar&iacute;a docente de la instituci&oacute;n,  bas&aacute;ndose en una heur&iacute;stica simple), obtenido a discreci&oacute;n  a partir de una apreciaci&oacute;n global subjetiva de todos los indicadores de  entrada.    <br>     <br> Los procedimientos anal&iacute;ticos empleados fueron los siguientes:</p><ul>      <li>&Aacute;rbol de clasificaci&oacute;n que permite asignar los sujetos a grupos  de riesgo, identificar los predictores relevantes, y ubicar sus puntos de corte  &oacute;ptimos.    ]]></body>
<body><![CDATA[<br> </li>    <li>Modelos de &quot;regresi&oacute;n ordinal&quot; para  evaluar la importancia relativa del predictor elegido y seleccionar una m&eacute;trica  &oacute;ptima para la operacionalizaci&oacute;n de dichos predictores.</li>    </ul>    <p>El  ajuste de un &aacute;rbol de regresi&oacute;n se llev&oacute; a cabo con el programa  SYSTAT versi&oacute;n 9.0, se tom&oacute; como variable de respuesta, la condici&oacute;n  de &quot;&eacute;xito&quot; o &quot;fracaso&quot; y como predictores, el &iacute;ndice  escalafonario, los ex&aacute;menes de ingreso (MAT, BIOL e HIST), la prueba de  inteligencia (TESTINTEL) y el indicador de motivaci&oacute;n profesional (MOTIV).</p>    <p>La  regresi&oacute;n ordinal se realiz&oacute; con el paquete SPSS versi&oacute;n  11.5, tomando como variable dependiente el promedio de las calificaciones en las  asignaturas del primer a&ntilde;o de la carrera de Medicina.</p><h6>I . Sobre  los &aacute;rboles de clasificaci&oacute;n</h6>    <p>Los &aacute;rboles de clasificaci&oacute;n  se emplean para asignar sujetos a las clases de una variable dependiente a partir  de sus mediciones en uno o m&aacute;s predictores. Modernamente, los &aacute;rboles  de clasificaci&oacute;n (AC) constituyen uno de los recursos instrumentales b&aacute;sicos  de la llamada &quot;miner&iacute;a de datos&quot;.Producen cortaduras en los regresores  para predecir o explicar variables dependientes discretas (usualmente binarias)  y constituyen, por la interpretaci&oacute;n inmediata de sus resultados y por  su condici&oacute;n &quot;no param&eacute;trica&quot;, una opci&oacute;n favorable  entre otras alternativas como el an&aacute;lisis discriminante, el an&aacute;lisis  de clusters o la regresi&oacute;n log&iacute;stica binaria o polit&oacute;mica.</p>    <p>  Los AC son jerarqu&iacute;as de cortes que se construyen a partir de los predictores,  de modo que se maximice cierto criterio de asociaci&oacute;n con la variable de  respuesta. Cada cortadura da lugar a una partici&oacute;n de los sujetos en 2  grupos: avanzando en pasos sucesivos a lo largo del &aacute;rbol jer&aacute;rquico  de cortaduras se llega a la clasificaci&oacute;n final.<span class="superscript">9</span></p>    <p>El  uso de los &aacute;rboles de clasificaci&oacute;n no es frecuente en el &aacute;mbito  de las probabilidades o del reconocimiento de patrones, pero se han extendido  considerablemente en el &aacute;mbito del diagn&oacute;stico, las ciencias de  la computaci&oacute;n, la taxonom&iacute;a y la teor&iacute;a de la decisi&oacute;n.  Los &aacute;rboles tienen una expresi&oacute;n gr&aacute;fica que facilita su  intepretaci&oacute;n. </p>    <p>Una diferencia importante entre los &aacute;rboles  de clasificaci&oacute;n y otras t&eacute;cnicas con prop&oacute;sitos afines como  el an&aacute;lisis discriminante, es que en estas &uacute;ltimas, las decisiones  de asignaci&oacute;n de los sujetos a un grupo son simult&aacute;neas; mientras  que en los primeros, es jer&aacute;rquica y recursiva.<span class="superscript">10</span></p>    <p>Los  AC son m&aacute;s flexibles que otras t&eacute;cnicas de clasificaci&oacute;n  porque permiten incorporar predictores medidos virtualmente en cualquier escala:  continua, ordinal o mezclas de ambas escalas. Cualquier transformaci&oacute;n  mon&oacute;tona en la escala de medici&oacute;n que preserve el orden en las categor&iacute;as  de una variable ordinal, preserva tambi&eacute;n la clasificaci&oacute;n que se  obtiene si se emplea un AC. </p>    ]]></body>
<body><![CDATA[<p>La capacidad discriminatoria que se gana al  a&ntilde;adir una nueva cortadura al criterio de clasificaci&oacute;n, puede medirse  u observarse directamente, en lugar de tener que estimarse como en el an&aacute;lisis  discriminante o en otros modelos predictivos.<span class="superscript">11</span></p>    <p>Es  posible utilizar combinaciones lineales de cortaduras, del mismo modo que en el  an&aacute;lisis discriminante (AD) se utilizan combinaciones lineales de predictores.  No obstante, hay una diferencia crucial: mientras que en el AD, el n&uacute;mero  de combinaciones lineales est&aacute; acotado superiormente por el n&uacute;mero  de predictores menos 1, en los AC puede realizarse un n&uacute;mero ilimitado  de cortaduras, lo cual permite aprovechar mucho mejor la informaci&oacute;n contenida  en los predictores. Por ejemplo, un mismo predictor podr&iacute;a arrojar varias  cortaduras para mejorar su capacidad predictiva, algo que es imposible en el an&aacute;lisis  discriminante o en cualquier otro modelo estad&iacute;stico que suponga una relaci&oacute;n  mon&oacute;tona de los predictores con la variable dependiente.</p>    <p>En general,  se usan 2 algoritmos para la construcci&oacute;n de los AC. El primero de ellos,  conocido como QUEST (<i>quick unbiased efficient statistical tree</i>)<span class="superscript">12</span>  es r&aacute;pido e insesgado en la identificaci&oacute;n de los predictores relevantes,  algo especialmente importante en el caso de predictores ordinales con muchos niveles,  en los que las cortaduras recursivas tienden a producir sobreajuste (<i>overfitting</i>)  y por tanto, a seleccionar demasiados predictores (<i>Quinlan JR, Cameron-Jones  RM. Oversearching and layered search in empirical learning</i>. <i>Proceedings  of the 14th International Joint Conference on Artificial Intelligence</i>. Vol  2. Montreal.: <i>Morgan Kaufman</i> p.1019-24). El otro algoritmo es el CART (<i>classification  and regression trees</i>) que lleva a cabo una b&uacute;squeda exhaustiva de todas  las posibles cortaduras para minimizar el porcentaje de clasificaci&oacute;n incorrecta.</p><h6>II.  Sobre la regresi&oacute;n ordinal</h6>    <p>La regresi&oacute;n ordinal (RO) permite  asignar una m&eacute;trica &oacute;ptima a los regresores discretos de un modelo  de regresi&oacute;n m&uacute;ltiple. Se trata, en s&iacute;ntesis, de elegir la  recodificaci&oacute;n de los predictores de acuerdo con una m&eacute;trica ordinal  tal, que se optimice el ajuste del modelo. De este modo, se extrae de cada regresor  su mayor capacidad predictiva posible mediante una recodificaci&oacute;n &oacute;ptima  de sus valores posibles en una nueva escala de naturaleza ordinal. </p><h4>Resultados</h4>    <p>En  el &aacute;rbol de regresi&oacute;n, cuando al modelo (que tiene 2 salidas, &quot;&eacute;xito&quot;  y &quot;fracaso&quot;) se hacen ingresar todos los predictores (&iacute;ndice  escalafonario, Matem&aacute;tica, Biolog&iacute;a, Historia, motivaci&oacute;n  y test de inteligencia), s&oacute;lo elige como entrada el &iacute;ndice escalafonario  (en 2 ocasiones sucesivas) y selecciona como puntos de corte, los valores que  muestra la figura: alrededor de 87 y 91 puntos. De esta forma qued&oacute; definida  una variable polit&oacute;mica con 3 niveles (escalaf) como muestra la figura  1.    <br>     <br> </p>    <p align="center"><a href="/img/revistas/ems/v18n3/f0102304.jpg"><img src="/img/revistas/ems/v18n3/f0102304.jpg" width="448" height="285" border="0"></a>    
<br>      <br> </p>    ]]></body>
<body><![CDATA[<p align="center">FIG. 1. Resultados del ajuste de un &aacute;rbol de  clasificaci&oacute;n.</p>    <p>Como es f&aacute;cil constatar, el &aacute;rbol de  clasificaci&oacute;n define un algoritmo con 3 nodos terminales que arrojan una  clasificaci&oacute;n en 3 categor&iacute;as, a partir de 2 cortaduras s&oacute;lo  en el &iacute;ndice escalafonario: </p><ul>     <li>Grupo 1: indesc&lt;87    <br> </li>    <li>Grupo  2: 87= indesc&lt;91    <br> </li>    <li>Grupo 3: indesc = 91</li>    </ul>    <p align="left">Con  la media aritm&eacute;tica de las calificaciones, estratificadas de acuerdo con  los valores de progno y escalaf se intenta mostrar que con s&oacute;lo 1 predictor  (el &iacute;ndice escalafonario), y mediante un criterio de clasificaci&oacute;n  muy sencillo, es posible construir una tipolog&iacute;a adecuada para la clasificaci&oacute;n  de estudiantes en riesgo (tabla 1).</p>    <p align="center">TABLA 1.<i> Rendimiento  acad&eacute;mico promedio de acuerdo con 2 predictores ordinales del rendimiento.  </i></p><table width="75%" border="1" align="center"> <tr> <td colspan="5">     ]]></body>
<body><![CDATA[<div align="center">Escalaf</div></td></tr>  <tr> <td>     <div align="center">Progno </div></td><td>     <div align="center">1 </div></td><td>      <div align="center">2 </div></td><td>     <div align="center">3 </div></td><td>     <div align="center">Total</div></td></tr>  <tr> <td>     <div align="center">1 </div></td><td>     <div align="center">3,38 </div></td><td>      <div align="center">3,48 </div></td><td>     <div align="center">4,53 </div></td><td>      ]]></body>
<body><![CDATA[<div align="center">3,54</div></td></tr> <tr> <td>     <div align="center">2 </div></td><td>      <div align="center">3,54</div></td><td>     <div align="center">3,72</div></td><td>      <div align="center">4,39 </div></td><td>     <div align="center">3,90</div></td></tr>  <tr> <td>     <div align="center">3 </div></td><td>     <div align="center">3,37</div></td><td>      <div align="center">4,00 </div></td><td>     <div align="center">4,42</div></td><td>      ]]></body>
<body><![CDATA[<div align="center">4,21</div></td></tr> </table>    <p>Debe notarse que:</p><ul>      <li>El predictor que se obtuvo a partir de las cortaduras &oacute;ptimas derivadas  del &aacute;rbol de clasificaci&oacute;n (escalaf) tuvo una relaci&oacute;n mon&oacute;tona  con el rendimiento acad&eacute;mico de los estudiantes. Basta ubicarse en cualquier  fila de la tabla y observar c&oacute;mo crecieron las calificaciones al pasar  de un nivel a otro de escalaf.    <br> </li>    <li>Los resultados de las calificaciones  tambi&eacute;n fueron crecientes de acuerdo con progno, pero no lo fueron para  todas las categor&iacute;as de escalaf (no en todas las columnas se mantuvo la  tendencia creciente).</li>    </ul>    <p align="left">En el rendimiento acad&eacute;mico  se mantuvo la misma estructura que en el cuadro anterior, pero las calificaciones  se estratificaron de acuerdo con escalaf y un indicador de la motivaci&oacute;n  profesional (motiv) (tabla 2). </p>    <p align="center">TABLA 2. <i>Rendimiento acad&eacute;mico  promedio de acuerdo con 2 predictores ordinales del    <br> rendimiento.</i></p><table width="75%" border="1" align="center">  <tr> <td colspan="5">     <div align="center">Escalaf</div></td></tr> <tr> <td>     ]]></body>
<body><![CDATA[<div align="center">Motiv  </div></td><td>     <div align="center">1</div></td><td>     <div align="center">2</div></td><td>      <div align="center">3 </div></td><td>     <div align="center">TOTAL</div></td></tr>  <tr> <td>     <div align="center">1 </div></td><td>     <div align="center">- </div></td><td>      <div align="center">3,00</div></td><td>     <div align="center">- </div></td><td>      <div align="center">3,00</div></td></tr> <tr> <td>     ]]></body>
<body><![CDATA[<div align="center">2</div></td><td>      <div align="center">3,47 </div></td><td>     <div align="center">4,00 </div></td><td>      <div align="center">4,57</div></td><td>     <div align="center">4,19</div></td></tr>  <tr> <td>     <div align="center">3 </div></td><td>     <div align="center">3,47 </div></td><td>      <div align="center">3,75 </div></td><td>     <div align="center">4,54</div></td><td>      <div align="center">4,09</div></td></tr> <tr> <td>     ]]></body>
<body><![CDATA[<div align="center">4 </div></td><td>      <div align="center">3,37</div></td><td>     <div align="center">3,88 </div></td><td>      <div align="center">4,51 </div></td><td>     <div align="center">3,98</div></td></tr>  <tr> <td>     <div align="center">5 </div></td><td>     <div align="center">-- </div></td><td>      <div align="center">3,00 </div></td><td>     <div align="center">--</div></td><td>      <div align="center">3,00</div></td></tr> <tr> <td>     ]]></body>
<body><![CDATA[<div align="center">Total </div></td><td>      <div align="center">3,46 </div></td><td>     <div align="center">3,76 </div></td><td>      <div align="center">4,50</div></td><td>     <div align="center">4,05</div></td></tr>  </table>    <p>Pudo comprobarse que:</p><ul>     <li>Escalaf conserv&oacute; su monotonicidad  para cada nivel del indicador de motivaci&oacute;n (motiv), es decir, para 1 de  las filas.    <br> </li>    <li>El rec&iacute;proco no se cumpli&oacute;.    <br> </li>    ]]></body>
<body><![CDATA[<li>Los  peores rendimientos ocurrieron en los estudiantes muy motivados (motiv=1) o nada  motivados (motiv=5).     <br> </li>    <li>Si el pron&oacute;stico basado en el &iacute;ndice  escalafonario fue bueno, fue indiferente tener mucha o poca motivaci&oacute;n.    <br>  </li>    <li>Si el pron&oacute;stico basado en el &iacute;ndice escalafonario fue  malo, tambi&eacute;n fue indiferente la motivaci&oacute;n.</li>    </ul>    <p>La comparaci&oacute;n  de 3 de los predictores del rendimiento (escalaf, progno y tesintel) de acuerdo  con 3 importantes criterios de comparaci&oacute;n: correlaci&oacute;n simple del  predictor con la calificaci&oacute;n final; correlaci&oacute;n parcial (asociaci&oacute;n  remanente despu&eacute;s de remover el efecto de los otros predictores) y la importancia  relativa (efecto directo, despu&eacute;s de eliminar el efecto intermedio de los  otros predictores, equivalente al &quot;coeficiente de camino&quot; an&aacute;lisis  en que la variable se toma como predictora del rendimiento acad&eacute;mico y  las 2 restantes, como mediadoras) se muestra en la tabla 3. </p>    <p align="center">TABLA  3. <i>Correlaciones simples, parciales e importancia de 3 predictores en relaci&oacute;n  con el    <br> rendimiento acad&eacute;mico en el primer a&ntilde;o de Medicina.</i></p><table width="75%" border="1" align="center">  <tr> <td colspan="4">     <div align="center">Correlaciones</div></td></tr> <tr> <td>      ]]></body>
<body><![CDATA[<div align="center">Predictores </div></td><td>     <div align="center">Simple </div></td><td>      <div align="center">Parcial</div></td><td>     <div align="center">Importancia</div></td></tr>  <tr> <td>     <div align="center">escalaf</div></td><td>     <div align="center">.437  </div></td><td>     <div align="center">.366 </div></td><td>     <div align="center">.839</div></td></tr>  <tr> <td>     <div align="center">progno</div></td><td>     <div align="center">.268 </div></td><td>      ]]></body>
<body><![CDATA[<div align="center">.021</div></td><td>     <div align="center">.031</div></td></tr>  <tr> <td>     <div align="center">tesintel</div></td><td>     <div align="center">.230  </div></td><td>     <div align="center">.114</div></td><td>     <div align="center">.131</div></td></tr>  </table>    <p>Pudo observarse que:</p><ul>     <li>La correlaci&oacute;n simple de escalaf  con el rendimiento fue casi el doble que la del pron&oacute;stico a discreci&oacute;n  y la de la prueba de inteligencia.    <br> </li>    <li>La correlaci&oacute;n parcial  fue a&uacute;n mayor relativamente. Casi toda la capacidad predictiva de progno  ocurri&oacute; a expensas del &iacute;ndice escalafonario, al punto de que si  se remueve su efecto, la capacidad predictiva remanente es despreciable.    ]]></body>
<body><![CDATA[<br> </li>    <li>Aunque  la prueba de inteligencia fue relativamente independiente en su capacidad predictiva,  es probablemente mucho m&aacute;s inespec&iacute;fica y por eso su correlaci&oacute;n  parcial sigue siendo m&aacute;s de 3 veces menor.    <br> </li>    <li>Por &uacute;ltimo,  la importancia relativa mostr&oacute; que el &iacute;ndice escalafonario fue casi  27 veces m&aacute;s importante que el pron&oacute;stico a discreci&oacute;n y  casi 6 veces y media m&aacute;s importante que la prueba de inteligencia.</li>    </ul>    <p align="left">En  el reescalamiento &oacute;ptimo de las variables escalaf, progno y tesintel, a  partir de un modelo de regresi&oacute;n con variables ordinales, se observ&oacute;  la capacidad discriminatoria de las 3 categor&iacute;as de escalaf y la poca capacidad  discriminatoria de tesintel, 3 de cuyas categor&iacute;as se superponen. Hay pr&aacute;cticamente  s&oacute;lo 2 niveles de discriminaci&oacute;n en progno y tesintel, lo que muestra  la insuficiente validez de dichas variables (figs. 2, 3 y 4).</p>    <p align="center"><a href="/img/revistas/ems/v18n3/f0202304.jpg"><img src="/img/revistas/ems/v18n3/f0202304.jpg" width="384" height="337" border="0"></a>    
<br>  </p>    <p align="center">FIG. 2. Reescalamiento &oacute;ptimo del predictor escalaf.</p>    <p align="left">De  la figura anterior se interpreta que si se practica una regresi&oacute;n del rendimiento  sobre la variable escalaf (variable ordinal con 3 niveles), el modo &oacute;ptimo  de redefinir los valores de dicha variable para obtener el mejor ajuste posible  consiste en asignarle los valores aproximados de -1,2; -0,5 y 1,0 respectivamente.  Es f&aacute;cil constatar visualmente, que existi&oacute; una clara diferencia  entre los diferentes niveles de escalaf. </p>    ]]></body>
<body><![CDATA[<p align="center">    <br> <a href="/img/revistas/ems/v18n3/f0302304.jpg"><img src="/img/revistas/ems/v18n3/f0302304.jpg" width="209" height="125" border="0"></a>  </p>    
<p align="center">    <br> FIG. 3. Reescalamiento &oacute;ptimo del predictor  progno.</p>    <p align="left">A diferencia de lo que se observ&oacute; con escalaf,  pr&aacute;cticamente no hubo discriminaci&oacute;n entre las categor&iacute;as  2 y 3 de progno, que corresponden aproximadamente al valor 0 en la m&eacute;trica  ordinal transformada, y hubo poca discriminaci&oacute;n entre estas 2 categor&iacute;as  y la categor&iacute;a inferior 1, que corresponde al valor de cero en la nueva  m&eacute;trica. S&oacute;lo el valor 4 (aproximadamente 2,5 en la nueva escala  ordinal) se diferenci&oacute; claramente del resto.</p>    <p align="center">    <br>  <a href="/img/revistas/ems/v18n3/f0402304.jpg"><img src="/img/revistas/ems/v18n3/f0402304.jpg" width="211" height="138" border="0"></a></p>    
<p align="center">FIG.  4. Reescalamiento &oacute;ptimo del predictor tesintel.</p>    <p>En relaci&oacute;n  con el test de inteligencia (tesintel) hay 2 grupos de valores: los correspondientes  al 1, 2 y 3 de la escala original y los que corresponden al 4, 5, 6 y 7. Ello  indica que tesintel podr&iacute;a tener mejores propiedades discriminatorias con  respecto al rendimiento acad&eacute;mico si se codifica en una dicotom&iacute;a  mediante la agrupaci&oacute;n ya se&ntilde;alada de sus valores originales.</p><h4>Discusi&oacute;n</h4>    <p>Se  concluy&oacute; que con s&oacute;lo el &iacute;ndice escalafonario es posible  construir un simple algoritmo predictivo del rendimiento acad&eacute;mico, lo  cual confirm&oacute; la hip&oacute;tesis formulada. El algoritmo se basa en construir  una tricotom&iacute;a sobre el recorrido del &iacute;ndice escalafonario, utilizando  2 puntos de corte &oacute;ptimos para el pron&oacute;stico, que se ubican alrededor  de 87 y 91 puntos.El &iacute;ndice escalafonario convertido en variable ordinal  fue superior a otros predictores del rendimiento y mostr&oacute; mayor capacidad  discriminatoria.    ]]></body>
<body><![CDATA[<br>     <br> La capacidad predictiva podr&iacute;a mejorarse,<span class="superscript">1-8</span>  pero s&oacute;lo a expensas de complicar el modelo.    <br> </p><h4>Summary</h4>    <p>This  paper is aimed at constructing an algorithm to detect students at high risk for  academic failure and at identifying the best preformance predictors. The students  that were admitted in the first year at Victoria de Gir&oacute;n Institute of  Preclinical Basic Sciences during the course 2001-2002 were characterized according  to their preuniversity academic index, roster index, admission test, intelligence  test and an indicator of their professional motivation. Classification trees were  used to identify the relevant predictors and their optimal cut-off points. A model  of ordinal regression was used to evaluate the relative importance of the predictors  and to propose the prediction algorithm.Starting only from the roster index, it  was obtained a classification procedure that allowed to identify students at the  highest risk for academic failure. The cut-offs were 87 and 91 points, which define  a trichotomy for the performance prognosis.     <br> .    <br> <b>Key words</b>: Classification  trees, ordinal regression, performance prediction, admission at higher medical  education</p>    <p></p><h4>Referencias bibliogr&aacute;ficas</h4><ol>     <!-- ref --><li> Bacallao  J, Valenti J, Rodr&iacute;guez E, Romillo MD. Pron&oacute;stico del rendimiento  acad&eacute;mico mediante un enfoque bayesiano no param&eacute;trico. Educ Med  Sup 1991;5:29-37.    <br> </li>    <!-- ref --><li> Bacallao J, Aneiros R, Rodr&iacute;guez E, Romillo  MD. Pron&oacute;stico y evaluaci&oacute;n del rendimiento en un ensayo pedag&oacute;gico  controlado. Ed Med Sup 1992;6: 91-9.    <br> </li>    <!-- ref --><li> Ant&oacute;n M, Bacallao J,  Valenti J, Casado A. Modelo markoviano para un pron&oacute;stico global del rendimiento  acad&eacute;mico. Educ Med Sup 1993;7: 51-5.    <br> </li>    <!-- ref --><li> Bacallao J. Al rescate  de las pruebas de nivel de entrada como predictores del rendimiento en la ense&ntilde;anza  m&eacute;dica superior. Educ Med Sup 1996;10:12-8.    <br> </li>    <!-- ref --><li> Bacallao J, Ant&oacute;n  M, Rodr&iacute;guez E. La validaci&oacute;n del pron&oacute;stico del rendimiento  en un centro de ense&ntilde;anza m&eacute;dica superior. Educ Med Sup 1991;5:75-82.    <br>  </li>    <!-- ref --><li> Bacallao J. Las curvas ROC y las medidas de detectabilidad para la validaci&oacute;n  de predictores del rendimiento docente. Educ Med Sup, 1996;10:3-11.    <br> </li>    <!-- ref --><li>  Rodr&iacute;guez R, Bacallao J, D&iacute;az PA, Morej&oacute;n M. Valor predictivo  de algunos criterios de selecci&oacute;n para el ingreso a la carrera de Medicina.  Educ Med Sup 2000;14:17-25.    <br> </li>    <!-- ref --><li> Rodr&iacute;guez R, D&iacute;az PA,  Moreno M, Bacallao J. Capacidad predictiva de varios indicadores de selecci&oacute;n  para el ingreso a la carrera de Medicina. Educ Med Sup 2002;14:128-35.    <br> </li>    <!-- ref --><li>  Ripley BD. Pattern recognition and neural networks. Cambridge: University Press;  1996.    <br> </li>    <!-- ref --><li> Breiman L, Friedman JH, Olshen RA, Stone CJ. Classification  and regression trees. Monterrey CA: Wadsworth &amp; Brooks / Cole Advanced Books  and Software; 1984.</li>    <!-- ref --><li> Lim TS, Loh WH, Shih YS. An empirical comparison  of decision trees and other classification methods. (Technical Report 979. Departments  of Statistics). Madison: University of Wisconsin; 1997.    <br> </li>    <!-- ref --><li> Loh WY,  Shih YS. Split selection methods for classification trees. Statistica Sinica 1997;  7: 815-840.</li>    </ol>    ]]></body>
<body><![CDATA[<p>Recibido: 15 de marzo de 2004. Aprobado: 5 de abril de  2004.    <br> Dr.C.<i> Jorge Bacallao Gallestey</i>. Instituto de Ciencias B&aacute;sicas  y Precl&iacute;nicas &quot;Victoria de Gir&oacute;n&quot;. Ave. 146 No. 3102.  Playa, Ciudad de La Habana, Cuba . CP 11600. </p><a href="#autor"><span class="superscript">1</span></a><span class="superscript"><a href="#autor"></a></span><a href="#autor">Doctor  en Ciencias de la Salud. Profesor Titular.    <br> <b class="superscript">2</b>Profesor  Auxiliar.    <br> <b class="superscript">3</b>Licenciada en Psicolog&iacute;a.    <br>  <b class="superscript">4</b>Licenciado en Matem&aacute;tica. </a><a name="cargo"></a>        ]]></body><back>
<ref-list>
<ref id="B1">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Valenti]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Romillo]]></surname>
<given-names><![CDATA[MD]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Pronóstico del rendimiento académico mediante un enfoque bayesiano no paramétrico]]></article-title>
<source><![CDATA[Educ Med Sup]]></source>
<year>1991</year>
<volume>5</volume>
<page-range>29-37</page-range></nlm-citation>
</ref>
<ref id="B2">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Aneiros]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
<name>
<surname><![CDATA[Romillo]]></surname>
<given-names><![CDATA[MD]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Pronóstico y evaluación del rendimiento en un ensayo pedagógico controlado]]></article-title>
<source><![CDATA[Ed Med Sup]]></source>
<year>1992</year>
<volume>6</volume>
<page-range>91-9</page-range></nlm-citation>
</ref>
<ref id="B3">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Antón]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Valenti]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Casado]]></surname>
<given-names><![CDATA[A]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Modelo markoviano para un pronóstico global del rendimiento académico]]></article-title>
<source><![CDATA[Educ Med Sup]]></source>
<year>1993</year>
<volume>7</volume>
<page-range>51-5</page-range></nlm-citation>
</ref>
<ref id="B4">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Al rescate de las pruebas de nivel de entrada como predictores del rendimiento en la enseñanza médica superior]]></article-title>
<source><![CDATA[Educ Med Sup]]></source>
<year>1996</year>
<volume>10</volume>
<page-range>12-8</page-range></nlm-citation>
</ref>
<ref id="B5">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Antón]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[E]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[La validación del pronóstico del rendimiento en un centro de enseñanza médica superior]]></article-title>
<source><![CDATA[Educ Med Sup]]></source>
<year>1991</year>
<volume>5</volume>
<page-range>75-82</page-range></nlm-citation>
</ref>
<ref id="B6">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Las curvas ROC y las medidas de detectabilidad para la validación de predictores del rendimiento docente]]></article-title>
<source><![CDATA[Educ Med Sup,]]></source>
<year>1996</year>
<volume>10</volume>
<page-range>3-11</page-range></nlm-citation>
</ref>
<ref id="B7">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz]]></surname>
<given-names><![CDATA[PA]]></given-names>
</name>
<name>
<surname><![CDATA[Morejón]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Valor predictivo de algunos criterios de selección para el ingreso a la carrera de Medicina]]></article-title>
<source><![CDATA[Educ Med Sup]]></source>
<year>2000</year>
<volume>14</volume>
<page-range>17-25</page-range></nlm-citation>
</ref>
<ref id="B8">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Rodríguez]]></surname>
<given-names><![CDATA[R]]></given-names>
</name>
<name>
<surname><![CDATA[Díaz]]></surname>
<given-names><![CDATA[PA]]></given-names>
</name>
<name>
<surname><![CDATA[Moreno]]></surname>
<given-names><![CDATA[M]]></given-names>
</name>
<name>
<surname><![CDATA[Bacallao]]></surname>
<given-names><![CDATA[J]]></given-names>
</name>
</person-group>
<article-title xml:lang="es"><![CDATA[Capacidad predictiva de varios indicadores de selección para el ingreso a la carrera de Medicina]]></article-title>
<source><![CDATA[Educ Med Sup]]></source>
<year>2002</year>
<volume>14</volume>
<page-range>128-35</page-range></nlm-citation>
</ref>
<ref id="B9">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Ripley]]></surname>
<given-names><![CDATA[BD]]></given-names>
</name>
</person-group>
<source><![CDATA[Pattern recognition and neural networks]]></source>
<year>1996</year>
<publisher-loc><![CDATA[Cambridge ]]></publisher-loc>
<publisher-name><![CDATA[University Press]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B10">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Breiman]]></surname>
<given-names><![CDATA[L]]></given-names>
</name>
<name>
<surname><![CDATA[Friedman]]></surname>
<given-names><![CDATA[JH]]></given-names>
</name>
<name>
<surname><![CDATA[Olshen]]></surname>
<given-names><![CDATA[RA]]></given-names>
</name>
<name>
<surname><![CDATA[Stone]]></surname>
<given-names><![CDATA[CJ]]></given-names>
</name>
</person-group>
<source><![CDATA[Classification and regression trees]]></source>
<year>1984</year>
<publisher-loc><![CDATA[Monterrey CA ]]></publisher-loc>
<publisher-name><![CDATA[Wadsworth & Brooks / Cole Advanced Books and Software]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B11">
<nlm-citation citation-type="book">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Lim]]></surname>
<given-names><![CDATA[TS]]></given-names>
</name>
<name>
<surname><![CDATA[Loh]]></surname>
<given-names><![CDATA[WH]]></given-names>
</name>
<name>
<surname><![CDATA[Shih]]></surname>
<given-names><![CDATA[YS]]></given-names>
</name>
</person-group>
<source><![CDATA[An empirical comparison of decision trees and other classification methods. (Technical Report 979. Departments of Statistics).]]></source>
<year>1997</year>
<publisher-loc><![CDATA[Madison ]]></publisher-loc>
<publisher-name><![CDATA[University of Wisconsin]]></publisher-name>
</nlm-citation>
</ref>
<ref id="B12">
<nlm-citation citation-type="journal">
<person-group person-group-type="author">
<name>
<surname><![CDATA[Loh]]></surname>
<given-names><![CDATA[WY]]></given-names>
</name>
<name>
<surname><![CDATA[Shih]]></surname>
<given-names><![CDATA[YS]]></given-names>
</name>
</person-group>
<article-title xml:lang="en"><![CDATA[Split selection methods for classification trees]]></article-title>
<source><![CDATA[Statistica Sinica]]></source>
<year>1997</year>
<volume>7</volume>
<page-range>815-840</page-range></nlm-citation>
</ref>
</ref-list>
</back>
</article>
