SciELO - Scientific Electronic Library Online

 
vol.37 número2Metodología para la formación de la competencia prevención de la salud en estudiantes de medicinaAELI® KINETEST, complemento para el diagnóstico clínico índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Educación Médica Superior

versión On-line ISSN 1561-2902

REMS vol.37 no.2 La Habana abr.-jun. 2023  Epub 01-Jun-2023

 

Carta al editor

ChatGPT e inteligencia artificial: ¿obstáculo o ventaja para la educación médica superior?

ChatGPT and artificial intelligence: obstacle or advantage to higher medical education?

0000-0002-6801-5191Junior Vega Jiménez1  2  *  , 0009-0004-7256-1031Eufemia Emperatriz Borja Gomez3  , 0009-0007-3117-5523Perla Juana Ramírez Álvarez4 

1Universidad de Ciencias Médicas de Matanzas. Cuba.

2Hospital Militar Docente “Dr. Mario Muñoz Monroy”. Matanzas, Cuba.

3Ministerio de Educación del Ecuador. Ecuador.

4Unidad Educativa “Seis de Octubre” de Ventanas. Ecuador.

Estimado editor:

A raíz de analizar el artículo “Inteligencia artificial en la docencia médica”1 y teniendo en cuenta su importancia para la enseñanza de las ciencias médicas, se decide mostrar elementos necesarios sobre la vigencia del tema en el ámbito docente actual.

La inteligencia artificial (IA) es un campo de la ciencia de la computación que intenta comprender y simular características de la inteligencia y el comportamiento humanos. La IA no se basa en un solo método sino en familias enteras de enfoques y disciplinas.1

Los modelos de lenguaje extenso o large language model (LLM, sus siglas en inglés) han estado en desarrollo durante años, pero los aumentos continuos en la calidad y el tamaño de los conjuntos de datos, y los métodos sofisticados para calibrar estos modelos con retroalimentación humana de repente los han hecho mucho más poderosos que antes. Los LLM están dando lugar a una nueva generación de motores de búsqueda capaces de producir respuestas detalladas e informativas a preguntas complejas de los usuarios.2

El lanzamiento del chatbot de IA ChatGPT (Generative Pretrained Transformer) el 30 de noviembre de 2022 ha llevado las capacidades de dichas herramientas a una audiencia masiva. Sus desarrolladores, OpenAI en San Francisco, California, han hecho que el chatbot sea de uso gratuito y de fácil acceso para personas que no tienen experiencia técnica. Millones lo están usando; el resultado ha sido una explosión de experimentos de escritura divertidos y, a veces, aterradores, que han aumentado la creciente emoción y consternación sobre estas herramientas.3,4

ChatGPT puede escribir ensayos de estudiantes, resumir trabajos de investigación, responder preguntas lo suficientemente bien como para aprobar exámenes médicos y generar código de computadora útil. Ha producido resúmenes de investigación tan buenos que a los científicos les resultó difícil darse cuenta de que los había escrito una computadora. De manera preocupante para la sociedad, también podría facilitar la producción de spam, ransomware (secuestro de datos) y otros productos maliciosos. Aunque OpenAI ha tratado de poner barandillas en lo que hará el chatbot, los usuarios ya están encontrando formas de evitarlas.3

La gran preocupación en la comunidad docente de investigación es que los estudiantes puedan hacer pasar engañosamente el texto escrito por el LLM como propio, o usar los LLM de manera simplista (como para realizar una revisión bibliográfica incompleta( y producir un trabajo que no resulte confiable.3,4

El bot puede producir una escritura asombrosamente natural y bien referenciada en respuesta a las preguntas de la tarea docente. Las respuestas son tan lúcidas, bien investigadas y con referencias, que algunos académicos llaman al bot la sentencia de muerte para las formas convencionales de evaluación educativa.4

El plagio constituye una inquietud creciente en la educación superior a medida que más y más estudiantes recurren a internet en busca de investigación e información. Los estudiantes universitarios podrían, potencialmente, usar ChatGPT para hacer trampa en las tareas de redacción de ensayos, al alimentar el chatbot con indicaciones y preguntas específicas, y luego copiar y pegar las respuestas generadas en sus propios trabajos. Esto les permitiría producir fácilmente ensayos sin poner el esfuerzo y la investigación necesarios para escribir contenido original. Sin embargo, esta práctica resulta muy poco ética y podría tener graves consecuencias si se detecta, incluidas calificaciones reprobatorias, sanciones académicas, expulsión y daño a su reputación profesional. Tiene relevancia que los estudiantes comprendan la importancia de la integridad académica y eviten usar ChatGPT o cualquier otra tecnología para hacer trampa en las tareas.5

Existe preocupación por el efecto potencial de la IA sobre el conocimiento y la capacidad humana. Algunos autores expresan que, si los estudiantes comienzan a usar ChatGPT, estarán subcontratando no solo su escritura, sino su pensamiento.4 Existen profesores4,6 que describen el ChatGPT como creador de texto inteligente en respuesta a las indicaciones del usuario, incluidas las tareas y las preguntas de estilo de examen.

Dan Gillmor, un erudito en periodismo de la Universidad Estatal de Arizona, comunicó al periódico The Guardian que le había enviado a ChatGPT una pregunta de tarea que a menudo asigna a sus estudiantes, y el artículo que produjo en respuesta le habría valido a un estudiante una buena calificación.4

Hosseini y otros,6 en respuesta a la consulta “Escriba un artículo de 300 palabras sobre la diferencia entre la ética de la investigación y la integridad de la investigación”, identificaron que el chatbot de OpenAI generó una respuesta notablemente buena. Varios preprints y artículos publicados ya han acreditado ChatGPT con autoría formal.3

Los profesores universitarios deben diseñar tareas para minimizar las posibles trampas a través de ChatGPT, mediante la incorporación de una variedad de métodos de evaluación que van más allá de la redacción de ensayos tradicionales. Por ejemplo, podrían incorporar presentaciones orales, proyectos grupales y actividades prácticas que requieran que los estudiantes demuestren sus conocimientos y habilidades de una manera más interactiva y atractiva. Además, podrían usar software de detección de plagio para identificar contenido copiado o no original en los documentos enviados. Con la implementación de una variedad de métodos de evaluación y el uso de tecnología para monitorear el plagio, los profesores universitarios pueden ayudar a garantizar la integridad académica y desalentar a los estudiantes de intentar hacer trampa al usar ChatGPT u otras tecnologías.5

La IA y los chatbots no son intrínsecamente buenos o malos, pero merecen más atención en términos de su potencial de uso indebido. En un mundo donde se puede acceder fácilmente a chatbots convincentes, se cuestiona la naturaleza misma de la atribución y la escritura original. A medida que la IA y los chatbots continúan evolucionando, hay que considerar las implicaciones de su uso y tomar medidas para evitar su mal empleo. Esto puede implicar la implementación de políticas y regulaciones estrictas, así como la educación de las personas sobre la importancia del comportamiento ético al usar estas tecnologías.4,5,7

La evaluación educativa necesita un replanteamiento a raíz del ChatGPT. La rápida evolución de la IA y la tecnología de los chatbots desafían a redefinir la comprensión de la atribución y la originalidad en el mundo digital. La IA no se puede declarar como un obstáculo a la educación médica. Los profesores y estudiantes de medicina/salud deben estar al tanto del progreso de este chatbot de IA y considerar la adopción de sus ventajas en el aprendizaje y la educación.

Como resultado, las instituciones de educación superior deben implementar políticas más estrictas y penas más severas para combatir el plagio y garantizar la integridad académica. No obstante, no se puede luchar contra lo inevitable: la evolución de la IA no se puede detener; en todo caso, adaptarse al cambio e intentar modificarlo. La IA cada día adquirirá más protagonismo en los escenarios docentes, investigativos y en todos los sectores de la sociedad.

Referencias bibliográficas

1.  Vidal Ledo MJ, Madruga González A, Valdes Santiago D. Inteligencia artificial en la docencia médica. Educ. Méd. Super. 2019 [acceso 10/01/2023];33(3). Disponible en: https://ems.sld.cu/index.php/ems/article/view/1970/8941.  [ Links ]

2.  van Dis EAM, Bollen J, Zuidema W, van Rooij R, Bockting CL. ChatGPT: five priorities for research. Nature. 2023 Feb;614(7947):224-6. DOI: https://doi:10.1038/d41586-023-00288-72.  [ Links ]

3.  Nature (editorial). Tools such as ChatGPT threaten transparent science; here are our ground rules for their use. Nature. 2023 Jan;613(7945):612. DOI: https://doi:10.1038/d41586-023-00191-13.  [ Links ]

4.  Stokel-Walker C. AI bot ChatGPT writes smart essays-should professors worry? Nature. 2022 Dec 9 [acceso 10/01/2023]. Disponible en: https://www.nature.com/articles/d41586-022-04397-74.  [ Links ]

5.  King MR. A Conversation on Artificial Intelligence, Chatbots, and Plagiarism in Higher Education. Cellular and molecular bioengineering. 2023 Feb;16(1):1-2. DOI: https://doi.org/10.1007/s12195-022-00754-85.  [ Links ]

6.  Hosseini M, Rasmussen LM, Resnik DB. Using AI to write scholarly publications. Accountability in research. 2023 [acceso 10/01/2023]:1-9. Disponible en: https://www.tandfonline.com/doi/full/10.1080/08989621.2023.21685356.  [ Links ]

7.  Huh S. Are ChatGPT's knowledge and interpretation ability comparable to those of medical students in Korea for taking a parasitology examination?: a descriptive study. Journal of educational evaluation for health professions. 2023 [acceso 10/01/2023];20:1. Disponible en: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC9905868/7.  [ Links ]

Received: March 14, 2023; Accepted: April 05, 2023

*Autor para la correspondencia: drjrvega@gmail.com

Los autores declaran que no existe conflicto de intereses.

Creative Commons License