metricas
covid
Buscar en
Radiología
Toda la web
Inicio Radiología Comparación del rendimiento entre ChatGPT y estudiantes de Medicina en un exame...
Información de la revista
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Visitas
8
ORIGINAL
Disponible online el 29 de noviembre de 2024
Comparación del rendimiento entre ChatGPT y estudiantes de Medicina en un examen real práctico con imágenes de Radiología y Medicina Física
Comparing ChatGPT and medical student performance in a real image-based Radiology and Applied Physics in Medicine exam
Visitas
8
R. Salvadora,b,
Autor para correspondencia
rsalvado@clinic.cat

Autor para correspondencia.
, D. Vasa, L. Oleagaa, M. Matute-Gonzáleza, À. Castillo-Fortuñoa, X. Setoainb,c, C. Nicolaua,b
a Servicio de Radiodiagnóstico, Hospital Clínic de Barcelona, Barcelona, España
b Departament de Fonaments Clínics, Facultat de Medicina i Ciències de la Salut, Universitat de Barcelona, Barcelona, España
c Servicio de Medicina Nuclear, Hospital Clínic de Barcelona, Barcelona, España
Este artículo ha recibido
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (5)
Mostrar másMostrar menos
Tablas (3)
Tabla 1. Resumen de los resultados para cada pregunta
Tabla 2. Distribución de resultados según el subgrupo de preguntas
Tabla 3. Tiempo empleado en responder por la IA y el que estima la IA que tardaría un estudiante para cada pregunta
Mostrar másMostrar menos
Material adicional (1)
Resumen
Introducción

Los modelos de inteligencia artificial ofrecen la capacidad de generar respuestas textuales a una amplia variedad de preguntas, incluidas aquellas relacionadas con temas médicos. Recientemente, han incorporado la posibilidad de interpretar y responder a consultas basadas en imágenes, incluyendo imágenes radiológicas. El objetivo principal del estudio es analizar el rendimiento de ChatGPT-4o frente a estudiantes de tercer año de Medicina en una prueba práctica de la asignatura de Radiología y Medicina Física. Como objetivo secundario pretendemos valorar la capacidad de ChatGPT para interpretar imágenes médicas y responder a preguntas sobre las mismas.

Material y métodos

Se examinó a un grupo de 33 estudiantes con 10 preguntas sobre imágenes radiológicas y de medicina nuclear. El mismo examen se administró a ChatGPT (versión GPT-4o) sin entrenamiento previo, siguiendo un formato idéntico. Las respuestas al examen fueron evaluadas por profesores que desconocían qué examen correspondía al modelo a prueba. Se utilizó la prueba U de Mann-Whitney para comparar los resultados entre los 2 grupos.

Resultados

Los estudiantes superaron a ChatGPT en 8 preguntas. La calificación media final de los estudiantes fue de 7,78 y la de ChatGPT fue de 6,05, situándose en el percentil 9 de la distribución de notas de los estudiantes.

Discusión

ChatGPT muestra un rendimiento competente en varias áreas, pero los estudiantes obtienen mejores calificaciones, especialmente en la interpretación de imágenes y en el razonamiento clínico contextualizado, donde la formación y la experiencia práctica de los estudiantes juegan un papel esencial. Son necesarias todavía mejoras en los modelos de inteligencia artificial para alcanzar la capacidad humana de interpretar imágenes radiológicas e integrar información clínica.

Palabras clave:
Inteligencia artificial
Educación médica
Estudiantes de Medicina
Radiología
Medicina nuclear
Radioterapia
Abstract
Introduction

Artificial intelligence models can provide textual answers to a wide range of questions, including medical questions. Recently, these models have incorporated the ability to interpret and answer image-based questions, and this includes radiological images. The main objective of this study is to analyse the performance of ChatGPT-4o compared to third-year medical students in a Radiology and Applied Physics in Medicine practical exam. We also intend to assess the capacity of ChatGPT to interpret medical images and answer related questions.

Materials and method

Thirty-three students set an exam of 10 questions on radiological and nuclear medicine images. Exactly the same exam in the same format was given to ChatGPT (version GPT-4o) without prior training. The exam responses were evaluated by professors who were unaware of which exam corresponded to which respondent type. The Mann-Whitney U test was used to compare the results of the 2 groups.

Results

The students outperformed ChatGPT on 8 questions. The students’ average final score was 7.78, while ChatGPT's was 6.05, placing it in the 9th percentile of the students’ grade distribution.

Discussion

ChatGPT demonstrates competent performance in several areas, but students achieve better grades, especially in the interpretation of images and contextualised clinical reasoning, where students’ training and practical experience play an essential role. Improvements in artificial intelligence models are still needed to achieve human-like capabilities in interpreting radiological images and integrating clinical information.

Keywords:
Artificial intelligence
Medical education
Medical students
Radiology
Nuclear medicine
Radiotherapy

Artículo

Opciones para acceder a los textos completos de la publicación Radiología
Suscriptor
Suscriptor de la revista

Si ya tiene sus datos de acceso, clique aquí.

Si olvidó su clave de acceso puede recuperarla clicando aquí y seleccionando la opción "He olvidado mi contraseña".
Suscribirse
Suscribirse a:

Radiología

Comprar
Comprar acceso al artículo

Comprando el artículo el PDF del mismo podrá ser descargado

Precio 19,34 €

Comprar ahora
Contactar
Teléfono para suscripciones e incidencias
De lunes a viernes de 9h a 18h (GMT+1) excepto los meses de julio y agosto que será de 9 a 15h
Llamadas desde España
932 415 960
Llamadas desde fuera de España
+34 932 415 960
E-mail
Opciones de artículo
es en pt

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?

Você é um profissional de saúde habilitado a prescrever ou dispensar medicamentos