metricas
covid
Buscar en
Revista Española de Medicina Nuclear e Imagen Molecular (English Edition)
Toda la web
Inicio Revista Española de Medicina Nuclear e Imagen Molecular (English Edition) Evaluación de la fiabilidad y legibilidad de las respuestas de los chatbots com...
Información de la revista
Compartir
Compartir
Descargar PDF
Más opciones de artículo
Original Article
Pruebas no corregidas. Disponible online el 2 de octubre de 2024
Evaluación de la fiabilidad y legibilidad de las respuestas de los chatbots como recurso de información al paciente para las exploraciones PET-TC más communes
Reliability and Readability evaluation of chatbots responses as a patient information resource for the most common PET/CT scans
N. Aydinbelge-Dizdara,
Autor para correspondencia
fnuraydinbelge@gmail.com

Corresponding author.
, K. Dizdarb
a Department of Nuclear Medicine, Ankara Etlik City Hospital, Ankara, Turkiye
b Department of Software Engineering, ASELSAN Inc., Ankara, Turkiye
Información del artículo
Resumen
Texto completo
Bibliografía
Descargar PDF
Estadísticas
Figuras (3)
Mostrar másMostrar menos
Tablas (3)
Table 1. Readability scores and equivalent readability level, the USA school grade level.
Table 2. General characteristics of the reliability assessment for AI-chatbots generated answers.
Table 3. Readability evaluation of AI-chatbots generated responses.
Mostrar másMostrar menos
Abstract
Purpose

This study aimed to evaluate the reliability and readability of responses generated by two popular AI-chatbots, ‘ChatGPT-4.0’ and ‘Google Gemini’, to potential patient questions about PET/CT scans.

Materials and methods

Thirty potential questions for each of [18F]FDG and [68Ga]Ga-DOTA-SSTR PET/CT, and twenty-nine potential questions for [68Ga]Ga-PSMA PET/CT were asked separately to ChatGPT-4 and Gemini in May 2024. The responses were evaluated for reliability and readability using the modified DISCERN (mDISCERN) scale, Flesch Reading Ease (FRE), Gunning Fog Index (GFI), and Flesch-Kincaid Reading Grade Level (FKRGL). The inter-rater reliability of mDISCERN scores provided by three raters (ChatGPT-4, Gemini, and a nuclear medicine physician) for the responses was assessed.

Results

The median [min-max] mDISCERN scores reviewed by the physician for responses about FDG, PSMA and DOTA PET/CT scans were 3.5 [2–4], 3 [3–4], 3 [3–4] for ChatPT-4 and 4 [2–5], 4 [2–5], 3.5 [3–5] for Gemini, respectively. The mDISCERN scores assessed using ChatGPT-4 for answers about FDG, PSMA, and DOTA-SSTR PET/CT scans were 3.5 [3–5], 3 [3–4], 3 [2–3] for ChatGPT-4, and 4 [3–5], 4 [3–5], 4 [3–5] for Gemini, respectively. The mDISCERN scores evaluated using Gemini for responses FDG, PSMA, and DOTA-SSTR PET/CTs were 3 [2–4], 2 [2–4], 3 [2–4] for ChatGPT-4, and 3 [2–5], 3 [1–5], 3 [2–5] for Gemini, respectively. The inter-rater reliability correlation coefficient of mDISCERN scores for ChatGPT-4 responses about FDG, PSMA, and DOTA-SSTR PET/CT scans were 0.629 (95% CI = 0,32−0,812), 0.707 (95% CI = 0.458−0.853) and 0.738 (95% CI = 0.519−0.866), respectively (p < 0.001). The correlation coefficient of mDISCERN scores for Gemini responses about FDG, PSMA, and DOTA-SSTR PET/CT scans were 0.824 (95% CI = 0.677−0.910), 0.881 (95% CI = 0.78−0.94) and 0.847 (95% CI = 0.719−0.922), respectively (p < 0.001). The mDISCERN scores assessed by ChatGPT-4, Gemini, and the physician showed that the chatbots' responses about all PET/CT scans had moderate to good statistical agreement according to the inter-rater reliability correlation coefficient (p < 0,001). There was a statistically significant difference in all readability scores (FKRGL, GFI, and FRE) of ChatGPT-4 and Gemini responses about PET/CT scans (p < 0,001). Gemini responses were shorter and had better readability scores than ChatGPT-4 responses.

Conclusion

There was an acceptable level of agreement between raters for the mDISCERN score, indicating agreement with the overall reliability of the responses. However, the information provided by AI-chatbots cannot be easily read by the public.

Keywords:
PET/CT
Cancer
Patient information
Artificial intelligence
ChatGPT-4
Google Gemini
Resumen
Propósito

Este estudio tuvo como objetivo evaluar la fiabilidad y legibilidad de las respuestas generadas por dos populares chatbots de IA, “ChatGPT-4.0” y “Google Gemini”, a preguntas potenciales de los pacientes sobre las exploraciones PET-TC.

Materiales y métodos

Treinta preguntas potenciales para cada una de las PET-TC con [18F]FDG y [68Ga]Ga-DOTA-SSTR, y veintinueve preguntas potenciales para la PET-TC con [68Ga]Ga-PSMA se formularon por separado a ChatGPT-4 y Gemini en mayo de 2024. Se evaluó la fiabilidad y legibilidad de las respuestas mediante la escala DISCERN modificada (mDISCERN), Flesch Reading Ease (FRE), Gunning Fog Index (GFI) y Flesch-Kincaid Reading Grade Level (FKRGL). Se evaluó la fiabilidad entre evaluadores de las puntuaciones mDISCERN proporcionadas por tres evaluadores (ChatGPT-4, Gemini y un médico especialista en medicina nuclear) para las respuestas.

Resultados

La mediana [mín-máx] de las puntuaciones mDISCERN revisadas por el médico para las respuestas sobre las exploraciones FDG, PSMA y DOTA PET-TC fueron 3,5 [2–4], 3 [3–4], 3 [3–4] para ChatGPT-4 y 4 [2–5], 4 [2–5], 3,5 [3–5] para Gemini, respectivamente. Las puntuaciones mDISCERN evaluadas mediante ChatGPT-4 para las respuestas sobre las exploraciones PET-TC con FDG, PSMA y DOTA-SSTR fueron 3,5 [3–5], 3 [3–4], 3 [2–3] para ChatGPT-4 y 4 [3–5], 4 [3–5], 4 [3–5] para Gemini, respectivamente. Las puntuaciones mDISCERN evaluadas mediante Gemini para las respuestas FDG, PSMA y DOTA-SSTR PET-TC fueron 3 [2–4], 2 [2–4], 3 [2–4] para ChatGPT-4, y 3 [2–5], 3 [1–5], 3 [2–5] para Gemini, respectivamente. El coeficiente de correlación de fiabilidad entre evaluadores de las puntuaciones de mDISCERN para las respuestas de ChatGPT-4 sobre las exploraciones PET-TC con FDG, PSMA y DOTA-SSTR fue de 0,629 (IC 95% = 0,32−0,812), 0,707 (IC 95% = 0,458−0,853) y 0,738 (IC 95% = 0,519−0,866), respectivamente (p < 0,001). El coeficiente de correlación de las puntuaciones mDISCERN para las respuestas Gemini sobre las exploraciones PET-TC con FDG, PSMA y DOTA-SSTR fue de 0,824 (IC 95% = 0,677−0,910), 0,881 (IC 95% = 0,78−0,94) y 0,847 (IC 95% = 0,719−0,922), respectivamente (p < 0,001). Las puntuaciones mDISCERN evaluadas por ChatGPT-4, Gemini y el médico mostraron que las respuestas de los chatbots sobre todos los PET-TC tenían una concordancia estadística de moderada a buena según el coeficiente de correlación de fiabilidad entre evaluadores (p < 0,001). Hubo una diferencia estadísticamente significativa en todas las puntuaciones de legibilidad (FKRGL, GFI y FRE) de las respuestas de ChatGPT-4 y Gemini sobre PET-TC (p < 0,001). Las respuestas de Gemini fueron más cortas y tuvieron mejores puntuaciones de legibilidad que las de ChatGPT-4.

Conclusiones

Hubo un nivel aceptable de acuerdo entre los evaluadores para la puntuación mDISCERN, lo que indica un acuerdo con la fiabilidad general de las respuestas. Sin embargo, la información proporcionada por los chatbots de IA no puede ser leída fácilmente por el público.

Palabras clave:
PET-TC
Cáncer
Información para pacientes
Inteligencia artificial
ChatGPT-4
Google Gemini

Artículo

Opciones para acceder a los textos completos de la publicación Revista Española de Medicina Nuclear e Imagen Molecular (English Edition)
Suscriptor
Suscriptor de la revista

Si ya tiene sus datos de acceso, clique aquí.

Si olvidó su clave de acceso puede recuperarla clicando aquí y seleccionando la opción "He olvidado mi contraseña".
Suscribirse
Suscribirse a:

Revista Española de Medicina Nuclear e Imagen Molecular (English Edition)

Comprar
Comprar acceso al artículo

Comprando el artículo el PDF del mismo podrá ser descargado

Precio 19,34 €

Comprar ahora
Contactar
Teléfono para suscripciones e incidencias
De lunes a viernes de 9h a 18h (GMT+1) excepto los meses de julio y agosto que será de 9 a 15h
Llamadas desde España
932 415 960
Llamadas desde fuera de España
+34 932 415 960
E-mail
Opciones de artículo
es en pt

¿Es usted profesional sanitario apto para prescribir o dispensar medicamentos?

Are you a health professional able to prescribe or dispense drugs?

Você é um profissional de saúde habilitado a prescrever ou dispensar medicamentos