se ha leído el artículo
array:22 [ "pii" => "S0033833823001431" "issn" => "00338338" "doi" => "10.1016/j.rx.2023.05.007" "estado" => "S200" "fechaPublicacion" => "2023-10-09" "aid" => "1514" "copyrightAnyo" => "2023" "documento" => "article" "crossmark" => 0 "subdocumento" => "fla" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "Traduccion" => array:1 [ "en" => array:17 [ "pii" => "S2173510723001246" "issn" => "21735107" "doi" => "10.1016/j.rxeng.2023.05.005" "estado" => "S200" "fechaPublicacion" => "2023-10-16" "aid" => "1514" "documento" => "article" "crossmark" => 0 "subdocumento" => "fla" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "en" => array:11 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Update in Radiology</span>" "titulo" => "Update on ethical aspects in clinical research: Addressing concerns in the development of new AI tools in radiology" "tienePdf" => "en" "tieneTextoCompleto" => "en" "tieneResumen" => array:2 [ 0 => "en" 1 => "es" ] "titulosAlternativos" => array:1 [ "es" => array:1 [ "titulo" => "Una actualización sobre aspectos éticos en la investigación clínica: el abordaje de cuestiones sobre el desarrollo de nuevas herramientas de IA en radiología" ] ] "contieneResumen" => array:2 [ "en" => true "es" => true ] "contieneTextoCompleto" => array:1 [ "en" => true ] "contienePdf" => array:1 [ "en" => true ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "A. Gomes Lima Junior, M.F. Lucena Karbage, P.A. Nascimento" "autores" => array:3 [ 0 => array:2 [ "nombre" => "A." "apellidos" => "Gomes Lima Junior" ] 1 => array:2 [ "nombre" => "M.F." "apellidos" => "Lucena Karbage" ] 2 => array:2 [ "nombre" => "P.A." "apellidos" => "Nascimento" ] ] ] ] ] "idiomaDefecto" => "en" "Traduccion" => array:1 [ "es" => array:9 [ "pii" => "S0033833823001431" "doi" => "10.1016/j.rx.2023.05.007" "estado" => "S200" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "es" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833823001431?idApp=UINPBA00004N" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2173510723001246?idApp=UINPBA00004N" "url" => "/21735107/unassign/S2173510723001246/v1_202310160435/en/main.assets" ] ] "itemSiguiente" => array:18 [ "pii" => "S0033833823001704" "issn" => "00338338" "doi" => "10.1016/j.rx.2023.09.002" "estado" => "S200" "fechaPublicacion" => "2023-10-19" "aid" => "1535" "copyright" => "SERAM" "documento" => "article" "crossmark" => 0 "subdocumento" => "sco" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "es" => array:13 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Comunicación breve</span>" "titulo" => "Evaluación mediante resonancia magnética de la afectación del sistema nervioso central en pacientes sometidos a terapia de células T con receptores quiméricos de antígenos" "tienePdf" => "es" "tieneTextoCompleto" => "es" "tieneResumen" => array:3 [ 0 => "es" 1 => "es" 2 => "en" ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Evaluation of central nervous system involvement in patients undergoing chimeric antigen receptor-engineered T-cell therapy by magnetic resonance imaging" ] ] "contieneResumen" => array:2 [ "es" => true "en" => true ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "resumenGrafico" => array:2 [ "original" => 1 "multimedia" => array:5 [ "identificador" => "fig0015" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => false "mostrarDisplay" => true "figura" => array:1 [ 0 => array:4 [ "imagen" => "fx1.jpeg" "Alto" => 750 "Ancho" => 1333 "Tamanyo" => 194309 ] ] ] ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "F.D. Choque-Chávez, A. Jareño-Badenas, D. Benítez-Ribas, L. Oleaga" "autores" => array:4 [ 0 => array:2 [ "nombre" => "F.D." "apellidos" => "Choque-Chávez" ] 1 => array:2 [ "nombre" => "A." "apellidos" => "Jareño-Badenas" ] 2 => array:2 [ "nombre" => "D." "apellidos" => "Benítez-Ribas" ] 3 => array:2 [ "nombre" => "L." "apellidos" => "Oleaga" ] ] ] ] "resumen" => array:1 [ 0 => array:3 [ "titulo" => "Graphical abstract" "clase" => "graphical" "resumen" => "<span id="abst0005" class="elsevierStyleSection elsevierViewall"><p id="spar0005" class="elsevierStyleSimplePara elsevierViewall"><elsevierMultimedia ident="fig0015"></elsevierMultimedia></p></span>" ] ] ] "idiomaDefecto" => "es" "Traduccion" => array:1 [ "en" => array:9 [ "pii" => "S2173510723001477" "doi" => "10.1016/j.rxeng.2023.09.007" "estado" => "S200" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "en" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2173510723001477?idApp=UINPBA00004N" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833823001704?idApp=UINPBA00004N" "url" => "/00338338/unassign/S0033833823001704/v1_202310190433/es/main.assets" ] "itemAnterior" => array:17 [ "pii" => "S0033833822001308" "issn" => "00338338" "doi" => "10.1016/j.rx.2022.03.008" "estado" => "S200" "fechaPublicacion" => "2022-07-15" "aid" => "1387" "copyright" => "SERAM" "documento" => "article" "crossmark" => 0 "subdocumento" => "fla" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "es" => array:12 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Artículo del residente</span>" "titulo" => "Complicaciones de la rinosinusitis aguda. Una revisión clínica radiológica" "tienePdf" => "es" "tieneTextoCompleto" => "es" "tieneResumen" => array:2 [ 0 => "es" 1 => "en" ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Complications of acute rhinossinusitis. a clinical radiological review" ] ] "contieneResumen" => array:2 [ "es" => true "en" => true ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "resumenGrafico" => array:2 [ "original" => 0 "multimedia" => array:7 [ "identificador" => "fig0035" "etiqueta" => "Figura 7" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr7.jpeg" "Alto" => 539 "Ancho" => 1005 "Tamanyo" => 70483 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0055" class="elsevierStyleSimplePara elsevierViewall">Osteomielitis del clivus. A) TAC sagital sin contraste, con ventana ósea, que muestra una extensa erosión ósea cortical y desmineralización ósea trabecular del clivus y la silla turca. La T2WI FLAIR sagital con saturación de grasa (B), la T1WI precontraste (C) y la T1WI poscontraste (D) muestran una señal alta en T2, una señal baja en T1 y un realce heterogéneo del clivus adyacente al seno esfenoidal, lo que concuerda con una osteomielitis de la base del cráneo central.</p>" ] ] ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "P. Carvalho dos Santos, P. Costa, I. Carvalho, C. Sousa" "autores" => array:4 [ 0 => array:2 [ "nombre" => "P." "apellidos" => "Carvalho dos Santos" ] 1 => array:2 [ "nombre" => "P." "apellidos" => "Costa" ] 2 => array:2 [ "nombre" => "I." "apellidos" => "Carvalho" ] 3 => array:2 [ "nombre" => "C." "apellidos" => "Sousa" ] ] ] ] ] "idiomaDefecto" => "es" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833822001308?idApp=UINPBA00004N" "url" => "/00338338/unassign/S0033833822001308/v1_202207150540/es/main.assets" ] "es" => array:16 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Radiología hoy</span>" "titulo" => "Una actualización sobre aspectos éticos en la investigación clínica: el abordaje de cuestiones sobre el desarrollo de nuevas herramientas de IA en radiología" "tieneTextoCompleto" => true "autores" => array:1 [ 0 => array:4 [ "autoresLista" => "A. Gomes Lima Junior, M.F. Lucena Karbage, P.A. Nascimento" "autores" => array:3 [ 0 => array:3 [ "nombre" => "A." "apellidos" => "Gomes Lima Junior" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] ] ] 1 => array:4 [ "nombre" => "M.F." "apellidos" => "Lucena Karbage" "email" => array:1 [ 0 => "mariafernandalk@gmail.com" ] "referencia" => array:2 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "aff0010" ] 1 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">*</span>" "identificador" => "cor0005" ] ] ] 2 => array:3 [ "nombre" => "P.A." "apellidos" => "Nascimento" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">c</span>" "identificador" => "aff0015" ] ] ] ] "afiliaciones" => array:3 [ 0 => array:3 [ "entidad" => "Doctor en medicina. Posgrado en el Hospital Israelita Albert Einstein Sao Paulo – SP, Brasil. Coordinador Científico del Sector de Neurorradiología del Hospital Antonio Prudente, Fortaleza, Ceará, Brasil. Maestría en Ciencias en el Departamento de Investigación Clínica Icahn School of Medicine en Mount Sinai, Nueva York, Estados Unidos" "etiqueta" => "a" "identificador" => "aff0005" ] 1 => array:3 [ "entidad" => "Estudiante de medicina, Facultad de Medicina, Unichristus University, Fortaleza, Ceará, Brasil" "etiqueta" => "b" "identificador" => "aff0010" ] 2 => array:3 [ "entidad" => "Doctor en medicina. Médico residente en radiología, Hospital Antonio Prudente, Fortaleza, Ceará, Brasil" "etiqueta" => "c" "identificador" => "aff0015" ] ] "correspondencia" => array:1 [ 0 => array:3 [ "identificador" => "cor0005" "etiqueta" => "⁎" "correspondencia" => "Autor para correspondencia." ] ] ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Update on ethical aspects in clinical research: Addressing concerns in the development of new AI tools in radiology" ] ] "textoCompleto" => "<span class="elsevierStyleSections"><span id="sec0005" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0025">Introducción</span><p id="par0005" class="elsevierStylePara elsevierViewall">En la investigación sanitaria, la ética se refiere al conjunto de principios y normas que deben actualizarse y reevaluarse constantemente para garantizar su validez, su fiabilidad, su legitimidad y su representatividad<a class="elsevierStyleCrossRef" href="#bib0085"><span class="elsevierStyleSup">1</span></a>.</p><p id="par0010" class="elsevierStylePara elsevierViewall">La tecnología digital está cambiando la forma de trabajar de los profesionales sanitarios, incluidos los profesionales de la radiología, donde las herramientas de IA cada vez se utilizan más para automatizar algunas tareas altamente laboriosas, como el análisis de imágenes de TC. Este cambio conlleva que los profesionales de la radiología se adapten y se centren en tareas cognitivas más complejas<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2-5</span></a>.</p><p id="par0015" class="elsevierStylePara elsevierViewall">Aunque la tecnología basada en IA y su aplicación en la asistencia sanitaria van en aumento, la escasez de aspectos éticos en la investigación en IA sigue planteando un debate importante. La literatura científica publicada hasta la actualidad no incluye herramientas prácticas para probar y confirmar los requisitos éticos a lo largo del ciclo de la vida de la tecnología basada en la IA. Además, su aplicación en la sanidad pública plantea cuestiones acerca de la privacidad, la confianza, la responsabilidad y los múltiples sesgos<a class="elsevierStyleCrossRef" href="#bib0110"><span class="elsevierStyleSup">6</span></a>.</p><p id="par0020" class="elsevierStylePara elsevierViewall">En este artículo revisamos la literatura existente y, a partir de ahí, nos proponemos la identificación y el debate de distintas cuestiones éticas que aparecen junto con el desarrollo y el uso de los algoritmos de la IA en radiología: la ética de los datos, los algoritmos, la práctica y los conflictos de intereses. Para ello, analizamos la literatura hasta la fecha y contribuimos al debate iniciado sobre la ética de la IA en la atención sanitaria, así como a la promoción de un uso responsable de la IA en radiología.</p></span><span id="sec0010" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0030">La ética de los datos</span><p id="par0025" class="elsevierStylePara elsevierViewall">En radiología se obtiene una importante cantidad de datos de pacientes. La ética de los datos abarca la adquisición, la gestión y la evaluación de dichos datos. Algunas de las áreas más relevantes de la ética de los datos a tener en cuenta son: el consentimiento informado, la propiedad de los datos, la transparencia, la objetividad, la privacidad o la protección de datos, la garantía de un acceso lícito y provechoso a los datos y los recursos para asegurar una correcta gestión de los mismos<a class="elsevierStyleCrossRefs" href="#bib0085"><span class="elsevierStyleSup">1,7</span></a>. De hecho, los investigadores y los radiólogos tienen la obligación moral de utilizar la información del paciente con fines de mejora de la práctica de la radiología y el cuidado del paciente<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,3,7</span></a>.</p><p id="par0030" class="elsevierStylePara elsevierViewall">Lamentablemente, existen formas poco éticas de utilización de datos, sobre todo con fines comerciales<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,3</span></a>. Además, los datos correctamente etiquetados y de gran calidad, que se requieren durante y tras el entrenamiento de los algoritmos, están muy codiciados y su valor se ha disparado<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0035" class="elsevierStylePara elsevierViewall">Es cierto que es obligatorio considerar las cuestiones relativas a la propiedad de los datos de los pacientes<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,4</span></a>, como, por ejemplo: ¿a quién pertenecen los datos que pueden llevar a la creación de productos de inteligencia altamente rentables? O también ¿a quién pertenece la propiedad intelectual de los análisis elaborados a partir de datos agregados?<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,4,7</span></a></p><p id="par0040" class="elsevierStylePara elsevierViewall">La autonomía del paciente sobre sus datos es un punto esencial del debate. A través de los consentimientos informados muchos pacientes están de acuerdo en el uso retrospectivo de sus datos para fines investigadores. De hecho, en Europa el reglamento general de protección de datos (<span class="elsevierStyleItalic">General Data Protection Regulation</span> [GDPR]) permite la retirada del consentimiento en cualquier momento y requiere el permiso de los pacientes para reutilizar su información<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Las definiciones relativas a la propiedad de los datos varían en gran forma de unos países a otros, por lo que las respuestas sobre los beneficiarios del uso comercial de los datos son limitadas<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. En última instancia, los pacientes son los propietarios de sus datos y, por tanto, nos planteamos: ¿deberían participar en los beneficios que se obtengan con sistemas de IA alimentados con la información facilitada o deberían ser las empresas las titulares de todos los intereses una vez que han comprado los derechos de acceso a los datos médicos? Pero, sobre todo, ¿podrían los pacientes elegir que sus datos se utilizasen solamente con fines académicos o incluso elegir la empresa a la que quieren vendérselos?<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0045" class="elsevierStylePara elsevierViewall">En esta línea, se necesita profundizar en debates sobre estas cuestiones para un mayor entendimiento de las prácticas comerciales y académicas en materia de datos con el fin de crear políticas que permitan equilibrar los beneficios con el bien común sin perjudicar a los pacientes.</p></span><span id="sec0015" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0035">Recogida y gestión de datos</span><p id="par0050" class="elsevierStylePara elsevierViewall">Los sistemas de IA dependen en gran medida de la calidad y de la cantidad de los datos que se emplean para desarrollarlos<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. No obstante, existen barreras significativas sobre la recogida de datos relacionados con la radiología, el proceso de anotación, la disponibilidad y la accesibilidad. Este panorama conlleva una ausencia de datos recogidos de forma sistemática que impide que los radiólogos puedan beneficiarse del aprendizaje profundo (AP) (<span class="elsevierStyleItalic">deep learning</span> [DL] en inglés)<a class="elsevierStyleCrossRefs" href="#bib0120"><span class="elsevierStyleSup">8-10</span></a>.</p><p id="par0055" class="elsevierStylePara elsevierViewall">Para que los datos sean representativos y de alta calidad es necesario que los investigadores realicen una supervisión continua de las fases de extracción de datos<a class="elsevierStyleCrossRefs" href="#bib0120"><span class="elsevierStyleSup">8,11</span></a>. En este sentido, los sistemas de extracción de datos automatizados han demostrado una capacidad de extracción defectuosa, ya que la escasez de datos estandarizados y la variabilidad contextual y la situación específica del usuario plantean retos sobre su rendimiento<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0060" class="elsevierStylePara elsevierViewall">De hecho, en el área de radiología se observa una discriminación significativa por los sesgos de factores adquiridos técnicamente debido a las divergencias entre las distintas máquinas y métodos de adquisición<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Mientras que los radiólogos están acostumbrados a interpretar las diferencias técnicas en la obtención de imágenes como el espesor del corte o la marca del escáner, los sistemas de AP podrían llevar a cabo mejor esta capacidad si se les expusiera a estas variables durante la fase de entrenamiento<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0065" class="elsevierStylePara elsevierViewall">Los sesgos también pueden aparecer durante el tratamiento de los datos del paciente<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,7</span></a>. Como ya se ha mencionado, el disponer de los datos es fundamental para obtener los conjuntos de datos de imágenes más diversos<a class="elsevierStyleCrossRef" href="#bib0125"><span class="elsevierStyleSup">9</span></a>. Sin embargo, la implementación del uso generalizado de los datos también plantea otros problemas, como las políticas de acceso a los datos, las políticas de calidad y seguridad de los datos, las cuestiones sobre la propiedad intelectual y la protección de datos<a class="elsevierStyleCrossRef" href="#bib0130"><span class="elsevierStyleSup">10</span></a>.</p><p id="par0070" class="elsevierStylePara elsevierViewall">Además, surgen problemas éticos de las tecnologías de reconstrucción de imágenes, especialmente de los reconocimientos faciales, que violan la privacidad de los pacientes<a class="elsevierStyleCrossRef" href="#bib0125"><span class="elsevierStyleSup">9</span></a>. En la actualidad, el reconocimiento facial para la reconstrucción en 3D es capaz de construir modelos a partir de imágenes médicas no identificadas, como las resonancias magnéticas y, por consiguiente, se vulnera el anonimato<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Sin embargo, los programas informáticos existentes que previenen la reidentificación se limitan a sistemas específicos de AP y a algunos tipos de datos específicos, hecho que dificulta su aplicación en la mayoría de los algoritmos<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p></span><span id="sec0020" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0040">La ética de los algoritmos</span><p id="par0075" class="elsevierStylePara elsevierViewall">La toma de decisiones forma parte de la medicina y de la asistencia sanitaria e implica la elección de una línea de actuación entre distintas alternativas<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>. Las personas toman decisiones según sus creencias, sus conocimientos, sus preferencias y sus valores<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>. La IA toma una decisión según las características de los datos de entrada<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,4</span></a>. Los valores humanos, sus creencias y sus preferencias a menudo se transfieren a la IA, y de ahí que aparezcan los sesgos humanos<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,3</span></a>. Aunque los productos de IA no son humanos, sí están concebidos, creados y evaluados por ellos<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,3</span></a>. Por ello, los humanos son responsables de la igualdad y la legitimidad<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>, o, dicho de otro modo, los humanos pueden hacer un mal uso de los modelos de IA<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,4</span></a>. Por tanto, es imprescindible asegurar la transparencia en la toma de decisiones para que exista confianza con la IA entre el proveedor y el paciente<a class="elsevierStyleCrossRefs" href="#bib0090"><span class="elsevierStyleSup">2,3,5,12</span></a>.</p><p id="par0080" class="elsevierStylePara elsevierViewall">Además, el uso de la IA fomenta el «sesgo de automatización», entendido como que los humanos empiezan a confiar plenamente en el trabajo de una máquina en lugar de aplicar su pensamiento crítico y exhaustivo. Así pues, los pacientes serán más vulnerables a los errores de la IA si la toma de decisiones sanitarias se basa en la confianza de los profesionales sanitarios en conclusiones no verificadas de la IA<a class="elsevierStyleCrossRef" href="#bib0125"><span class="elsevierStyleSup">9</span></a>.</p><p id="par0085" class="elsevierStylePara elsevierViewall">En particular, en los países con un sistema basado en seguros médicos, los sistemas de IA pueden discriminar a múltiples usuarios del sistema sanitario<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Por tanto, la aplicación práctica de la IA requiere un análisis constante y cauteloso para evitar que las decisiones de los algoritmos sean aceptadas por encima de la intuición moral y guiada por el conocimiento de los médicos<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p></span><span id="sec0025" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0045">La ética en la práctica</span><p id="par0090" class="elsevierStylePara elsevierViewall">La IA en radiología es compleja, porque combina la atención clínica, la industria, la economía, la tecnología y las matemáticas<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>. No obstante, el comportamiento moral es intelectualmente incierto<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>. Además, existen casos en que las innovaciones han causado daños de forma involuntaria y han sido parte de actividades que carecían de principios<a class="elsevierStyleCrossRef" href="#bib0115"><span class="elsevierStyleSup">7</span></a>. De ahí que exista la necesidad de comprometerse con los valores morales y éticos a la hora de tomar decisiones acerca de dónde utilizar la IA, de definir lo que sería una IA responsable y de alertar cuando la IA se comporte de forma poco ética<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>.</p><p id="par0095" class="elsevierStylePara elsevierViewall">El sesgo muestral se produce cuando los datos curados tienen que representar de forma adecuada a la población pero existen dificultades para la recogida de datos<a class="elsevierStyleCrossRefs" href="#bib0120"><span class="elsevierStyleSup">8,11</span></a>. Este problema se plantea cuando una única institución proporciona los datos para desarrollar y entrenar los algoritmos de sistemas de AP y da lugar a la discriminación de subconjuntos infrarrepresentados de las poblaciones de otras instituciones<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0100" class="elsevierStylePara elsevierViewall">No cabe duda que los modelos de AP exigen inversiones financieras y científicas que están disponibles principalmente para los países económicamente más desarrollados<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Además, la escasez de infraestructuras en los países de ingresos bajos y medios plantea más retos, principalmente acerca de su capacidad para informar a los pacientes, su comunicación de la incertidumbre, su administración del consentimiento y su capacidad para generar datos sólidos<a class="elsevierStyleCrossRef" href="#bib0110"><span class="elsevierStyleSup">6</span></a>. Como consecuencia, estas naciones quedan obligadas a utilizar modelos de AP entrenados con datos procedentes de países desarrollados cuya realidad difiere de la de las regiones desatendidas<a class="elsevierStyleCrossRef" href="#bib0130"><span class="elsevierStyleSup">10</span></a>. Esta situación agrava las desigualdades sociales en materia de atención sanitaria y pone de manifiesto las limitaciones del uso de algoritmos en AP en las regiones que más se podrían beneficiar, como son las que no cuentan con suficientes recursos, especialistas ni tecnología.</p><p id="par0105" class="elsevierStylePara elsevierViewall">Además, la falta de datos analizados perjudica en mayor medida a los grupos infrarrepresentados en función del género, de la orientación sexual, de la etnia, de la comorbilidad, del estatus social o de los factores económicos, entre otros<a class="elsevierStyleCrossRefs" href="#bib0085"><span class="elsevierStyleSup">1,5,7,8,11</span></a>. Los estudios analíticos sobre la asistencia sanitaria muestran diferencias significativas en las tasas de infradiagnósticos en función de las variables anteriormente mencionadas<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Por ejemplo, si los conjuntos de datos de entrenamiento se equivocan y no presentan afecciones «raras», los algoritmos de la IA no identificarán las estructuras que se asemejen a los rasgos inherentes de los grupos infrarrepresentados<a class="elsevierStyleCrossRefs" href="#bib0120"><span class="elsevierStyleSup">8,11</span></a>. Por tanto, deben tenerse en cuenta todas las posibles fuentes de sesgos para reducir su impacto en las decisiones de la IA<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>.</p><p id="par0110" class="elsevierStylePara elsevierViewall">Una solución para el sesgo muestral podría pasar por un método de validación que garantice la generalización de los sistemas de IA mediante el uso de datos representativos de otras instituciones. Pero, a pesar de su relevancia, solo el 6% de los artículos recientes sobre AP en medicina incluían la validación con datos externos independientes<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p></span><span id="sec0030" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0050">Guías de informes</span><p id="par0115" class="elsevierStylePara elsevierViewall">Algunas cuestiones éticas incluyen la seguridad, la transparencia y la alineación de valores<a class="elsevierStyleCrossRefs" href="#bib0085"><span class="elsevierStyleSup">1,3,7</span></a>. Los sistemas de IA deben ser verificables y fiables para garantizar su seguridad<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,7,12</span></a>. Aunque las acciones de los algoritmos puedan ser perceptibles, puede ser complicado comprender su funcionamiento a la hora de tomar de decisiones, cuestión que subraya la importancia de la transparencia<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,7,8,12</span></a>. La alineación de valores consiste en la optimización del trabajo de la IA en beneficio del paciente pero dejando la responsabilidad a investigadores y profesionales de la radiología<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,7</span></a>.</p><p id="par0120" class="elsevierStylePara elsevierViewall">Se necesitan nuevos mecanismos de análisis adaptados a la naturaleza de los algoritmos además de los análisis estándares de la causa raíz<a class="elsevierStyleCrossRefs" href="#bib0095"><span class="elsevierStyleSup">3,7,12</span></a>. Además, la creciente bibliografía sobre la IA aplicada a la imagenología médica demanda más investigaciones transparentes y sistemáticas<a class="elsevierStyleCrossRef" href="#bib0145"><span class="elsevierStyleSup">13</span></a>.</p><p id="par0125" class="elsevierStylePara elsevierViewall">En una publicación sobre el futuro de la IA publicado en 2021 (FUTURE-AI - <span class="elsevierStyleItalic">Fairness Universality Traceability Usability Robustness Explainability</span>-AI) se propusieron principios generales para el desarrollo de la IA en la imagenología médica que incluían la investigación, el diseño y la implantación. A diferencia de las directrices anteriores que estaban centradas en la estructura de los manuscritos, FUTURE-AI hace hincapié en la equidad, la facilidad de uso, la robustez y la explicabilidad de los sistemas de IA.</p><p id="par0130" class="elsevierStylePara elsevierViewall">Además, incluye nuevos temas como «la aplicación clínica», «la recopilación de requisitos del usuario final» y «la implantación y el control de la IA» con el objetivo de conseguir sistemas equitativos y mínimamente sesgados<a class="elsevierStyleCrossRef" href="#bib0145"><span class="elsevierStyleSup">13</span></a>.</p><p id="par0135" class="elsevierStylePara elsevierViewall">La guía sobre evaluación clínica de los sistemas de IA publicada en 2022 (DECIDE-AI —<span class="elsevierStyleItalic">Developmental and Exploratory Clinical Investigations of Decision support systems driven by AI</span>) pretende garantizar la transparencia de los informes de los estudios clínicos que evalúan los sistemas de IA y abordar la influencia humana en el rendimiento clínico de la IA. Este sistema permitió y unificó la evaluación de las intervenciones complejas mediante el abordaje de una fase de desarrollo de los primeros ensayos clínicos en lugar de un tipo de estudio concreto. Así pues, proporciona una lista de verificación para evaluar la utilidad y la seguridad clínica, analizar las curvas de aprendizaje de los usuarios y preparar el algoritmo para evaluaciones a gran escala<a class="elsevierStyleCrossRef" href="#bib0150"><span class="elsevierStyleSup">14</span></a>.</p><p id="par0140" class="elsevierStylePara elsevierViewall">En la actualidad, las directrices que están en fase de desarrollo aplicadas a la IA incluyen STARD-AI y TRIPOD-AI. La primera estandariza los informes de precisión diagnóstica y la segunda evalúa los estudios de modelos de predicción<a class="elsevierStyleCrossRefs" href="#bib0145"><span class="elsevierStyleSup">13,14</span></a>.</p></span><span id="sec0035" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0055">Validación técnica</span><p id="par0145" class="elsevierStylePara elsevierViewall">Cada día se desarrollan numerosos sistemas de IA para tomar decisiones complicadas con el consiguiente riesgo de obtener resultados desfavorables<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>. Para que la IA sea rentable, segura y efectiva en radiología es necesario que se cumplan unos criterios de validación como la robustez, la reproducibilidad y la generalizabilidad. Por desgracia, resulta complejo diseñar un estudio de validación técnica, puesto que la mayoría de estudios utilizan el mismo conjunto de datos para el desarrollo, la optimización y la validación de los algoritmos. De aquí deriva la necesidad de una mayor verificación de la generalizabilidad y la robustez además de contemplar la posibilidad de una pérdida de datos<a class="elsevierStyleCrossRefs" href="#bib0125"><span class="elsevierStyleSup">9,11</span></a>. Es esencial especificar la precisión esperada del algoritmo antes de seguir con los siguientes pasos de verificación. La aprobación técnica debe ir seguida de una validación clínica real para garantizar la seguridad del paciente. El rendimiento del algoritmo debe evaluarse antes de aplicarlo a situaciones rutinarias<a class="elsevierStyleCrossRef" href="#bib0125"><span class="elsevierStyleSup">9</span></a>.</p><p id="par0150" class="elsevierStylePara elsevierViewall">La implantación de sistemas alimentados por AP debe garantizar la seguridad, la eficacia y la equidad. Sin embargo, la forma actual de las técnicas de explicabilidad del AP debería ser más adecuada para campos en los que está en juego la vida de los pacientes como es la radiología<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p></span><span id="sec0040" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0060">Marcos reguladores</span><p id="par0155" class="elsevierStylePara elsevierViewall">En cada país se garantizan los principios éticos en la implantación de sistemas de AP a través de distintos métodos. En Europa existe la marca CE, y en Estados Unidos se requiere la autorización de organismos reguladores como la FDA y las IRB locales<a class="elsevierStyleCrossRef" href="#bib0120"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0160" class="elsevierStylePara elsevierViewall">La aprobación de los marcos reguladores es esencial para adoptar sistemas de IA en la práctica médica. No obstante, los protocolos actuales están limitados y necesitan mejoras para evaluar de forma exhaustiva los algoritmos diagnósticos de la IA<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0165" class="elsevierStylePara elsevierViewall">El foro internacional de reguladores de dispositivos médicos (<span class="elsevierStyleItalic">International Medical Device Regulators Forum</span> [IMDRF]) establece los estándares que siguen la mayoría de los reguladores de software médico como la FDA y marcos de la Unión Europea (UE). Los organismos reguladores analizan ampliamente la seguridad, la eficacia y el rendimiento de los sistemas de IA<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>. No obstante, encuentran dificultades en puntos críticos, como la combinación de la tarea del diagnóstico con el algoritmo de diagnóstico, la simple definición de la tarea de diagnóstico, la ausencia de mecanismos para comparar directamente algoritmos similares, la deficiente definición de los elementos de seguridad y rendimiento, y la falta de recursos para acceder al rendimiento en cada centro instalado<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0170" class="elsevierStylePara elsevierViewall">Un proceso de evaluación específica mejora la capacidad de abordar los problemas del software y facilita la comparación. El proceso implica definir la tarea de diagnóstico, realizar pruebas en un entorno controlado, evaluar la eficacia en el mundo real, valorar la durabilidad en el tiempo y establecer puntos de referencia internos para los desarrolladores. Por ello, las directrices basadas en este enfoque mejoran el control de la implantación longitudinal de los sistemas de IA<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0175" class="elsevierStylePara elsevierViewall">Los marcos reguladores convencionales deben garantizar la excelencia en cada centro de aplicación de software médico<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>. Para ello, se podría recurrir a terceros evaluadores, como organizaciones dedicadas a la investigación clínica, laboratorios de investigación u organizaciones que desarrollen y mantengan conjuntos de datos estándares de referencia que puedan ser utilizados. Este enfoque ya es de aplicación en los estudios de medicamentos bajo la supervisión de los organismos reguladores<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>.</p></span><span id="sec0045" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0065">Conflicto de intereses</span><p id="par0180" class="elsevierStylePara elsevierViewall">En los incipientes mercados de la IA en radiología, los profesionales de esta área que trabajan en la atención al paciente también pueden tener cargos en empresas de nueva creación de IA o en entidades comerciales<a class="elsevierStyleCrossRefs" href="#bib0085"><span class="elsevierStyleSup">1-3</span></a>. Al igual que los investigadores en materia de medicamentos con intereses económicos buscan el éxito de los mismos, los conflictos de intereses relacionados con los productos de IA pueden gestionarse a través de recursos como la divulgación pública, la venta de activos o la vigilancia. Los fabricantes de software médico que financian y publican evaluaciones de sus productos también pueden crear conflictos de intereses<a class="elsevierStyleCrossRef" href="#bib0155"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0185" class="elsevierStylePara elsevierViewall">Las partes interesadas responsables de compartir los datos de los pacientes, de conseguir agentes de IA o de implementar modelos en flujos de trabajo clínicos deben gestionar minuciosamente sus conflictos de intereses cuando se trata de la IA aplicada a la atención sanitaria. En algunos casos, además, puede ser necesario que rechacen su participación en dichas actividades<a class="elsevierStyleCrossRef" href="#bib0095"><span class="elsevierStyleSup">3</span></a>.</p></span><span id="sec0050" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0070">La aparición de herramientas de IA para la producción de textos</span><p id="par0190" class="elsevierStylePara elsevierViewall">Es necesario considerar que, con la aparición de herramientas de IA para la producción de textos, este tema genera todavía una mayor preocupación relacionada con la investigación<a class="elsevierStyleCrossRef" href="#bib0160"><span class="elsevierStyleSup">16</span></a>. Por ejemplo, los grandes modelos del lenguaje (<span class="elsevierStyleItalic">Large Language Models</span> [LLM]) preparados por IA pueden generar frases cada vez más complejas y ser difícilmente distinguidas de las escritas por personas. Por este motivo, el ChatGPT y otros LLM están generando una gran preocupación en el ámbito científico y académico por su habilidad para elaborar textos para redacciones, informes, exámenes y artículos científicos<a class="elsevierStyleCrossRef" href="#bib0160"><span class="elsevierStyleSup">16</span></a>.</p></span><span id="sec0055" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0075">Conclusión</span><p id="par0195" class="elsevierStylePara elsevierViewall">En la era del Big Data, los siete requisitos éticos para la investigación que propuso E.J. Emanuel et al.<a class="elsevierStyleCrossRef" href="#bib0085"><span class="elsevierStyleSup">1</span></a> en 2000 deben revisarse en la práctica y en la investigación relacionadas con la IA, y para ello se necesitan más conversaciones y más debates<a class="elsevierStyleCrossRefs" href="#bib0085"><span class="elsevierStyleSup">1,3</span></a>. En conclusión, la incorporación de la IA a la radiología ha mejorado la eficiencia y la precisión de los radiólogos. Sin embargo, para garantizar la seguridad y la privacidad de los pacientes es esencial resolver los problemas éticos relacionados con los datos de los pacientes, los algoritmos y los conflictos de intereses. El desarrollo y la aplicación de los marcos reguladores y de los principios éticos pueden contribuir, por un lado, a minimizar las posibles preocupaciones morales y, por otro, a maximizar los beneficios de la IA en radiología.</p></span><span id="sec0060" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0080">Información del estudio</span><p id="par0200" class="elsevierStylePara elsevierViewall">El presente estudio se ha llevado a cabo en el Departamento de Neurorradiología del Hospital Antonio Prudente, Fortaleza, Ceará, Brasil.</p></span><span id="sec0065" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0085">Financiación</span><p id="par0205" class="elsevierStylePara elsevierViewall">La presente investigación no ha recibido ninguna ayuda específica de ninguna agencia de financiación ni del sector público, ni comercial ni de organizaciones sin ánimo de lucro.</p></span></span>" "textoCompletoSecciones" => array:1 [ "secciones" => array:18 [ 0 => array:3 [ "identificador" => "xres1984228" "titulo" => "Resumen" "secciones" => array:1 [ 0 => array:1 [ "identificador" => "abst0005" ] ] ] 1 => array:2 [ "identificador" => "xpalclavsec1704816" "titulo" => "Palabras clave" ] 2 => array:3 [ "identificador" => "xres1984227" "titulo" => "Abstract" "secciones" => array:1 [ 0 => array:1 [ "identificador" => "abst0010" ] ] ] 3 => array:2 [ "identificador" => "xpalclavsec1704817" "titulo" => "Keywords" ] 4 => array:2 [ "identificador" => "sec0005" "titulo" => "Introducción" ] 5 => array:2 [ "identificador" => "sec0010" "titulo" => "La ética de los datos" ] 6 => array:2 [ "identificador" => "sec0015" "titulo" => "Recogida y gestión de datos" ] 7 => array:2 [ "identificador" => "sec0020" "titulo" => "La ética de los algoritmos" ] 8 => array:2 [ "identificador" => "sec0025" "titulo" => "La ética en la práctica" ] 9 => array:2 [ "identificador" => "sec0030" "titulo" => "Guías de informes" ] 10 => array:2 [ "identificador" => "sec0035" "titulo" => "Validación técnica" ] 11 => array:2 [ "identificador" => "sec0040" "titulo" => "Marcos reguladores" ] 12 => array:2 [ "identificador" => "sec0045" "titulo" => "Conflicto de intereses" ] 13 => array:2 [ "identificador" => "sec0050" "titulo" => "La aparición de herramientas de IA para la producción de textos" ] 14 => array:2 [ "identificador" => "sec0055" "titulo" => "Conclusión" ] 15 => array:2 [ "identificador" => "sec0060" "titulo" => "Información del estudio" ] 16 => array:2 [ "identificador" => "sec0065" "titulo" => "Financiación" ] 17 => array:1 [ "titulo" => "Bibliografía" ] ] ] "pdfFichero" => "main.pdf" "tienePdf" => true "fechaRecibido" => "2023-03-29" "fechaAceptado" => "2023-05-21" "PalabrasClave" => array:2 [ "es" => array:1 [ 0 => array:4 [ "clase" => "keyword" "titulo" => "Palabras clave" "identificador" => "xpalclavsec1704816" "palabras" => array:5 [ 0 => "Inteligencia artificial" 1 => "Radiología" 2 => "Ética" 3 => "Sesgo algorítmico" 4 => "Aprendizaje automático" ] ] ] "en" => array:1 [ 0 => array:4 [ "clase" => "keyword" "titulo" => "Keywords" "identificador" => "xpalclavsec1704817" "palabras" => array:5 [ 0 => "Artificial intelligence" 1 => "Radiology" 2 => "Ethics" 3 => "Algorithms bias" 4 => "Machine learning" ] ] ] ] "tieneResumen" => true "resumen" => array:2 [ "es" => array:2 [ "titulo" => "Resumen" "resumen" => "<span id="abst0005" class="elsevierStyleSection elsevierViewall"><p id="spar0005" class="elsevierStyleSimplePara elsevierViewall">El análisis de aspectos éticos en la investigación clínica siempre ha supuesto un reto que ha requerido constantes actualizaciones.</p><p id="spar0010" class="elsevierStyleSimplePara elsevierViewall">En resumen, la ética en la investigación es el conjunto de principios, reglas y normas específicas del comportamiento que una comunidad investigadora ha decidido como apropiadas y justas bajo la premisa de que la investigación debe caracterizarse por ser válida, fiable, legítima y representativa.</p><p id="spar0015" class="elsevierStyleSimplePara elsevierViewall">Se presenta una revisión no sistemática que trata algunas de las preocupaciones éticas que la comunidad científica debe tener en cuenta. Numerosos estudios sobre el desarrollo de nuevas herramientas de inteligencia artificial (IA), especialmente aplicadas a la radiología, hacen necesario que la comunidad investigadora en esta área promueva debates y establezca unos principios éticos aplicables a la práctica y al desarrollo de las nuevas herramientas de IA.</p></span>" ] "en" => array:2 [ "titulo" => "Abstract" "resumen" => "<span id="abst0010" class="elsevierStyleSection elsevierViewall"><p id="spar0020" class="elsevierStyleSimplePara elsevierViewall">The analysis of ethical aspects in clinical research has always been a challenge and has required constant updates.</p><p id="spar0025" class="elsevierStyleSimplePara elsevierViewall">In short, research ethics is the set of specific principles, rules, and norms of behavior that a research community has decided are appropriate and fair under the premise that research must be valid, reliable, legitimate, and representative.</p><p id="spar0030" class="elsevierStyleSimplePara elsevierViewall">This non-systematic review brings some ethical concerns that should be considered within the scientific community. Many studies and the development of new artificial intelligence (AI) tools, especially in radiology, make it necessary for the radiology research community to promote debates and establish ethical standards for the practice and development of new AI tools.</p></span>" ] ] "bibliografia" => array:2 [ "titulo" => "Bibliografía" "seccion" => array:1 [ 0 => array:2 [ "identificador" => "bibs0015" "bibliografiaReferencia" => array:16 [ 0 => array:3 [ "identificador" => "bib0085" "etiqueta" => "1" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "What makes clinical research ethical?" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "E.J. Emanuel" 1 => "D. Wendler" 2 => "C. Grady" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1001/jama.283.20.2701" "Revista" => array:6 [ "tituloSerie" => "JAMA" "fecha" => "2000" "volumen" => "283" "paginaInicial" => "2701" "paginaFinal" => "2711" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/10819955" "web" => "Medline" ] ] ] ] ] ] ] ] 1 => array:3 [ "identificador" => "bib0090" "etiqueta" => "2" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence in radiology — Ethical considerations" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "A.P. Brady" 1 => "E. Neri" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.3390/diagnostics10040231" "Revista" => array:5 [ "tituloSerie" => "Diagnostics." "fecha" => "2020" "volumen" => "10" "paginaInicial" => "231" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/32316503" "web" => "Medline" ] ] ] ] ] ] ] ] 2 => array:3 [ "identificador" => "bib0095" "etiqueta" => "3" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Ethics of artificial intelligence in radiology: Summary of the Joint European and North American Multisociety Statement" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "J.R. Geis" 1 => "A.P. Brady" 2 => "C.C. Wu" 3 => "J. Spencer" 4 => "E. Ranschaert" 5 => "J.L. Jaremko" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.carj.2019.08.010" "Revista" => array:6 [ "tituloSerie" => "Can Assoc Radiol J." "fecha" => "2019" "volumen" => "70" "paginaInicial" => "329" "paginaFinal" => "334" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/31585825" "web" => "Medline" ] ] ] ] ] ] ] ] 3 => array:3 [ "identificador" => "bib0100" "etiqueta" => "4" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The ethics of Big Data: Current and foreseeable issues in biomedical contexts" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "B.D. Mittelstadt" 1 => "L. Floridi" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s11948-015-9652-2" "Revista" => array:6 [ "tituloSerie" => "Sci Eng Ethics." "fecha" => "2016" "volumen" => "22" "paginaInicial" => "303" "paginaFinal" => "341" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/26002496" "web" => "Medline" ] ] ] ] ] ] ] ] 4 => array:3 [ "identificador" => "bib0105" "etiqueta" => "5" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Responsible AI practices. Google AI n.d. [consultado 17 May 2019]. Disponible en: <a target="_blank" href="https://ai.google/responsibilities/responsible-ai-practices/">https://ai.google/responsibilities/responsible-ai-practices/</a>" ] ] ] 5 => array:3 [ "identificador" => "bib0110" "etiqueta" => "6" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The ethical issues of the application of artificial intelligence in healthcare: A systematic scoping review" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "G. Karimian" 1 => "E. Petelos" 2 => "S.M.A.A. Evers" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s43681-021-00131-7" "Revista" => array:5 [ "tituloSerie" => "AI Ethics." "fecha" => "2022" "volumen" => "2" "paginaInicial" => "539" "paginaFinal" => "551" ] ] ] ] ] ] 6 => array:3 [ "identificador" => "bib0115" "etiqueta" => "7" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Ethics, artificial intelligence, and radiology" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "M. Kohli" 1 => "R. Geis" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.jacr.2018.05.020" "Revista" => array:5 [ "tituloSerie" => "J Am Coll Radiol." "fecha" => "2018" "volumen" => "15" "paginaInicial" => "1317" "paginaFinal" => "1319" ] ] ] ] ] ] 7 => array:3 [ "identificador" => "bib0120" "etiqueta" => "8" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Deep learning in radiology: Ethics of data and on the value of algorithm transparency, interpretability and explainability" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "A. Fernandez-Quilez" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s43681-022-0016v1-9" "Revista" => array:5 [ "tituloSerie" => "AI Ethics." "fecha" => "2023" "volumen" => "3" "paginaInicial" => "257" "paginaFinal" => "265" ] ] ] ] ] ] 8 => array:3 [ "identificador" => "bib0125" "etiqueta" => "9" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Integrating artificial intelligence into the clinical practice of radiology: Challenges and recommendations" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "M.P. Recht" 1 => "M. Dewey" 2 => "K. Dreyer" 3 => "C. Langlotz" 4 => "W. Niessen" 5 => "B. Prainsack" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s00330-020-06672-5" "Revista" => array:5 [ "tituloSerie" => "Eur Radiol." "fecha" => "2020" "volumen" => "30" "paginaInicial" => "3576" "paginaFinal" => "3584" ] ] ] ] ] ] 9 => array:3 [ "identificador" => "bib0130" "etiqueta" => "10" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "Directorate-General for Research and Innovation (European Commission), European Group on Ethics in Science and New Technologies (European Commission). Statement on artificial intelligence, robotics and “autonomous” systems: Brussels, 9 March 2018. LU: Publications Office of the European Union; 2018." ] ] ] 10 => array:3 [ "identificador" => "bib0135" "etiqueta" => "11" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Detecting common sources of AI bias: Questions to ask when procuring an AI solution" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "A.S. Tejani" 1 => "T.A. Retson" 2 => "L. Moy" 3 => "T.S. Cook" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/radiol.230580" "Revista" => array:5 [ "tituloSerie" => "Radiology." "fecha" => "2023" "volumen" => "307" "paginaInicial" => "e230580" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/36943081" "web" => "Medline" ] ] ] ] ] ] ] ] 11 => array:3 [ "identificador" => "bib0140" "etiqueta" => "12" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "DECIDE-AI: A new reporting guideline and its relevance to artificial intelligence studies in radiology" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "B. Vasey" 1 => "A. Novak" 2 => "S. Ather" 3 => "M. Ibrahim" 4 => "P. McCulloch" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.crad.2022.09.131" "Revista" => array:6 [ "tituloSerie" => "Clin Radiol." "fecha" => "2023" "volumen" => "78" "paginaInicial" => "130" "paginaFinal" => "136" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/36639172" "web" => "Medline" ] ] ] ] ] ] ] ] 12 => array:3 [ "identificador" => "bib0145" "etiqueta" => "13" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "AI reporting guidelines: How to select the best one for your research" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "M.E. Klontzas" 1 => "A.A. Gatti" 2 => "A.S. Tejani" 3 => "C.E. Kahn Jr." ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/ryai.230055" "Revista" => array:5 [ "tituloSerie" => "Radiol Artif Intell." "fecha" => "2023" "volumen" => "5" "paginaInicial" => "e230055" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/37293341" "web" => "Medline" ] ] ] ] ] ] ] ] 13 => array:3 [ "identificador" => "bib0150" "etiqueta" => "14" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Explaining Explanations: An Overview of Interpretability of Machine Learning" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "L.H. Gilpin" 1 => "D. Bau" 2 => "B.Z. Yuan" 3 => "A. Bajwa" 4 => "M. Specter" 5 => "L. Kagal" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1109/DSAA.2018.00018" "Libro" => array:6 [ "titulo" => "2018 IEEE 5th International Conference on Data Science and Advanced Analytics (DSAA)" "fecha" => "2018" "paginaInicial" => "80" "paginaFinal" => "89" "editorial" => "IEEE" "editorialLocalizacion" => "Turin, Italy" ] ] ] ] ] ] 14 => array:3 [ "identificador" => "bib0155" "etiqueta" => "15" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Regulatory frameworks for development and evaluation of artificial intelligence-based diagnostic imaging algorithms: Summary and recommendations" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "D.B. Larson" 1 => "H. Harvey" 2 => "D.L. Rubin" 3 => "N. Irani" 4 => "J.R. Tse" 5 => "C.P. Langlotz" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.jacr.2020.09.060" "Revista" => array:6 [ "tituloSerie" => "J Am Coll Radiol." "fecha" => "2021" "volumen" => "18" "paginaInicial" => "413" "paginaFinal" => "424" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/33096088" "web" => "Medline" ] ] ] ] ] ] ] ] 15 => array:3 [ "identificador" => "bib0160" "etiqueta" => "16" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Authorship policy of the <span class="elsevierStyleItalic">Korean Journal of Radiology</span> regarding artificial intelligence large language models such as ChatGTP" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "S.H. Park" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.3348/kjr. 2023.0112" "Revista" => array:5 [ "tituloSerie" => "Korean J Radiol." "fecha" => "2023" "volumen" => "24" "paginaInicial" => "171" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/36788775" "web" => "Medline" ] ] ] ] ] ] ] ] ] ] ] ] ] "idiomaDefecto" => "es" "url" => "/00338338/unassign/S0033833823001431/v1_202310090520/es/main.assets" "Apartado" => null "PDF" => "https://static.elsevier.es/multimedia/00338338/unassign/S0033833823001431/v1_202310090520/es/main.pdf?idApp=UINPBA00004N&text.app=https://www.elsevier.es/" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833823001431?idApp=UINPBA00004N" ]
año/Mes | Html | Total | |
---|---|---|---|
2024 Octubre | 2 | 4 | 6 |
2024 Septiembre | 1 | 1 | 2 |
2024 Agosto | 1 | 0 | 1 |
2024 Julio | 2 | 2 | 4 |
2024 Mayo | 15 | 1 | 16 |
2024 Marzo | 4 | 6 | 10 |
2024 Febrero | 2 | 0 | 2 |
2023 Noviembre | 1 | 2 | 3 |
2023 Octubre | 4 | 6 | 10 |