se ha leído el artículo
array:24 [ "pii" => "S0033833822000972" "issn" => "00338338" "doi" => "10.1016/j.rx.2022.03.003" "estado" => "S300" "fechaPublicacion" => "2022-05-01" "aid" => "1380" "copyright" => "SERAM" "copyrightAnyo" => "2022" "documento" => "article" "crossmark" => 1 "subdocumento" => "fla" "cita" => "Radiologia. 2022;64:228-36" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "Traduccion" => array:1 [ "en" => array:19 [ "pii" => "S2173510722000660" "issn" => "21735107" "doi" => "10.1016/j.rxeng.2022.03.005" "estado" => "S300" "fechaPublicacion" => "2022-05-01" "aid" => "1380" "copyright" => "SERAM" "documento" => "article" "crossmark" => 1 "subdocumento" => "fla" "cita" => "Radiologia. 2022;64:228-36" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "en" => array:13 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Update in Radiology</span>" "titulo" => "Artificial Intelligence in Radiology: an introduction to the most important concepts" "tienePdf" => "en" "tieneTextoCompleto" => "en" "tieneResumen" => array:2 [ 0 => "en" 1 => "es" ] "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "228" "paginaFinal" => "236" ] ] "titulosAlternativos" => array:1 [ "es" => array:1 [ "titulo" => "Inteligencia artificial en Radiología: introducción a los conceptos más importantes" ] ] "contieneResumen" => array:2 [ "en" => true "es" => true ] "contieneTextoCompleto" => array:1 [ "en" => true ] "contienePdf" => array:1 [ "en" => true ] "resumenGrafico" => array:2 [ "original" => 0 "multimedia" => array:8 [ "identificador" => "fig0030" "etiqueta" => "Figure 6" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr6.jpeg" "Alto" => 736 "Ancho" => 2925 "Tamanyo" => 167113 ] ] "detalles" => array:1 [ 0 => array:3 [ "identificador" => "at0030" "detalle" => "Figure " "rol" => "short" ] ] "descripcion" => array:1 [ "en" => "<p id="spar0035" class="elsevierStyleSimplePara elsevierViewall"><span class="elsevierStyleItalic">Filters</span> and <span class="elsevierStyleItalic">pooling</span>: A <span class="elsevierStyleItalic">filter</span> is a matrix that scans the image and performs a multiplication operation element by element and then an addition operation to yield a value (convolution). High values are obtained when the <span class="elsevierStyleItalic">filter</span> is applied to a feature similar to the filter; low values are obtained when it is applied to a feature that is different from it. In a <span class="elsevierStyleItalic">filter</span> that detects vertical edges, high values mean that a vertical edge has been detected. Is this not reminiscent of the cells of the primary visual cortex? The <span class="elsevierStyleItalic">pooling</span> layer, average with a size of 2 × 2 in this example, determines the mean of the values in the range, thus reducing the dimensionality of the feature map.</p>" ] ] ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "A. Pérez del Barrio, P. Menéndez Fernández-Miranda, P. Sanz Bellón, L. Lloret Iglesias, D. Rodríguez González" "autores" => array:5 [ 0 => array:2 [ "nombre" => "A." "apellidos" => "Pérez del Barrio" ] 1 => array:2 [ "nombre" => "P." "apellidos" => "Menéndez Fernández-Miranda" ] 2 => array:2 [ "nombre" => "P." "apellidos" => "Sanz Bellón" ] 3 => array:2 [ "nombre" => "L." "apellidos" => "Lloret Iglesias" ] 4 => array:2 [ "nombre" => "D." "apellidos" => "Rodríguez González" ] ] ] ] ] "idiomaDefecto" => "en" "Traduccion" => array:1 [ "es" => array:9 [ "pii" => "S0033833822000972" "doi" => "10.1016/j.rx.2022.03.003" "estado" => "S300" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "es" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833822000972?idApp=UINPBA00004N" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2173510722000660?idApp=UINPBA00004N" "url" => "/21735107/0000006400000003/v1_202206060554/S2173510722000660/v1_202206060554/en/main.assets" ] ] "itemSiguiente" => array:19 [ "pii" => "S0033833822000777" "issn" => "00338338" "doi" => "10.1016/j.rx.2022.02.006" "estado" => "S300" "fechaPublicacion" => "2022-05-01" "aid" => "1374" "copyright" => "SERAM" "documento" => "article" "crossmark" => 1 "subdocumento" => "fla" "cita" => "Radiologia. 2022;64:237-44" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "es" => array:13 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Radiología en Imágenes</span>" "titulo" => "Correlación anatomopatológica con neumo-tomografía computarizada de lesiones gástricas subepiteliales" "tienePdf" => "es" "tieneTextoCompleto" => "es" "tieneResumen" => array:2 [ 0 => "es" 1 => "en" ] "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "237" "paginaFinal" => "244" ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Correlation between pneumo-computed tomography and pathology findings for subepithelial gastric lesions" ] ] "contieneResumen" => array:2 [ "es" => true "en" => true ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "resumenGrafico" => array:2 [ "original" => 0 "multimedia" => array:7 [ "identificador" => "fig0035" "etiqueta" => "Figura 7" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr7.jpeg" "Alto" => 452 "Ancho" => 1305 "Tamanyo" => 182210 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0055" class="elsevierStyleSimplePara elsevierViewall">Mujer de 31 años en estudio por dolor abdominal y dispepsia. A) Neumo-TC con contraste intravenoso, corte transversal que muestra una masa endoluminal con realce tardío durante la fase de equilibrio, lo cual es característico de un schwannoma (flecha). B) Tinción de inmunohistoquímica positiva para S-100. El diagnóstico diferencial incluye GIST, leiomioma y linfoma, siendo la ausencia de hemorragia, la necrosis o la cavitación una característica a favor de un schwannoma.</p>" ] ] ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "R. López Grove, E. Gentile, L. Savluk, J.P. Santino, M. Ulla" "autores" => array:5 [ 0 => array:2 [ "nombre" => "R." "apellidos" => "López Grove" ] 1 => array:2 [ "nombre" => "E." "apellidos" => "Gentile" ] 2 => array:2 [ "nombre" => "L." "apellidos" => "Savluk" ] 3 => array:2 [ "nombre" => "J.P." "apellidos" => "Santino" ] 4 => array:2 [ "nombre" => "M." "apellidos" => "Ulla" ] ] ] ] ] "idiomaDefecto" => "es" "Traduccion" => array:1 [ "en" => array:9 [ "pii" => "S2173510722000659" "doi" => "10.1016/j.rxeng.2022.02.001" "estado" => "S300" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "en" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2173510722000659?idApp=UINPBA00004N" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833822000777?idApp=UINPBA00004N" "url" => "/00338338/0000006400000003/v1_202205110735/S0033833822000777/v1_202205110735/es/main.assets" ] "itemAnterior" => array:19 [ "pii" => "S0033833821001806" "issn" => "00338338" "doi" => "10.1016/j.rx.2021.09.011" "estado" => "S300" "fechaPublicacion" => "2022-05-01" "aid" => "1340" "copyright" => "SERAM" "documento" => "article" "crossmark" => 1 "subdocumento" => "fla" "cita" => "Radiologia. 2022;64:214-27" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "es" => array:13 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Original</span>" "titulo" => "Elaboración de modelos predictivos de la gravedad y la mortalidad en pacientes con COVID-19 que acuden al servicio de urgencias, incluida la radiografía torácica" "tienePdf" => "es" "tieneTextoCompleto" => "es" "tieneResumen" => array:2 [ 0 => "es" 1 => "en" ] "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "214" "paginaFinal" => "227" ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Development of severity and mortality prediction models for covid-19 patients at emergency department including the chest <span class="elsevierStyleSmallCaps">x</span>-ray" ] ] "contieneResumen" => array:2 [ "es" => true "en" => true ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "resumenGrafico" => array:2 [ "original" => 0 "multimedia" => array:7 [ "identificador" => "fig0030" "etiqueta" => "Figura 6" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr6.jpeg" "Alto" => 1530 "Ancho" => 2917 "Tamanyo" => 416486 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0075" class="elsevierStyleSimplePara elsevierViewall">Las curvas ROC (arriba) y CPS (abajo) de la validación interna realizada con un conjunto de datos nuevo para los modelos predictivos de mortalidad hospitalaria (SVM: máquinas de vectores de soporte [<span class="elsevierStyleItalic">Support Vector Machine</span>, azul]; RF: bosque aleatorio [<span class="elsevierStyleItalic">Random Forest</span>, verde]; GB: potenciación del gradiente [<span class="elsevierStyleItalic">Gradient Boosting</span>, naranja]) elaborados con tres combinaciones distintas de parámetros (A: parámetros epidemiológicos y radiológicos; B: parámetros epidemiológicos, radiológicos, clínicos y analíticos; C: parámetros epidemiológicos, radiológicos, clínicos, analíticos y basados en la RNC). Se muestran los valores del AUC correspondientes.</p>" ] ] ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "P. Calvillo-Batllés, L. Cerdá-Alberich, C. Fonfría-Esparcia, A. Carreres-Ortega, C.F. Muñoz-Núñez, L. Trilles-Olaso, L. Martí-Bonmatí" "autores" => array:7 [ 0 => array:2 [ "nombre" => "P." "apellidos" => "Calvillo-Batllés" ] 1 => array:2 [ "nombre" => "L." "apellidos" => "Cerdá-Alberich" ] 2 => array:2 [ "nombre" => "C." "apellidos" => "Fonfría-Esparcia" ] 3 => array:2 [ "nombre" => "A." "apellidos" => "Carreres-Ortega" ] 4 => array:2 [ "nombre" => "C.F." "apellidos" => "Muñoz-Núñez" ] 5 => array:2 [ "nombre" => "L." "apellidos" => "Trilles-Olaso" ] 6 => array:2 [ "nombre" => "L." "apellidos" => "Martí-Bonmatí" ] ] ] ] ] "idiomaDefecto" => "es" "Traduccion" => array:1 [ "en" => array:9 [ "pii" => "S2173510722000222" "doi" => "10.1016/j.rxeng.2021.09.004" "estado" => "S300" "subdocumento" => "" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:1 [ "total" => 0 ] "idiomaDefecto" => "en" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S2173510722000222?idApp=UINPBA00004N" ] ] "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833821001806?idApp=UINPBA00004N" "url" => "/00338338/0000006400000003/v1_202205110735/S0033833821001806/v1_202205110735/es/main.assets" ] "es" => array:19 [ "idiomaDefecto" => true "cabecera" => "<span class="elsevierStyleTextfn">Actualización</span>" "titulo" => "Inteligencia artificial en Radiología: introducción a los conceptos más importantes" "tieneTextoCompleto" => true "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "228" "paginaFinal" => "236" ] ] "autores" => array:1 [ 0 => array:4 [ "autoresLista" => "A. Pérez del Barrio, P. Menéndez Fernández-Miranda, P. Sanz Bellón, L. Lloret Iglesias, D. Rodríguez González" "autores" => array:5 [ 0 => array:4 [ "nombre" => "A." "apellidos" => "Pérez del Barrio" "email" => array:1 [ 0 => "amaia.pdb@gmail.com" ] "referencia" => array:2 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] 1 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">*</span>" "identificador" => "cor0005" ] ] ] 1 => array:3 [ "nombre" => "P." "apellidos" => "Menéndez Fernández-Miranda" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] ] ] 2 => array:3 [ "nombre" => "P." "apellidos" => "Sanz Bellón" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "aff0005" ] ] ] 3 => array:3 [ "nombre" => "L." "apellidos" => "Lloret Iglesias" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "aff0010" ] ] ] 4 => array:3 [ "nombre" => "D." "apellidos" => "Rodríguez González" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "aff0010" ] ] ] ] "afiliaciones" => array:2 [ 0 => array:3 [ "entidad" => "Servicio de Radiodiagnóstico, Hospital Universitario Marqués de Valdecilla, Santander, Cantabria, España" "etiqueta" => "a" "identificador" => "aff0005" ] 1 => array:3 [ "entidad" => "Instituto de Física de Cantabria, Consejo Superior de Investigaciones Científicas (CSIC), Universidad de Cantabria, Santander, Cantabria, España" "etiqueta" => "b" "identificador" => "aff0010" ] ] "correspondencia" => array:1 [ 0 => array:3 [ "identificador" => "cor0005" "etiqueta" => "⁎" "correspondencia" => "Autor para correspondencia." ] ] ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Artificial Intelligence in Radiology: an introduction to the most important concepts" ] ] "resumenGrafico" => array:2 [ "original" => 0 "multimedia" => array:7 [ "identificador" => "fig0035" "etiqueta" => "Figura 7" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr7.jpeg" "Alto" => 1285 "Ancho" => 2841 "Tamanyo" => 194453 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0055" class="elsevierStyleSimplePara elsevierViewall">Ejemplo con una imagen: se muestra un ejemplo en el que la imagen de una TC de cráneo va pasando por sucesivas capas que contienen 3 <span class="elsevierStyleItalic">filtros</span> de 3 × 3 y la función de <span class="elsevierStyleItalic">pooling</span>, lo que da lugar a diferentes mapas de características cada vez de menor resolución espacial. A mayor profundidad en la red, los mapas son cada vez más groseros y de menor tamaño, transmitiéndose hacia delante solo la información más relevante.</p>" ] ] ] "textoCompleto" => "<span class="elsevierStyleSections"><span id="sec0005" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0025">Inteligencia artificial, aprendizaje automático y aprendizaje profundo</span><span id="sec0010" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0030">Conceptos básicos</span><p id="par0005" class="elsevierStylePara elsevierViewall">La inteligencia artificial (IA) se define como <span class="elsevierStyleItalic">la capacidad de las máquinas de realizar tareas</span><span class="elsevierStyleItalic">intelectuales habitualmente realizadas por humanos</span><a class="elsevierStyleCrossRef" href="#bib0185"><span class="elsevierStyleSup">1</span></a>. Este término se utiliza como concepto general que engloba tanto el aprendizaje automático (AA) como el aprendizaje profundo (AP). Ambos conceptos pertenecen a un subcampo de la IA que se caracteriza por crear sistemas que son capaces de <span class="elsevierStyleItalic">aprender</span>, es decir, capaces de generar sus propias reglas sirviéndose únicamente de los datos <span class="elsevierStyleItalic">(Data-driven Artificial Intelligence)</span><a class="elsevierStyleCrossRef" href="#bib0190"><span class="elsevierStyleSup">2</span></a>.</p><p id="par0010" class="elsevierStylePara elsevierViewall">Algunos autores diferencian entre el AA y el AP basándose en que, en el primero<span class="elsevierStyleItalic">,</span> existe intervención humana en el entrenamiento del algoritmo a través de la manipulación de los datos (extracción y selección de las características más importantes), mientras que en el AP la intervención humana es mínima dado que no existe este paso previo<a class="elsevierStyleCrossRef" href="#bib0190"><span class="elsevierStyleSup">2</span></a>. Sin embargo, un enfoque más correcto es considerar el AP como una evolución del AA: los sistemas de AP son sistemas de AA, pero más profundos (y de ahí viene su nombre)<span class="elsevierStyleItalic">,</span> es decir, constan de muchas más capas y, precisamente, son estas capas extra las que les confieren la capacidad de extraer las características más relevantes de los datos por sí solos (<a class="elsevierStyleCrossRef" href="#fig0005">fig. 1</a>)<a class="elsevierStyleCrossRef" href="#bib0190"><span class="elsevierStyleSup">2</span></a>. En este campo, el concepto de <span class="elsevierStyleItalic">característica</span> se refiere a aquellas variables o propiedades de los datos que son mensurables como, por ejemplo, el valor del píxel o la edad del paciente. Las características más relevantes serán aquellas que ayuden en la resolución del problema que se plantea. Otro concepto importante es el modelo de aprendizaje del sistema de AA o AP, ya que se distinguen 3 tipos (<a class="elsevierStyleCrossRef" href="#fig0010">fig. 2</a>)<a class="elsevierStyleCrossRef" href="#bib0195"><span class="elsevierStyleSup">3</span></a>.</p><elsevierMultimedia ident="fig0005"></elsevierMultimedia><elsevierMultimedia ident="fig0010"></elsevierMultimedia><p id="par0015" class="elsevierStylePara elsevierViewall">La IA y, especialmente el AP, han protagonizado innumerables artículos en los últimos años, muchos de ellos relacionados con la Radiología. Sin embargo, estos conceptos no son tan novedosos como se cree. En realidad, la IA surgió a mediados de los años 50<a class="elsevierStyleCrossRef" href="#bib0200"><span class="elsevierStyleSup">4</span></a> y, a lo largo de su historia, ha presentado momentos de estancamiento (los llamados <span class="elsevierStyleItalic">inviernos de la IA</span>) y momentos de repunte. Actualmente, estamos viviendo uno de esos momentos de repunte sin precedentes, principalmente gracias al desarrollo de la tecnología necesaria para su funcionamiento óptimo como, por ejemplo, las unidades de procesamiento gráfico. En el ámbito médico, la Radiología es una de las especialidades que más se está viendo revolucionada por estos nuevos sistemas<a class="elsevierStyleCrossRef" href="#bib0205"><span class="elsevierStyleSup">5</span></a>.</p></span><span id="sec0015" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0035">Principales hitos en el desarrollo de la inteligencia artificial</span><p id="par0020" class="elsevierStylePara elsevierViewall">Desde finales de los años 50, una serie de sucesos relacionados con la IA tuvieron gran impacto mediático.</p><p id="par0025" class="elsevierStylePara elsevierViewall">En 1970-1976, el <span class="elsevierStyleItalic">teorema de los 4 colores</span>, problema matemático no resuelto, consigue probarse gracias a la ayuda de un ordenador, convirtiéndose así en el primer ejemplo de la inclusión de los ordenadores en la resolución de problemas humanos<a class="elsevierStyleCrossRef" href="#bib0210"><span class="elsevierStyleSup">6</span></a>. Es en esta misma década cuando nace el término <span class="elsevierStyleItalic">inteligencia aumentada</span> para expresar el uso de los ordenadores dedicados a ensalzar la cognición humana<a class="elsevierStyleCrossRef" href="#bib0215"><span class="elsevierStyleSup">7</span></a>.</p><p id="par0030" class="elsevierStylePara elsevierViewall">Posteriormente, en 1997, el ordenador <span class="elsevierStyleItalic">Deep Blue</span> de IBM consigue vencer en un torneo de ajedrez al campeón del mundo, Garry Kasparov. <span class="elsevierStyleItalic">Deep Blue</span> poseía información de miles de partidas previas y era capaz de analizar todas las posibles situaciones de los siguientes<a class="elsevierStyleCrossRefs" href="#bib0210"><span class="elsevierStyleSup">6–8</span></a> movimientos: se trataba de IA <span class="elsevierStyleItalic">simbólica</span><span class="elsevierStyleItalic">(knowledge-based artificial intelligence)</span> (<a class="elsevierStyleCrossRef" href="#fig0005">fig. 1</a>), puesto que estos sistemas no <span class="elsevierStyleItalic">aprendían</span> nada, sino que simplemente aplicaban las reglas del juego programadas por humanos, con la ventaja que tienen los ordenadores de poder procesar muchos datos en poco tiempo<a class="elsevierStyleCrossRef" href="#bib0220"><span class="elsevierStyleSup">8</span></a>.</p><p id="par0035" class="elsevierStylePara elsevierViewall">En 2015, el sistema <span class="elsevierStyleItalic">AlphaGo</span>, desarrollado por Google DeepMind, se convierte en el primer sistema en vencer a uno de los mejores jugadores de go, un juego con reglas sencillas, pero más complejo que el ajedrez en el aspecto estratégico<a class="elsevierStyleCrossRef" href="#bib0225"><span class="elsevierStyleSup">9</span></a>. Este sistema se basaba ya en técnicas de AA implementadas a través de redes neuronales de AP, puesto que el algoritmo era capaz de inferir o <span class="elsevierStyleItalic">aprender</span> él solo las reglas del juego con base en los datos de partidas previas.</p><p id="par0040" class="elsevierStylePara elsevierViewall">Acercándonos al momento actual, en 2017, se presenta <span class="elsevierStyleItalic">AlphaZero</span> que, a diferencia de <span class="elsevierStyleItalic">AlphaGo</span>, es capaz de aprender enfrentándose a sí mismo, es decir, se basa en aprendizaje por refuerzo y no se le proporcionan previamente datos de partidas anteriores, evitando, por tanto, cualquier intervención humana. Con tan solo unas pocas horas de entrenamiento autónomo, este algoritmo fue capaz de ganar al go a otros programas y versiones previas<a class="elsevierStyleCrossRef" href="#bib0230"><span class="elsevierStyleSup">10</span></a>.</p><p id="par0045" class="elsevierStylePara elsevierViewall">En la actualidad, son las redes neuronales profundas, generalmente entrenadas mediante aprendizaje supervisado, los sistemas con mayor éxito en el ámbito médico y científico<a class="elsevierStyleCrossRef" href="#bib0235"><span class="elsevierStyleSup">11</span></a>. Estas redes se engloban dentro del AP dado que aprenden directamente de los datos y sin necesidad de estar estos previamente seleccionados por los humanos. El desarrollo de estas técnicas ha supuesto un cambio de paradigma en este campo y, sobre todo, en el análisis de imágenes y es por ello que son el foco de este artículo.</p></span></span><span id="sec0020" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0040">Las redes neuronales</span><p id="par0050" class="elsevierStylePara elsevierViewall">Las redes neuronales son modelos de predicción, es decir, dados unos datos previos, son capaces de producir una predicción al enfrentarse a datos nuevos. Otros modelos de predicción más conocidos son la regresión lineal simple, la múltiple o la regresión logística. Las redes neuronales obtienen mejores resultados que los anteriores ante problemas más complejos. En general, podemos dividir los modelos de predicción en modelos de clasificación y modelos de regresión. Los modelos de clasificación se basan en encontrar una predicción discreta para la variable de entrada como, por ejemplo, predecir la presencia o no de una enfermedad concreta a partir de una imagen. Mientras que los modelos de regresión se utilizan para encontrar predicciones continuas para la variable de entrada como, por ejemplo, predecir el valor del dímero D a partir de unas variables de entrada (a saber, la edad, la presencia de enfermedad oncológica, etc.). A continuación, se explican las bases de las redes neuronales, comenzando con la neurona artificial y terminando con las redes neuronales convolucionales, el tipo de red neuronal que más éxito ha demostrado en visión artificial.</p><span id="sec0025" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0045">La neurona artificial</span><p id="par0055" class="elsevierStylePara elsevierViewall">Las redes neuronales artificiales están compuestas por múltiples neuronas artificiales interconectadas, también llamadas perceptrones simples, que se pueden comparar con las neuronas biológicas (<a class="elsevierStyleCrossRef" href="#fig0015">fig. 3</a>). La neurona artificial o perceptrón simple consta de varias vías de entrada, que se asemejan a las dendritas de las neuronas biológicas y que transmiten la información hacia el soma. El soma de la neurona artificial es una función que integra toda la información de las entradas y que, tras aplicar una función de activación, genera una salida<a class="elsevierStyleCrossRef" href="#bib0195"><span class="elsevierStyleSup">3</span></a>.</p><elsevierMultimedia ident="fig0015"></elsevierMultimedia><p id="par0060" class="elsevierStylePara elsevierViewall">La función de activación se podría asemejar al proceso biológico de despolarización de las membranas, que no sigue una función lineal, sino que responde a la <span class="elsevierStyleItalic">ley del todo o nada</span>. Las neuronas biológicas reciben muchos impulsos que no consiguen <span class="elsevierStyleItalic">activarlas</span> o despolarizarlas, hasta que llega uno con suficiente potencia para despolarizarla consiguiendo generar una salida o potencial de acción que viaja a través del axón, el cual transmitirá el impulso a las neuronas contiguas<a class="elsevierStyleCrossRef" href="#bib0240"><span class="elsevierStyleSup">12</span></a>. A las neuronas artificiales también les llegan una serie de estímulos y, si alguno de ellos logra <span class="elsevierStyleItalic">activar</span> la función de activación, esta dará lugar a una salida. La razón matemática que explica que estas funciones sean indispensables es que son las encargadas de introducir la <span class="elsevierStyleItalic">no linealidad</span> en la neurona, lo que permite poder aproximarse a funciones mucho más complejas y así resolver, por ejemplo, problemas de clasificación que no sean separables por una recta<a class="elsevierStyleCrossRef" href="#bib0195"><span class="elsevierStyleSup">3</span></a>.</p></span><span id="sec0030" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0050">La red neuronal artificial clásica</span><p id="par0065" class="elsevierStylePara elsevierViewall">Al igual que las neuronas biológicas se organizan en capas para formar redes neuronales biológicas, las neuronas artificiales hacen lo mismo formando redes artificiales, por lo tanto, la asociación de perceptrones en capas y la concatenación de sucesivas capas es lo que da lugar a una red neuronal (<a class="elsevierStyleCrossRef" href="#fig0015">fig. 3</a>)<a class="elsevierStyleCrossRef" href="#bib0245"><span class="elsevierStyleSup">13</span></a>.</p><p id="par0070" class="elsevierStylePara elsevierViewall">La arquitectura de las redes neuronales profundas se puede asemejar al modelo biológico de la corteza visual primaria propuesto por D. H. Hubel y T. Wiesel, ambos premios Nobel, en 1959. Según este modelo biológico, la corteza visual primaria está compuesta por 2 tipos de células: las células simples y las células complejas. Las células simples, también llamadas <span class="elsevierStyleItalic">detectoras de bordes</span>, responden positivamente al detectar el borde de un objeto en una determinada orientación, mientras que las células complejas utilizan la contribución de las anteriores para encontrar todos los bordes del objeto. La organización de estas células en capas, de modo jerárquico, hace que los objetos se vayan reconociendo de forma secuencial, empezando por las características más simples para acabar por las más complejas. Las redes neuronales mantienen una arquitectura similar: la primera capa de la red se encarga de extraer características groseras de la imagen, como los bordes, el contraste de color, etc. Para, posteriormente, pasar la información por sucesivas capas que van extrayendo detalles más finos<a class="elsevierStyleCrossRef" href="#bib0250"><span class="elsevierStyleSup">14</span></a>.</p></span><span id="sec0035" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0055">El proceso de aprendizaje o entrenamiento</span><p id="par0075" class="elsevierStylePara elsevierViewall">Antes de comenzar el entrenamiento de la red, se deben seleccionar unas variables llamadas <span class="elsevierStyleItalic">hiperparámetros.</span> Los <span class="elsevierStyleItalic">hiperparámetros</span> son variables que determinan la estructura de la red y de cómo se entrena, por lo tanto, se definen antes de comenzar el entrenamiento y se van ajustando en función de los resultados del mismo. El tipo de función de activación utilizada y el número de capas ocultas del algoritmo son ejemplos de <span class="elsevierStyleItalic">hiperparámetros</span><a class="elsevierStyleCrossRef" href="#bib0190"><span class="elsevierStyleSup">2</span></a>.</p><p id="par0080" class="elsevierStylePara elsevierViewall">El proceso de aprendizaje o entrenamiento de una red neuronal consiste en ajustar unos parámetros llamados pesos. Los pesos se entienden como la intensidad de las conexiones existentes entre las neuronas artificiales. En la neurona biológica, los pesos se podrían asemejar a la intensidad de las sinapsis entre neuronas. Así, ajustando las <span class="elsevierStyleItalic">sinapsis</span> conseguiremos un resultado final óptimo<a class="elsevierStyleCrossRef" href="#bib0255"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0085" class="elsevierStylePara elsevierViewall">Cada vez que una imagen entra en la red, se activan secuencialmente todas las neuronas de todas las capas de la red, es decir, se van generando unos pesos para cada conexión neuronal, a lo que se le llama <span class="elsevierStyleItalic">propagación hacia delante</span>. Finalmente, al llegar a la última capa, gracias a este proceso, se genera una predicción para esa imagen. Pero, dado que todavía estamos entrenando la red, ¿cómo podemos saber si esa predicción es correcta o errónea? ¿Cómo podemos hacer que la red vaya mejorando con cada imagen de entrenamiento?</p><p id="par0090" class="elsevierStylePara elsevierViewall">En un modelo de aprendizaje supervisado, la red neuronal comienza utilizando unos pesos aleatorios y <span class="elsevierStyleItalic">aprende</span> cuando esos pesos se van ajustando al comparar los resultados de la red para un ejemplo con el resultado de referencia o etiqueta<a class="elsevierStyleCrossRef" href="#bib0235"><span class="elsevierStyleSup">11</span></a>. Para ello necesita, por un lado, las referencias o etiquetas; por otro, una función que mida el error generado <span class="elsevierStyleItalic">(función de pérdida);</span> un algoritmo de optimización que calcule la magnitud y la dirección en la que deben modificarse los pesos con el objetivo de minimizar ese error <span class="elsevierStyleItalic">(descenso de gradiente),</span> y, por último, otra función capaz de trasladar este <span class="elsevierStyleItalic">ajuste</span> de forma retrógrada a través de la red y que modifique los pesos de cada neurona en función de cuánto de responsable sea esa neurona del resultado final <span class="elsevierStyleItalic">(propagación hacia atrás)</span> (<a class="elsevierStyleCrossRef" href="#fig0020">fig. 4</a>)<a class="elsevierStyleCrossRef" href="#bib0255"><span class="elsevierStyleSup">15</span></a>.</p><elsevierMultimedia ident="fig0020"></elsevierMultimedia><p id="par0095" class="elsevierStylePara elsevierViewall">Este proceso de ajuste de pesos es lo que se llama <span class="elsevierStyleItalic">aprendizaje</span> de la red y se da principalmente en las capas ocultas. A lo largo de la red, y mediante el ajuste de los pesos, las capas ocultas van formando representaciones de los datos cada vez más complejas, pero que se ajustan cada vez más al problema (<a class="elsevierStyleCrossRef" href="#fig0025">fig. 5</a>)<a class="elsevierStyleCrossRef" href="#bib0190"><span class="elsevierStyleSup">2</span></a>. Así, la base tanto del AA como del AP es transformar los datos sucesivamente hasta encontrar la mejor representación que permita resolver el problema. El término <span class="elsevierStyleItalic">profundo</span> no hace referencia a un entendimiento más profundo de los datos, sino a aprender capas sucesivas de representaciones cada vez más significativas y el número de estas capas es lo que se conoce como la profundidad del modelo<a class="elsevierStyleCrossRef" href="#bib0195"><span class="elsevierStyleSup">3</span></a>.</p><elsevierMultimedia ident="fig0025"></elsevierMultimedia><p id="par0100" class="elsevierStylePara elsevierViewall">Para entrenar una red neuronal, es necesario disponer de al menos 2 subconjuntos de datos: un grupo para el entrenamiento propiamente dicho, con el que el modelo ajustará sus pesos de acuerdo con un mínimo en la <span class="elsevierStyleItalic">función de pérdida</span>; y otro grupo de datos con el que evaluar el rendimiento de este, denominado el conjunto de validación. Así, se van realizando iteraciones (llamadas <span class="elsevierStyleItalic">épocas)</span> sobre estos grupos de datos y el modelo irá obteniendo cada vez mejores resultados que se irán observando en la evaluación del rendimiento del modelo con el conjunto de validación en cada iteración. Si el rendimiento del modelo no es bueno, el experto puede realizar cambios en los <span class="elsevierStyleItalic">hiperparámetros</span>.</p><p id="par0105" class="elsevierStylePara elsevierViewall">Finalmente, una vez concluido el entrenamiento, es decir, una vez ajustados tantos los pesos como los <span class="elsevierStyleItalic">hiperparámetros</span>, se prueba el modelo con datos nuevos (conjunto de datos denominado test) para evaluar su rendimiento real. Es decir, se expone al modelo a datos nuevos, por ejemplo, imágenes nuevas y no etiquetadas, y se obtiene una predicción; por ejemplo, la clase a la que pertenece esa imagen en un problema de clasificación. Los datos del test no deben nunca utilizarse para modificar pesos o <span class="elsevierStyleItalic">hiperparámetros</span> del modelo.</p></span><span id="sec0040" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0060">Las redes neuronales convolucionales</span><p id="par0110" class="elsevierStylePara elsevierViewall">Con la extensión del uso de las redes neuronales clásicas, empezaron a surgir problemas que impulsaron el desarrollo de formas más complejas de redes neuronales. En el caso de la imagen y el reconocimiento de objetos, el principal problema era que, generalmente, el mismo objeto podía tener formas y posiciones diferentes, lo que reducía el rendimiento de las redes. Así, surgieron las redes neuronales convolucionales (RNC)<span class="elsevierStyleItalic">,</span> las más usadas para imagen médica<a class="elsevierStyleCrossRef" href="#bib0255"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0115" class="elsevierStylePara elsevierViewall">Las redes neuronales clásicas mencionadas anteriormente están compuestas por capas totalmente conectadas. Esto significa que todas las neuronas de una capa están conectadas con las de la siguiente capa y, por lo tanto, la imagen se interpreta en su totalidad, tomando como entrada el valor de todos los píxeles y realizando operaciones que incluyen toda la información de la imagen. Así, si por ejemplo la red tiene como objetivo aprender a identificar coches y en una de las imágenes aparece un coche en la esquina superior izquierda y en otra en la esquina inferior derecha, la red tendrá que aprender unos pesos diferentes para cada una de esas imágenes, dado que la diferente localización del mismo objeto hace que sean interpretados como objetos diferentes, cada uno con sus pesos y representaciones específicas. Esto hace que estas redes no funcionen bien ni sean eficientes en tareas como la interpretación de la imagen o la identificación de objetos. Por el contrario, las RNC disponen de unas matrices denominadas <span class="elsevierStyleItalic">filtros</span> capaces de analizar la composición de la imagen y que conceden a la red la capacidad de identificar el coche independientemente de su localización, lo que las hace mucho más eficientes que las redes neuronales clásicas para la interpretación de la imagen<a class="elsevierStyleCrossRef" href="#bib0255"><span class="elsevierStyleSup">15</span></a>.</p><p id="par0120" class="elsevierStylePara elsevierViewall">Cada capa convolucional de una RNC puede constar de varios <span class="elsevierStyleItalic">filtros</span>. Estos <span class="elsevierStyleItalic">filtros</span> son matrices numéricas que van recorriendo la imagen realizando operaciones de convolución sobre grupos de píxeles, dando lugar a mapas de características. Cada <span class="elsevierStyleItalic">filtro</span> representa una característica (<a class="elsevierStyleCrossRef" href="#fig0030">fig. 6</a>). Así, capa tras capa, se van extrayendo características cada vez más complejas y se van formando representaciones cada vez más <span class="elsevierStyleItalic">groseras</span> de los datos de entrada. Es habitual que las capas convolucionales se sigan de capas de <span class="elsevierStyleItalic">pooling,</span> capas que reducen la dimensionalidad de los mapas y así el coste computacional (<a class="elsevierStyleCrossRef" href="#fig0035">fig. 7</a>). Las representaciones de la última capa de la parte convolucional son transformadas a un vector final a través de una o más capas completamente conectadas y, finalmente, a una predicción. A esta segunda parte de la red se le denomina comúnmente el clasificador<a class="elsevierStyleCrossRef" href="#bib0255"><span class="elsevierStyleSup">15</span></a>.</p><elsevierMultimedia ident="fig0030"></elsevierMultimedia><elsevierMultimedia ident="fig0035"></elsevierMultimedia><p id="par0125" class="elsevierStylePara elsevierViewall">En conclusión, las RNC, gracias a los <span class="elsevierStyleItalic">filtros</span>, aprenden patrones locales y, por lo tanto, son capaces de reconocer dicho patrón independientemente de que se realice una traslación, mientras que las redes neuronales clásicas aprenden patrones globales y no son capaces de abstraerse de la localización, orientación o forma del objeto en la imagen. Así pues, las RNC han demostrado ser las más adecuadas para trabajar con imagen médica, siendo capaces de realizar tareas complejas como la clasificación de imágenes<a class="elsevierStyleCrossRef" href="#bib0190"><span class="elsevierStyleSup">2</span></a>.</p></span></span><span id="sec0045" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0065">Principales problemas de las redes neuronales y algunas soluciones</span><p id="par0130" class="elsevierStylePara elsevierViewall">Entre los obstáculos a los que nos podemos enfrentar durante el entrenamiento de una red neuronal y que somos capaces de detectar gracias al conjunto de validación destacan el sobreajuste y el subajuste. El sobreajuste ocurre cuando el modelo se especializa tanto en los datos de entrenamiento que no es capaz de generalizar y, por lo tanto, al enfrentarse a datos nuevos no obtiene buenos resultados. El subajuste, por su parte, se refiere a un modelo que, debido a su insuficiente especialización o excesiva simplicidad, no es capaz de obtener buenos resultados ni siquiera con los datos de entrenamiento. En ninguno de los casos el modelo habrá encontrado aquellas características importantes que le permitirían resolver el problema de forma general o con datos nuevos, es decir, en ninguno de los casos el modelo habrá <span class="elsevierStyleItalic">aprendido</span> a generalizar. En conclusión, las redes neuronales deben aprender transformaciones y no ejemplos concretos<a class="elsevierStyleCrossRef" href="#bib0195"><span class="elsevierStyleSup">3</span></a>.</p><p id="par0135" class="elsevierStylePara elsevierViewall">El sobreajuste está directamente relacionado con uno de los obstáculos más importantes con los que nos encontramos a la hora de desarrollar sistemas relacionados con la imagen médica: la escasez de datos etiquetados. Una de las razones de este problema es que la creación de amplias bases de datos de imágenes debidamente etiquetadas requiere mucho tiempo y esfuerzo por parte del experto, en nuestro caso, del radiólogo. Además, dado que no siempre concuerdan el diagnóstico por imagen con el histológico, se debe tener muy en cuenta qué prueba es la que se debe considerar diagnóstica de la enfermedad a estudio para así crear la etiqueta. La imagen se considera diagnóstica en algunas entidades como las fracturas. Sin embargo, la mayoría de las enfermedades necesitan de otras pruebas para realizar el diagnóstico definitivo, ya sea la histología o los hallazgos clínico-analíticos, como, por ejemplo, el cáncer, en el que en la mayoría de los casos es necesario el resultado histológico para realizar su diagnóstico<a class="elsevierStyleCrossRef" href="#bib0260"><span class="elsevierStyleSup">16</span></a>. A su vez, esta falta de imágenes etiquetadas muchas veces se ve acentuada debido al complicado marco ético y legal en la transferencia de datos de carácter médico<a class="elsevierStyleCrossRef" href="#bib0265"><span class="elsevierStyleSup">17</span></a>.</p><p id="par0140" class="elsevierStylePara elsevierViewall">No obstante, existen varios proyectos en marcha con el objetivo de crear amplias bases de datos con imágenes médicas etiquetadas, como el Cancer Imaging Archive<a class="elsevierStyleCrossRef" href="#bib0270"><span class="elsevierStyleSup">18</span></a>, o empresas como Savana<a class="elsevierStyleCrossRef" href="#bib0275"><span class="elsevierStyleSup">19</span></a>, que ofrecen soluciones de IA para la explotación de los datos médicos en formato de texto libre. También se plantean estrategias como el informe interactivo, en el que el radiólogo puede crear vínculos (<span class="elsevierStyleItalic">hipertexto</span>) a otros textos o etiquetas en el propio informe<a class="elsevierStyleCrossRef" href="#bib0260"><span class="elsevierStyleSup">16</span></a>; el informe estructurado; o incluso proyectos de colaboración internacionales que involucran a muchos radiólogos, como la preparación del conjunto de datos para el <span class="elsevierStyleItalic">RSNA 2019 Brain CT</span><span class="elsevierStyleItalic">Hemorrahge Challenge</span><a class="elsevierStyleCrossRef" href="#bib0280"><span class="elsevierStyleSup">20</span></a>; plataformas como OpenNeuro<a class="elsevierStyleCrossRef" href="#bib0285"><span class="elsevierStyleSup">21</span></a>, que facilita el acceso a bases de datos tanto de imágenes cerebrales como de electroencefalogramas; la red europea de imagen de tumores cerebrales ENBIT<a class="elsevierStyleCrossRef" href="#bib0290"><span class="elsevierStyleSup">22</span></a>, o consorcios como ENIGMA<a class="elsevierStyleCrossRef" href="#bib0295"><span class="elsevierStyleSup">23</span></a>, que une a investigadores en genómica e imagen cerebral.</p><p id="par0145" class="elsevierStylePara elsevierViewall">Otra de las soluciones que más éxito está demostrando, principalmente en el ámbito médico, es la transferencia de aprendizaje <span class="elsevierStyleItalic">(transfer learning).</span> Esta técnica consiste en poder trasladar a nuestro modelo, desde una red ya entrenada, tanto la arquitectura como los pesos de las primeras capas. Se elige trasladar los pesos de las primeras capas debido al aprendizaje jerárquico de las redes neuronales, ya comentado anteriormente, según el cual son las primeras capas las que se encargan de extraer características más simples, es decir, menos específicas del problema a resolver y que se asume que son comunes para ambos conjuntos de imágenes. En este sentido, se puede o bien entrenar únicamente la última parte de la red, el clasificador, y mantener la parte convolucional <span class="elsevierStyleItalic">congelada,</span> o bien entrenar también un número variable de capas de la parte convolucional, a lo que se denomina <span class="elsevierStyleItalic">descongelar</span> capas. En cualquier caso, este nuevo modelo inicia su proceso de aprendizaje <span class="elsevierStyleItalic">con ventaja</span>, al tener que ajustar los pesos desde una posición favorable en lugar de partir de valores aleatorios. Es por ello que estos modelos pueden obtener buenos resultados con menos datos que aquellos modelos completamente nuevos<a class="elsevierStyleCrossRef" href="#bib0300"><span class="elsevierStyleSup">24</span></a>.</p><p id="par0150" class="elsevierStylePara elsevierViewall">Y, por último, uno de los problemas más importante de estos sistemas y, al mismo tiempo, más difícil de solucionar es su escasa transparencia. Ya que, aunque se pueda explicar el proceso matemático mediante el cual se construyen los algoritmos, no se conoce claramente cómo llegan a sus conclusiones. Es por ello que, todavía a día de hoy, las RNC son consideradas cajas negras<a class="elsevierStyleCrossRef" href="#bib0305"><span class="elsevierStyleSup">25</span></a> y mejorar su explicabilidad es motivo de estudio. Una de las soluciones que está siendo muy utilizada son las <span class="elsevierStyleItalic">Grad-CAM</span><a class="elsevierStyleCrossRef" href="#bib0310"><span class="elsevierStyleSup">26</span></a><span class="elsevierStyleItalic">,</span> sistemas de localización mediante gradiente de las áreas de la imagen en las que el algoritmo se fija para tomar la decisión final. Al mismo tiempo, esta escasa explicabilidad y transparencia dificultan el desarrollo de un marco ético-legal para la regulación de la implementación de estos sistemas en la práctica médica habitual<a class="elsevierStyleCrossRef" href="#bib0315"><span class="elsevierStyleSup">27</span></a>.</p></span><span id="sec0050" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0070">Desarrollo de sistemas de inteligencia artificial en los servicios de Radiología</span><p id="par0155" class="elsevierStylePara elsevierViewall">Dentro de un servicio de Radiodiagnóstico, los sistemas de IA pueden aplicarse en múltiples áreas, como en tareas relacionadas con la citación de los pacientes<a class="elsevierStyleCrossRef" href="#bib0320"><span class="elsevierStyleSup">28</span></a>, la selección del mejor protocolo de imagen y dosis de radiación<a class="elsevierStyleCrossRef" href="#bib0325"><span class="elsevierStyleSup">29</span></a>, la colocación del paciente en el equipo<a class="elsevierStyleCrossRef" href="#bib0330"><span class="elsevierStyleSup">30</span></a>, el posprocesado de la imagen (reconstrucciones, mejora de la calidad de la imagen, etc.)<a class="elsevierStyleCrossRef" href="#bib0335"><span class="elsevierStyleSup">31</span></a> y, por supuesto, y como ya hemos explicado, en la interpretación de la imagen<a class="elsevierStyleCrossRef" href="#bib0340"><span class="elsevierStyleSup">32</span></a>. En este último campo, no solo se están desarrollando sistemas de IA que realicen un diagnóstico, sino también sistemas capaces de segmentar órganos y detectar lesiones, así como monitorizarlas<a class="elsevierStyleCrossRef" href="#bib0345"><span class="elsevierStyleSup">33</span></a>. Y, yendo un poco más allá, se están estudiando sistemas que predigan, por ejemplo, la supervivencia estimada o la gravedad de la enfermedad en función del tipo de lesión u otros datos clínico-analíticos del paciente<a class="elsevierStyleCrossRefs" href="#bib0340"><span class="elsevierStyleSup">32–34</span></a>. La suma de datos clínicos del paciente a los datos propios de la imagen puede aportar mejoras sustanciales en los resultados de estos modelos de IA, lo que ha llevado a crear redes que combinan métodos de AP y de AA<span class="elsevierStyleItalic">,</span> las redes híbridas<a class="elsevierStyleCrossRef" href="#bib0350"><span class="elsevierStyleSup">34</span></a>.</p><p id="par0160" class="elsevierStylePara elsevierViewall">Cuando se plantea el desarrollo de un sistema de IA relacionado con la interpretación de imagen médica, lo primero es obtener la aprobación del comité de ética del hospital. Generalmente, para estudios retrospectivos en los que la obtención del consentimiento informado no es factible y los riesgos de fuga de datos médicos son mínimos, el consentimiento informado del paciente suele ser prescindible<a class="elsevierStyleCrossRef" href="#bib0355"><span class="elsevierStyleSup">35</span></a>.</p><p id="par0165" class="elsevierStylePara elsevierViewall">Posteriormente, se procede a la selección de aquellos pacientes a incluir en el estudio y a la recolección de sus imágenes. Este es uno de los pasos más importantes en el desarrollo de estos sistemas que, como ya hemos mencionado, dependen, en gran medida, de la cantidad y la calidad de los datos <span class="elsevierStyleItalic">(data-driven systems).</span> A día de hoy, debido a que el etiquetado de las imágenes radiológicas no está extendido y que los sistemas de información radiológicos no están preparados para este tipo de búsquedas, la obtención de imágenes de una enfermedad concreta no es una tarea fácil<a class="elsevierStyleCrossRef" href="#bib0355"><span class="elsevierStyleSup">35</span></a>. Aquí, el procesamiento del lenguaje natural proporciona técnicas capaces de obtener datos estructurados de los informes radiológicos, con resultados muy prometedores<a class="elsevierStyleCrossRef" href="#bib0360"><span class="elsevierStyleSup">36</span></a>. Asimismo, es de gran relevancia la desidentificación de las imágenes que, en el caso del formato DICOM, puede ser compleja. Una vez obtenidos los datos, estos deben ser preprocesados en función del tipo de red neuronal que se vaya a entrenar<a class="elsevierStyleCrossRef" href="#bib0260"><span class="elsevierStyleSup">16</span></a>.</p><p id="par0170" class="elsevierStylePara elsevierViewall">Cuando la base de datos ya está preparada, esta se divide en los 3 subconjuntos mencionados anteriormente: el de entrenamiento, el de validación y el de test, con un porcentaje aproximado del 80, el 10 y el 10%, respectivamente<a class="elsevierStyleCrossRef" href="#bib0260"><span class="elsevierStyleSup">16</span></a>.</p><p id="par0175" class="elsevierStylePara elsevierViewall">Ofrecemos un repositorio en GitHub donde ponemos a su disposición un ejemplo de una neurona que resuelve un problema de regresión y otro ejemplo de una red neuronal que resuelve un problema de clasificación, en el siguiente enlace: <a href="https://github.com/deepMedicalImaging/RedNeuronalArtificial.git">https://github.com/deepMedicalImaging/RedNeuronalArtificial.git</a>.</p></span><span id="sec0055" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0075">Autoría</span><p id="par0180" class="elsevierStylePara elsevierViewall"><ul class="elsevierStyleList" id="lis0005"><li class="elsevierStyleListItem" id="lsti0005"><span class="elsevierStyleLabel">1.</span><p id="par0185" class="elsevierStylePara elsevierViewall">Responsable de la integridad del estudio: AP, PM, PS, LL y DR.</p></li><li class="elsevierStyleListItem" id="lsti0010"><span class="elsevierStyleLabel">2.</span><p id="par0190" class="elsevierStylePara elsevierViewall">Concepción del estudio: AP, PM, PS, LL y DR.</p></li><li class="elsevierStyleListItem" id="lsti0015"><span class="elsevierStyleLabel">3.</span><p id="par0195" class="elsevierStylePara elsevierViewall">Diseño del estudio: AP.</p></li><li class="elsevierStyleListItem" id="lsti0020"><span class="elsevierStyleLabel">4.</span><p id="par0200" class="elsevierStylePara elsevierViewall">Obtención de los datos: no procede.</p></li><li class="elsevierStyleListItem" id="lsti0025"><span class="elsevierStyleLabel">5.</span><p id="par0205" class="elsevierStylePara elsevierViewall">Análisis e interpretación de los datos: no procede.</p></li><li class="elsevierStyleListItem" id="lsti0030"><span class="elsevierStyleLabel">6.</span><p id="par0210" class="elsevierStylePara elsevierViewall">Tratamiento estadístico: no procede.</p></li><li class="elsevierStyleListItem" id="lsti0035"><span class="elsevierStyleLabel">7.</span><p id="par0215" class="elsevierStylePara elsevierViewall">Búsqueda bibliográfica: AP.</p></li><li class="elsevierStyleListItem" id="lsti0040"><span class="elsevierStyleLabel">8.</span><p id="par0220" class="elsevierStylePara elsevierViewall">Redacción del trabajo: AP.</p></li><li class="elsevierStyleListItem" id="lsti0045"><span class="elsevierStyleLabel">9.</span><p id="par0225" class="elsevierStylePara elsevierViewall">Revisión crítica del manuscrito con aportaciones intelectualmente relevantes: AP, PM, PS, LL y DR.</p></li><li class="elsevierStyleListItem" id="lsti0050"><span class="elsevierStyleLabel">10.</span><p id="par0230" class="elsevierStylePara elsevierViewall">Aprobación de la versión final: AP, PM, PS, LL y DR.</p></li></ul></p></span><span id="sec0060" class="elsevierStyleSection elsevierViewall"><span class="elsevierStyleSectionTitle" id="sect0080">Conflicto de intereses</span><p id="par0235" class="elsevierStylePara elsevierViewall">Los autores declaran no tener ningún conflicto de interés.</p></span></span>" "textoCompletoSecciones" => array:1 [ "secciones" => array:11 [ 0 => array:3 [ "identificador" => "xres1707713" "titulo" => "Resumen" "secciones" => array:1 [ 0 => array:1 [ "identificador" => "abst0005" ] ] ] 1 => array:2 [ "identificador" => "xpalclavsec1510581" "titulo" => "Palabras clave" ] 2 => array:3 [ "identificador" => "xres1707712" "titulo" => "Abstract" "secciones" => array:1 [ 0 => array:1 [ "identificador" => "abst0010" ] ] ] 3 => array:2 [ "identificador" => "xpalclavsec1510580" "titulo" => "Keywords" ] 4 => array:3 [ "identificador" => "sec0005" "titulo" => "Inteligencia artificial, aprendizaje automático y aprendizaje profundo" "secciones" => array:2 [ 0 => array:2 [ "identificador" => "sec0010" "titulo" => "Conceptos básicos" ] 1 => array:2 [ "identificador" => "sec0015" "titulo" => "Principales hitos en el desarrollo de la inteligencia artificial" ] ] ] 5 => array:3 [ "identificador" => "sec0020" "titulo" => "Las redes neuronales" "secciones" => array:4 [ 0 => array:2 [ "identificador" => "sec0025" "titulo" => "La neurona artificial" ] 1 => array:2 [ "identificador" => "sec0030" "titulo" => "La red neuronal artificial clásica" ] 2 => array:2 [ "identificador" => "sec0035" "titulo" => "El proceso de aprendizaje o entrenamiento" ] 3 => array:2 [ "identificador" => "sec0040" "titulo" => "Las redes neuronales convolucionales" ] ] ] 6 => array:2 [ "identificador" => "sec0045" "titulo" => "Principales problemas de las redes neuronales y algunas soluciones" ] 7 => array:2 [ "identificador" => "sec0050" "titulo" => "Desarrollo de sistemas de inteligencia artificial en los servicios de Radiología" ] 8 => array:2 [ "identificador" => "sec0055" "titulo" => "Autoría" ] 9 => array:2 [ "identificador" => "sec0060" "titulo" => "Conflicto de intereses" ] 10 => array:1 [ "titulo" => "Bibliografía" ] ] ] "pdfFichero" => "main.pdf" "tienePdf" => true "fechaRecibido" => "2021-11-07" "fechaAceptado" => "2022-03-15" "PalabrasClave" => array:2 [ "es" => array:1 [ 0 => array:4 [ "clase" => "keyword" "titulo" => "Palabras clave" "identificador" => "xpalclavsec1510581" "palabras" => array:6 [ 0 => "Inteligencia artificial" 1 => "Radiología" 2 => "Aprendizaje automático" 3 => "Aprendizaje profundo" 4 => "Redes neuronales artificiales" 5 => "Imagen médica" ] ] ] "en" => array:1 [ 0 => array:4 [ "clase" => "keyword" "titulo" => "Keywords" "identificador" => "xpalclavsec1510580" "palabras" => array:6 [ 0 => "Artificial intelligence" 1 => "Radiology" 2 => "Machine learning" 3 => "Deep learning" 4 => "Artificial neural networks" 5 => "Medical imaging" ] ] ] ] "tieneResumen" => true "resumen" => array:2 [ "es" => array:2 [ "titulo" => "Resumen" "resumen" => "<span id="abst0005" class="elsevierStyleSection elsevierViewall"><p id="spar0005" class="elsevierStyleSimplePara elsevierViewall">La interpretación de la imagen médica es una de las principales tareas que realiza el radiólogo. Conseguir que los ordenadores sean capaces de realizar este tipo de tareas cognitivas ha sido, durante años, un reto y a la vez un objetivo en el campo de la visión artificial. Gracias a los avances tecnológicos estamos ahora más cerca que nunca de conseguirlo y los radiólogos debemos involucrarnos en ello para garantizar que el paciente siga siendo el centro de la práctica médica.</p><p id="spar0010" class="elsevierStyleSimplePara elsevierViewall">Este artículo explica de forma clara los conceptos teóricos más importantes de esta área y los principales problemas o retos actuales; además, aporta información práctica en relación con el desarrollo de un proyecto de inteligencia artificial en un servicio de Radiología.</p></span>" ] "en" => array:2 [ "titulo" => "Abstract" "resumen" => "<span id="abst0010" class="elsevierStyleSection elsevierViewall"><p id="spar0015" class="elsevierStyleSimplePara elsevierViewall">The interpretation of medical imaging tests is one of the main tasks that radiologists do. For years, it has been a challenge to teach computers to do this kind of cognitive task; the main objective of the field of computer vision is to overcome this challenge. Thanks to technological advances, we are now closer than ever to achieving this goal, and radiologists need to become involved in this effort to guarantee that the patient remains at the center of medical practice.</p><p id="spar0060" class="elsevierStyleSimplePara elsevierViewall">This article clearly explains the most important theoretical concepts in this area and the main problems or challenges at the present time; moreover, it provides practical information about the development of an artificial intelligence project in a radiology department.</p></span>" ] ] "multimedia" => array:7 [ 0 => array:7 [ "identificador" => "fig0005" "etiqueta" => "Figura 1" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr1.jpeg" "Alto" => 1383 "Ancho" => 2508 "Tamanyo" => 248101 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0020" class="elsevierStyleSimplePara elsevierViewall">Esquema que engloba los diferentes tipos de inteligencia artificial (IA). Se distinguen 2 campos principales: la IA simbólica, formada por sistemas que necesitan la programación previa de unas reglas, y la IA basada en datos, formada por sistemas que <span class="elsevierStyleItalic">aprenden</span>, dentro de la cual se encuentra el aprendizaje automático, con algoritmos a los que hay que ofrecerles los datos ya <span class="elsevierStyleItalic">depurados</span> y, dentro de este, el aprendizaje profundo con sistemas que, gracias a la mayor cantidad de capas, son capaces de hacer esto ellos mismos.</p> <p id="spar0025" class="elsevierStyleSimplePara elsevierViewall">AI: artificial intelligence.</p>" ] ] 1 => array:7 [ "identificador" => "fig0010" "etiqueta" => "Figura 2" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr2.jpeg" "Alto" => 731 "Ancho" => 2508 "Tamanyo" => 190596 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0030" class="elsevierStyleSimplePara elsevierViewall">Se distinguen 3 tipos de aprendizaje: supervisado, no supervisado y por refuerzo.</p>" ] ] 2 => array:7 [ "identificador" => "fig0015" "etiqueta" => "Figura 3" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr3.jpeg" "Alto" => 1460 "Ancho" => 2841 "Tamanyo" => 344035 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0035" class="elsevierStyleSimplePara elsevierViewall">Comparativa entre la neurona biológica y la artificial y la red neuronal biológica y la artificial. La red neuronal artificial se divide en 3 partes principales: la <span class="elsevierStyleItalic">capa de entrada</span> es una capa de perceptrones especializados en recibir la información; las <span class="elsevierStyleItalic">capas ocultas</span> son aquellas capas capaces de extraer las características de los datos e ir transformándolos en busca de la mejor representación del problema a resolver, y la <span class="elsevierStyleItalic">capa de salida</span> es una capa preparada para ofrecer la información de salida, como, por ejemplo, en los problemas de clasificación, la clase a la que corresponde la imagen de entrada según la predicción de la red.</p>" ] ] 3 => array:7 [ "identificador" => "fig0020" "etiqueta" => "Figura 4" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr4.jpeg" "Alto" => 1143 "Ancho" => 2841 "Tamanyo" => 134729 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0040" class="elsevierStyleSimplePara elsevierViewall">El proceso de aprendizaje supervisado (el entrenamiento). Mediante la <span class="elsevierStyleItalic">función de</span><span class="elsevierStyleItalic">pérdida</span> se cuantifica la diferencia entre la predicción de la red y la etiqueta de cada entrada; a continuación, a través de la <span class="elsevierStyleItalic">propagación hacia atrás</span> de este error y del algoritmo de optimización, se ajustan los pesos de las distintas neuronas hasta que correspondan con un mínimo en <span class="elsevierStyleItalic">la función de pérdida</span>.</p>" ] ] 4 => array:7 [ "identificador" => "fig0025" "etiqueta" => "Figura 5" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr5.jpeg" "Alto" => 787 "Ancho" => 1505 "Tamanyo" => 63828 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0045" class="elsevierStyleSimplePara elsevierViewall">Las redes neuronales buscan la mejor representación de los datos que les permita resolver el problema. En este ejemplo, si tratamos de clasificar los puntos en negros y blancos tendríamos que trazar una recta que correspondería con una ecuación no intuitiva. Sin embargo, si aplicamos una transformación en los datos que hagan que la imagen rote, el problema, de repente, se vuelve mucho más sencillo (x<span class="elsevierStyleHsp" style=""></span>=<span class="elsevierStyleHsp" style=""></span>0).</p>" ] ] 5 => array:7 [ "identificador" => "fig0030" "etiqueta" => "Figura 6" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr6.jpeg" "Alto" => 736 "Ancho" => 2925 "Tamanyo" => 179808 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0050" class="elsevierStyleSimplePara elsevierViewall"><span class="elsevierStyleItalic">Filtros</span> y <span class="elsevierStyleItalic">pooling</span>: El <span class="elsevierStyleItalic">filtro</span> es una matriz que va recorriendo la imagen y va realizando una operación de multiplicación elemento a elemento y suma para obtener un valor (convolución). Obtenemos valores altos cuando aplicamos el <span class="elsevierStyleItalic">filtro</span> sobre una característica similar al mismo y valores bajos cuando lo aplicamos sobre una distinta. En un <span class="elsevierStyleItalic">filtro</span> que detecte bordes verticales, si obtenemos valores altos significa que se ha detectado un borde vertical. ¿Recuerda esto a las células de la corteza visual primaria? Por otro lado, la capa de <span class="elsevierStyleItalic">pooling,</span> de tipo <span class="elsevierStyleItalic">average</span> y de tamaño 2 × 2 en este ejemplo, realiza la media de los valores del rango, reduciendo la dimensionalidad del mapa de características.</p>" ] ] 6 => array:7 [ "identificador" => "fig0035" "etiqueta" => "Figura 7" "tipo" => "MULTIMEDIAFIGURA" "mostrarFloat" => true "mostrarDisplay" => false "figura" => array:1 [ 0 => array:4 [ "imagen" => "gr7.jpeg" "Alto" => 1285 "Ancho" => 2841 "Tamanyo" => 194453 ] ] "descripcion" => array:1 [ "es" => "<p id="spar0055" class="elsevierStyleSimplePara elsevierViewall">Ejemplo con una imagen: se muestra un ejemplo en el que la imagen de una TC de cráneo va pasando por sucesivas capas que contienen 3 <span class="elsevierStyleItalic">filtros</span> de 3 × 3 y la función de <span class="elsevierStyleItalic">pooling</span>, lo que da lugar a diferentes mapas de características cada vez de menor resolución espacial. A mayor profundidad en la red, los mapas son cada vez más groseros y de menor tamaño, transmitiéndose hacia delante solo la información más relevante.</p>" ] ] ] "bibliografia" => array:2 [ "titulo" => "Bibliografía" "seccion" => array:1 [ 0 => array:2 [ "identificador" => "bibs0015" "bibliografiaReferencia" => array:36 [ 0 => array:3 [ "identificador" => "bib0185" "etiqueta" => "1" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "European Society of Radiology. What the radiologist should know about artificial intelligence —an ESR white paper. Insights Imaging. 2019;10(1):44." ] ] ] 1 => array:3 [ "identificador" => "bib0190" "etiqueta" => "2" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Deep learning with python. 2<span class="elsevierStyleHsp" style=""></span>ª. ed" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "F. Chollet" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:2 [ "tituloSerie" => "Shelter Island (NY): Manning Publications Co;" "fecha" => "2021" ] ] ] ] ] ] 2 => array:3 [ "identificador" => "bib0195" "etiqueta" => "3" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "A primer on deep learning and convolutional neural networks for clinicians" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "L. Iglesias" 1 => "P. Bellón" 2 => "A. del Barrio" 3 => "P. Fernández-Miranda" 4 => "D. González" 5 => "J. Vega" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1186/s13244-021-01052-z" "Revista" => array:5 [ "tituloSerie" => "Insights Imaging." "fecha" => "2021" "volumen" => "12" "paginaInicial" => "117" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/34383173" "web" => "Medline" ] ] ] ] ] ] ] ] 3 => array:3 [ "identificador" => "bib0200" "etiqueta" => "4" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The perceptron: A probabilistic model for information storage and organization in the brain" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "F. Rosenblatt" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1037/h0042519" "Revista" => array:6 [ "tituloSerie" => "Psychol Rev." "fecha" => "1958" "volumen" => "65" "paginaInicial" => "386" "paginaFinal" => "408" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/13602029" "web" => "Medline" ] ] ] ] ] ] ] ] 4 => array:3 [ "identificador" => "bib0205" "etiqueta" => "5" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence in radiology" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "A. Hosny" 1 => "C. Parmar" 2 => "J. Quackenbh" 3 => "L. Schwartz" 4 => "H. Aerts" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1038/s41568-018-0016-5" "Revista" => array:6 [ "tituloSerie" => "Nat Rev Cancer." "fecha" => "2018" "volumen" => "18" "paginaInicial" => "500" "paginaFinal" => "510" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/29777175" "web" => "Medline" ] ] ] ] ] ] ] ] 5 => array:3 [ "identificador" => "bib0210" "etiqueta" => "6" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The four-color theorem and mathematical proof" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "M. Detlefsen" 1 => "M. Luker" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "J Philos." "fecha" => "1980" "volumen" => "65" "paginaInicial" => "803" "paginaFinal" => "820" ] ] ] ] ] ] 6 => array:3 [ "identificador" => "bib0215" "etiqueta" => "7" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Augmented intelligence: The Web and human intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "L. Von Ahn" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:3 [ "tituloSerie" => "Philos Trans R Soc A Math Phys Eng Sci." "fecha" => "2013" "volumen" => "371" ] ] ] ] ] ] 7 => array:3 [ "identificador" => "bib0220" "etiqueta" => "8" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Feng Hsiung Hsu F-H" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "C. Murray" 1 => "A.J. Hoane" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:6 [ "tituloSerie" => "Deep blue. Artif Intell." "fecha" => "2002" "volumen" => "134" "numero" => "1–2" "paginaInicial" => "57" "paginaFinal" => "83" ] ] ] ] ] ] 8 => array:3 [ "identificador" => "bib0225" "etiqueta" => "9" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The evolution of computing: AlphaGo" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "J. Chen" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Comput Sci Eng." "fecha" => "2016" "volumen" => "18" "paginaInicial" => "4" "paginaFinal" => "7" ] ] ] ] ] ] 9 => array:3 [ "identificador" => "bib0230" "etiqueta" => "10" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "AlphaZero —what's missing?" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "I. Bratko" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Informatica." "fecha" => "2018" "volumen" => "42" "paginaInicial" => "7" "paginaFinal" => "11" ] ] ] ] ] ] 10 => array:3 [ "identificador" => "bib0235" "etiqueta" => "11" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Machine learning for medical imaging" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "B. Erickson" 1 => "P. Korfiatis" 2 => "Z. Akkus" 3 => "T. Kline" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/rg.2017160130" "Revista" => array:7 [ "tituloSerie" => "Radiographics." "fecha" => "2017" "volumen" => "37" "paginaInicial" => "505" "paginaFinal" => "515" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/28212054" "web" => "Medline" ] ] "itemHostRev" => array:3 [ "pii" => "S1081120620304038" "estado" => "S300" "issn" => "10811206" ] ] ] ] ] ] ] 11 => array:3 [ "identificador" => "bib0240" "etiqueta" => "12" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Fisiologia: texto y atlas. 7<span class="elsevierStyleHsp" style=""></span>th ed" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "S. Silbernagl" 1 => "A. Despopoulos" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.24875/ACM.M22000081" "Revista" => array:3 [ "tituloSerie" => "Médica Panamericana;" "fecha" => "2021" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/35275904" "web" => "Medline" ] ] ] ] ] ] ] ] 12 => array:3 [ "identificador" => "bib0245" "etiqueta" => "13" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Convolutional neural networks for radiologic images: A radiologist's guide" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "S. Soffer" 1 => "A. Ben-Cohen" 2 => "O. Shimon" 3 => "M.M. Amitai" 4 => "H. Greenspan" 5 => "E. Klang" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/radiol.2018180547" "Revista" => array:6 [ "tituloSerie" => "Radiology." "fecha" => "2019" "volumen" => "290" "paginaInicial" => "590" "paginaFinal" => "606" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/30694159" "web" => "Medline" ] ] ] ] ] ] ] ] 13 => array:3 [ "identificador" => "bib0250" "etiqueta" => "14" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Receptive fields of single neurones in the cat's striate cortex" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "D. Hubel" 1 => "T. Wiesel" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1113/jphysiol.1959.sp006308" "Revista" => array:6 [ "tituloSerie" => "J Physiol." "fecha" => "1959" "volumen" => "148" "paginaInicial" => "574" "paginaFinal" => "591" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/14403679" "web" => "Medline" ] ] ] ] ] ] ] ] 14 => array:3 [ "identificador" => "bib0255" "etiqueta" => "15" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Deep learning: A primer for radiologists" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "G. Chartrand" 1 => "P.M. Cheng" 2 => "E. Vorontsov" 3 => "M. Drozdzal" 4 => "S. Turcotte" 5 => "C.J. Pal" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/rg.2017170077" "Revista" => array:6 [ "tituloSerie" => "RadioGraphics." "fecha" => "2017" "volumen" => "37" "paginaInicial" => "2113" "paginaFinal" => "2131" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/29131760" "web" => "Medline" ] ] ] ] ] ] ] ] 15 => array:3 [ "identificador" => "bib0260" "etiqueta" => "16" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Preparing medical imaging data for machine learning" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "M. Willemink" 1 => "W. Koszek" 2 => "C. Hardell" 3 => "J. Wu" 4 => "D. Fleischmann" 5 => "H. Harvey" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/radiol.2020192224" "Revista" => array:6 [ "tituloSerie" => "Radiology." "fecha" => "2020" "volumen" => "295" "paginaInicial" => "4" "paginaFinal" => "15" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/32068507" "web" => "Medline" ] ] ] ] ] ] ] ] 16 => array:3 [ "identificador" => "bib0265" "etiqueta" => "17" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence in healthcare: A critical analysis of the legal and ethical implications" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "D. Schönberger" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Int J Law Inf Technol." "fecha" => "2019" "volumen" => "27" "paginaInicial" => "171" "paginaFinal" => "203" ] ] ] ] ] ] 17 => array:3 [ "identificador" => "bib0270" "etiqueta" => "18" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The Cancer Imaging Archive (TCIA): Maintaining and operating a public information repository" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "K. Clark" 1 => "B. Vendt" 2 => "K. Smith" 3 => "J. Freymann" 4 => "J. Kirby" 5 => "P. Koppel" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s10278-013-9622-7" "Revista" => array:6 [ "tituloSerie" => "J Digit Imaging." "fecha" => "2013" "volumen" => "26" "paginaInicial" => "1045" "paginaFinal" => "1057" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/23884657" "web" => "Medline" ] ] ] ] ] ] ] ] 18 => array:3 [ "identificador" => "bib0275" "etiqueta" => "19" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Savana: A global information extraction and terminology expansion framework in the medical domain" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "L. Espinosa" 1 => "J. Tello" 2 => "A. Pardo" 3 => "I. Medrano" 4 => "A. Ureña" 5 => "I. Salcedo" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Procesamiento del Lenguaje Natural." "fecha" => "2016" "volumen" => "57" "paginaInicial" => "23" "paginaFinal" => "30" ] ] ] ] ] ] 19 => array:3 [ "identificador" => "bib0280" "etiqueta" => "20" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:1 [ "autores" => array:1 [ 0 => array:3 [ "colaboracion" => "Construction of a machine learning dataset through collaboration: The RSNA 2019 Brain CT Hemorrhage Challenge" "etal" => true "autores" => array:6 [ 0 => "A.E. Flanders" 1 => "L.M. Prevedello" 2 => "G. Shih" 3 => "S.S. Halabi" 4 => "J. Kalpathy-Cramer" 5 => "R. Ball" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/ryai.2020190211" "Revista" => array:5 [ "tituloSerie" => "Radiol Artif Intell." "fecha" => "2020" "volumen" => "2" "paginaInicial" => "e190211" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/33937827" "web" => "Medline" ] ] ] ] ] ] ] ] 20 => array:3 [ "identificador" => "bib0285" "etiqueta" => "21" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The OpenNeuro resource for sharing of neuroscience data" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "C.J. Markiewicz" 1 => "K.J. Gorgolewski" 2 => "F. Feingold" 3 => "R. Blair" 4 => "Y.O. Halchenko" 5 => "E. Miller" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.7554/eLife.71774" "Revista" => array:5 [ "tituloSerie" => "Elife." "fecha" => "2021" "volumen" => "10" "paginaInicial" => "e71774" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/34658334" "web" => "Medline" ] ] ] ] ] ] ] ] 21 => array:3 [ "identificador" => "bib0290" "etiqueta" => "22" "referencia" => array:1 [ 0 => array:1 [ "referenciaCompleta" => "INCF. European Network for Brain Imaging of Tumours (ENBIT) [consultado 6 Nov 2021]. Disponible en: https://www.enbit.ac.uk/." ] ] ] 22 => array:3 [ "identificador" => "bib0295" "etiqueta" => "23" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "The ENIGMA Consortium: Large-scale collaborative analyses of neuroimaging and genetic data [consultado 6 Nov 2021]" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "P.M. Thompson" 1 => "J.L. Stein" 2 => "S.E. Medland" 3 => "D.P. Hibar" 4 => "A.A. Vasquez" 5 => "M.E. Renteria" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s11682-013-9269-5" "Revista" => array:6 [ "tituloSerie" => "Brain Imaging Behav." "fecha" => "2014" "volumen" => "8" "paginaInicial" => "153" "paginaFinal" => "182" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/24399358" "web" => "Medline" ] ] ] ] ] ] ] ] 23 => array:3 [ "identificador" => "bib0300" "etiqueta" => "24" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Learning transferable features with deep adaptation networks" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "M. Long" 1 => "Y. Cao" 2 => "J. Wang" 3 => "M. Jordan" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Proc 32nd Int Conf Mach Learn." "fecha" => "2015" "volumen" => "37" "paginaInicial" => "97" "paginaFinal" => "105" ] ] ] ] ] ] 24 => array:3 [ "identificador" => "bib0305" "etiqueta" => "25" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Defining the undefinable: The black box problem in healthcare artificial intelligence" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "J. Wadden" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:3 [ "tituloSerie" => "J Med Ethics." "fecha" => "2021" "paginaInicial" => "107529" ] ] ] ] ] ] 25 => array:3 [ "identificador" => "bib0310" "etiqueta" => "26" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Grad-cam: Visual explanations from deep networks via gradient-based localization" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "R. Selvaraju" 1 => "M. Cogswell" 2 => "A. Das" 3 => "R. Vedantam" 4 => "D. Parikh" 5 => "D. Batra" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:4 [ "tituloSerie" => "IEEE International Conference on Computer Vision (ICCV)." "fecha" => "2017" "paginaInicial" => "618" "paginaFinal" => "626" ] ] ] ] ] ] 26 => array:3 [ "identificador" => "bib0315" "etiqueta" => "27" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Ethics of artificial intelligence in Radiology: Summary of the Joint European and North American Multisociety Statement" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "J.R. Geis" 1 => "A.P. Brady" 2 => "C.C. Wu" 3 => "J. Spencer" 4 => "E. Ranschaert" 5 => "J.L. Jaremko" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1016/j.jacr.2019.07.028" "Revista" => array:6 [ "tituloSerie" => "J Am Coll Radiol." "fecha" => "2019" "volumen" => "16" "paginaInicial" => "1516" "paginaFinal" => "1521" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/31585696" "web" => "Medline" ] ] ] ] ] ] ] ] 27 => array:3 [ "identificador" => "bib0320" "etiqueta" => "28" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Artificial intelligence predictive analytics in the management of outpatient MRI appointment no-shows" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "L.R. Chong" 1 => "K.T. Tsai" 2 => "L.L. Lee" 3 => "S.G. Foo" 4 => "P.C. Chang" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.2214/AJR.19.22594" "Revista" => array:6 [ "tituloSerie" => "AJR Am J Roentgenol." "fecha" => "2020" "volumen" => "215" "paginaInicial" => "1155" "paginaFinal" => "1162" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/32901567" "web" => "Medline" ] ] ] ] ] ] ] ] 28 => array:3 [ "identificador" => "bib0325" "etiqueta" => "29" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Use of artificial intelligence in computed tomography dose optimisation" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "C.H. McCollough" 1 => "S. Leng" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1177/0146645320940827" "Revista" => array:7 [ "tituloSerie" => "Ann ICRP." "fecha" => "2020" "volumen" => "49" "numero" => "1_Suppl" "paginaInicial" => "113" "paginaFinal" => "125" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/32870019" "web" => "Medline" ] ] ] ] ] ] ] ] 29 => array:3 [ "identificador" => "bib0330" "etiqueta" => "30" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "A comparison between manual and artificial intelligence-based automatic positioning in CT imaging for COVID-19 patients" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "Y. Gang" 1 => "X. Chen" 2 => "H. Li" 3 => "H. Wang" 4 => "J. Li" 5 => "Y. Guo" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s00330-020-07629-4" "Revista" => array:6 [ "tituloSerie" => "Eur Radiol." "fecha" => "2021" "volumen" => "31" "paginaInicial" => "6049" "paginaFinal" => "6058" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/33740092" "web" => "Medline" ] ] ] ] ] ] ] ] 30 => array:3 [ "identificador" => "bib0335" "etiqueta" => "31" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Improvement of image quality at CT and MRI using deep learning" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:5 [ 0 => "T. Higaki" 1 => "Y. Nakamura" 2 => "F. Tatsugami" 3 => "T. Nakaura" 4 => "K. Awai" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1007/s11604-018-0796-2" "Revista" => array:6 [ "tituloSerie" => "Jpn J Radiol." "fecha" => "2019" "volumen" => "37" "paginaInicial" => "73" "paginaFinal" => "80" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/30498876" "web" => "Medline" ] ] ] ] ] ] ] ] 31 => array:3 [ "identificador" => "bib0340" "etiqueta" => "32" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Automated lung nodule detection and classification using deep learning combined with multiple strategies" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "N. Nasrullah" 1 => "J. Sang" 2 => "M.S. Alam" 3 => "M. Mateen" 4 => "B. Cai" 5 => "H. Hu" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:4 [ "tituloSerie" => "Sensors (Basel)." "fecha" => "2019" "volumen" => "19" "paginaInicial" => "3722" ] ] ] ] ] ] 32 => array:3 [ "identificador" => "bib0345" "etiqueta" => "33" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Deep learning-based survival prediction of oral cancer patients" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "D. Kim" 1 => "S. Lee" 2 => "S. Kwon" 3 => "W. Nam" 4 => "I. Cha" 5 => "H. Kim" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1038/s41598-019-43372-7" "Revista" => array:5 [ "tituloSerie" => "Sci Rep." "fecha" => "2019" "volumen" => "9" "paginaInicial" => "6994" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/31061433" "web" => "Medline" ] ] ] ] ] ] ] ] 33 => array:3 [ "identificador" => "bib0350" "etiqueta" => "34" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:1 [ "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:6 [ 0 => "M. Chieregato" 1 => "F. Frangiamore" 2 => "M. Morassi" 3 => "C. Baresi" 4 => "S. Nici" 5 => "C. Bassetti" ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:2 [ "tituloSerie" => "A hybrid machine learning/deep learning COVID-19 severity predictive model from CT images and clinical data. arxiv.org." "fecha" => "2021" ] ] ] ] ] ] 34 => array:3 [ "identificador" => "bib0355" "etiqueta" => "35" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Deep learning workflow in radiology: a primer" "autores" => array:1 [ 0 => array:2 [ "etal" => true "autores" => array:6 [ 0 => "E. Montagnon" 1 => "M. Cerny" 2 => "A. Cadrin-Chênevert" 3 => "V. Hamilton" 4 => "T. Derennes" 5 => "A. Ilinca" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1186/s13244-019-0832-5" "Revista" => array:6 [ "tituloSerie" => "Insights Imaging." "fecha" => "2020" "volumen" => "11" "paginaInicial" => "22" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/32040647" "web" => "Medline" ] ] "itemHostRev" => array:3 [ "pii" => "S0091674920314044" "estado" => "S300" "issn" => "00916749" ] ] ] ] ] ] ] 35 => array:3 [ "identificador" => "bib0360" "etiqueta" => "36" "referencia" => array:1 [ 0 => array:2 [ "contribucion" => array:1 [ 0 => array:2 [ "titulo" => "Natural language processing in Radiology: A systematic review" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "E. Pons" 1 => "L. Braun" 2 => "M. Hunink" 3 => "J.A. Kors" ] ] ] ] ] "host" => array:1 [ 0 => array:2 [ "doi" => "10.1148/radiol.16142770" "Revista" => array:6 [ "tituloSerie" => "Radiology." "fecha" => "2016" "volumen" => "279" "paginaInicial" => "329" "paginaFinal" => "343" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/27089187" "web" => "Medline" ] ] ] ] ] ] ] ] ] ] ] ] ] "idiomaDefecto" => "es" "url" => "/00338338/0000006400000003/v1_202205110735/S0033833822000972/v1_202205110735/es/main.assets" "Apartado" => array:4 [ "identificador" => "8246" "tipo" => "SECCION" "en" => array:2 [ "titulo" => "Actualizaciones" "idiomaDefecto" => true ] "idiomaDefecto" => "en" ] "PDF" => "https://static.elsevier.es/multimedia/00338338/0000006400000003/v1_202205110735/S0033833822000972/v1_202205110735/es/main.pdf?idApp=UINPBA00004N&text.app=https://www.elsevier.es/" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/S0033833822000972?idApp=UINPBA00004N" ]
año/Mes | Html | Total | |
---|---|---|---|
2024 Octubre | 17 | 1 | 18 |
2024 Septiembre | 23 | 13 | 36 |
2024 Agosto | 26 | 7 | 33 |
2024 Julio | 20 | 6 | 26 |
2024 Junio | 16 | 0 | 16 |
2024 Mayo | 41 | 24 | 65 |
2024 Abril | 67 | 6 | 73 |
2024 Marzo | 28 | 17 | 45 |
2024 Febrero | 27 | 21 | 48 |
2024 Enero | 21 | 5 | 26 |
2023 Diciembre | 30 | 2 | 32 |
2023 Noviembre | 53 | 15 | 68 |
2023 Octubre | 34 | 22 | 56 |
2023 Septiembre | 20 | 12 | 32 |
2023 Agosto | 23 | 16 | 39 |
2023 Julio | 867 | 24 | 891 |
2023 Junio | 47 | 11 | 58 |
2023 Mayo | 56 | 29 | 85 |
2023 Abril | 15 | 7 | 22 |
2023 Marzo | 24 | 10 | 34 |
2023 Febrero | 157 | 52 | 209 |
2023 Enero | 36 | 24 | 60 |
2022 Diciembre | 26 | 25 | 51 |
2022 Noviembre | 54 | 21 | 75 |
2022 Octubre | 30 | 28 | 58 |
2022 Septiembre | 173 | 19 | 192 |
2022 Agosto | 24 | 16 | 40 |
2022 Julio | 94 | 34 | 128 |
2022 Junio | 157 | 77 | 234 |
2022 Mayo | 479 | 144 | 623 |