array:18 [ "pii" => "13059028" "issn" => "00257753" "estado" => "S300" "fechaPublicacion" => "2004-03-13" "documento" => "article" "subdocumento" => "fla" "cita" => "Med Clin. 2004;122:336-8" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:2 [ "total" => 2483 "formatos" => array:3 [ "EPUB" => 6 "HTML" => 2253 "PDF" => 224 ] ] "itemSiguiente" => array:14 [ "pii" => "13059030" "issn" => "00257753" "estado" => "S300" "fechaPublicacion" => "2004-03-13" "documento" => "article" "subdocumento" => "fla" "cita" => "Med Clin. 2004;122:339-41" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:2 [ "total" => 1743 "formatos" => array:3 [ "EPUB" => 8 "HTML" => 1494 "PDF" => 241 ] ] "es" => array:9 [ "idiomaDefecto" => true "titulo" => "Gripe aviar. Una amenaza constante para el ser humano" "tienePdf" => "es" "tieneTextoCompleto" => "es" "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "339" "paginaFinal" => "341" ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Avian influenza. A continual threat to human beings" ] ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "Jordi Reina" "autores" => array:1 [ 0 => array:2 [ "nombre" => "Jordi" "apellidos" => "Reina" ] ] ] ] ] "idiomaDefecto" => "es" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/13059030?idApp=UINPBA00004N" "url" => "/00257753/0000012200000009/v0_201607121426/13059030/v0_201607121426/es/main.assets" ] "itemAnterior" => array:14 [ "pii" => "13059044" "issn" => "00257753" "estado" => "S300" "fechaPublicacion" => "2004-03-13" "documento" => "article" "subdocumento" => "fla" "cita" => "Med Clin. 2004;122:334-5" "abierto" => array:3 [ "ES" => false "ES2" => false "LATM" => false ] "gratuito" => false "lecturas" => array:2 [ "total" => 1878 "formatos" => array:3 [ "EPUB" => 7 "HTML" => 1708 "PDF" => 163 ] ] "es" => array:11 [ "idiomaDefecto" => true "titulo" => "Utilización de las medicinas alternativas y complementarias por los pacientes con hepatitis C crónica" "tienePdf" => "es" "tieneTextoCompleto" => "es" "tieneResumen" => array:2 [ 0 => "es" 1 => "en" ] "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "334" "paginaFinal" => "335" ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Use of complementary and alternative medicine in patients with chronic hepatitis C" ] ] "contieneResumen" => array:2 [ "es" => true "en" => true ] "contieneTextoCompleto" => array:1 [ "es" => true ] "contienePdf" => array:1 [ "es" => true ] "autores" => array:1 [ 0 => array:2 [ "autoresLista" => "Miguel Bruguera, José M Barrera, Sergi Ampurdanés, Xavier Forns, José M Sánchez Tapias" "autores" => array:5 [ 0 => array:2 [ "nombre" => "Miguel" "apellidos" => "Bruguera" ] 1 => array:2 [ "nombre" => "José M" "apellidos" => "Barrera" ] 2 => array:2 [ "nombre" => "Sergi" "apellidos" => "Ampurdanés" ] 3 => array:2 [ "nombre" => "Xavier" "apellidos" => "Forns" ] 4 => array:2 [ "nombre" => "José M" "apellidos" => "Sánchez Tapias" ] ] ] ] ] "idiomaDefecto" => "es" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/13059044?idApp=UINPBA00004N" "url" => "/00257753/0000012200000009/v0_201607121426/13059044/v0_201607121426/es/main.assets" ] "es" => array:11 [ "idiomaDefecto" => true "titulo" => "Redes neuronales y métodos estadísticos clásicos en el diagnóstico médico: la importancia de las variables irrelevantes" "tieneTextoCompleto" => true "paginas" => array:1 [ 0 => array:2 [ "paginaInicial" => "336" "paginaFinal" => "338" ] ] "autores" => array:1 [ 0 => array:3 [ "autoresLista" => "Josep Maria Sopena, Enrique Romero" "autores" => array:2 [ 0 => array:3 [ "nombre" => "Josep" "apellidos" => "Maria Sopena" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "affa" ] ] ] 1 => array:3 [ "nombre" => "Enrique" "apellidos" => "Romero" "referencia" => array:1 [ 0 => array:2 [ "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "affb" ] ] ] ] "afiliaciones" => array:2 [ 0 => array:3 [ "entidad" => "Universitat de Barcelona. Barcelona." "etiqueta" => "<span class="elsevierStyleSup">a</span>" "identificador" => "affa" ] 1 => array:3 [ "entidad" => "Universitat Politècnica de Catalunya. Barcelona. España." "etiqueta" => "<span class="elsevierStyleSup">b</span>" "identificador" => "affb" ] ] ] ] "titulosAlternativos" => array:1 [ "en" => array:1 [ "titulo" => "Neural netwroks and lineal methods in medical diagnosis: relevance of irrelevant variables" ] ] "textoCompleto" => "<p class="elsevierStylePara">Los orígenes de las redes neuronales<span class="elsevierStyleSup">1-4</span> se sitúan a principios de la década de los cincuenta. La aparición de los primeros ordenadores permitió a un grupo de investigadores interesados en comprender el funcionamiento del cerebro crear las primeras simulaciones con las que se perseguía explicar cómo puede emerger la inteligencia a partir de la interacción de elementos relativamente simples como son las neuronas. A finales de los años ochenta algunos de los modelos neuronales desarrollados hasta el momento se mostraron muy útiles como herramientas de análisis de datos, lo cual abrió el otro gran campo de aplicación de las redes neuronales. Actualmente las redes neuronales se están mostrando muy eficientes como herramientas de análisis de datos en áreas tan diversas como la física de altas energías, la astronomía, la economía, la ingeniería o la medicina. En el caso particular de la medicina, el número de artículos publicados que utilizan de un modo u otro las redes neuronales ha aumentado de forma espectacular en la última década<span class="elsevierStyleSup">5</span>.</p><p class="elsevierStylePara">Uno de los tipos de red neuronal más utilizados en tareas de diagnóstico médico son las denominadas redes <span class="elsevierStyleItalic">feed-forward</span> multicapa. En este tipo de redes las neuronas se disponen en capas. Para el caso del diagnóstico médico, en la primera capa o capa de entrada se representan los síntomas del paciente y en la última capa o capa de salida se representa el diagnóstico correspondiente. Una neurona se concibe como un elemento de procesamiento que transforma una señal de entrada (la señal presináptica) en una señal de salida (la señal postsináptica). La forma en que la neurona transforma la señal de entrada en señal de salida no es arbitraria. Existen regularidades que parece que pueden aproximarse mediante un sistema de ecuaciones matemáticas. El circuito neuronal en su conjunto se puede contemplar como un sistema de cómputo, que transforma una señal de entrada (representada en la capa de neuronas de entrada) en una señal de salida (representada en la capa de neuronas de salida). En el caso de utilizar una red neuronal para el diagnóstico médico, la red transforma la señal representada en la capa de entrada (los síntomas del paciente) en la señal representada en la capa de la salida, que nos indicaría el diagnóstico correspondiente.</p><p class="elsevierStylePara">La capacidad de cómputo de un circuito neuronal, es decir, el tipo de transformaciones que es capaz de realizar, depende de las características de las neuronas. En los modelos artificiales actuales, esta capacidad depende principalmente de la forma que tienen de relacionar su «entrada presináptica» con su «salida postsináptica». Si la transformación es no lineal y se dispone del número de neuronas adecuado, se puede demostrar teóricamente que el circuito puede computar cualquier relación o transformación entre la entrada y la salida<span class="elsevierStyleSup">6</span>. Se dice que los sistemas que tienen esta propiedad son aproximadores universales. La utilidad de un aproximador universal en medicina se hace patente si se tiene en cuenta que el diagnóstico médico o la predicción de riesgo o de evolución de una enfermedad es, en muchos casos, un proceso complejo en el que intervienen numerosas variables que guardan una relación compleja (no lineal) entre sí.</p><p class="elsevierStylePara">Por ejemplo, podemos imaginar que existe una determinada relación entre la concentración (C<span class="elsevierStyleInf">A</span> y C<span class="elsevierStyleInf">B</span>) de determinados anticuerpos A y B y la probabilidad de desarrollar un cáncer. En general, estas relaciones no son arbitrarias y las regularidades existentes en su relación podrían describirse mediante ecuaciones matemáticas. Supongamos que la probabilidad de desarrollar un cáncer a partir de las concentraciones de anticuerpos (aunque para nosotros sea desconocida) se expresa mediante la siguiente función:</p><p class="elsevierStylePara"><img src="2v122n09-13059028tab01.gif"></img></p><p class="elsevierStylePara"> </p><p class="elsevierStylePara">Una red neuronal, como aproximador universal, puede realizar una aproximación de la función P(<span class="elsevierStyleItalic">C<span class="elsevierStyleInf">A</span>,C<span class="elsevierStyleInf">B</span></span>) a partir del examen de un conjunto de ejemplos (en el caso del diagnóstico médico, datos de los pacientes reales. Las redes neuronales aproximan una función como sumas de funciones simples tales como tangentes hiperbólicas, gaussianas, senos, etc.).</p><p class="elsevierStylePara">Este conjunto se denomina conjunto de entrenamiento. El proceso de aprendizaje se puede concebir como un intento de descubrir, a partir de los ejemplos de entrenamiento, la relación subyacente que se da entre las variables. Durante el aprendizaje, la eficacia de las sinapsis de la red neuronal se va modificando para adaptar su comportamiento a los casos del conjunto de entrenamiento. El objetivo final del aprendizaje es minimizar (con respecto a las sinapsis) una cierta función de coste expresada en términos matemáticos. Para resolver este problema se han propuesto diferentes métodos, y todavía hoy es un área activa de investigación. La función de coste más utilizada es el error cuadrático (la suma de los cuadrados de los errores individuales). Idealmente, la red no memoriza los casos del conjunto de entrenamiento, sino que abstrae las regularidades subyacentes que se dan entre las distintas variables (los síntomas y el diagnóstico). De esta forma la red neuronal se puede comportar adecuadamente ante casos (pacientes) nuevos, ya que ha aproximado la función que relaciona las variables. Esta propiedad se conoce como «capacidad de generalización». El rendimiento de un sistema se mide por la proporción de casos nuevos correctamente diagnosticados.</p><p class="elsevierStylePara">Para problemas de clasificación (diagnóstico), y en condiciones ideales, la salida de una red neuronal es un estimador de la probabilidad <span class="elsevierStyleItalic">a posteriori</span> de pertenencia a la clase<span class="elsevierStyleSup">7</span>. Este hecho permite disponer de un diagnóstico individual para cada paciente basado en sus características específicas en lugar de en medias de población.</p><p class="elsevierStylePara">La mayor parte de los métodos estadísticos utilizados más frecuentemente en medicina son paramétricos<span class="elsevierStyleSup">9</span> o hacen suposiciones sobre las características del problema, tales como linealidad, normalidad o independencia entre variables. Los métodos paramétricos se caracterizan por el conocimiento <span class="elsevierStyleItalic">a priori</span> del modelo de generación de los datos (la forma de la función), a partir del cual sólo es necesario estimar un conjunto de parámetros. En el ejemplo de la función P(<span class="elsevierStyleItalic">C<span class="elsevierStyleInf">A</span>,C<span class="elsevierStyleInf">B</span></span>) habría que estimar los parámetros α y β, suponiendo conocida la forma de la función. Si la función fuese lineal, por ejemplo, su forma sería <span class="elsevierStyleItalic">α x C<span class="elsevierStyleInf">A</span> + β x C<span class="elsevierStyleInf">B</span></span>. En general, es muy poco probable que los presupuestos que realizan estos métodos sean siempre ciertos. Por ejemplo, es poco probable que las variables sean independientes (presupuesto normalmente considerado) y tampoco es razonable suponer que la relación entre las variables de interés en una gran parte de los problemas médicos sea lineal. Para la función P(<span class="elsevierStyleItalic">C<span class="elsevierStyleInf">A</span>,C<span class="elsevierStyleInf">B</span></span>) que hemos utilizado anteriormente, cualquier modelo que suponga linealidad o normalidad en este problema no se podrá ajustar correctamente y, por tanto, su rendimiento se verá mermado. Por otro lado, los modelos paramétricos tienen que hacer suposiciones sobre la forma de la función que relaciona las variables y deben seleccionar una en particular. En general, la forma de la función es desconocida y hacer presupuestos en torno a esta cuestión es siempre arriesgado. Por otra parte, es conocido que muchos fenómenos no pueden describirse mediante ecuaciones matemáticas explícitas como la función anterior P(<span class="elsevierStyleItalic">C<span class="elsevierStyleInf">A</span>,C<span class="elsevierStyleInf">B</span></span>), y en este caso la única manera de tratar estos problemas es mediante métodos de aproximación. Por ejemplo, el problema gravitacional de tres cuerpos ­Sol, Tierra, Luna­ es de este tipo. Es de suponer que éste sea el caso de una gran parte de los problemas médicos complejos.</p><p class="elsevierStylePara">Hacer presuposiciones erróneas sobre los datos puede tener consecuencias prácticas importantes a la hora de tener un buen rendimiento. En estas condiciones, se podría tener una elevada proporción de pacientes mal diagnosticados o de decisiones mal tomadas. Podemos imaginar el impacto que tendría un error en la predicción de muerte por cáncer al cabo de 5 años o en determinar la necesidad o no de realizar una biopsia. Las redes neuronales no necesitan realizar estos presupuestos, de manera que pueden tratar con cualquier problema independientemente de que no presente las características anteriormente citadas (linealidad, normalidad, entre otras), aproximando la función objetivo como sumas de funciones simples. El precio que hay que pagar es una mayor dificultad en la interpretación del modelo resultante.</p><p class="elsevierStylePara">Por otra parte, la mayor parte de los fenómenos que se estudian en medicina no pueden resolverse solamente mediante el examen de la relación entre unas pocas variables. Por ejemplo, determinar con precisión la probabilidad de mortalidad por cáncer, tener un infarto o un parto prematuro puede requerir, y de hecho se ha observado que requiere, la intervención de un conjunto amplio de variables. Sin embargo, una práctica común en medicina consiste en analizar relaciones solamente entre dos variables. Esto tiene numerosas desventajas. Por ejemplo, puede ocurrir que un determinado anticuerpo A sea determinante para predecir la aparición de un cáncer si a su vez está presente otro anticuerpo B. En caso de que B no esté presente, el anticuerpo A puede predecir lo contrario: probabilidad muy baja de desarrollar un cáncer. Un análisis en el que se tengan en cuenta solamente las relaciones entre dos variables ­la presencia del anticuerpo A y el desarrollo del cáncer­ puede llevar a la conclusión errónea sobre el papel que desempeña el anticuerpo A y considerarlo no relevante. La consecuencia inmediata es que a partir de este momento se prescindiría de él en la investigación sobre los orígenes del cáncer o sobre su diagnóstico temprano.</p><p class="elsevierStylePara">En este punto cabe señalar que cuando las suposiciones hechas por un modelo se satisfacen, entonces, además de ser adecuado para tratar el problema, de él se pueden extraer conclusiones derivadas de la interpretación de sus parámetros (el tipo de conclusiones dependerá del modelo concreto). En nuestra opinión, sin embargo, es muy poco probable que presupuestos tales como linealidad, normalidad o independencia se cumplan en un problema de diagnóstico médico mínimamente complejo. Encontrar el modelo de generación de los datos (la forma de la función) puede ser mucho más difícil todavía. Las conclusiones derivadas de interpretar un modelo incorrecto pueden ser impredecibles. En ese sentido, parece que métodos como las redes neuronales, que no hacen suposiciones de este tipo, deberían adaptarse mejor que los métodos estadísticos clásicos. En el fondo, se trata de decidir entre tener un modelo más fácil de interpretar con el riesgo (seguramente alto) de que las suposiciones en las que se basa sean falsas, o utilizar un método mucho más flexible y sin presupuestos, aunque sea más difícil de interpretar.</p><p class="elsevierStylePara">A pesar de las teóricas ventajas de los métodos neuronales, el debate sobre si las redes neuronales deberían sustituir a los métodos tradicionalmente utilizados en medicina está abierto<span class="elsevierStyleSup">5,8,9</span>. Recientemente, Sargent<span class="elsevierStyleSup">8</span> realizó una revisión de 28 estudios médicos en los que se comparan métodos lineales (regresión logística principalmente) con redes neuronales. En 10 casos el rendimiento de las redes neuronales es superior al de los métodos lineales, mientras que en 4 casos sucede lo contrario. Sin embargo, el número de veces en que los dos sistemas son equivalentes es muy grande (10). Estudios como éste parecen contradecir lo dicho anteriormente acerca de las ventajas de las redes neuronales sobre métodos como la regresión logística. Una posible explicación sería que en los problemas médicos las relaciones entre las variables de importancia fueran todas lineales, pero esto parece poco probable, como ya hemos comentado anteriormente. Existe otra explicación que parece más plausible y se basaría en la existencia de ruido en los datos.</p><p class="elsevierStylePara">El ruido se puede presentar en diferentes formas, todas ellas muy frecuentes en la práctica y que consisten en la presencia de variables irrelevantes para el problema (p. ej., el color de los ojos podría no ser relevante para determinar la probabilidad de padecer un infarto), variables con valores inexactos (fruto de mediciones incorrectas, por ejemplo) y variables con valores ausentes. Los problemas médicos que normalmente se abordan con métodos neuronales o con regresión logística son en general problemas complejos, en los que se desconoce con certeza cuáles son las variables relevantes o de interés. Debido a esto, en la mayor parte de las bases de datos seguramente hay una buena dosis de al menos un tipo de ruido: contienen una proporción importante de variables no relevantes. Además, es posible que falten variables relevantes para métodos no lineales, con lo que es difícil conseguir buenos resultados (en este sentido, Sargent<span class="elsevierStyleSup">8</span> señala que probablemente mucha de la información que hay en la actualidad en las bases de datos es la que se consideró relevante en estudios preliminares efectuados con un modelo lineal).</p><p class="elsevierStylePara">En un amplio conjunto de problemas hemos comprobado que los métodos neuronales son especialmente sensibles a este tipo de ruido consistente en la existencia de variables irrelevantes<span class="elsevierStyleSup">11</span>. La capacidad de aproximación universal de las redes neuronales les permite, en general, aprenderse completamente el conjunto de datos, incluido este tipo de ruido. La red utiliza entonces información irrelevante en sus decisiones sobre casos nuevos. Eliminando estas variables de la base de datos, siguiendo un determinado método de selección de variables<span class="elsevierStyleSup">11,12</span>, hemos observado que el rendimiento de las redes neuronales mejora considerablemente en la mayoría de los problemas tratados. El método de selección de variables usado fue el llamado <span class="elsevierStyleItalic">sequential backward selection,</span> un procedimiento iterativo en el que se elimina una variable en cada paso. Empezando con el conjunto completo de variables, el criterio para eliminar alguna de ellas es el rendimiento del sistema: se eliminará aquella variable tal que el sistema funcione mejor sin ella que sin cualquiera de las otras variables. De esta manera, después de K iteraciones habrá K variables menos en el sistema. Al final del proceso sólo queda una variable. Para observar mejor el efecto del ruido, los parámetros de los sistemas se ajustaron para aproximar el conjunto de entrenamiento lo máximo posible. La evaluación se efectuó usando <span class="elsevierStyleItalic">cross-validation</span> en la misma muestra.</p><p class="elsevierStylePara">Este método lo aplicamos a 6 problemas de diagnóstico médico. La mayoría de estos problemas se puede encontrar en el UCI Repository of Machine Learning Databases<span class="elsevierStyleSup">10</span>: Enfermedades de Corazón (Cleveland), Enfermedades de Corazón (Statlog), Enfermedades de Hígado (Bupa), Muerte en enfermos de Hepatitis, Cáncer de Pulmón y Cáncer en Enfermos de Miopatía Inflamatoria Idiopática (MII). La mejora en el rendimiento fue considerable en tres de estos problemas (hepatitis, cáncer de pulmón y MII). Por ejemplo, en el caso de predicción de cáncer en enfermos de MII, obtuvimos un 74,5% con las 25 variables iniciales. Después del proceso de eliminación, con las 9 variables seleccionadas se obtuvo un 94,2%. En el problema de hepatitis, el rendimiento con las 6 variables seleccionadas fue de un 95,0%, a partir de un 76,0% con las 19 variables iniciales. En el caso concreto del problema cáncer de pulmón, la reducción del número de variables es especialmente importante (de 56 a 9), pasando de un 36,3 a un 87,5%. Se puede apreciar que el número de variables eliminadas (todas ellas, en principio, irrelevantes o redundantes) es, en general, muy grande. El porcentaje inicial de aciertos, sin eliminar variables, es muy pobre, lo cual no quiere decir que en la base de datos del problema no se contenga la información potencial para obtener resultados excelentes, sino que la presencia de ruido, en forma de variables irrelevantes, perjudica en gran manera el rendimiento de la red neuronal. En algunos problemas, tales como Enfermedades de Corazón (Cleveland), Enfermedades de Corazón (Statlog) y Enfermedades de Hígado (Bupa) tan sólo hay una ligera mejoría. En estos dos últimos casos, se trata de bases de datos incompletas con un número considerable de valores ausentes. Seguramente también faltan variables relevantes. En estas condiciones es difícil para cualquier método obtener buenos resultados. En cualquier caso, la selección de variables permite reducir considerablemente el número de variables a considerar.</p><p class="elsevierStylePara">La selección de variables se ha utilizado muy raramente con métodos neuronales<span class="elsevierStyleSup">12</span>. Es lo que ocurre en los estudios comparativos citados en el estudio de Sargent<span class="elsevierStyleSup">8</span>. Por el contrario, en el caso de la regresión logística la selección de variables es una opción utilizada con relativa frecuencia. Si en los estudios citados en Sargent<span class="elsevierStyleSup">8</span> la comparativa se realizara de nuevo utilizando estos métodos de selección de variables con redes neuronales, el panorama descrito podría cambiar considerablemente.</p><p class="elsevierStylePara">La eficiencia que las redes neuronales muestran en el proceso de selección de variables presenta ventajas muy importantes. Por una parte, como hemos visto, permite una mejora considerable de los resultados. Por otra, permite seleccionar las variables con más capacidad predictiva. Al final del proceso de selección el sistema habrá seleccionado aquellas variables que nos son más útiles para la tarea de diagnóstico. Este hecho tiene relevancia para la obtención de mejores diagnósticos con un coste menor en el tiempo de recogida de la información y en las molestias ocasionadas al paciente, en la optimización de los recursos hospitalarios y en el coste económico del proceso de diagnóstico. La selección de variables también puede tener importancia para la investigación sobre la enfermedad en cuestión, ya que permite centrar el interés de la investigación en las variables con más capacidad predictiva y desestimar aquellas que constituyen ruido. Si nos encontrásemos con que, por ejemplo, las variables relacionadas con el consumo del tabaco fueran descartadas en el caso de la predicción de muerte por hepatitis o que las variables de tipo genético fueran en su mayor parte descartadas en estudios sobre la ansiedad, el proceso de investigación sobre los mecanismos subyacentes a la enfermedad quedaría más acotado y el avance en el conocimiento de la enfermedad podría ser más rápido.</p>" "pdfFichero" => "2v122n09a13059028pdf001.pdf" "tienePdf" => true "multimedia" => array:2 [ 0 => array:6 [ "identificador" => "tbl1" "tipo" => "MULTIMEDIATABLA" "mostrarFloat" => true "mostrarDisplay" => false "copyright" => "Elsevier España" "tabla" => array:1 [ "tablatextoimagen" => array:1 [ 0 => array:1 [ "tablaImagen" => array:1 [ 0 => array:4 [ "imagenFichero" => "2v122n09-13059028tab01.gif" "imagenAlto" => 74 "imagenAncho" => 268 "imagenTamanyo" => 1918 ] ] ] ] ] ] 1 => array:5 [ "identificador" => "tbl2" "tipo" => "MULTIMEDIATABLA" "mostrarFloat" => true "mostrarDisplay" => false "copyright" => "Elsevier España" ] ] "bibliografia" => array:2 [ "titulo" => "Bibliograf¿a" "seccion" => array:1 [ 0 => array:1 [ "bibliografiaReferencia" => array:12 [ 0 => array:3 [ "identificador" => "bib1" "etiqueta" => "1" "referencia" => array:1 [ 0 => array:2 [ "referenciaCompleta" => "Parallel distributed processing, vol 1. MIT Press, 1986." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Parallel distributed processing, vol 1. MIT Press, 1986." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "Rumelhart DE" 1 => "Hinton GE" 2 => "Williams RJ." ] ] ] ] ] ] ] ] 1 => array:3 [ "identificador" => "bib2" "etiqueta" => "2" "referencia" => array:1 [ 0 => array:2 [ "referenciaCompleta" => "Neural networks for pattern recognition. Oxford: Oxford University Press Inc., 1995." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Neural networks for pattern recognition. Oxford: Oxford University Press Inc., 1995." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "Bishop CM." ] ] ] ] ] ] ] ] 2 => array:3 [ "identificador" => "bib3" "etiqueta" => "3" "referencia" => array:1 [ 0 => array:3 [ "referenciaCompleta" => "Introduction to neural networks. Lancet 1995;346:1075-9." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Introduction to neural networks." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:3 [ 0 => "Cross SS" 1 => "Harrison RF" 2 => "Kennedy RL." ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:6 [ "tituloSerie" => "Lancet" "fecha" => "1995" "volumen" => "346" "paginaInicial" => "1075" "paginaFinal" => "9" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/7564791" "web" => "Medline" ] ] ] ] ] ] ] ] 3 => array:3 [ "identificador" => "bib4" "etiqueta" => "4" "referencia" => array:1 [ 0 => array:2 [ "referenciaCompleta" => "Application of artificial neural networks to clinical medicine. Lancet 1995;346,1135-8." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Application of artificial neural networks to clinical medicine. Lancet 1995;346,1135-8." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "Baxt WG." ] ] ] ] ] ] ] ] 4 => array:3 [ "identificador" => "bib5" "etiqueta" => "5" "referencia" => array:1 [ 0 => array:3 [ "referenciaCompleta" => "Artificial neural networks: opening the black box. Cancer 2001;91(Suppl 8):1615-35." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Artificial neural networks: opening the black box." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "Dayhoff JE" 1 => "DeLeo JM." ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:6 [ "tituloSerie" => "Cancer" "fecha" => "2001" "volumen" => "91" "paginaInicial" => "1615" "paginaFinal" => "35" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/11309760" "web" => "Medline" ] ] ] ] ] ] ] ] 5 => array:3 [ "identificador" => "bib6" "etiqueta" => "6" "referencia" => array:1 [ 0 => array:3 [ "referenciaCompleta" => "Multi-layer feed-forward networks with a non polynomial activation function can approximate any function. Neural Networks 1993;6:861-7." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Multi-layer feed-forward networks with a non polynomial activation function can approximate any function." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "Leshno M" 1 => "Lin VY" 2 => "Pinkus A" 3 => "Schocken S." ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Neural Networks" "fecha" => "1993" "volumen" => "6" "paginaInicial" => "861" "paginaFinal" => "7" ] ] ] ] ] ] 6 => array:3 [ "identificador" => "bib7" "etiqueta" => "7" "referencia" => array:1 [ 0 => array:3 [ "referenciaCompleta" => "Neural networks classifiers estimate bayesian a posteriori probabilities. Neural Computation 1991;3:461-83." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Neural networks classifiers estimate bayesian a posteriori probabilities." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "Richard MD" 1 => "Lippmann RP." ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:5 [ "tituloSerie" => "Neural Computation" "fecha" => "1991" "volumen" => "3" "paginaInicial" => "461" "paginaFinal" => "83" ] ] ] ] ] ] 7 => array:3 [ "identificador" => "bib8" "etiqueta" => "8" "referencia" => array:1 [ 0 => array:3 [ "referenciaCompleta" => "Comparison of artificial neural networks with other statistical approaches. Cancer 2001;91(S8):1636-42." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Comparison of artificial neural networks with other statistical approaches." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "Sargent DJ." ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:6 [ "tituloSerie" => "Cancer" "fecha" => "2001" "volumen" => "91" "paginaInicial" => "1636" "paginaFinal" => "42" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/11309761" "web" => "Medline" ] ] ] ] ] ] ] ] 8 => array:3 [ "identificador" => "bib9" "etiqueta" => "9" "referencia" => array:1 [ 0 => array:3 [ "referenciaCompleta" => "Clinical Problems, computational solutions: a vision for collaborative future. Cancer 2001;91(Suppl 8):1595-602." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Clinical Problems, computational solutions: a vision for collaborative future." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:1 [ 0 => "Levine RF." ] ] ] ] ] "host" => array:1 [ 0 => array:1 [ "Revista" => array:6 [ "tituloSerie" => "Cancer" "fecha" => "2001" "volumen" => "91" "paginaInicial" => "1595" "paginaFinal" => "602" "link" => array:1 [ 0 => array:2 [ "url" => "https://www.ncbi.nlm.nih.gov/pubmed/11309757" "web" => "Medline" ] ] ] ] ] ] ] ] 9 => array:3 [ "identificador" => "bib10" "etiqueta" => "10" "referencia" => array:1 [ 0 => array:2 [ "referenciaCompleta" => "UCI repository of machine learning databases. University of California, Irvine, Department of Information and Computer Science, 1998. Disponible en: http://www.ics.uci.edu/~mlearn/MLRrepository" "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "UCI repository of machine learning databases. University of California, Irvine, Department of Information and Computer Science, 1998. Disponible en: http://www.ics.uci.edu/~mlearn/MLRrepository" "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "Blake CL" 1 => "Mertz CJ." ] ] ] ] ] ] ] ] 10 => array:3 [ "identificador" => "bib11" "etiqueta" => "11" "referencia" => array:1 [ 0 => array:2 [ "referenciaCompleta" => "Feature selection forcing overtraining may help to improve performance. International Joint Conference on Neural Networks, 2003." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Feature selection forcing overtraining may help to improve performance. International Joint Conference on Neural Networks, 2003." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:4 [ 0 => "Romero E" 1 => "Sopena JM" 2 => "Navarrete G" 3 => "Alquézar R." ] ] ] ] ] ] ] ] 11 => array:3 [ "identificador" => "bib12" "etiqueta" => "12" "referencia" => array:1 [ 0 => array:2 [ "referenciaCompleta" => "Feature selection for knowledge discovery and data mining. Kluwer Academic Publishers, 1998." "contribucion" => array:1 [ 0 => array:3 [ "titulo" => "Feature selection for knowledge discovery and data mining. Kluwer Academic Publishers, 1998." "idioma" => "en" "autores" => array:1 [ 0 => array:2 [ "etal" => false "autores" => array:2 [ 0 => "Liu H" 1 => "Motoda H." ] ] ] ] ] ] ] ] ] ] ] ] ] "idiomaDefecto" => "es" "url" => "/00257753/0000012200000009/v0_201607121426/13059028/v0_201607121426/es/main.assets" "Apartado" => array:4 [ "identificador" => "55623" "tipo" => "SECCION" "es" => array:2 [ "titulo" => "Editorial retrospectivo" "idiomaDefecto" => true ] "idiomaDefecto" => "es" ] "PDF" => "https://static.elsevier.es/multimedia/00257753/0000012200000009/v0_201607121426/13059028/v0_201607121426/es/2v122n09a13059028pdf001.pdf?idApp=UINPBA00004N&text.app=https://www.elsevier.es/" "EPUB" => "https://multimedia.elsevier.es/PublicationsMultimediaV1/item/epub/13059028?idApp=UINPBA00004N" ]
Información de la revista
Compartir
Descargar PDF
Más opciones de artículo
Redes neuronales y métodos estadísticos clásicos en el diagnóstico médico: la importancia de las variables irrelevantes
Neural netwroks and lineal methods in medical diagnosis: relevance of irrelevant variables
Artículo
Este artículo está disponible en español
Redes neuronales y métodos estadísticos clásicos en el diagnóstico médico: la importancia de las variables irrelevantes
Josep Maria Sopena, Enrique Romero
Med Clin. 2004;122:336-8