"Sin desconfianza nos extraviamos." (F. Colina)
A Mar
Introducción
La detección e intervención activa sobre factores de riesgo caracteriza una buena parte de la actividad clínica desarrollada en los centros de salud. La actuación sobre factores de riesgo también es una actividad básica en la consulta de enfermería y podría decirse que ha sido la base sobre la que se ha cimentado la reforma de la atención de enfermería en su primera fase (actividades preventivas, seguimiento de enfermedades crónicas-factores de riesgo). El fundamento que sostiene estos cambios se ha ido gestando en los últimos 50 años, cuajado como cuerpo teórico en libros de texto de epidemiología y de atención primaria. Sin embargo, lo que parece una forma de hacer medicina y enfermería consolidadas se presenta, a poco que se bucee, como un asunto bien complejo y distante de un abordaje y valoración uniformes. El aparente monolitismo se debe a la escasa trascendencia que los aspectos críticos tienen en la medicina práctica. En el centro de la polémica se sitúa la función y los límites de la epidemiología, la causalidad y los factores de riesgo y todos los aspectos metodológicos relacionados con la inferencia. Baste como provocador aperitivo esta reciente afirmación de Charlton: «La epidemiología de los factores de riesgo no puede ser considerada como una disciplina científica»1.
La actualidad del debate se pone también de manifiesto en un reciente reportaje de Taubes2 en el que repasa, con opiniones de los epidemiólogos americanos más señalados, la palpable crisis de la epidemiología. Los múltiples ejemplos de estudios contradictorios, la trascendencia de los mismos a la opinión pública, los problemas internos de los estudios observacionales, la imposibilidad de contar con la estadística para resolver problemas internos de los estudios y los criterios de publicación, entre otros asuntos, reflejan, contrariamente a lo que parece, un poco sosegado horizonte.
El objetivo de este trabajo es intentar retratar, tomando como eje los factores de riesgo, dicho poco calmoso panorama actual y realizar algunas aportaciones originales. Para ello se organizará el material en los siguientes epígrafes: la era de los factores de riesgo, concepto de factor de riesgo, factores de riesgo y causalidad, factores de riesgo e intervención clínica y, por último, factores de riesgo e industria farmacéutica.
La era de los factores de riesgo
Recientemente, el prolífico editor del American Journal of Public Health, Mervyn Susser, ha intentado aplicar el exitoso concepto kuhniano de paradigma3 para establecer 3 eras en la epidemiología de los dos últimos siglos4: la era de las estadísticas sanitarias ocuparía la primera mitad del siglo xix con su paradigma de la teoría miasmática; la era de la epidemiología de las enfermedades infecciosas, que transcurre durante 50 años de cada siglo y que tiene como paradigma la teoría de los gérmenes, y la actual era de la epidemiología de las enfermedades crónicas, cuyo paradigma es la caja negra.
Aunque este tipo de caracterizaciones un tanto rígidas siempre son fácilmente criticables5, parece unánimemente reconocido el papel central que la epidemiología de los factores de riesgo, como otros autores la denominan directamente6, tiene desde que en los años cincuenta se dieran a conocer los primeros estudios que mostraban una asociación entre tabaco y cáncer7. La metáfora de la caja negra, propuesta en 1984 por Peto8, hace referencia a que el enfoque predominante en el abordaje de la enfermedad es el de los estudios que analizan exposición y resultados a través del instrumento metodológico del riesgo relativo, sin que lo que ocurra en el interior de la caja, es decir, los mecanismos o los encadenamientos causales, sea necesariamente relevante. Otra metáfora utilizada para describir la epidemiología actual es la de «red causal»5,9. En este caso se pone el acento, más que en la oscuridad y hasta irrelevancia de los mecanismos, en el concepto y en el origen de la enfermedad: ésta se concibe como resultado de una compleja red de factores de riesgo y de factores protectores que deben ser identificados.
Este enfoque ha ido desarrollando sus propias técnicas, fundamentalmente en el campo del diseño de los tipos de estudio y en la mejora del cada vez más fino aparato estadístico10, y cristalizó como cuerpo teórico plasmado en un libro de texto tan sólo hace 40 años11; de hecho, hoy día persisten múltiples aspectos teóricos y técnicos sin cerrar12-14.
La epidemiología centrada en los factores de riesgo cuenta en su haber, según sus defensores, con importantes éxitos15,16, tales como el descubrimiento de la relación del tabaco con el cáncer de pulmón, de otros carcinógenos ambientales, de los factores de riesgo cardiovascular o del reciente descubrimiento del papel de la deficiencia de folatos en los defectos del tubo neural4.
Sin embargo, los detractores de este enfoque mantienen una sorda pero, en ocasiones, virulenta polémica (véase más adelante) que contrasta con la masiva aplicación en la clínica práctica de los resultados de la epidemiología de los factores de riesgo, fundamentalmente en el terreno cardiovascular, del cáncer y de las actividades preventivas a ellos ligadas.
Concepto de «factor de riesgo»
Si la epidemiología actual es la de los factores de riesgo, resulta al menos llamativo que el propio concepto de factor de riesgo no sea un concepto preciso y unánime en la literatura epidemiológica. Esta situación podría entenderse en el contexto de la falta de claridad de los conceptos epidemiológicos básicos de la que se queja Rothman en su texto de 198617 (cap. 1) envidiando la precisión de los términos de la física que al menos permite a los físicos discutir sobre lo mismo. Jenicek también se lamenta en su texto de 1987 de que ciertos símbolos y términos «no están todavía estandarizados»18 (p. 131). Y en un manual de epidemiología de la Organización Panamericana de la Salud de 1994 puede leerse: «Por desgracia, los epidemiólogos no han alcanzado aún un acuerdo total sobre las definiciones de los términos utilizados»19 (p.15). El esfuerzo realizado en los últimos años en el terreno de la clarificación ha dejado a los factores de riesgo, sin embargo, sumidos en una imprecisión cada vez mayor.
Grundy intentó en 197320 delimitar el uso del término y consiguió introducir en el campo teórico la distinción entre factor de riesgo y marcador de riesgo en función de la posibilidad o no de intervención sobre el mismo. Pero, aparte de esta distinción, Grundy mantiene una ambigüedad que se ha transmitido a textos de epidemiología que le siguen21-23. En efecto, un factor de riesgo para Grundy es cualquier característica ambiental o endógena que antecede al comienzo de la enfermedad y/o se halla asociada con el deterioro de la enfermedad, sin precisar si se trata únicamente de una asociación estadística o si se tiene un inequívoco carácter causal. MacMahon11, en su texto fundacional de los años sesenta, propuso el concepto de factor de riesgo en principio más restrictivo, limitando su uso para aquella asociación estadística que además cumpliera otras dos características: la secuencia temporal y no ser debida a problemas de diseño, sesgos y/o factores de confusión. Esta formulación aparentemente simple y aceptable se encuentra llena de dificultad no sólo práctica sino también teórica, puesto que traslada el problema nada menos que al capítulo de los sesgos y de los factores de confusión, el cual se halla en el centro de cualquier discusión acerca de la causalidad y de la inferencia científica, un asunto en modo alguno resuelto (véase más adelante). Los textos de epidemiología posteriores mantienen la imprecisión. Unos se escoran hacia un análisis de los factores de riesgo en el contexto de la multicausalidad17,24-26 y otros inciden más en el carácter de asociación estadística que el factor de riesgo representa, aunque esa asociación no sea necesariamente causal21-23,27-32.
El reciente desarrollo de las técnicas multivariantes ha facilitado enormemente el estudio de los factores de confusión y de las interacciones33. En la práctica, las variables independientes (factores) que se incluyen en el estudio para determinar su influencia sobre las variables dependientes (enfermedad) pasan a denominarse con frecuencia «factores de riesgo» (véase, por ejemplo, publicaciones del estudio Framinghan34) o indistintamente «variables» o «factores de riesgo» (por ejemplo, estudio Honolulu35). De este modo, la imprecisión del término ha cobrado carta de naturaleza puesto que, en principio, cualquier variable que pueda predecir el valor de la variable independiente puede denominarse sin más problema factor de riesgo.
Una prueba indirecta de la imprecisión del término factor de riesgo puede obtenerse observando la base de datos Medline. Si se busca el término risk-factors aparecen del orden de 10.000 artículos anuales que le contienen. Por otra parte, la definición utilizada por Medline también es elocuente: «Un aspecto del comportamiento o del estilo de vida, exposición medioambiental o característica innata o heredada que, sobre la base de evidencia epidemiológica, se conoce que está asociado con una condición de salud relacionada considerada importante para prevenir.» Esta definición hace hincapié en dos aspectos: en que debe existir una «evidencia epidemiológica de asociación», con lo cual se traslada el problema a lo que sea una «evidencia» o «prueba epidemiológica», y en que esta asociación se «considere importante para prevenir», introduciendo, con todas las cautelas, un elemento causal en tanto que el objetivo final es la intervención.
La imprecisión en el campo teórico se refrenda con una simple ojeada al uso habitual del término, término que, por otra parte, ha trascendido ya a medios no especializados, por ejemplo, medios de comunicación, donde se usa con profusión. Puede observarse entonces que el término «factor de riesgo» no tiene un significado unívoco, sino que se perfila contextualmente, con sobrentendidos. Por ejemplo, si se dice que un agente infeccioso es un factor de riesgo14 (p. 91) se sobrentiende que se está utilizando «factor de riesgo» como sinónimo de causa necesaria y, en ocasiones, de causa suficiente. Si se dice que la ceguera es un factor de riesgo de caídas, se sobrentiende que la ceguera es una de las posibles causas, aunque ni necesaria ni suficiente, de una caída. Si se dice que la HTA es un factor de riesgo para la enfermedad cardiovascular, se sobrentiende que la HTA presenta alguna relación causal, aunque los mecanismos no estén aclarados, con la enfermedad cardiovascular. Si se dice que la edad es un factor de riesgo para el IAM, se sobrentiende que la edad marca o se asocia indefectiblemente con un mayor riesgo de presentar IAM. Si se dice que la promiscuidad sexual es un factor de riesgo del cáncer de cervix, se sobrentiende que la promiscuidad es una condición previa o inicial para que los verdaderos factores causales (virus, idiosincrasia) actúen. No es de extrañar entonces que, no sin ironía, se publicara ya hace unos años una lista de 246 factores de riesgo cardiovascular que incluye desde no dormir la siesta hasta roncar36.
En este polisémico uso del término factor de riesgo destaca un factor común explícito: la asociación estadística. Lógicamente la asociación estadística debe cumplir los mínimos técnicos exigibles tales como la ausencia de sesgos (validez interna) y la consideración de todos los factores de confusión conocidos. Sin embargo, implícitamente, la asociación no se agota en lo estadístico. Se acepta implícitamente que un factor de riesgo siempre tiene un carácter causal, aunque este carácter se mantenga indeterminado en el seno de un modelo multicausal. Pero la trampa ya está hecha. La transición mental de lo estadístico a lo causal deja de ser un escollo y se elude la problemática científica y técnica de la demostración causal (véase más adelante) --en el mejor de los casos se exigen unos datos correctos y un tipo de estudio adecuado--. De este modo la polisemia se pone al servicio de la ambigüedad, de tal forma que se meten en el mismo saco de «factor de riesgo», asociación estadística con causas. Por tanto puede afirmarse que, mientras no se demuestre lo contrario, un factor de riesgo es un factor causal; pero en cuanto exista el menor esbozo crítico acerca de la certeza del papel productivo de un determinado factor de riesgo, por ejemplo la consideración de un nuevo factor de confusión tenido ahora en cuenta, es fácil apelar a su mero significado estadístico.
Lo que aquí voy a mantener es que, a pesar de que el concepto de riesgo y de factor de riesgo ocupa el intrincado nudo que forman la causalidad (teoría), la estadística (técnica) y la salud pública (acción), y esa marca de origen facilita su ambigüedad, en última instancia esta falta de precisión no es un asunto de pereza mental o de dificultad conceptual; más bien esta ambigüedad no es ni baladí, pues a pesar de la imprecisión, o gracias a ella, se adoptan decisiones de intervención en la población, ni gratuita, ya que estas decisiones, en la medida en que puedan ser polémicas o discutibles, se benefician de esta imprecisión.
Por otra parte, el concepto de factor de riesgo en sí está abstraído de su magnitud y de su importancia teórica, clínica y preventiva. Aunque sea algo conocido, conviene recordar que denominar a una variable como «factor de riesgo» es una información en sí misma escasa. Clásicamente se dice que cuando se quiere inferir causalidad se utiliza el riesgo relativo y para la toma de decisiones en salud pública el riesgo atribuible o diferencia de tasas37. Efectivamente, 2 grupos de tasas del 20 y 4 y de 5 y 1, respectivamente, teniendo el mismo riesgo relativo, presentan una diferencia de tasas notable. A esto hay que añadir otros aspectos, como la prevalencia también integrada en una medida epidemiológica, el riesgo atribuible poblacional22 o aspectos más etéreos como de la vulnerabilidad.
Sin esta información adicional se desvirtúa el uso práctico de «factor de riesgo» hasta el punto de permitir, apelando a él, dar pasos de ciego.
Factores de riesgo y causalidad
Tal como se ha mostrado, en la práctica el término factor de riesgo bascula entre la asociación estadística y la causa (véase apartados anteriores). Si la asociación estadística es un asunto estrictamente técnico, el tema de la causalidad, en cuanto término (filosófico), es una «cicatriz endurecida de un problema irresuelto», en acertada expresión de Adorno38.
En efecto, la causalidad en medicina y en otros campos de la ciencia sigue siendo una cuestión abierta, como lo prueba la no escasa y polémica literatura producida sobre el tema aun hoy en día1,39-45. Es un tema complejo en el que se entrecruzan conceptos filosóficos, estadísticos y epidemiológicos y que, en el caso concreto de la medicina, se encuentra mediatizado radicalmente por la necesidad práctica de actuar. Acudir a la historia es, en este caso, uno de los caminos necesarios si se quiere abordar el tema.
Aunque parezca una afirmación sorprendente, la preocupación sistemática por las causas de las enfermedades es un asunto bien reciente, que puede encuadrarse en el contexto de lo que Laín llama mentalidad etiopatogénica y que se sitúa a finales del siglo xix con la teoría de los gérmenes desarrollada por Pasteur y Koch y sistematizada por Krebs46, junto con el extraordinario desarrollo de la fisiología y del método experimental que encabezó C. Bernard47.
Eso no significa que los médicos de siglos anteriores prescindieran de las causas en su explicación de las enfermedades. Pero no se trataba de un asunto problemático. La «multicausalidad» ya está presente en el corpus hipocraticum48 y en la posterior y duradera elaboración galénica que tiene en cuenta la causa prokatarktiké (régimen de vida, factores medioambientales), la causa proegouméne (disposición constitucional) y la synektiké o causa inmediata (prácticamente la futura lesión anatomopatológica). Este abigarrado «modelo multicausal» en el que múltiples factores y el huésped interaccionan de manera compleja, se aceptó de facto como no problemático, salvo contadas excepciones, como Francastoro y Paracelso en el siglo xvi, hasta prácticamente el siglo xix. La preocupación de los clínicos se centraba en descubrir mecanismos, describir síntomas y signos, en la terapéutica por ensayo y error y en la búsqueda de correlación anatomoclínica, tal como pone de manifiesto Foucault en su precioso estudio sobre la medicina de los siglos xviii y xix49. Son Koch y su maestro Henle (como ha reivindicado Evans50) quienes a finales del xix se interesan por la causalidad en medicina desde una perspectiva a la vez sistemática y práctica, elaborando los famosos postulados, presentados formalmente en 1890, para establecer una relación causal entre un agente y una enfermedad. Pero ni siquiera el padre del llamado en los manuales «modelo determinista» de la causalidad consideró sus postulados como condiciones sine qua non para la adscripción causal: había enfermedades, como el cólera, que no cumplían todos los criterios propuestos.
El siguiente paso puede situarse en el descubrimiento de una posible relación causal entre el tabaco y el cáncer de pulmón en 19507. Este hecho estimuló el desarrollo de nuevos grupos de criterios (criterios causales o criterios de juicio) que pudieran fundamentar inferencias causales en el terreno de la más inaprehensible etiología de las enfermedades crónicas. Estos intentos bebieron directamente de los 4 métodos propuestos por J.S. Mill51 como los únicos modos de indagación experimental inductiva (método de las concordancias, de las diferencias, de los residuos y de las variaciones concomitantes), y cristalizó en 1965 en los postulados de Hill (que ampliaron los del U.S. Surgeon General de 1964 y que Susser40 reclama haber alcanzado de forma independiente en 1973), y que posteriormente fueron reelaborados principalmente por Evans en 197650 y 197852. (Para otras formulaciones anteriores y posteriores véase el listado completo ofrecido por Weed53).
El asunto sustancial es si estos criterios para el juicio causal (fuerza de la asociación, consistencia, especificidad, secuencia temporal, gradiente biológico, plausibilidad, coherencia, evidencia experimental y analogía), que todavía se siguen utilizando hoy en día explícitamente54,55, sirven para establecer con seguridad una relación causal entre el factor estudiado y la enfermedad o simplemente constituyen una mera aproximación o guía, más o menos lógica, más o menos científica o más o menos útil.
Las críticas que en los años ochenta protagonizó Burch56,57, tachando a estos criterios como inapropiados para el análisis científico y afirmando la falta de evidencia científica para relacionar causalmente el tabaco y el cáncer de pulmón, se vieron acompañadas de una inteligente pero desleal crítica de Rothman17 (p. 22-27) y por un sinfín de comentarios más44,58,59 (véase 63, 64,68-76). La polémica estaba inmersa en un clima general de crisis de los fundamentos científicos de la epidemiología, que surgió con fuerza tras la traducción al inglés en 1958 de la influyente obra de Popper, publicada originalmente en los años treinta, La lógica de la investigación científica60 y obras posteriores61,62. Aunque el inicio de la autodenominada epidemiología popperiana se sitúe en un artículo de Buck de 197563, el apasionado debate que aún colea en nuestros días64-69 tuvo su acmé en los años ochenta39,53,70-76.
Básicamente, Popper afirma que no hay manera de verificar totalmente una teoría científica porque nunca se puede estar seguro de que en el futuro puedan surgir evidencias en contra. Ni siquiera la proliferación de verificaciones de una teoría asegura un incremento en la probabilidad de su certeza. La ciencia debe guiarse, si se quiere lógica, no por la verificación de las teorías, sino por su falsación: las teorías científicas se caracterizan, en su propuesta, por ser falsables, es decir, por disponer de elementos predictores que puedan ponerse de manifiesto como falsos al contrastarlos con la observación empírica. Mientras una teoría resista a repetidos intentos de ser falsada, puede considerarse provisionalmente como corroborada60,61.
Desafiando la crítica popperiana a la posibilidad de la utilización de la inducción en la ciencia, existen aproximaciones que defienden la racionalidad del proceso inductivo. En esta dirección destaca la teoría de la probabilidad en su interpretación bayesiana, no frecuentista, que proporciona bases teóricas y técnicas para asignar a una teoría grados de creencia de una manera lógica77,78. Algunos de los desarrollos de la probabilidad bayesiana en epidemiología intentan proponer como alternativa a los clásicos valores de p y a los intervalos de confianza, a la razón de verosimilitud, una razón matemática que permite obtener grados de evidencia para rechazar o no la hipótesis nula79. Desde un punto de vista más teórico, también se defiende desde la teoría bayesiana que la aleatorización, en el contexto de los ensayos clínicos aleatorios, proporciona un grado de homogeneidad tal de las poblaciones comparadas que permite el salto inductivo y el establecimiento de relaciones causales fundadas41,80,81. En este terreno de la teoría de inferencia estadística, las diferencias de interpretación aparecieron ya desde su origen. Así, mientras Fisher (estimación puntual de parámetros y contraste de hipótesis) defiende el carácter inductivo de la significación estadística, Neyman y Pearson consideran a su intervalo de confianza como un método deductivo en tanto que la base de la estimación del mismo yace en la asunción de normalidad de la muestra y en la teoría central del límite77.
Tras este breve repaso histórico-conceptual, cabría preguntarse por el lugar que ocupan los factores de riesgo. En concreto habría que responder: ¿qué significa que un factor x es un factor de riesgo para tal enfermedad? ¿Que tal factor está ligado probabilísticamente al padecimiento de la enfermedad? ¿Que tal factor es una causa un elemento productivo, si bien no suficiente ni necesaria, de la enfermedad? Y de modo paralelo cabría preguntarse: ¿es posible establecer una relación causa-efecto desde un ensayo clínico aleatorio? ¿Proporcionan las técnicas multivariantes algún tipo de evidencia causal? ¿Qué papel desempeñan los criterios adicionales de juicio a la hora de establecer una relación causal? ¿Es posible siquiera estar seguro de que una hipótesis causal pueda ser verificada? La respuesta a estas preguntas dista mucho de ser coincidente, como hemos visto. Sin embargo, en el terreno práctico, las cosas parecen estar más claras: sea lo que sea un factor de riesgo, se piense lo que se piense sobre la causalidad, el hecho es que sobre los factores de riesgo se realizan políticas de intervención. Gran parte de la medicina actual consiste precisamente en la intervención directa sobre factores de riesgo.
La intervención sobre los factores de riesgo
La intervención sobre los factores de riesgo es un hecho. Esta es la prueba crucial que demuestra el contenido causal implícito en el concepto de factor de riesgo, por más que en ciertos ámbitos se apele a su carácter fundamentalmente estadístico y por más que en el uso habitual en la literatura médica el concepto de factor de riesgo incluya una amplitud de situaciones que abarcan desde la mera asociación estadística a la causa (véase apartado anterior).
Desde un punto de vista teórico, la intervención exitosa sobre un factor de riesgo proporcionaría una prueba más, quizá la definitiva, sobre su papel causal. La demostración de que la introducción de cambios en el factor se vea seguida de cambios en el efecto, evidenciaría el papel productivo de la causa en su efecto. Curiosamente no es éste un argumento utilizado por los defensores de la epidemiología de los factores de riesgo15. Sin embargo, está presente implícitamente y es la razón que tienen todos los médicos cuando en su práctica clínica realizan intervenciones. Pero, conviene ir más despacio.
El estándar aceptado hoy para demostrar la eficacia de una intervención es el ensayo clínico aleatorio, cuya metodología se ha desarrollado en los últimos cincuenta años. Esta metodología tiene sus propias dificultades técnicas82 y también sus limitaciones a la hora de establecer relaciones causales, siendo la fundamental la imposibilidad de controlar todos los factores de confusión: el ensayo clínico aleatorio no garantiza el control de los factores de confusión desconocidos83. Los factores de confusión precisamente son la crux de la epidemiología de los factores de riesgo. En principio no es problemático realizar un ensayo clínico aleatorio para demostrar las variaciones inducidas en parámetros biológicos por un fármaco. Sin embargo, demostrar la eficacia de un fármaco sobre la morbimortalidad a través de un ensayo clínico aleatorio resulta más incierto. En este caso, el control de todos los factores de confusión posibles, incluidos los desconocidos, se hace imposible y las conclusiones sobre las relaciones causa-efecto, aventuradas (a esta interpretación se oponen, como ya se ha señalado, los defensores de la teoría de la probabilidad bayesiana41,80). Además de estos problemas internos, sobre los ensayos clínicos aleatorios son de aplicación otros problemas externos, como la dificultad de su ejecución en ciertas situaciones humanas84, la extrapolación de resultados desde animales a humanos y la extrapolación de resultados desde la población utilizada en el ensayo a otros grupos distintos de población59,85.
De un modo más general, cabría preguntarse acerca de si las condiciones experimentales se corresponden con las condiciones de la práctica cotidiana. En medicina el problema se maneja apelando a la distinción entre eficacia y efectividad. Pero en teoría del conocimiento el asunto planteado (la validez de un conocimiento obtenido a través de violentar, a través del experimento, las condiciones habituales) camina por otros derroteros, que en Goethe, denunciando a la finalmente triunfadora epistemología newtoniana, presenta su lado más romántico86. Pero esto es otro asunto.
Por otro lado, en el terreno de los factores de riesgo, cabe analizar, al margen de problemas genéricos y teóricos, cuál ha sido el resultado real de las intervenciones sobre ellos. Un análisis de este tipo resulta temerario dada la profusión de estudios de intervención publicados acerca de factores de riesgo, desde que el pionero estudio Framingham echó a andar a finales de los cuarenta74 (p. 157). De hecho, esta superabundancia de estudios está en la raíz del nacimiento de nuevas técnicas estadísticas, caso del metaanálisis y los megaensayos, no exentos tampoco de sus propios problemas técnicos87-90 e incluso está en el origen de la creación de una corriente en la medicina, la medicina basada en la evidencia, que se autocontempla como un nuevo paradigma91 y que tiene como uno de sus objetivos poner un poco de orden y concierto en la magna cantidad de estudios disponibles. No obstante, se puede intentar hacer alguna consideración general y poner algunos ejemplos acerca de los resultados obtenidos en estas intervenciones.
Las publicaciones de los resultados de las intervenciones sobre factores de riesgo siempre se ven rodeados de amplias polémicas. (Véase algunos ejemplos en cita 59.)
Como resultado de estas intervenciones, han surgido críticas, a veces expresadas con la pasión de quien sabe que clama en el desierto, que descalifican globalmente la epidemiología de los factores de riesgo, fundamentalmente en la dirección de desposeerla de estatuto científico1,92-94.
La magnitud de los resultados de las intervenciones, en general, es menor de la esperada. En los ensayos de intervención sobre factores de riesgo en comunidades los resultados son «decepcionantes»95 o «escasos»96. En la valoración del éxito de las intervenciones farmacológicas, la disparidad es la norma. Recojo aquí algunas situaciones críticas en relación con la HTA y la hipercolesteremia.
En HTA, hasta ahora únicamente 2 grupos de fármacos cumplen los estándares de eficacia en términos de morbimortalidad97 y no es por falta de ensayos clínicos: al menos se han puesto en marcha una docena de grandes ensayos (véase referencias en citas 98 y 99) y aun hoy día se inician nuevos100. Cito textualmente el comienzo de la introducción de uno de los estudios: «Un curioso patrón ha aparecido como evidencia acumulada desde los ensayos clínicos sobre el tratamiento de la HTA. Aunque la enfermedad coronaria es la complicación más importante de la HTA, el tratamiento farmacológico de la HTA ha tenido poco o nulo efecto en reducir la incidencia de enfermedad coronaria.»99
En el capítulo de la hipercolesteremia, la polémica es amplia. Únicamente me permito llamar la atención acerca del hecho siguiente: tras los reducidos resultados obtenidos con las intervenciones farmacológicas y no farmacológicas sobre la hipercolesteremia en términos de morbimortalidad101-103, a pesar de haberse realizado ya sobre grupos de población restringidos (varones de mediana edad y, en ocasiones, con otros factores de riesgo asociados), llama la atención que los nuevos ensayos clínicos aleatorios que se han puesto en marcha hayan restringido aún más la población sobre la que se realizan los estudios: antecedentes de cardiopatía isquémica y dosis altas de hipolipemiantes104-105. Por su parte, los consensos107,108 y la práctica clínica caminan justo en dirección contraria: la generalización de los resultados a la población general.
Un comentario más sobre la hipercolesteremia. Los datos se conocen. Los mejores resultados obtenidos en ensayos clínicos en prevención primaria, recogidos por Brotons98 (pp. 112-115), logran reducir (todo en cifras redondas) en un 2% la incidencia de infartos, fatales o no, tras 6 años de tratamiento farmacológico y dietético. (La intervención disminuye la tasa de infartos en 6 años de un 9 a un 7%). Para evitar cada infarto, hace falta tratar a 60 personas durante 6 años. Es decir, 59 personas de cada 60 (98,4%) no se benefician o se perjudican con el tratamiento. Las preguntas acerca de la causalidad surgen espontáneas. Sobre las ventajas prácticas de la intervención, la cuestión está abierta.
En este último ejemplo salta a la vista una paradoja conceptual: mientras que los resultados se pretenden obtener en un nivel poblacional, las intervenciones se realizan de modo individual. De otro modo: se interviene directamente sobre individuos con el objetivo de obtener resultados sobre la población. Esta situación plantea problemas que van más allá de la constatación del error conceptual que aparece al considerar a la población como un simple agregado de individuos, sin tener en cuenta sus propiedades relacionales109 o sus propias leyes y dinámicas4. En efecto, además de las dificultades intelectuales, surgen problemas de índole técnico, puesto que los beneficios poblacionales se obtendrán en tanto que se intervenga sobre suficientes individuos y esta intervención no puede asegurarse dada la volatilidad de la misma, y también de orden moral en un doble sentido: a) se embarca a los individuos en un esfuerzo sin que se les garantice ni la necesidad ni el éxito concreto de la intervención, creando sin embargo, implícita o explícitamente, expectativas personales y, con frecuencia, alteraciones en su calidad de vida en tanto que pasan a convertirse en sujetos enfermos, y b) se embarca a la sociedad en un empeño que puede resultar baldío si no se llega a intervenir sobre la cantidad de población necesaria para el éxito. Un asunto previo, claro está, es que la magnitud de los resultados que se persiguen con la intervención merezca o no la pena per se.
Pero la medicina es una ciencia práctica y este carácter práctico plantea a la epidemiología un agudo problema. De un lado, hay quien toma esta característica como bandera y reclama un estatuto científico diferenciado para las ciencias biológicas, seguramente más laxo, frente a las ciencias físicas, estas últimas ocupadas en la búsqueda de leyes universales110. De otro, la imperiosa necesidad de actuar permite que una poco definida mejora de las condiciones de vida y de salud de la población pueda utilizarse como coartada para poner en marcha intervenciones no sólo sin la suficiente solidez científico-técnica, sino también sin una valoración suficiente de la magnitud de los supuestos beneficios, ni de los esfuerzos sociosanitarios necesarios, ni de las oportunidades perdidas si los esfuerzos se canalizaran en otra dirección.
Por eso conviene diferenciar los resultados científicos de su aplicación práctica (efectividad), pero también de las decisiones de política sanitaria37. No hace falta ser un analista perspicaz para constatar que en el terreno de las intervenciones sanitarias el último nivel reseñado no existe. Las decisiones de intervención únicamente se fabrican en el nivel del resultado científico y, apropiadamente divulgadas por un fuerte aparato científico-comercial, se materializan en la actividad cotidiana de los profesionales. El control social de este camino es inexistente. Y esto no sería un problema si no fuera porque, como se ha visto, el terreno que se pisa no es firme y además por la facilidad con la que grupos con intereses estrictamente comerciales pueden introducirse en un terreno libre socialmente y ambiguo científicamente.
Factores de riesgo e industria farmacéutica
No ha de extrañar que en una revisión que se pretenda rigurosa se pueda hablar, sin dejar de serlo, del papel de la industria farmacéutica en la epidemiología de los factores de riesgo. Desde que en 1962 Kuhn con La estructura de las revoluciones científicas1 «desbloqueara en palabras de Sánchez Ortiz de Urbina la teoría de la ciencia estancada en el esquema del contexto de justificación»111, la perspectiva que tiene en cuenta, al explicar la ciencia, el contexto de descubrimiento, ha ganado terreno.
Reichenbach precisamente propuso su exitosa distinción en 1938112 para separar todo lo que tiene que ver con el proceso del descubrimiento científico (contexto de descubrimiento) de los resultados aislados de su origen y presentados o justificados canónicamente (contexto de justificación). Reichenbach situó el estudio del contexto de descubrimiento fuera de la ciencia, pero el tiempo ha querido que en la teoría de la ciencia de hoy el contexto de descubrimiento ocupe un lugar central: hasta las teorías de la ciencia contemporáneas más centradas en el contexto de justificación, caso de la concepción estructural, incluye en el núcleo estructural de las teorías a la comunidad científica113. Por ello el papel que la industria y la tecnología científicas tienen en el desarrollo de la propia ciencia, no sólo en la dirección que toman las investigaciones, sino también en los propios contenidos científicos y en su significado teórico y práctico, es un tema ampliamente desarrollado en la filosofía de la ciencia en las últimas décadas114-116. Estos análisis se enmarcan en un contexto más general de crítica de la ciencia y de su ya muy malparada presunta neutralidad, e incluso racionalidad, que tiene en los nombres de Popper60,61, Lakatos117 y Feyerabend118 sus exponentes más conocidos.
La medicina, creo, es un campo privilegiado para mostrar la fertilidad de este enfoque de la teoría de la ciencia. (Esta afirmación no es óbice para mirar de reojo con respeto el furibundo ataque que a esta «burocratizada», «gremial» y «escolástica» filosofía de la ciencia lanza nuestro Gustavo Bueno desde su férrea «teoría del cierre categorial»119). Analizar, entonces, el papel que la industria farmacéutica ha tenido y tiene en la evolución reciente de la medicina, más allá de constatar el exceso de publicidad presente en las revistas médicas120, se presenta como un atractivo y prometedor terreno casi sin explorar.
En efecto, la industria farmacéutica no se limita a desarrollar programas de investigación sobre fármacos y nuevas tecnologías, sino que mantiene una estructura científico-comercial que incide directamente tanto en la dirección de las investigaciones como en todo lo que tiene que ver con la toma de decisiones globales, a través de una intrincada red que oscila desde la financiación explícita de los ensayos clínicos a la organización de simposios, congresos y publicaciones, la elaboración de consensos, la ejecución de campañas sanitarias dirigidas a la población general y, en fin, a la promoción publicitaria, apoyada en un elaborado marketing, sobre prescriptores y proveedores.
La capacidad de fagocitación de la industria farmacéutica se muestra precisamente en el hecho de que, sin abandonar nunca el nivel promocional directo al prescriptor, financie, cada vez más, actividades no percibidas por los profesionales como promocionales (conferencias, congresos, publicaciones) y, sin embargo, con mayor impacto sobre ellos121. En los últimos tiempos, también promocionan y financian conferencias de consenso, herramienta originalmente al servicio del uso racional de tecnologías y de la toma de decisiones, que han proliferado a modo de «sínodos de obispos»122 o de lobbys123 con el nada oculto objetivo de servir a la promoción de fármacos124. (Las conferencias de consenso se han multiplicado en todos los campos de la medicina y a todos los niveles, desde locales a internacionales. Se pueden encontrar en los últimos 5 años más de 140 referencias sobre las conferencias de consenso más variopintas, de las cuales más de 30 son nacionales o internacionales.) La puerta a las presiones está también abierta en la elaboración de los protocolos clínicos de actuación88.
Basten unos cuantos ejemplos para mostrar hasta qué punto la industria farmacéutica interviene directamente sobre la investigación y política sanitarias.
El papel concreto que los triglicéridos y el fibrinógeno jueguen en el riesgo cardiovascular es controvertido. Investigar en esta línea de trabajo supuestamente tendría un interés científico «objetivo». En un estudio que persigue mostrar, mediante angiografía, la reducción farmacológica de la progresión de la placa de ateroma, se atribuye este éxito, utilizando el prudente lenguaje habitual para estos casos, a la disminución de las lipoproteínas ricas en triglicéridos y del fibrinógeno, más que a otros factores como el descenso del cLDL o al aumento del cHDL. El estudio se realizó con fibratos, que curiosamente, a diferencia de otros hipolipemiantes, disminuyen claramente ambos parámetros. Por supuesto, el estudio ha sido financiado por el laboratorio que comercializa el fibrato, que también se ha encargado de divulgarlo en un amplio folleto titulado "Novedades en la prevención de la cardiopatía isquémica"125. Por su parte, los promotores de las estatinas se encargan de destacar que los fibratos tienen peores resultados sobre todas las causas de mortalidad que las estatinas126.
También podría ofrecerse una lectura del actual incremento del tratamiento farmacológico de la hipertrofia benigna de próstata (HBP) como una intervención directa de la industria farmacéutica. Aunque no exista ningún marcador biológico sensible y específico del cáncer de próstata, aunque el tratamiento farmacológico de la HBP se haya mostrado eficaz tan sólo en el control sintomático temporal del proceso, aunque no exista relación entre HBP y cáncer de próstata, a pesar de todos estos hechos, se ha generalizado la utilización de fármacos para el tratamiento de la HBP y las determinaciones sistemáticas del PSA, incluso en personas jóvenes. Todo ello viene avalado por la celebración de jornadas y congresos difundidos adecuadamente en televisión y prensa y por semanas de divulgación dirigidas a la población general. El marketing directo sobre los prescriptores actúa entonces sobre un terreno abonado de ciencia y de demanda social. Plantearse otras consideraciones «extracientíficas» como la medicalización generalizada, los secundarismos o la relación coste/beneficio no sólo no son tenidos en cuenta, sino que son considerados como regresivos en términos de salud de la población.
Desde un punto de vista más general, la industria farmacéutica también influye directamente en el cambio de orientación de la epidemiología desde una perspectiva poblacional y de salud pública al actual enfoque centrado en el individuo, tal como insinúa Pearce en un esclarecedor artículo127. Pearce afirma que una de las razones de la ausencia de interés por una perspectiva poblacional de la epidemiología está en la situación profesional de los epidemiólogos, cuyas fuentes de financiación se encuentran principalmente en manos de gobiernos y de agencias que tienden a ir «donde está el dinero». La perspectiva poblacional permitiría plantearse asuntos escandalosamente ausentes de la epidemiología moderna, caso de las desigualdades socioeconómicas en la salud y los factores socioeconómicos responsables de ello128-131.
Por poner un último ejemplo, el poderoso papel de la industria farmacéutica está detrás de un concepto tan utilizado como difícil de explicar, y no sólo a un profano, como es el de los fármacos con valor intrínseco no elevado (VINE), que propuso Laporte entre nosotros132 o su correlato de fármacos de utilidad terapéutica baja (UTB)133. Por mucho que se rice el rizo, no se puede entender cómo un fármaco UTB o VINE no sólo esté en el mercado, aprobado por el ministerio, sino que sea prescrito. Un usuario de este tipo de fármacos no puede entender, y de hecho no lo entiende, que esté siendo engañado literalmente acerca de los beneficios de lo que está tomando, dado que lo que toma está respaldado por un ministerio, una industria y un médico en los que confía y se resiste ante el intento de retirada.
La tesis aquí mantenida es que toda esta estrategia científico-comercial y esta situación aceptada tácitamente de modo generalizado sólo se puede sostener en los ámbitos intelectual y ético si la práctica e investigación médicas descansan sobre un magma conceptual difuso acerca de lo que signifique el riesgo y la prevención de ese riesgo, magma que se ha introducido en las rendijas de nuestra mentalidad a través de la ambigüedad del concepto de factor de riesgo. El cajón de sastre que es el concepto de factor de riesgo favorece el tránsito casi automático de la asociación estadística a la intervención, sin que medie una reflexión no ya sociosanitaria, sino ni siquiera científico-médica. La coartada es perfecta. Lo primero es la salud.
Agradecimientos
Quiero expresar mi agradecimiento a Ángel Maderuelo, Alejandro Merino y Javier de Lorenzo por sus oportunos comentarios, a José Carlos Andrés por su «inocente» y a Mar Echeverría y a Dolores F. Bragado por su aliento.