Meta-análisis

Escrito por| Bioestadística

Introducción

La corriente denominada “medicina basada en la mejor evidencia” (best Evidence Based Medicine EBM) viene impregnando, al menos desde los años 70, el ámbito del desarrollo de la metodología para la toma de decisiones clínicas. La rápida acumulación de información médica y su disponibilidad ha contribuido sin lugar a dudas a su relevancia, siendo un objetivo primordial el que la actividad médica se asiente sobre bases científicas contrastadas con estudios de la mejor calidad, en los que se refleje de forma fidedigna el estado actual de conocimientos. Una de las herramientas básicas sobre las que se asienta esta metodología la constituye la revisión sistemática.

Aunque el procedimiento de revisión de publicaciones y conocimientos había sido utilizado desde siempre en el ámbito de la ciencia médica, el concepto de revisión sistemática pretende formalizar de manera rigurosa lo que hasta entonces se había limitado a una mera revisión narrativa, por así decirlo, y proceder a analizar la bibliografía sobre el tema de interés con una metodología rigurosa y reglada, de ahí el epíteto sistemática, similar en alguna medida a la que se utiliza en un estudio de investigación básica. El gran auge de este enfoque ha ido en paralelo con la evolución de las herramientas informáticas para el registro de datos, para el análisis estadístico de éstos, y para la difusión de los resultados y conocimientos, cimentado en Internet, con el aumento imparable de la evolución de las publicaciones electrónicas. Por todo ello quien haya seguido esta sección probablemente estaba ya echando de menos un artículo dedicado a un tema tan de actualidad.

En este artículo nos vamos a centrar fundamentalmente en los aspectos estadísticos del tema, sin entrar en otros detalles, como puede ser el proceso de selección de estudios, que sin embargo son de una gran importancia y complejidad en el laborioso proceso de meta-análisis.

Dentro de las herramientas utilizadas en el proceso de revisión, en esta metodología EBM, la denominada meta-análisis constituye una de las piezas fundamentales y define los procedimientos cuantitativos de análisis de los datos extraídos de los trabajos de investigación revisados, con el fin de obtener conclusiones estadísticas a partir de ellos sobre el objeto de la revisión, fundamentalmente tendentes a calcular un valor medio global de la cantidad medida (por ejemplo eficacia del tratamiento), o por otro lado a analizar la heterogeneidad de ésta entre los diferentes estudios. Así pues podemos hablar de las dos caras, en cierta medida contrapuestas, en los objetivos de un meta-análisis: la estimación de un efecto global y la valoración de la heterogeneidad de los estudios.

Cuando en diferentes estudios se ha analizado la misma cuestión es previsible encontrar, por puro azar, diferencias entre los resultados de éstos, máxime si se trata de estudios de pequeño tamaño. El argumento en el que se basa la utilización de técnicas de meta-análisis para combinar los estudios es que al aumentar el tamaño de la muestra aumenta la potencia estadística de la misma, lo que cuando las diferencias observadas sean pequeñas cobra especial relevancia. Además al incorporar en un meta-análisis trabajos efectuados en centros y lugares diferentes conlleva el que los resultados obtenidos pueden ser más fácilmente generalizables a un colectivo más amplio de pacientes.

Es obvio que aunque, cuando menos como declaración de principios, el enfoque con el que el meta-análisis aborda el proceso de revisión es superior a la revisión tradicional, al ser cuantificable y reproducible, y sin embargo no ha estado ni está libre de controversia, e incluso es atacado con virulencia por acérrimos detractores, entre otras cosas porque quizás, como suele ser habitual con todo lo que se pone de moda, ha sido utilizado con una asiduidad excesiva sin suficiente rigor metodológico, lo que precisamente entra en total contradicción con la que es precisamente su finalidad primordial, y también porque hay quien reverencia los resultados numéricos sin analizar con libertad crítica los procedimientos a veces dudosos con los que éstos se obtienen. Siempre es bueno un cierto escepticismo en el ámbito científico.

Las fases de un meta-análisis bien realizado son muy similares a las de una investigación primaria, con la salvedad de que ahora la unidad de observación en lugar de ser los pacientes la constituyen los estudios. Por ello la primera tarea debe consistir en definir un buen protocolo de investigación, que describa razonadamente el motivo para realizar el meta-análisis, los objetivos que se persiguen, la hipótesis que se investiga, ámbito para la búsqueda de trabajos y métodos que se emplearán en esa búsqueda, así como los criterios de inclusión y exclusión de estudios candidatos. Habrá después que proceder a resumir los datos a partir de los diferentes trabajos de forma bien estructurada, que evite errores y facilite su posterior análisis. Todo ello debe quedar bien reflejado en el documento que se publique.

El epíteto sistemático que se aplica al proceso de revisión debe ser una característica fundamental en todo el proceso de meta-análisis, al que hay que añadir, en igual rango de importancia, el de reproducible por otras personas; características que deben estar presentes en todo el trabajo, empezando por la tarea de búsqueda de estudios relacionados con el asunto, cuyo procedimiento debe estar perfectamente descrito en el protocolo, así como las bases de datos y fuentes de información que serán consultadas y la mecánica de consulta.

Una de las principales críticas que ha recibido el meta-análisis se centra en el conocido y bien documentado sesgo de publicación, y que podemos resumir señalando que los trabajos con resultados estadísticamente significativos tienen mayor probabilidad de ser publicados que los que no arrojan diferencias, y una vez aceptados tardan menos en ser publicados. También son citados con más frecuencia, lo que aumenta considerablemente la probabilidad de que aparezcan en una búsqueda bibliográfica. Asimismo los ensayos con gran número de pacientes, tienen mayor probabilidad de ser publicados, aunque sean de tipo negativo, es decir que no hayan encontrado diferencias entre el grupo de estudio y el de control. De entre los trabajos que se publican, aquellos con resultados estadísticamente significativos tienen una mayor probabilidad de aparecer en las revistas importantes. Por lo que no cabe duda, e incluso se han hecho estudios que lo confirman, que hay un sesgo favorecedor de determinado tipo de publicaciones, un importante sesgo de idiomas y un sesgo en el número de citas, lo que conlleva a que la probabilidad de que determinados resultados intervengan o no en un meta-análisis esté sesgada.

Por otro lado, gran parte de la investigación médica es financiada por las empresas farmacéuticas que inevitablemente serán reacias a publicar trabajos en los que una nueva terapia no se revela como más eficaz que la actual.

A todo ello hay que sumar el sesgo que puede añadir el propio autor del meta-análisis, cuyo criterio para incluir o excluir trabajos puede estar influenciado por los resultados aportados por éstos.

 


Elección del parámetro de medida que se usará en el meta-análisis

Para combinar diferentes estudios habrá que elegir un parámetro que cuantifique la cantidad medida. Este puede ser una diferencia de proporciones entre dos grupos, un odds ratio, un riesgo relativo, etc. Cada uno de ellos tiene sus ventajas e inconvenientes y por lo tanto su elección debe ser meditada y justificada. También podemos estar evaluando una variable cuantitativa continua, en cuyo caso habitualmente se utilizará como medida del efecto la diferencia de medias entre los grupos, o situaciones más complicadas, que de momento no vamos a considerar, como pueden ser variables de tipo ordinal, o variables similares a las utilizadas en el análisis de supervivencia (observaciones censuradas), etc.

Métodos estadísticos para combinar estudios

Aunque existen diferentes propuestas estadísticas para combinar estudios, hay tres fundamentales, que se conocen con el nombre modelo de efectos fijos, modelo de efectos aleatorios y por último el modelo bayesiano.

En el modelo de efectos fijos los estudios se combinan considerando que no existe heterogeneidad entre ellos, y que por lo tanto todos ellos constituyen estimaciones de un efecto real, cuya magnitud se desea conocer. Así pues, la inferencia realizada está condicionada a los estudios que se han efectuado.

En el modelo de efectos aleatorios la inferencia se basa en suponer que los estudios incluidos en el análisis constituyen una muestra aleatoria del universo de estudios posibles, y sus resultados son más conservadores al tener en cuenta una fuente extra de variación, ya que ahora se incluyen dos posibles fuentes de variación: la existente dentro de los estudios y la variación entre los estudios.

La utilización de modelos bayesianos constituye, como ya se comentó en otro artículo, una alternativa interesante a la estadística inferencial clásica, pero por su complejidad no los comentaremos en este primer artículo sobre meta-análisis.

Dado que una gran mayoría de meta-análisis se efectúa sobre resultados dicotómicos (fallece, fracasa el tratamiento, efecto secundario, etc) vamos centrar la exposición en este tipo de variable, aunque la lógica subyacente es similar para otro tipo de datos.

Si tenemos estudios que comparan dos grupos, por ejemplo un tratamiento nuevo con un grupo control, y en los que el resultado es binario, por ejemplo efectivo no/sí, podemos construir una tabla 2×2 para presentar los datos de cada estudio y en ella calcular alguna de las medidas habituales (odds ratio, riesgo relativo, diferencia de riesgo). Es importante tener en cuenta que no es correcto juntar sin más todas esas tablas para crear una tabla global y calcular en ella el dato medido, por ejemplo odds ratio. Esta situación errónea que se conoce con el nombre de paradoja de Simpson ya fue comentada anteriormente.

 

Modelo de efectos fijos

El metódo más general para combinar estudios según un modelo de efectos fijos se conoce como método ponderado por la inversa de la varianza (inverse variance wighted method), y ya fue descrito en 1930 por Birge y también por Cochran. En él cada estudio interviene en la estimación global de forma ponderada, con un peso proporcional a su precisión, que en este caso se mide como la inversa de la varianza, ya que la varianza es una medida de dispersión y por lo tanto su inversa una medida de precisión. Vamos a comentarlo un poco más en detalle, aunque brevemente.

Supongamos que tenemos k estudios, i=1,,k, en los que se calcula una medida del efecto que vamos a denominar Ti En el modelo de efectos fijos se considera que existe un efecto global fijo Ø que estimaremos como:

donde los pesos wi que se usan habitualmente son:

siendo Vi la varianza de la medida en el estudio i, cuya fórmula concreta depende del tipo de medida utilizado (odds ratio, riesgo relativo, media, etc).

Una estimación de la varianza de se calcula con la siguiente fórmula

Y si suponemos que  sigue una distribución normal podemos calcular un intervalo de confianza del 95 % para ese efecto global sumando y restando al efecto global la raíz cuadrada de  multiplicada por 1.96.

Para intervenir en el meta-análisis algunas medidas es preciso transformarlas, fundamentalmente tomando logaritmos, antes de que puedan ser combinadas, con el fin de que su distribución se aproxime a la normal. Es lo que ocurre con el odds ratio y el riesgo relativo, con los que se trabajará siempre usando sus logaritmos.

 

Modelos de efectos aleatorios

En el modelo de efectos aleatorios se supone que los estudios incluidos en el análisis constituyen una muestra aleatoria del universo de estudios posibles, y ahora el efecto Ti en uno de los estudios se considera que tiene dos componentes:

done ei es el error con el que Ti estima el verdadero efecto , y ahora la varianza viene dada por la expresión:

donde vi es la varianza debida al error de muestreo en el estudio i corresponde a la varianza entre estudios.

Existen diferentes métodos matemáticos para estimar los parámetros de este modelo. Vamos a presentar aquí unas fórmulas sencillas para estimar un modelo de efectos aleatorios cuando se pondera con la inversa de la varianza.

Para estimar la varianza debida a la variación entre estudios, se definen las siguientes expresiones:

A partir de ellas se calcula la varianza debida a la variación entre estudios como

cuando Q > k – 1

 

donde Q es el resultado de la prueba de heterogeneidad que se describe más abajo. Si < k-1 entonces la variación entre estudios se considera 0 y el modelo coincide con el de efectos fijos descrito anteriormente.

Ahora se calculan unos pesos “ajustados” para cada estudio

y la estimación del efecto global y su varianza viene dada por


Hay que resaltar que no es correcto pensar que la utilización del modelo de efectos aleatorios elimina el efecto de la heterogeneidad en los estudios y debemos tener clara que si la heterogeneidad es acusada el objetivo primordial del meta-análisis debe centrarse precisamente en el estudio de esa variabilidad.

 

Heterogeneidad

Puede ocurrir que la variabilidad entre estudios sea superior a la que es esperable por puro azar, y por ello interesa contrastar la hipótesis de homogeneidad. Existe una prueba sencilla y utilizada habitualmente que fue originalmente desarrollada por Cochran en 1954, sin embargo hay que llamar la atención sobre la baja potencia de ésta para detectar diferencias, agravado por el hecho de que el número de estudios que se combinan suele ser pequeño, por lo que no debemos contentarnos con aplicar la prueba y darla por buena si el resultado ha sido no significativo. Siempre se debe intentar verificar la homogeneidad de los resultados también por otros cauces, como puede ser un análisis por subgrupos, que se describe más adelante.

En esta prueba se trata en esencia de calcular una suma ponderada de las desviaciones del efecto determinado en cada estudio con respecto a la media global:

En la hipótesis de homogeneidad Q se distribuye aproximadamente como una  con k-1 grados de libertad, siendo k el número de estudios.

Insistimos que aunque esta prueba resulte no significativa suele ser insuficiente para concluir que no existe heterogeneidad entre los estudios y conviene explorar esa posibilidad con otras alternativas que serán fundamentalmente de tipo gráfico.

Así resulta interesante representar los resultados estandarizados

ya que bajo la hipótesis de homogeneidad, es decir de existencia sólo de diferencias aleatorias entre los estudios, éstos valores estandarizados debieran seguir una distribución normal (0,1).

Otro enfoque para determinar la presencia de heterogeneidad entre estudios es tratar de localizar la posible causa de ésta. Una pregunta que resulta natural en este contexto es si existe relación entre la tasa de respuesta y el riesgo base. Una buena herramienta gráfica para verificarlo la constituye el denominado gráfico de l’Abbé, en el que, para cada estudio, se representa en el eje de las Y el resultado en el grupo de tratamiento frente al resultado en el grupo de control en el eje de las X, y con una línea a 45º que divide el gráfico en dos secciones: a un lado de esta línea quedarán los estudios en los que fue favorable el grupo de tratamiento y al otro lado los estudios en los que fue favorable al grupo de control. Se suele representar los puntos de tamaño variable con un área inversamente proporcional a la varianza de la estimación del efecto en cada estudio (directamente proporcional a la precisión de la estimación), de tal manera que cuanto más grande es un punto mayor precisión tiene el estudio que representa. La presencia de puntos dispersos en el gráfico de L’Abbé indica heterogeneidad, mientras que si se agrupan en una zona estrecha es señal de resultados más homogéneos.

La presencia de patrones en este gráfico puede orientar sobre lo que está ocurriendo. Si la eficacia depende del riesgo base, podría ocurrir que para riesgos base bajos los puntos estén muy próximos a la línea divisoria o incluso del lado de la no eficacia, y a medida que nos vamos moviendo hacia riesgos base mayores los puntos se vayan alejando de esa línea hacia valores de mayor eficacia como vemos en la figura anterior.

Podemos llevar más lejos la idea de que alguna característica subyacente en los estudios puede estar afectando a la heterogeneidad de los resultados, no sólo el riesgo base, sino cualquiera otra característica. Una herramienta estadística que se emplea para analizar esa posibilidad es la meta-regresión.

 

Meta-regresión

El término meta-regresión describe el análisis en el que las características de los estudios o de los sujetos incluidos en cada estudio se usan como variables explicativas en un modelo de regresión multivariante, en el que la variable dependiente es el efecto medido o alguna medida de la desviación del efecto de cada estudio respecto del efecto global.

Aquí la unidad de observación es cada estudio o cada subgrupo de estudios, y a la hora de estimar los coeficientes de la ecuación de regresión se emplean métodos que ponderan la intervención de cada estudio en esa estimación, de acuerdo a su precisión (proporcional al tamaño del estudio, inversamente proporcional a la variabilidad del estudio).

Puesto que la muestra es pequeña (número de estudios), el número de variables independientes que intervienen en la ecuación de regresión debe ser pequeño. Al igual que en el análisis de regresión tradicional se usa la “regla de andar por casa” de 5 o 10 casos por cada variable, y dado que el número de estudios en un meta-análisis suele ser pequeño no se debe utilizar muchas variables en la ecuación de regresión.

En la siguiente figura vemos una gráfica típica de meta regresión de un ejemplo ya clásico, en la que se presenta el ln odds ratio (eficacia de la vacuna BCG contra la tuberculosis) frente a la latitud del país en el que se efectuó el estudio. El área de los puntos es inversamente proporcional a la varianza del ln odds ratio. También se puede ver representada la ecuación de meta-regresión, que a diferencia de una ecuación de regresión normal en la que todos los puntos intervienen por igual, aquí “atraen” la recta hacia sí en razón directa a su “masa”. En este caso se puede ver que probablemente el riesgo de ineficacia de la vacuna tiende a aumentar cuando nos acercamos al ecuador.

 

Análisis de subgrupos y de sensibilidad

Otra posible alternativa para explorar la heterogeneidad consiste en efectuar un análisis de subgrupos. La idea del análisis de subgrupos o estratificación consiste en efectuar el meta-análisis en diferentes grupos de estudios, reunidos según características de los mismos (estudios publicados frente a no publicados, estudios de gran tamaño frente a pequeño tamaño, estudios según nivel de calidad, según fecha de publicación, etc.) o según las características de los pacientes incluidos y comprobar cómo varía el resultado al estimarlo de nuevo en cada ocasión.

De nuevo creemos conveniente destacar que aunque pudiera parecer que la principal motivación para efectuar un meta-análisis es la de combinar estudios con el fin de resolver un asunto para el que se han obtenido resultados discrepantes, nada más lejos de la realidad. La situación ideal para la aplicación del meta-análisis en cuanto a la determinación de un efecto medio global, se da cuando los estudios que se combinan son ensayos clínicos aleatorizados y sus resultados son homogéneos, aunque el tamaño de muestra original era insuficiente para obtener resultados concluyentes. En el resto de los casos, estudios discrepantes, la investigación de la presencia y causas de la heterogeneidad de los resultados puede pasar a convertirse en el principal objetivo del meta-análisis y desplazar al otro objetivo de obtener un valor global medio.

Cuando las discrepancias entre los estudios son moderadas no será adecuado utilizar un modelo de efectos fijos y será preciso acudir al modelo de efectos aleatorios o incluso a un modelado más complejo, y en cualquier caso los resultados tendrán que ser interpretados con cautela.

El primer paso de un análisis de subgrupos, que también se conoce como análisis de sensibilidad, consiste en repetir los cálculos extrayendo uno de los estudios cada vez. Podemos representar gráficamente el resultado del análisis repetido excluyendo un estudio, frente al efecto global calculado con todos los estudios y su intervalo de confianza. Esto nos permite visualizar como afecta cada estudio al resultado global.

 

Presentación de resultados

Si cualquier trabajo de investigación debe presentarse de una forma clara y bien organizada mucho más los resultados de un meta-análisis que pretenden ser el resultado numérico de una revisión sistemática y por lo tanto deben tener una presentación muy cuidada, que facilite su lectura e interpretación. Un grupo de trabajo ha definido un esquema y un diagrama de flujo denominado Quality of reporting of Meta-analysis QUORUM para guiar en la elaboración del meta-análisis.

En cuanto a los datos numéricos es habitual presentarlos en tablas con una fila para cada estudio, así como un gráfico en el que se visualiza el efecto obtenido en cada estudio, con su intervalo de confianza del 95 %, así como el valor global obtenido al combinar los estudios y su correspondiente intervalo de confianza.

En el caso de medidas de tipo cociente como son el odds ratio y el riesgo relativo se representarán en escala logarítmica.

El problema de este tipo de gráfico, que en inglés se conoce como “forest plot”, radica en que los estudios con peor precisión, los que tienen menor peso en el cálculo del efecto global son los que presentan un mayor impacto visual, ya que su intervalo de confianza es el más amplio. Para remediar esto de alguna forma, se acude a representar el valor de su efecto medio con un símbolo cuya área sea proporcional a la precisión, de tal manera que los símbolos más grandes y por tanto más llamativos, corresponden a los estudios más precisos y con mayor peso en la estimación del efecto global.

 

Estudio OR LI OR 95 % LS OR 95% Varianza
1 0,96 0,25 3,73 0,478
2 0,96 0,21 4,29 0,585
3 0,70 0,26 1,92 0,265
4 0,40 0,10 1,60 0,506
5 1,00 0,06 16,65 2,059
6 0,70 0,21 2,28 0,365
7 0,82 0,25 2,69 0,369
8 0,69 0,17 2,85 0,524
Global 0,73 0,45 1,16

 

 

Para finalizar después de reconocer que una buena revisión sistemática es una excelente herramienta para valorar los conocimientos y conclusiones sobre un asunto, es valiosísima herramienta para ayudar a tomar decisiones y para definir nuevas líneas de trabajo, que además está sirviendo para que mejore la calidad y homogeneidad en la presentación de los datos en los estudios básicos, pero sin embargo no está de más recordar ese proverbio popular que dice que mil conejos blancos no hacen un caballo blanco, ¡ni siquiera en un meta-análisis!.

 

Bibliografía seleccionada

etitti DB. Meta-analysis, Decision analysis, and Cost-Effectiveness analysis.
New York: Oxford University Press, 2000.

Sutton AJ, Abrams KR, Jones DR, Sheldon TA, Song F. Methods for Meta-analysis in Medical Research.
New York: John Wiley&Sons, 2000

 

Enlaces de interés

Guidelines for systematic reviews (series published in Annals of Internal Medicine)

Centro Cochrane Iberoamericano
“Preparar, mantener y divulgar revisiones sistemáticas sobre los efectos de la atención sanitaria.”

Methods for Meta-analysis in Medical Research
Meta-analysis in practice – Information on available software.The aim of this site is to provide information concerning software for meta-analysis
Preparado por Alex Sutton Department of Epidemiology & Public Health University of Leicester

 

 

 

Luis Miguel Molinero Casares

Marzo 2003

Último modificado: 16 julio, 2017