INTRODUCCIÓN
Para mejorar el estado de salud de la población a través del establecimiento de medidas preventivas y el perfeccionamiento de los procederes diagnósticos y terapéuticos es necesario conocer cuáles son los factores que causan o que agravan las enfermedades; es por ello que la mayoría de los problemas de investigación en las ciencias médicas son de naturaleza causal. 1
La identificación de estos factores se hace buscando las posibles relaciones causales entre exposiciones de tipo ambiental, nutricional, terapéutica, entre otras, y los efectos que estas generan en la salud humana. En muchas ocasiones, los modelos biológicos en condiciones de laboratorio no pueden replicarse en la vida real, por lo que las ciencias médicas han recurrido a la Estadística, que ofrece una serie de herramientas y métodos cuantitativos que generan modelos matemáticos, cada vez más próximos a la realidad y permiten una mejor comprensión del proceso. (2 Este tipo de análisis se conoce como inferencia causal y lleva implícito la inferencia estadística.
Las consideraciones actuales de los diferentes enfoques de causalidad unidas al paradigma de la complejidad, como el de “los determinantes sociales de la salud” o el enfoque de “curso de vida” obligan a los investigadores a estudiar el proceso salud-enfermedad a través de modelos complejos, que tengan en cuenta el papel creativo del desorden, de las inestabilidades, del azar, del caos, de las asimetrías. Por otro lado, la sociedad actual genera datos de manera exponencial y se requiere la aplicación de nuevos métodos de análisis que permitan extraer el conocimiento subyacente de estos datos y ajustarlos a modelos cada vez más cercanos al comportamiento real del proceso salud-enfermedad.
Esta revisión tiene como objetivo sistematizar los métodos actuales para el estudio de la causalidad en las ciencias biomédicas que incluyen los diseños y requerimientos apropiados para dar mayor validez a estas investigaciones como las vías para minimizar los errores y el adecuado tratamiento de la confusión y la interacción.
DESARROLLO
Para garantizar el objetivo se realizó una revisión bibliográfica exhaustiva sobre el tema en las bases de datos biomédicas alojadas en la Internet entre enero y marzo de 2019. Se seleccionó la literatura de mayor actualidad, integralidad y cientificidad y se organizó el contenido por subtemas en un material con una síntesis crítica, donde se plasmó además la experiencia de las autoras.
En el desarrollo de este trabajo se presentan los métodos de análisis estadísticos tradicionales de la Bioestadística y otros métodos propios de las ciencias económicas y sociales, todos con el enfoque del modelo contrafactual, que se han sumado en las últimas décadas para garantizar en la actualidad el control de los sesgos, sobre todo, los de selección y de confusión.
Diseño metodológico de la investigación médica de causalidad
Los diseños o alternativas metodológicas concebidos para valorar hipótesis de causalidad en las ciencias médicas pueden ser tanto observacionales como experimentales. Lazcano (3 y los demás autores consultados coinciden en que el diseño más apropiado para establecer una relación causal es el ensayo aleatorio controlado, ya que la asignación aleatoria permite obtener grupos similares o comparables, además por su carácter prospectivo asegura la secuencia temporal de causa y efecto.
A su vez estos autores reconocen limitantes en este diseño como: 1) La imposibilidad frecuente de realización por razones éticas, 2) El gran número de sujetos a estudiar, sobre todo si la prevalencia del efecto es baja, 3) El tiempo de realización, 4) La pérdida de sujetos en estudio debido a desmotivación, aburrimiento y otros factores, 5) Se trabaja con poblaciones definidas por criterios de inclusión muy restrictivos que ponen en duda la generalización de los resultados obtenidos, por ejemplo, se excluyen pacientes con otras enfermedades asociadas, de edades avanzadas, niños, embarazadas, etc. Otro aspecto negativo es que, al evaluarse la eficacia de un tratamiento, el grupo control no necesariamente recibe un placebo pues la ética indica que debe recibir el mejor tratamiento vigente al momento del ensayo. (4
Los diseños observacionales pueden comprometer la comparabilidad entre los grupos, al no haber asignación aleatoria a los grupos que garantice una distribución similar de sus características basales (comparabilidad de grupos) y permita atribuir el efecto observado a la exposición estudiada. Entre ellos, los estudios de cohortes tienen la ventaja de reconocer la secuencia temporal de la exposición y la enfermedad al recoger los hechos a medida que van sucediendo, son comparativos y más factibles de realizar que el ensayo aleatorio, por las razones éticas descritas, pero comparten con el ensayo aleatorio los problemas referentes al tamaño de muestra y al seguimiento, lo que lo hace muy costoso. 4,5
Las limitaciones de tiempo y recursos hacen que se prefieran los estudios de casos y controles para investigar, retrospectivamente, el antecedente de exposición a la “causa”, donde el marco de la población es más amplio y el tamaño muestral puede ser mayor, pero los participantes no son asignados aleatoriamente a los grupos o, si lo son, la asignación se efectúa según la práctica clínica habitual. Si estas variables tuvieran asociación con el evento de interés, podrían actuar como variables confusoras entre el factor y desenlace. (4,6) Este diseño, al utilizar la secuencia del efecto a la exposición, es difícil asegurar una secuencia temporal lógica, donde la exposición antecede al efecto.
Los diseños transversales dan una imagen instantánea de la coexistencia de la exposición y el efecto y tienen las mismas limitaciones metodológicas del estudio de casos y controles, con mayor dificultad para demostrar la secuencia temporal de causa y efecto. (7
El estudio de la causalidad mediante un diseño u otro ha sido un tema discutido durante décadas. (8 A pesar de que Silva 9 afirma que los diseños observacionales son irrelevantes, que nunca darán respuestas definitivas y que pudieran estar generando más confusión que esclarecimiento, a veces este es el único diseño posible dadas las limitaciones de tiempo y recursos a las que se enfrentan los investigadores en algunos medios. Por tanto, la selección del tipo de estudio depende de lo éticamente posible y de los recursos disponibles. Otros autores recomiendan emplear ambas opciones como diseños complementarios, ya que los estudios observacionales pueden servir para replicar y verificar resultados de estudios experimentales, en la práctica habitual (donde la variabilidad de las características individuales es mayor). (10
En particular, se debe señalar que algunos detalles en el diseño pueden dar mayor validez al diseño de casos y controles, que unido a su rapidez de ejecución hacen que este sea el más empleado.
Métodos para potenciar la validez de los resultados del diseño de casos y controles
Los diseños de casos y controles deben su notable popularidad a la agilidad y economía con que pueden desarrollarse. Constituyen la alternativa natural a los estudios de cohorte, que son más caros, de mayor duración y complejidad desde el punto de vista logístico. (11
También, son los más adecuados para el estudio de efectos poco frecuentes, o de largo tratamiento, en los que el reclutamiento de un grupo control no es éticamente aceptable, y en general para todas aquellas hipótesis en que la experimentación es imposible y solo se pueden inferir relaciones causales a partir de la observación. Es un diseño fácil y rápido de efectuar del que se pueden obtener resultados válidos siempre que haya rigor en el diseño y se garantice: 1) La comparabilidad de los grupos con la ausencia de sesgos como los de selección, del interrogador, de memoria y de anticipación en el diagnóstico, 2) El carácter intrínseco de la asociación observada, empleando métodos como la regresión logística que constaten que la asociación encontrada es real y no inducida por el efecto de terceras variables, 3) Que las preguntas a los participantes, al indagar sobre hechos pasados, contemplen la precedencia temporal de las variables consideradas como factores pronósticos o de riesgo, teniendo en cuenta su carácter retrospectivo. (11
Los casos y controles bien diseñados logran inferencias causales válidas, similares a un experimento condicionado (la aleatorización no está garantizada, pero es asumida con la ayuda del conocimiento de los expertos). (12 Un buen diseño, según plantea el modelo contrafactual, es aquel donde se cumplen los supuestos de un experimento aleatorizado: 13
Intercambiabilidad o comparabilidad entre grupos bajo situaciones condicionadas.
Consistencia o comparación de intervenciones específicas bien definidas y no una mezcla de ellas.
Positividad o probabilidad no nula de recibir alguna de las opciones de intervención o exposición y por tanto es posible determinar los desenlaces potenciales para ambas opciones.
Ausencia de interferencia, o sea, que el resultado de la intervención o la exposición en un individuo no está influenciado por el resultado de la aplicación de la intervención en otros individuos.
Para asegurar el cumplimiento de estos supuestos, en especial la intercambiabilidad se emplean técnicas durante el diseño y el análisis: 14,15,16
En el diseño:
La asignación aleatoria a los grupos.
La restricción, imponiendo criterios de inclusión restrictivos que limiten la muestra a cierto grupo de participantes.
El pareamiento, haciendo coincidir las características de los grupos para tratar de hacerlos similares en todo excepto en la exposición o el tratamiento. Si los dos grupos no tienen una superposición sustancial, puede ocurrir un sesgo de selección, por ejemplo, si solo los “peores” casos de un grupo se comparan con los “mejores” del otro grupo puede ocurrir una regresión hacia la media que haga que un grupo se vea mejor o peor que en la realidad.
En el análisis:
El ajuste por variable confusora mediante la regresión multivariable.
La restricción, incluyendo en el análisis solo a aquellos sujetos que estén en una de las categorías del factor de confusión, eliminando así la distribución heterogénea del factor de confusión entre los grupos comparados. Como inconvenientes la restricción no permite estudiar el efecto de la variable restringida, la reducción del número de individuos en el análisis implica una pérdida de potencia. También puede ser importante la amenaza a la validez externa, ya que puede ser difícil la generalización de los resultados.
La posestratificación, empleada solo para las variables categóricas, con el fin de comparar en estratos homogéneos con respecto al factor cuyo efecto se quiere eliminar.
El método de doble diferencias.
El pareamiento mediante el puntaje de susceptibilidad, comentado más adelante.
La estandarización y la ponderación por el inverso de la probabilidad de asignación constituyen potentes supuestos de causalidad que garantizan la intercambiabilidad de grupos, son empleadas cuando las exposiciones varían con el tiempo, pero requieren de técnicas computacionales complejas.
El uso de variables instrumentales, que son variables correlacionadas con la covariable, probado por la regresión de mínimos cuadrados, y no correlacionadas directamente con el desenlace, solamente de modo indirecto a través de la covariable, lo cual puede ser verificado por medio de dos pruebas: el estadístico de Durbin-Watson y Test de Hausman, comparando la diferencia entre los “estimadores” obtenidos a través de la regresión de mínimos cuadrados ordinarios con aquellos derivados del análisis de la regresión de mínimos cuadrados en dos etapas. 17
La regresión discontinua, apropiada en diseños cuasiexperimentales pretest-postest en los que se investiga el efecto de las intervenciones asignadas por encima o por debajo de un valor de corte o umbral. Mediante la comparación de las observaciones en un entorno del valor umbral, es posible estimar el valor del efecto de tratamiento promedio en los casos que la aleatorización es imposible. 18
El modelamiento espacial, multinivel y de redes.
Los G-métodos, como la G-fórmula para la estandarización y la G-estimación con regresión múltiple.
Los modelos estructurales marginales y anidados.
Identificación y tratamiento de variables confusoras y modificadoras del efecto
Aunque los estudios de causalidad se centren en una exposición de interés, hay que considerar otros factores en el análisis que pudieran interferir en la asociación entre las covariables y el desenlace. (19,20,21) Estos factores son: 1) Las variables confusoras que distorsionan esta asociación, dando como resultado un factor de riesgo o pronóstico falso, 2) Las variables modificadoras del efecto que provocan, por la interacción con otra variable, la exageración (sinergia) o la atenuación (antagonismo) de una asociación real. 22 Aguayo 23 plantea que además provocan un cambio en el sentido de esta asociación.
Se ha planteado que una diferencia relativa mayor del 10 % al comparar los efectos no ajustados con los ajustados sugiere la presencia de una variable confusora. (8,24
Aguayo plantea que solo se modifica el odds ratio crudo, no la significación de los coeficientes, ni los intervalos de confianza. (25 Es tarea del investigador la identificación de variables confusoras, a partir del conocimiento teórico específico del problema que origina la evaluación de la posible relación causal. (24
Para controlar las variables confusoras en la fase de análisis se puede emplear la posestratificación con las técnicas de Mantel y Haenszel. (26 Pero debido a su naturaleza restringida y exploratoria, se prefieren los modelos de múltiples variables, en especial, la regresión logística que permite detectar al menos las variables confusoras más importantes. (24,27 Sin embargo, el análisis multivariado no puede hacer ajustes para las variables que no fueron medidas o lo fueron parcialmente (confusión residual) para lo cual se utiliza una variable diferente, ''externa'' o instrumental, la cual logra que todas las variables medidas y no medidas queden balanceadas. (28) Esta variable debe estar relacionada con la covariable, pero no relacionada directamente con el desenlace. Otros métodos más recientes como la G-fórmula y los modelos estructurales se comentan más adelante. (22
Los diagramas causales (grafos acíclicos dirigidos), gráficos que entrelazan las variables representando las relaciones entre ellas, también constituyen otro método para el control de la confusión. 29,30,31,32
Para corroborar la existencia de variables modificadoras del efecto (la existencia de interacción) se comparan las diferencias (riesgo absoluto) o cocientes (riesgo relativo) de riesgo en las distintas categorías de la variable desenlace, según si se trabaja usando escala aditiva o multiplicativa, respectivamente. (23
Algunos investigadores (33,34) plantean útil el modelo de Rothman para descubrir la interacción, ya que dos causas componentes de una causa suficiente única se considera que tienen una interacción biológica mutua y el grado de interacción depende de la prevalencia de otros factores que la integren. También Rothman citado en Orellana 35 creó tres indicadores para medir el efecto de la interacción: El exceso de riesgo relativo debido a la interacción, la proporción atribuible debido a la interacción y el índice de sinergia.
Para tratar las variables modificadoras de efecto no tiene sentido calcular una medida ajustada, ya que no sería representativa de la asociación global entre exposición y efecto. Tampoco tendría sentido estratificar y hacer una media entre los estratos. Lo correcto no es tratar de controlarla como con las variables confusoras sino describir la modificación encontrada y tratar de interpretarla. (20) Aguayo considera que el tratamiento de las variables modificadoras del efecto debe ser previo al análisis de las confusoras. 25
Para analizar la interacción que surge entre una variable modificadora del efecto y una covariable se requiere introducir en la ecuación un término multiplicativo, compuesto por ambas variables y una vez incluido ver si su coeficiente de regresión es estadísticamente significativo. (25,36
Algunos métodos y técnicas de la inferencia causal moderna
Los cambios de paradigma causal, unidos a los adelantos en los métodos numéricos para resolver problemas complejos, el estudio de sistemas estocásticos, el surgimiento de técnicas de control y optimización no lineal y la lógica difusa, todos ellos, puestos en práctica, gracias al continuo desarrollo computacional, sobre todo en inteligencia artificial, han potenciado un cambio profundo en la inferencia causal de las últimas décadas. No obstante, Rodríguez-Villamizar 13 admite que el principal cambio entre la inferencia causal moderna y la tradicional no está dado por las herramientas estadísticas utilizadas sino por la comprensión y aplicación de los supuestos centrales de la lógica de inferencia causal en el diseño de los estudios.
A continuación se destacan algunos métodos de reciente incorporación al diseño y el análisis de los estudios de causalidad en las ciencias biomédicas, buscando la validez de sus resultados, muchos de ellos adaptados de las ciencias sociales y económicas.
La aleatorización mendeliana
La aleatorización mendeliana es un enfoque para garantizar la comparabilidad de los grupos y por ello la validez de la inferencia causal. (40) Es un tipo particular de análisis dentro de las variables instrumentales que busca una aproximación a los estudios experimentales al utilizar variantes génicas relacionadas con algún factor de exposición, posible causa que se quiera analizar como variable instrumental, basado en el azar de la transferencia de padres a hijos, semejante a un ensayo clínico aleatorio, balanceando los confusores entre los grupos de estudio, con lo que se evita, además, el sesgo de causalidad inversa. (38,39
Esta forma de aleatorización explota la primera y segunda leyes de herencia de Mendel relacionadas con la distribución independiente y la segregación de alelos que lleva a la distribución aleatoria de los genotipos en la población, permitiendo el uso de variantes genéticas para sustituir un rasgo clínicamente relevante y usualmente modificable. (37
El puntaje de susceptibilidad
El puntaje de susceptibilidad o índice de propensión es la probabilidad de que un individuo pertenezca a uno u otro grupo, que se estima en base a sus características basales mediante un modelo de regresión logística, donde la variable dependiente es el tratamiento o exposición y las independientes son las confusoras (variables asociadas tanto al factor en estudio como al resultado). Una vez hallado el índice, se emplea para estimar el efecto del tratamiento sobre el evento. (8
Este índice tiene el inconveniente de que solo quedan representadas las covariables observadas mientras que los factores que afectan a la asignación al tratamiento, pero que no pueden ser observados, no pueden ser contabilizados en el procedimiento correspondiente, además requiere muestras grandes, con superposición sustancial entre los grupos.
El problema de los estudios observacionales es la confusión residual, la cual no puede detectarse mediante el análisis de los datos recogidos, ya que se debe a factores no medidos y, por tanto, su identificación se debe enteramente al conocimiento a priori del investigador experto en el área de estudio. El investigador debe asegurarse que ha cumplido con la identificación y medición de los principales confusores conocidos para evitar la confusión residual. (33
La fórmula G
Aún cuando no exista confusión residual y los modelos hayan sido correctamente especificados, los métodos estadísticos tradicionales basados en estimar el parámetro de interés en cada estrato definido por los factores de confusión, como el análisis estratificado de Mantel-Haenzsel, los modelos de regresión (lineal, logística, de Poisson, de Cox, etc.), el emparejamiento por índices de propensión y otros, pueden arrojar asociaciones que no pueden tener una interpretación causal.
Para dar solución a esto James Robins, (33) epidemiólogo de la Universidad de Harvard, creó la fórmula G, una generalización del ajuste por estandarización, en contraste con los métodos tradicionales que ajustan mediante estratificación de la medida de asociación. Sin embargo, esta técnica no suele utilizarse en la práctica porque al ser un método no paramétrico, no impone restricciones paramétricas sobre la forma de la relación entre las variables y una aplicación en estudios longitudinales, incluso con un número moderado de medidas repetidas y variables, requeriría cantidades enormes de datos y tiempo de cálculo dada la carencia de parámetros. (40
Los modelos estructurales marginales y anidados
Frente al dilema de la fórmula G, antes planteado, la solución no podía consistir en usar los métodos paramétricos tradicionales que, como se ha afirmado anteriormente, pueden llevar a estimadores sesgados del efecto causal. Por lo que se desarrollaron los llamados métodos causales que son dos clases de modelos semiparamétricos que incorporan solo algunas restricciones paramétricas y que permiten una fácil representación de la hipótesis nula: los modelos estructurales marginales y los estructurales anidados. (33
Los parámetros de estos modelos se interpretan como el efecto causal de la exposición (en distintas escalas) siempre bajo las condiciones de no confusión residual y correcta especificación del modelo. Existen modelos marginales estructurales lineales, logísticos, de medidas repetidas, de Cox, etc.
Los modelos marginales estructurales no controlan la confusión mediante estratificación sino mediante ponderación, un concepto equivalente a estandarización, los confusores se incluyen en el modelo preliminar para estimar las probabilidades cuyo inverso son los pesos, pero no en el modelo principal lo que evita la aparición de sesgos.
La variable dependiente de los modelos estructurales marginales es siempre algún aspecto de la distribución marginal de una variable contrafactual bajo historias de exposición prefijadas. Los parámetros de los modelos estructurales marginales se estiman con la ponderación por el inverso de la probabilidad de tratamiento. Estas probabilidades pueden estimarse, por ejemplo, usando un modelo de regresión logística con los confusores como covariables. El inverso de esta probabilidad es la ponderación que cada individuo recibe. El análisis final consiste en ajustar el modelo de regresión tradicional, en el que cada sujeto recibe su peso correspondiente. Asombrosamente este método proporciona un estimador consistente (válido) de la incidencia relativa causal.
En tanto los modelos estructurales anidados se emplean para variables contrafactuales bajo historias dinámicas de exposición: Existen modelos para análisis de supervivencia y para respuestas continuas, pero no para respuestas dicotómicas. Los parámetros de los modelos estructurales anidados se estiman mediante el método de estimación G. Este método utiliza explícitamente la información contenida en la condición de no confusión residual para estimar los parámetros de interés. (33
La ventaja de los modelos marginales sobre los anidados radica en su facilidad de uso ya que su aplicación simplemente requiere la ponderación de modelos tradicionales y se emplea para cualquier tipo de variable respuesta, mientras que tiene el inconveniente de no poder usarse para estimar el efecto de la interacción de confusores cambiantes con el tratamiento de interés. (33
La lógica difusa
La lógica difusa (en inglés fuzzy logic), también llamada lógica borrosa fue creada por el ingeniero de origen azerbaiyano Lotfi A. Zadeh de la Universidad de Berkeley, California en 1965. Esta lógica en contraposición con la lógica clásica binaria que admite solo dos valores de verdad posible (verdadero o falso), es una lógica multivaluada que permite medir el grado de incertidumbre entre esos dos valores totalmente opuestos, algo muy consecuente con la toma de decisiones por los humanos, por ejemplo, no solo existe el blanco y el negro, sino una gama de grises entre ellos. 41
La lógica difusa permite describir y formalizar la realidad con modelos más flexibles que se acercan más al comportamiento humano, es muy útil en procesos no lineales, altamente complejos, con mucha imprecisión o subjetividad, donde los modelos estadísticos matemáticos clásicos fallan. La naturaleza imprecisa de los conceptos médicos y sus relaciones, en particular en la medicina oriental crean el espacio idóneo para el empleo de esta lógica. (41
El análisis estadístico implicativo
El análisis estadístico implicativo es otra técnica creada en 1980 por Régis Gras, (42,43) profesor emérito de la Universidad de Nantes en Francia para solucionar problemas de la didáctica de las matemáticas. Es una técnica multivariada de la minería de datos basada en la teoría de la cuasi-implicación, la inteligencia artificial y el álgebra booleana, que contempla la estructuración de datos, interrelacionando sujetos y variables, la extracción de reglas inductivas entre las variables y, a partir de la contingencia de estas reglas, la explicación y en consecuencia una determinada previsión en distintos campos del saber. (44,45
Este análisis establece una relación asimétrica entre variables, donde los conjuntos de reglas obtenidas pueden conducir a hipótesis de causalidad sin restricción con respecto al número de variables y al tamaño de la muestra. Se basa en el número de contraejemplos, tiene capacidad predictiva y sus resultados son extrapolables a distintos tamaños de muestras, encuentra sucesos raros que pasarían desapercibidos a medidas como el soporte y la confianza, por restringirse a sucesos frecuentes y no tiene en cuenta lo trivial, todo lo cual constituye una ventaja inminente sobre las técnicas estadísticas clásicas empleadas para identificar posibles factores causales. (45
Recientemente, varias investigaciones han aportado evidencias de la utilidad del análisis estadístico implicativo en la identificación de factores pronósticos y de riesgo al evaluarlo utilizando como estándar de oro la regresión logística binaria, en estudios observacionales de tipo caso-control, clásicos o anidados en una cohorte. (46,47,48,49,50
CONCLUSIONES
Los métodos estadísticos empleados en inferencia causal requieren que no exista confusión residual, pero solo los llamados métodos causales, como los modelos estructurales marginales o anidados, permiten obtener resultados causalmente válidos cuando existen confusores cambiantes afectados por la exposición. La elección del método de análisis depende del conjunto de presupuestos que el investigador esté dispuesto a aceptar.
La Estadística proporciona las técnicas adecuadas para la recolección, organización y análisis de los datos, así como para la presentación e interpretación de los resultados de la investigación, pero no es una garantía, por sí sola, de la validez de los resultados obtenidos. Solo el investigador experto es capaz de delimitar sus objetivos e hipótesis de investigación, seleccionar las variables necesarias y las pruebas pertinentes, y dar una correcta interpretación al decidir si existe una concordancia lógica entre lo estadísticamente significativo y lo clínicamente aceptable.
Consideramos la lógica difusa y el análisis estadístico implicativo como las técnicas renovadoras, acordes con el paradigma de la complejidad.