SciELO - Scientific Electronic Library Online

 
vol.21 número2Fructanos tipo inulina: efecto en la microbiota intestinal, la obesidad y la saciedad índice de autoresíndice de materiabúsqueda de artículos
Home Pagelista alfabética de revistas  

Servicios Personalizados

Revista

Articulo

Indicadores

  • No hay articulos citadosCitado por SciELO

Links relacionados

  • No hay articulos similaresSimilares en SciELO

Compartir


Gaceta Médica Espirituana

versión On-line ISSN 1608-8921

Gac Méd Espirit vol.21 no.2 Sancti Spíritus mayo.-ago. 2019  Epub 02-Ago-2019

 

Artículo de Revisión

Métodos actuales para asegurar la validez de los estudios de causalidad en Medicina

Current methods to assure the validity of the causality studies in Medicine

Nelsa María Sagaró del Campo1  * 
http://orcid.org/0000-0002-1964-8830

Larisa Zamora Matamoros2 
http://orcid.org/0000-0003-2210-0806

1Universidad de Ciencias Médicas, Santiago de Cuba, Cuba.

2Universidad de Oriente, Santiago de Cuba, Cuba.

RESUMEN

Fundamento:

Los estudios de causalidad deben aportar resultados certeros, lo cual depende de la adecuación de los mismos, de ahí la necesidad de conocer los métodos que aseguren la validez de estas investigaciones.

Objetivo:

Sistematizar los métodos actuales para el estudio de causalidad en Medicina que incluye el diseño, los requerimientos que aseguran su validez y los métodos para el cumplimiento de estos requerimientos.

Desarrollo:

Se realizó una revisión bibliográfica en bases de datos biomédicas, se seleccionó la literatura de mayor actualidad, integralidad y cientificidad con la cual se organizó una síntesis crítica, a la que se le agregó la experiencia de las autoras. Se presentan técnicas para la detección y tratamiento de la confusión y la interacción y para garantizar la comparabilidad entre grupos. Entre las técnicas se destacan la aleatorización mendeliana, el puntaje de susceptibilidad, los G-métodos, los modelos estructurales marginales y anidados, la lógica difusa y el análisis estadístico implicativo.

Conclusiones:

A pesar del avance en los métodos estadísticos es el investigador el encargado de garantizar la no confusión residual y discernir entre lo estadísticamente significativo y lo clínicamente aceptable.

Palabras clave: Investigación biomédica y estadística; investigación biomédica y datos numéricos; diseños de investigación; estudios de casos y controles; análisis de regresión; interpretación estadística de datos; reproducibilidad de los resultados; validez; confusión; interacción; regresión discontinua; G-métodos; modelos estructurales; análisis estadístico implicativo

ABSTRACT

Background:

Causality studies must provide accurate results, which depends on their adequacy, therefore the need of knowing the methods that ensure the validity of these investigations.

Objective:

To systematize the current methods for the study of causality in Medicine that includes the design, the requirements that ensure its validity and the methods for complying with these requirements.

Development:

It was carried out a bibliographic review in biomedical databases and selected the most current, comprehensive, scientific literature, with this, a critical synthesis was organized, with the experience of the authors. Techniques for the detection and treatment of confusion and interaction were presented, also to ensure comparability between groups. Among the techniques, Mendelian randomization, susceptibility score, G-methods, marginal and nested structural models, fuzzy logic and implicative statistical analysis stand out.

Conclusions:

Despite the progress in statistical methods, the researcher is responsible for guaranteeing residual non-confusion and distinguishing between statistically significant and clinically acceptable.

Keywords: Biomedical research and statistics; biomedical research and numerical data; research designs; case-control studies; regression analysis; data interpretation statistical; reproducibility of results; validity; confusion; interaction; discontinuous regression; G-methods; models structural; implicative statistical analysis

INTRODUCCIÓN

Para mejorar el estado de salud de la población a través del establecimiento de medidas preventivas y el perfeccionamiento de los procederes diagnósticos y terapéuticos es necesario conocer cuáles son los factores que causan o que agravan las enfermedades; es por ello que la mayoría de los problemas de investigación en las ciencias médicas son de naturaleza causal. 1

La identificación de estos factores se hace buscando las posibles relaciones causales entre exposiciones de tipo ambiental, nutricional, terapéutica, entre otras, y los efectos que estas generan en la salud humana. En muchas ocasiones, los modelos biológicos en condiciones de laboratorio no pueden replicarse en la vida real, por lo que las ciencias médicas han recurrido a la Estadística, que ofrece una serie de herramientas y métodos cuantitativos que generan modelos matemáticos, cada vez más próximos a la realidad y permiten una mejor comprensión del proceso. (2 Este tipo de análisis se conoce como inferencia causal y lleva implícito la inferencia estadística.

Las consideraciones actuales de los diferentes enfoques de causalidad unidas al paradigma de la complejidad, como el de “los determinantes sociales de la salud” o el enfoque de “curso de vida” obligan a los investigadores a estudiar el proceso salud-enfermedad a través de modelos complejos, que tengan en cuenta el papel creativo del desorden, de las inestabilidades, del azar, del caos, de las asimetrías. Por otro lado, la sociedad actual genera datos de manera exponencial y se requiere la aplicación de nuevos métodos de análisis que permitan extraer el conocimiento subyacente de estos datos y ajustarlos a modelos cada vez más cercanos al comportamiento real del proceso salud-enfermedad.

Esta revisión tiene como objetivo sistematizar los métodos actuales para el estudio de la causalidad en las ciencias biomédicas que incluyen los diseños y requerimientos apropiados para dar mayor validez a estas investigaciones como las vías para minimizar los errores y el adecuado tratamiento de la confusión y la interacción.

DESARROLLO

Para garantizar el objetivo se realizó una revisión bibliográfica exhaustiva sobre el tema en las bases de datos biomédicas alojadas en la Internet entre enero y marzo de 2019. Se seleccionó la literatura de mayor actualidad, integralidad y cientificidad y se organizó el contenido por subtemas en un material con una síntesis crítica, donde se plasmó además la experiencia de las autoras.

En el desarrollo de este trabajo se presentan los métodos de análisis estadísticos tradicionales de la Bioestadística y otros métodos propios de las ciencias económicas y sociales, todos con el enfoque del modelo contrafactual, que se han sumado en las últimas décadas para garantizar en la actualidad el control de los sesgos, sobre todo, los de selección y de confusión.

Diseño metodológico de la investigación médica de causalidad

Los diseños o alternativas metodológicas concebidos para valorar hipótesis de causalidad en las ciencias médicas pueden ser tanto observacionales como experimentales. Lazcano (3 y los demás autores consultados coinciden en que el diseño más apropiado para establecer una relación causal es el ensayo aleatorio controlado, ya que la asignación aleatoria permite obtener grupos similares o comparables, además por su carácter prospectivo asegura la secuencia temporal de causa y efecto.

A su vez estos autores reconocen limitantes en este diseño como: 1) La imposibilidad frecuente de realización por razones éticas, 2) El gran número de sujetos a estudiar, sobre todo si la prevalencia del efecto es baja, 3) El tiempo de realización, 4) La pérdida de sujetos en estudio debido a desmotivación, aburrimiento y otros factores, 5) Se trabaja con poblaciones definidas por criterios de inclusión muy restrictivos que ponen en duda la generalización de los resultados obtenidos, por ejemplo, se excluyen pacientes con otras enfermedades asociadas, de edades avanzadas, niños, embarazadas, etc. Otro aspecto negativo es que, al evaluarse la eficacia de un tratamiento, el grupo control no necesariamente recibe un placebo pues la ética indica que debe recibir el mejor tratamiento vigente al momento del ensayo. (4

Los diseños observacionales pueden comprometer la comparabilidad entre los grupos, al no haber asignación aleatoria a los grupos que garantice una distribución similar de sus características basales (comparabilidad de grupos) y permita atribuir el efecto observado a la exposición estudiada. Entre ellos, los estudios de cohortes tienen la ventaja de reconocer la secuencia temporal de la exposición y la enfermedad al recoger los hechos a medida que van sucediendo, son comparativos y más factibles de realizar que el ensayo aleatorio, por las razones éticas descritas, pero comparten con el ensayo aleatorio los problemas referentes al tamaño de muestra y al seguimiento, lo que lo hace muy costoso. 4,5

Las limitaciones de tiempo y recursos hacen que se prefieran los estudios de casos y controles para investigar, retrospectivamente, el antecedente de exposición a la “causa”, donde el marco de la población es más amplio y el tamaño muestral puede ser mayor, pero los participantes no son asignados aleatoriamente a los grupos o, si lo son, la asignación se efectúa según la práctica clínica habitual. Si estas variables tuvieran asociación con el evento de interés, podrían actuar como variables confusoras entre el factor y desenlace. (4,6) Este diseño, al utilizar la secuencia del efecto a la exposición, es difícil asegurar una secuencia temporal lógica, donde la exposición antecede al efecto.

Los diseños transversales dan una imagen instantánea de la coexistencia de la exposición y el efecto y tienen las mismas limitaciones metodológicas del estudio de casos y controles, con mayor dificultad para demostrar la secuencia temporal de causa y efecto. (7

El estudio de la causalidad mediante un diseño u otro ha sido un tema discutido durante décadas. (8 A pesar de que Silva 9 afirma que los diseños observacionales son irrelevantes, que nunca darán respuestas definitivas y que pudieran estar generando más confusión que esclarecimiento, a veces este es el único diseño posible dadas las limitaciones de tiempo y recursos a las que se enfrentan los investigadores en algunos medios. Por tanto, la selección del tipo de estudio depende de lo éticamente posible y de los recursos disponibles. Otros autores recomiendan emplear ambas opciones como diseños complementarios, ya que los estudios observacionales pueden servir para replicar y verificar resultados de estudios experimentales, en la práctica habitual (donde la variabilidad de las características individuales es mayor). (10

En particular, se debe señalar que algunos detalles en el diseño pueden dar mayor validez al diseño de casos y controles, que unido a su rapidez de ejecución hacen que este sea el más empleado.

Métodos para potenciar la validez de los resultados del diseño de casos y controles

Los diseños de casos y controles deben su notable popularidad a la agilidad y economía con que pueden desarrollarse. Constituyen la alternativa natural a los estudios de cohorte, que son más caros, de mayor duración y complejidad desde el punto de vista logístico. (11

También, son los más adecuados para el estudio de efectos poco frecuentes, o de largo tratamiento, en los que el reclutamiento de un grupo control no es éticamente aceptable, y en general para todas aquellas hipótesis en que la experimentación es imposible y solo se pueden inferir relaciones causales a partir de la observación. Es un diseño fácil y rápido de efectuar del que se pueden obtener resultados válidos siempre que haya rigor en el diseño y se garantice: 1) La comparabilidad de los grupos con la ausencia de sesgos como los de selección, del interrogador, de memoria y de anticipación en el diagnóstico, 2) El carácter intrínseco de la asociación observada, empleando métodos como la regresión logística que constaten que la asociación encontrada es real y no inducida por el efecto de terceras variables, 3) Que las preguntas a los participantes, al indagar sobre hechos pasados, contemplen la precedencia temporal de las variables consideradas como factores pronósticos o de riesgo, teniendo en cuenta su carácter retrospectivo. (11

Los casos y controles bien diseñados logran inferencias causales válidas, similares a un experimento condicionado (la aleatorización no está garantizada, pero es asumida con la ayuda del conocimiento de los expertos). (12 Un buen diseño, según plantea el modelo contrafactual, es aquel donde se cumplen los supuestos de un experimento aleatorizado: 13

  • Intercambiabilidad o comparabilidad entre grupos bajo situaciones condicionadas.

  • Consistencia o comparación de intervenciones específicas bien definidas y no una mezcla de ellas.

  • Positividad o probabilidad no nula de recibir alguna de las opciones de intervención o exposición y por tanto es posible determinar los desenlaces potenciales para ambas opciones.

  • Ausencia de interferencia, o sea, que el resultado de la intervención o la exposición en un individuo no está influenciado por el resultado de la aplicación de la intervención en otros individuos.

Para asegurar el cumplimiento de estos supuestos, en especial la intercambiabilidad se emplean técnicas durante el diseño y el análisis: 14,15,16

En el diseño:

  • La asignación aleatoria a los grupos.

  • La restricción, imponiendo criterios de inclusión restrictivos que limiten la muestra a cierto grupo de participantes.

  • El pareamiento, haciendo coincidir las características de los grupos para tratar de hacerlos similares en todo excepto en la exposición o el tratamiento. Si los dos grupos no tienen una superposición sustancial, puede ocurrir un sesgo de selección, por ejemplo, si solo los “peores” casos de un grupo se comparan con los “mejores” del otro grupo puede ocurrir una regresión hacia la media que haga que un grupo se vea mejor o peor que en la realidad.

En el análisis:

  • El ajuste por variable confusora mediante la regresión multivariable.

  • La restricción, incluyendo en el análisis solo a aquellos sujetos que estén en una de las categorías del factor de confusión, eliminando así la distribución heterogénea del factor de confusión entre los grupos comparados. Como inconvenientes la restricción no permite estudiar el efecto de la variable restringida, la reducción del número de individuos en el análisis implica una pérdida de potencia. También puede ser importante la amenaza a la validez externa, ya que puede ser difícil la generalización de los resultados.

  • La posestratificación, empleada solo para las variables categóricas, con el fin de comparar en estratos homogéneos con respecto al factor cuyo efecto se quiere eliminar.

  • El método de doble diferencias.

  • El pareamiento mediante el puntaje de susceptibilidad, comentado más adelante.

  • La estandarización y la ponderación por el inverso de la probabilidad de asignación constituyen potentes supuestos de causalidad que garantizan la intercambiabilidad de grupos, son empleadas cuando las exposiciones varían con el tiempo, pero requieren de técnicas computacionales complejas.

  • El uso de variables instrumentales, que son variables correlacionadas con la covariable, probado por la regresión de mínimos cuadrados, y no correlacionadas directamente con el desenlace, solamente de modo indirecto a través de la covariable, lo cual puede ser verificado por medio de dos pruebas: el estadístico de Durbin-Watson y Test de Hausman, comparando la diferencia entre los “estimadores” obtenidos a través de la regresión de mínimos cuadrados ordinarios con aquellos derivados del análisis de la regresión de mínimos cuadrados en dos etapas. 17

  • La regresión discontinua, apropiada en diseños cuasiexperimentales pretest-postest en los que se investiga el efecto de las intervenciones asignadas por encima o por debajo de un valor de corte o umbral. Mediante la comparación de las observaciones en un entorno del valor umbral, es posible estimar el valor del efecto de tratamiento promedio en los casos que la aleatorización es imposible. 18

  • El modelamiento espacial, multinivel y de redes.

  • Los G-métodos, como la G-fórmula para la estandarización y la G-estimación con regresión múltiple.

  • Los modelos estructurales marginales y anidados.

Identificación y tratamiento de variables confusoras y modificadoras del efecto

Aunque los estudios de causalidad se centren en una exposición de interés, hay que considerar otros factores en el análisis que pudieran interferir en la asociación entre las covariables y el desenlace. (19,20,21) Estos factores son: 1) Las variables confusoras que distorsionan esta asociación, dando como resultado un factor de riesgo o pronóstico falso, 2) Las variables modificadoras del efecto que provocan, por la interacción con otra variable, la exageración (sinergia) o la atenuación (antagonismo) de una asociación real. 22 Aguayo 23 plantea que además provocan un cambio en el sentido de esta asociación.

Se ha planteado que una diferencia relativa mayor del 10 % al comparar los efectos no ajustados con los ajustados sugiere la presencia de una variable confusora. (8,24

Aguayo plantea que solo se modifica el odds ratio crudo, no la significación de los coeficientes, ni los intervalos de confianza. (25 Es tarea del investigador la identificación de variables confusoras, a partir del conocimiento teórico específico del problema que origina la evaluación de la posible relación causal. (24

Para controlar las variables confusoras en la fase de análisis se puede emplear la posestratificación con las técnicas de Mantel y Haenszel. (26 Pero debido a su naturaleza restringida y exploratoria, se prefieren los modelos de múltiples variables, en especial, la regresión logística que permite detectar al menos las variables confusoras más importantes. (24,27 Sin embargo, el análisis multivariado no puede hacer ajustes para las variables que no fueron medidas o lo fueron parcialmente (confusión residual) para lo cual se utiliza una variable diferente, ''externa'' o instrumental, la cual logra que todas las variables medidas y no medidas queden balanceadas. (28) Esta variable debe estar relacionada con la covariable, pero no relacionada directamente con el desenlace. Otros métodos más recientes como la G-fórmula y los modelos estructurales se comentan más adelante. (22

Los diagramas causales (grafos acíclicos dirigidos), gráficos que entrelazan las variables representando las relaciones entre ellas, también constituyen otro método para el control de la confusión. 29,30,31,32

Para corroborar la existencia de variables modificadoras del efecto (la existencia de interacción) se comparan las diferencias (riesgo absoluto) o cocientes (riesgo relativo) de riesgo en las distintas categorías de la variable desenlace, según si se trabaja usando escala aditiva o multiplicativa, respectivamente. (23

Algunos investigadores (33,34) plantean útil el modelo de Rothman para descubrir la interacción, ya que dos causas componentes de una causa suficiente única se considera que tienen una interacción biológica mutua y el grado de interacción depende de la prevalencia de otros factores que la integren. También Rothman citado en Orellana 35 creó tres indicadores para medir el efecto de la interacción: El exceso de riesgo relativo debido a la interacción, la proporción atribuible debido a la interacción y el índice de sinergia.

Para tratar las variables modificadoras de efecto no tiene sentido calcular una medida ajustada, ya que no sería representativa de la asociación global entre exposición y efecto. Tampoco tendría sentido estratificar y hacer una media entre los estratos. Lo correcto no es tratar de controlarla como con las variables confusoras sino describir la modificación encontrada y tratar de interpretarla. (20) Aguayo considera que el tratamiento de las variables modificadoras del efecto debe ser previo al análisis de las confusoras. 25

Para analizar la interacción que surge entre una variable modificadora del efecto y una covariable se requiere introducir en la ecuación un término multiplicativo, compuesto por ambas variables y una vez incluido ver si su coeficiente de regresión es estadísticamente significativo. (25,36

Algunos métodos y técnicas de la inferencia causal moderna

Los cambios de paradigma causal, unidos a los adelantos en los métodos numéricos para resolver problemas complejos, el estudio de sistemas estocásticos, el surgimiento de técnicas de control y optimización no lineal y la lógica difusa, todos ellos, puestos en práctica, gracias al continuo desarrollo computacional, sobre todo en inteligencia artificial, han potenciado un cambio profundo en la inferencia causal de las últimas décadas. No obstante, Rodríguez-Villamizar 13 admite que el principal cambio entre la inferencia causal moderna y la tradicional no está dado por las herramientas estadísticas utilizadas sino por la comprensión y aplicación de los supuestos centrales de la lógica de inferencia causal en el diseño de los estudios.

A continuación se destacan algunos métodos de reciente incorporación al diseño y el análisis de los estudios de causalidad en las ciencias biomédicas, buscando la validez de sus resultados, muchos de ellos adaptados de las ciencias sociales y económicas.

La aleatorización mendeliana

La aleatorización mendeliana es un enfoque para garantizar la comparabilidad de los grupos y por ello la validez de la inferencia causal. (40) Es un tipo particular de análisis dentro de las variables instrumentales que busca una aproximación a los estudios experimentales al utilizar variantes génicas relacionadas con algún factor de exposición, posible causa que se quiera analizar como variable instrumental, basado en el azar de la transferencia de padres a hijos, semejante a un ensayo clínico aleatorio, balanceando los confusores entre los grupos de estudio, con lo que se evita, además, el sesgo de causalidad inversa. (38,39

Esta forma de aleatorización explota la primera y segunda leyes de herencia de Mendel relacionadas con la distribución independiente y la segregación de alelos que lleva a la distribución aleatoria de los genotipos en la población, permitiendo el uso de variantes genéticas para sustituir un rasgo clínicamente relevante y usualmente modificable. (37

El puntaje de susceptibilidad

El puntaje de susceptibilidad o índice de propensión es la probabilidad de que un individuo pertenezca a uno u otro grupo, que se estima en base a sus características basales mediante un modelo de regresión logística, donde la variable dependiente es el tratamiento o exposición y las independientes son las confusoras (variables asociadas tanto al factor en estudio como al resultado). Una vez hallado el índice, se emplea para estimar el efecto del tratamiento sobre el evento. (8

Este índice tiene el inconveniente de que solo quedan representadas las covariables observadas mientras que los factores que afectan a la asignación al tratamiento, pero que no pueden ser observados, no pueden ser contabilizados en el procedimiento correspondiente, además requiere muestras grandes, con superposición sustancial entre los grupos.

El problema de los estudios observacionales es la confusión residual, la cual no puede detectarse mediante el análisis de los datos recogidos, ya que se debe a factores no medidos y, por tanto, su identificación se debe enteramente al conocimiento a priori del investigador experto en el área de estudio. El investigador debe asegurarse que ha cumplido con la identificación y medición de los principales confusores conocidos para evitar la confusión residual. (33

La fórmula G

Aún cuando no exista confusión residual y los modelos hayan sido correctamente especificados, los métodos estadísticos tradicionales basados en estimar el parámetro de interés en cada estrato definido por los factores de confusión, como el análisis estratificado de Mantel-Haenzsel, los modelos de regresión (lineal, logística, de Poisson, de Cox, etc.), el emparejamiento por índices de propensión y otros, pueden arrojar asociaciones que no pueden tener una interpretación causal.

Para dar solución a esto James Robins, (33) epidemiólogo de la Universidad de Harvard, creó la fórmula G, una generalización del ajuste por estandarización, en contraste con los métodos tradicionales que ajustan mediante estratificación de la medida de asociación. Sin embargo, esta técnica no suele utilizarse en la práctica porque al ser un método no paramétrico, no impone restricciones paramétricas sobre la forma de la relación entre las variables y una aplicación en estudios longitudinales, incluso con un número moderado de medidas repetidas y variables, requeriría cantidades enormes de datos y tiempo de cálculo dada la carencia de parámetros. (40

Los modelos estructurales marginales y anidados

Frente al dilema de la fórmula G, antes planteado, la solución no podía consistir en usar los métodos paramétricos tradicionales que, como se ha afirmado anteriormente, pueden llevar a estimadores sesgados del efecto causal. Por lo que se desarrollaron los llamados métodos causales que son dos clases de modelos semiparamétricos que incorporan solo algunas restricciones paramétricas y que permiten una fácil representación de la hipótesis nula: los modelos estructurales marginales y los estructurales anidados. (33

Los parámetros de estos modelos se interpretan como el efecto causal de la exposición (en distintas escalas) siempre bajo las condiciones de no confusión residual y correcta especificación del modelo. Existen modelos marginales estructurales lineales, logísticos, de medidas repetidas, de Cox, etc.

Los modelos marginales estructurales no controlan la confusión mediante estratificación sino mediante ponderación, un concepto equivalente a estandarización, los confusores se incluyen en el modelo preliminar para estimar las probabilidades cuyo inverso son los pesos, pero no en el modelo principal lo que evita la aparición de sesgos.

La variable dependiente de los modelos estructurales marginales es siempre algún aspecto de la distribución marginal de una variable contrafactual bajo historias de exposición prefijadas. Los parámetros de los modelos estructurales marginales se estiman con la ponderación por el inverso de la probabilidad de tratamiento. Estas probabilidades pueden estimarse, por ejemplo, usando un modelo de regresión logística con los confusores como covariables. El inverso de esta probabilidad es la ponderación que cada individuo recibe. El análisis final consiste en ajustar el modelo de regresión tradicional, en el que cada sujeto recibe su peso correspondiente. Asombrosamente este método proporciona un estimador consistente (válido) de la incidencia relativa causal.

En tanto los modelos estructurales anidados se emplean para variables contrafactuales bajo historias dinámicas de exposición: Existen modelos para análisis de supervivencia y para respuestas continuas, pero no para respuestas dicotómicas. Los parámetros de los modelos estructurales anidados se estiman mediante el método de estimación G. Este método utiliza explícitamente la información contenida en la condición de no confusión residual para estimar los parámetros de interés. (33

La ventaja de los modelos marginales sobre los anidados radica en su facilidad de uso ya que su aplicación simplemente requiere la ponderación de modelos tradicionales y se emplea para cualquier tipo de variable respuesta, mientras que tiene el inconveniente de no poder usarse para estimar el efecto de la interacción de confusores cambiantes con el tratamiento de interés. (33

La lógica difusa

La lógica difusa (en inglés fuzzy logic), también llamada lógica borrosa fue creada por el ingeniero de origen azerbaiyano Lotfi A. Zadeh de la Universidad de Berkeley, California en 1965. Esta lógica en contraposición con la lógica clásica binaria que admite solo dos valores de verdad posible (verdadero o falso), es una lógica multivaluada que permite medir el grado de incertidumbre entre esos dos valores totalmente opuestos, algo muy consecuente con la toma de decisiones por los humanos, por ejemplo, no solo existe el blanco y el negro, sino una gama de grises entre ellos. 41

La lógica difusa permite describir y formalizar la realidad con modelos más flexibles que se acercan más al comportamiento humano, es muy útil en procesos no lineales, altamente complejos, con mucha imprecisión o subjetividad, donde los modelos estadísticos matemáticos clásicos fallan. La naturaleza imprecisa de los conceptos médicos y sus relaciones, en particular en la medicina oriental crean el espacio idóneo para el empleo de esta lógica. (41

El análisis estadístico implicativo

El análisis estadístico implicativo es otra técnica creada en 1980 por Régis Gras, (42,43) profesor emérito de la Universidad de Nantes en Francia para solucionar problemas de la didáctica de las matemáticas. Es una técnica multivariada de la minería de datos basada en la teoría de la cuasi-implicación, la inteligencia artificial y el álgebra booleana, que contempla la estructuración de datos, interrelacionando sujetos y variables, la extracción de reglas inductivas entre las variables y, a partir de la contingencia de estas reglas, la explicación y en consecuencia una determinada previsión en distintos campos del saber. (44,45

Este análisis establece una relación asimétrica entre variables, donde los conjuntos de reglas obtenidas pueden conducir a hipótesis de causalidad sin restricción con respecto al número de variables y al tamaño de la muestra. Se basa en el número de contraejemplos, tiene capacidad predictiva y sus resultados son extrapolables a distintos tamaños de muestras, encuentra sucesos raros que pasarían desapercibidos a medidas como el soporte y la confianza, por restringirse a sucesos frecuentes y no tiene en cuenta lo trivial, todo lo cual constituye una ventaja inminente sobre las técnicas estadísticas clásicas empleadas para identificar posibles factores causales. (45

Recientemente, varias investigaciones han aportado evidencias de la utilidad del análisis estadístico implicativo en la identificación de factores pronósticos y de riesgo al evaluarlo utilizando como estándar de oro la regresión logística binaria, en estudios observacionales de tipo caso-control, clásicos o anidados en una cohorte. (46,47,48,49,50

CONCLUSIONES

Los métodos estadísticos empleados en inferencia causal requieren que no exista confusión residual, pero solo los llamados métodos causales, como los modelos estructurales marginales o anidados, permiten obtener resultados causalmente válidos cuando existen confusores cambiantes afectados por la exposición. La elección del método de análisis depende del conjunto de presupuestos que el investigador esté dispuesto a aceptar.

La Estadística proporciona las técnicas adecuadas para la recolección, organización y análisis de los datos, así como para la presentación e interpretación de los resultados de la investigación, pero no es una garantía, por sí sola, de la validez de los resultados obtenidos. Solo el investigador experto es capaz de delimitar sus objetivos e hipótesis de investigación, seleccionar las variables necesarias y las pruebas pertinentes, y dar una correcta interpretación al decidir si existe una concordancia lógica entre lo estadísticamente significativo y lo clínicamente aceptable.

Consideramos la lógica difusa y el análisis estadístico implicativo como las técnicas renovadoras, acordes con el paradigma de la complejidad.

REFERENCIAS BIBLIOGRÁFICAS

1. Medina Carrillo L. Como plantear un problema de investigación y seleccionar un diseño de estudio apropiado. Arch Med Famil [Internet]. 2007 [citado 10 ene 2018];9(3):127-33. Disponible en: Disponible en: https://www.medigraphic.com/pdfs/medfam/amf-2007/amf073a.pdfLinks ]

2. Palencia Sánchez F. La búsqueda de las relaciones causales: el desafío del ejercicio diario de un epidemiólogo. Rev Méd Risaralda [Internet]. 2012[citado 10 ene 2018];18(2):165-71. Disponible en: Disponible en: http://revistas.utp.edu.co/index.php/revistamedica/article/viewFile/7913/4809Links ]

3. Lazcano Ponce E, Salazar Martínez E, Hernández Avila M. Estudios epidemiológicos de casos y controles. Fundamento teórico, variantes y aplicaciones. Salud Pública Méx [Internet]. 2000 [citado 10 ene 2018];43(2):135-50. Disponible en: Disponible en: http://www.scielo.org.mx/pdf/spm/v43n2/a09v43n2.pdfLinks ]

4. Moreno Altamirano L. Epidemiología clínica [Internet]. México: McGraw-Hill Interamericana; 2013. [citado 10 ene 2018]. Disponible en: Disponible en: https://accessmedicina.mhmedical.com/book.aspx?bookid=1442Links ]

5. Murata C, Díaz-García L, Medina-Vera I, García-de la Puente S, González-Garay A. Diseño de cohorte. Acta Pediatr Mex [Internet]. 2018 [citado 10 ene 2018];39(6):368-75. Disponible en: Disponible en: http://ojs.actapediatrica.org.mx/index.php/APM/article/view/1735/1112Links ]

6. González-Garay A, Díaz-García L, Murata C, Anzo-Osorio A, García de la Puente S. Generalidades de los estudios de casos y controles. Acta Pediatr Mex [Internet]. 2018 [citado 15 ene 2018];39(1):72-80. Disponible en: Disponible en: https://www.medigraphic.com/pdfs/actpedmex/apm-2018/apm181h.pdfLinks ]

7. Hernández B, Velasco-Mondragón HE. Encuestas transversales. Salud Pública Méx [Internet]. 2000 [citado 15 ene 2018];42(5):447-55. Disponible en: Disponible en: https://www.scielosp.org/pdf/spm/2000.v42n5/447-455Links ]

8. Coscia Requena C, Muriel García A, Pérez Pérez T. Métodos Estadísticos Para Evaluar La Causalidad en estudios observacionales Trabajo de Fin de Máster en Bioestadística [Internet]. Madrid: Facultad de Estudios Estadísticos-Universidad Complutense de Madrid; 2017. [citado 15 ene 2018]. Disponible en: Disponible en: https://eprints.ucm.es/43964/1/TFM_ClaudiaCosciaRequena.pdfLinks ]

9. Silva LC. Estudios de casos y controles en psiquiatría: causalidad, diseño y advertencias. Actas Esp Psiquiat [Internet]. 2004 [citado 15 ene 2018];32(4):236-48. Disponible en: Disponible en: https://dialnet.unirioja.es/servlet/articulo?codigo=935150Links ]

10. Hernán MA. A definition of causal effect for epidemiological research. J Epidemiol Community Health [Internet]. 2004 [cited 2018 Jan 15];58(4):265-71. Available from: Available from: http://jech.bmj.com/cgi/pmidlookup?view=long&pmid=15026432Links ]

11. Silva LC. Manejo de la temporalidad en estudios observacionales para establecer relaciones causales. Medwave [Internet]. 2014 [citado 15 ene 2018];14(4):e5944. Disponible en: Disponible en: https://es.scribd.com/document/249258345/-Manejo-de-La-Temporalidad-en-Estudios-Obs-Para-Establecer-Relaciones-CausalesLinks ]

12. Molina Arias M, Ochoa Sangrador C. Estudios observacionales (III). Estudios de casos y controles. Evid Pediatr [Internet]. 2014 [citado 15 ene 2018;10(2):1-6. http://www.evidenciasenpediatria.es/articulo/6508/enlaceLinks ]

13. Rodríguez-Villamizar LA. Inferencia causal en epidemiología. Rev Salud Pública [Internet]. 2017 [citado 20 ene 2018];19(3):409-15. Disponible en: Disponible en: http://www.scielo.org.co/pdf/rsap/v19n3/0124-0064-rsap-19-03-00409.pdfLinks ]

14. Garcia-Huidobro D, Oakes JM. Squeezing observational data for better causal inference: Methods and examples for prevention research. Int J Psychol [Internet]. 2017 [cited 2018 Jan 15];52(2):96-105. Available from: Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC5549466/Links ]

15. Imbens G, Rubin D. Causal Inference for Statistics, Social, and Biomedical Sciences: An Introduction [Internet]. Cambridge: Cambridge University Press; 2015. [cited 2018 Jan 15]. Available from: Available from: https://www.cambridge.org/core/books/causal-inference-for-statistics-social-and-biomedical-sciences/71126BE90C58F1A431FE9B2DD07938ABLinks ]

16. Samii C. Causal empiricism in quantitative research. J Politics [Internet]. 2016 [cited 2018 Jan 15];78(3):941-55. Available from: Available from: https://nyuscholars.nyu.edu/en/publications/causal-empiricism-in-quantitative-researchLinks ]

17. Gómez Vilchis RR. Atendiendo la causalidad inversa por medio del uso de una variable instrumental: el caso de la satisfacción democrática en América Latina, ¿causa o efecto? Sociológica [Internet]. 2017 [citado 15 ene 2018];32(91):145-75. Disponible en: Disponible en: http://www.scielo.org.mx/pdf/soc/v32n91/2007-8358-soc-32-91-00145.pdfLinks ]

18. Martínez M, De Irala J. Análisis de supervivencia y análisis multivariado. En: López Jiménez F. Manual de medicina basada en la evidencia. México: JGH Editores;2001.p. 213-29. [ Links ]

19. Katz MH. Multivariable analysis: a practical guide for clinicians and public health researchers [Internet]. Cambridge: Cambridge University Press ;2011. [cited 2018 Jan 18]. Available from:Available from:https://edisciplinas.usp.br/pluginfile.php/.../mod.../Katz_MultivariableAnalysis.pdf?Links ]

20. Molina Arias M, Ochoa Sangrador C. Errores en epidemiología. Errores sistemáticos. Factores de confusión y modificación del efecto. Evid Pediatr [Internet]. 2016 [citado 20 ene 2018];12(1):1-4. Disponible en: Disponible en: https://evidenciasenpediatria.es/files/41-12718-RUTA/Fundamentos_MBE_16.pdfLinks ]

21. Ranstam J, Cook JA. Causal relationship and confounding in statistical models. Br J Surg [Internet]. 2016 [cited 2018 Jan 15];103(11):1445-6. Available from: Available from: https://onlinelibrary.wiley.com/doi/full/10.1002/bjs.10241Links ]

22. De Irala J, Martínez-González MA, Guillén Grima F. ¿Qué es una variable de confusión? Med Clin [Internet].2001 [citado: 15 ene 2018];117(10):377-85. Disponible en: Disponible en: http://halweb.uc3m.es/esp/Personal/personas/amalonso/esp/bstat-tema8vc.pdfLinks ]

23. Aguayo Canela M. Confusión e interacción (1): Qué son, qué suponen y cómo manejarlas en el análisis estratificado [Internet]. En: DocuWeb-fabis. Dot. Núm. 0702007. Huelva: Fundación Andaluza Beturia para la Investigación en Salud;2007.p.1-8. [citado 20 ene 2018]. Disponible en: Disponible en: http://www.fabis.org/html/archivos/docuweb/Confu_Inter_1r.pdfLinks ]

24. Bacallao Gallestey J. Enfoques modernos del sesgo y la causalidad en la investigación epidemiológica. Rev Cubana Salud Pública [Internet]. 2012 [citado 15 ene 2018];38(5):686-701. Disponible en: Disponible en: http://scielo.sld.cu/pdf/rcsp/v38s5/sup03512.pdfLinks ]

25. Aguayo Canela M, Lora Monge E. Cómo hacer una regresión logística binaria “paso a paso” (II): análisis multivariante [Internet]. En: DocuWeb-fabis. DotNúm 0702013. Docuweb FABIS. Huelva: Fundación Andaluza Beturia para la Investigación en Salud ;2007.p.1-35. [citado 20 ene 2018]; Disponible en: Disponible en: http://www.fabis.org/html/archivos/docuweb/regresion_logistica_2r.pdfLinks ]

26. Silva Ayçaguer LC. Causalidad y predicción: diferencias y puntos de contacto. Medwave [Internet] 2014 [citado 20 ene 2018];14(8). Disponible en: Disponible en: https://www.researchgate.net/publication/266680515_Causality_and_prediction_differences_and_points_of_contactLinks ]

27. Szklo M, Nieto J. Epidemiology: beyond the basics.USA: Burlington, Mass;2012. [ Links ]

28. Muñoz AM, Giraldo ND, Jaimes F. Ronda clínica y epidemiológica. Uso de variables instrumentales en investigación médica. Iatreia [Internet]. 2013 [citado 20 ene 2018];26(3):371-9. Disponible en: Disponible en: http://www.scielo.org.co/pdf/iat/v26n3/v26n3a13.pdfLinks ]

29. Williamson EJ, Aitken Z, Lawrie J, Dharmage SC, Burgess JA, Forbes AB. Introduction to causal diagrams for confounder selection. Respirology [Internet]. 2014 [cited 2018 Jan 20];19(3):303-11. Available from: Available from: https://onlinelibrary.wiley.com/doi/epdf/10.1111/resp.12238Links ]

30. Textor J, van der Zander B, Gilthorpe MS, Liskiewicz M, Ellison GT. Robust causal inference using directed acyclic graphs: the R package 'dagitty'. Int J Epidemiol [Internet]. 2016 [2018 Dec 10];45(6):1887-94. Available from: Available from: https://academic.oup.com/ije/article/45/6/1887/2907796Links ]

31. Brewer L, Wright J, Rice G, Neas L, Teuschler L. Causal inference in cumulative risk assessment: The roles of directed acyclic graphs. Environ Int [Internet]. 2017 [cited 2018 Jan 10];102:30-41. Available from: Available from: https://www.sciencedirect.com/science/article/pii/S0160412016309783?via%3DihubLinks ]

32. Greenland S, Pearl J. Causal diagrams. USA: Wiley StatsRef: Statistics Reference Online, John Wiley & Sons, Ltd; 2017. [ Links ]

33. Hernán MA, Robins JM. Causal Inference. Part I Causal inference without models. Boca Raton: Chapman& Hall/CRC, forthcoming;2017. [ Links ]

34. Hallqvist J. Causal inference-some aspects. Sweden: Department of Public Health and Caring Sciences Uppsala University;1970. Available from: https://www.med.lu.se/.../Johan%20Hallqvist_Causal%20inferenceLinks ]

35. Orellana JJ, Kaufman JS, Pino P. Interacción, sinergia y antagonismo en estudios prospectivos en epidemiología. Rev Perú Med Exp Salud Pública [Internet]. 2013 [citado 15 ene 2018];30(4):687-90. Disponible en: Disponible en: http://www.scielo.org.pe/pdf/rins/v30n4/a24v30n4.pdfLinks ]

36. Calderón Saldaña JP, Alzamora de los Godos Urcia L. Regresión logística aplicada a la epidemiología. Revista Salud, Sexualidad y Sociedad [Internet]. 2009 [citada 15 ene 2018];1(4). Disponible en: Disponible en: https://docplayer.es/13490281-Regresion-logistica-aplicada-a-la-epidemiologia-logistic-applied-for-regression-epidemiology.htmlLinks ]

37. Quentin Langdon RJ, Wade KH. Application of Mendelian randomization: can we establish causal risk factors for type 2 diabetes in low-to-middle income countries? Rev Cuid [Internet]. 2017 [citado 10 Ene 2018];8(1):1391-406. Disponible en: Disponible en: https://revistacuidarte.udes.edu.co/index.php/cuidarte/article/view/373/761Links ]

38. Iturrieta-Zuazo I, Stefan Walter S. Aleatorización mendeliana: presente y futuro de los estudios epidemiológicos en cardiología. Rev Esp Cardiol [Internet 2015 [citado 2018 ene 10];68(2):87-91. Disponible en: Disponible en: http://appswl.elsevier.es/watermark/ctl_servlet?_f=10&pident_articulo=90376679&pident_usuario=0&pcontactid=&pident_revista=25&ty=101&accion=L&origen=cardio&web=www.revespcardiol.org&lan=es&fichero=25v68n02a90376679pdf001.pdf&anuncioPdf=ERROR_publi_pdfLinks ]

39. Laperle J, Hébert-Deschamps S, Raby J, de Lima Morais DA, Barrette M, Bujold D, et al. The epiGenomic Efficient Correlator (epiGeEC) tool allows fast comparison of user datasets with thousands of public epigenomic datasets. Bioinformatics [Internet]. 2019 [cited 2019 mar 15];35(4):674-6. Available from: Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC6378939/Links ]

40. Van der Laan MJ. Causal Inference for a Population of Causally Connected Units. J Causal Inference [Internet]. 2014 [cited 2018 Jan 15];2(1):13-74. Available from: Available from: https://www.ncbi.nlm.nih.gov/pmc/articles/PMC4500386/Links ]

41. D´Negri CE, De Vito EL. Introducción al razonamiento aproximado: lógica difusa. Revista Argentina de Medicina Respiratoria [Internet] 2006 [citado 20 ene 2018];(4):126-36. Disponible en: Disponible en: http://www.redalyc.org/pdf/3821/382138367007.pdfLinks ]

42. Gras R. Genese et developpement de l’analyse statistique implicative: retrospective Historique. Educ Matem Pesq São Paulo [Internet]. 2014 [citado 2018 ene 10];16(3):645-61. Disponible en: Disponible en: https://revistas.pucsp.br/index.php/emp/article/viewFile/21541/pdf_1Links ]

43. Gras R, Régnier JC, Lahanier-Reuter D, Marinica C, Guillet F. L'Analyse Statistique Implicative. Des Sciences dures aux Sciences Humaines et Sociales. Tomks-Russia: National Research Tomks State University; 2017. [ Links ]

44. Valls Pla X. Diseño de un paquete R para el Análisis Estadístico Implicativo. [Trabajo Final de Máster en Matemática Computacional Internet]. Valencia: Universidad Jaime I; 2014. [citado 20 ene 2018]. Disponible en: Disponible en: http://repositori.uji.es/xmlui/handle/10234/107441Links ]

45. Zamora Matamoros L, Díaz Silvera J R, Portuondo Mallet L. Fundamental Conceptson Classification and Statistical Implicative Analysis for Modal Variables. Rev Colomb Estad [Internet]. 2015 [citado 20 ene 2018];38(2):335-51. Disponible en: Disponible en: http://www.scielo.org.co/pdf/rce/v38n2/v38n2a02.pdfLinks ]

46. García Mederos Y, Zamora Matamoros L, Sagaró del Campo N. Análisis estadístico implicativo en la identificación de factores de riesgo en pacientes con cáncer de pulmón. Medisan [Internet]. 2015 [citado 10 ene 2018];19(8):947. Disponible en: Disponible en: http://scielo.sld.cu/pdf/san/v19n8/san03198.pdfLinks ]

47. Moraga Rodríguez A, Zamora Matamoros L, Sagaró del Campo NM, Moraga Rodríguez A, Rodríguez Griñán A. Análisis estadístico implicativo para la identificación de factores pronósticos de la mortalidad por cáncer de pulmón. Medisan [Internet]. 2016 [citado 10 ene 2018];20(3):344. Disponible en: Disponible en: http://scielo.sld.cu/pdf/san/v20n3/san10203.pdfLinks ]

48. Moraga Rodríguez A, Zamora Matamoros L, Sagaró del Campo NM, Moraga Rodríguez A, Rodríguez Griñán A. Análisis estadístico implicativo para la identificación de factores pronósticos de la mortalidad por cáncer de mama. Medisan [Internet]. 2017 [citado 10 ene 2018];21(4):395. Disponible en:Disponible en:http://scielo.sld.cu/pdf/san/v21n4/san03214.pdfLinks ]

49. Moraga Rodríguez A, Zamora Matamoros L, Sagaró del Campo NM, Moraga Rodríguez A, Rodríguez Griñán A. Análisis estadístico implicativo para la identificación de factores pronósticos de la mortalidad por cáncer de próstata. Medisan [Internet]. 2018 [citado 10 ene 2018];22(1):48. Disponible en:Disponible en:http://scielo.sld.cu/pdf/san/v22n1/san07221.pdfLinks ]

50. Paez Candelaria Y, Sagaró del Campo NM, Zamora Matamoros L. Análisis estadístico implicativo en la determinación de factores pronósticos del estado nutricional del paciente grave al egreso. Medisan [Internet]. 2018 [citado 10 ene 2018];22(6):431. Disponible en: Disponible en: http://scielo.sld.cu/pdf/san/v22n6/san07226.pdfLinks ]

Recibido: 24 de Abril de 2019; Aprobado: 15 de Julio de 2019

*Autor para la correspondencia. Correo electrónico: nelsa@infomed.sld.cu

Los autores declaran no tener conflicto de interés en esta investigación.

Creative Commons License Este es un artículo publicado en acceso abierto bajo una licencia Creative Commons