We argue that population attributable fractions, probabilities of causation, burdens of disease, and similar association-based measures often do not provide valid estimates or surrogates for the fraction or number of disease cases that would be prevented by eliminating or reducing an exposure because their calculations do not include crucial mechanistic information. We use a thought experiment with a cascade of dominos to illustrate the need for mechanistic information when answering questions about how changing exposures changes risk. We suggest that modern methods of causal artificial intelligence (CAI) can fill this gap: they can complement and extend traditional epidemiological attribution calculations to provide information useful for risk management decisions.
Commentaire du Dr Marius Laurent (PAQS)
- Revenons un instant sur l’article de Maldonado que je commentais dans le précédent numéro. Il insistait sur la difficulté de définir objectivement les critères qui définissent, ou au moins caractérisent un lien de cause à effet. Il expliquait la préférence accordée actuellement à l’argument contrefactuel : que se passerait-il si je supprimais l’événement supposé causal ? Tout en reconnaissant sa « malédiction » : tester en même temps sur une population ce qu’il se passe en présence ou en absence d’un facteur supposé causal est impossible, et force est de recourir à des « échantillons » et à la science statistique. La première partie de l’article de Cox (la seule que je vous engage à lire si vous n’êtes pas épidémiologue) jette un doute sur l’universalité de cet argument contrefactuel. Il prend l’exemple d’une rangée de cent dominos, et une règle : la chute d’un domino fait tomber les deux suivants. Si je fais tomber le domino 1, tous vont tomber jusqu’au 100 (y compris le 50). La chute du 50 est-elle la cause de la chute du 100 ? Si je bouscule uniquement le 50, le 100 tombera. Si je retire le 50, la chute du 49 entraîne celle du 51 et le 100 tombera. Ma certitude sur le rôle du 50 est-elle ébranlée, de même si j’empêche le 50 de tomber en le collant au sol ? L’auteur fournit des réponses qui font intervenir le mécanisme de ces interventions dans la définition de la chaîne causale. Mon propos dans ce commentaire est simplement de souligner que l’intervention sur la cause présumée, son élimination éventuelle même (argument contrefactuel) ne suffit pas à définir sans équivoque le lien causal ou son absence. N’allez pas plus loin dans l’article si les réseaux bayésiens sont du latin pour vous (ils sont la première approche que l’intelligence artificielle utilise pour estimer un lien causal).
Cox LA Jr. Thinking about causation: A thought experiment with dominos. Glob Epidemiol. 2021;3:100064. Doi : 10.1016/j.gloepi.2021.100064.