Actualités

Partager sur :
16 avril 2020
La lettre de XMP-Consult

Postures analytiques en temps de crise

Vue 63 fois

Au-delà de ses conséquences graves, une crise se caractérise par le nombre élevé d’arbitrages importants qu’elle demande dans un temps court. L’analyse à chaud de l’un d’entre eux, le choix du gouvernement de ne pas généraliser le traitement associant l’hydroxychloroquine à l’azithromycine, est l’occasion de réfléchir à la gestion des risques en période de crise.

La position du gouvernement a pour l’essentiel consisté à rejeter un traitement au motif que son efficacité n’était pas prouvée. Cela revient à assigner la charge de la preuve au traitement. Mais imaginons que la question posée au corps médical soit : êtes-vous sûr que le traitement n’est PAS efficace ? La réponse est identique : non. Qui aurait alors exigé que le traitement fût dispensé tant que la démonstration de sa non-efficacité n’était pas établie ?

Ainsi, à recourir sans discernement à « un protocole scientifique éprouvé », on obtient une réponse différente suivant la façon dont on pose un problème pourtant symétrique : choisir entre l’option 1 (ne rien faire) et l’option 2 (utiliser un traitement) ou bien entre l’option 2 et l’option 1. C’est un signe clair de malfaçon du cadre d’aide à la décision : aucun fondement scientifique ou éthique ne justifie cette posture asymétrique en défaveur d’une option a priori.

Cette asymétrie résulte d’une interprétation réductrice de l’appareil statistique. La statistique a ici pour objet l’interprétation de données quantitatives pour départager deux options : soit un traitement n’a pas d’effet, c’est toujours l’hypothèse par défaut ( ou hypothèse nulle), soit il en a un () et alors  est rejetée. Ce cadre n’est qu’une convention, une manière de standardiser la façon de poser le problème. La notion de traitement y est arbitraire : rien n’interdit de considérer que le traitement est de ne pas prendre un médicament plutôt qu’en prendre un et ainsi  et  sont interchangeables. L’industrie pharmaceutique considère, toujours par convention, que le « traitement » est, sans surprise, un médicament.

De façon tout aussi normative, le secteur s’est vu fixé des limites pour rejeter : la probabilité d’un faux positif (conclure à tort à l’efficacité du traitement, ou encore erreur de première espèce) ne doit pas excéder 5% (aussi appelé α), et celle de faux négatif (ou erreur de deuxième espèce, soit un rejet à tort de  – passer à côté d’un traitement efficace) est fixé à 20% (aussi appelé β).

Les taux acceptables d’erreur ne sont pas universels, mais spécifiques à un secteur et un contexte donnés. Pourtant, les valeurs de 5% et 20% sont devenues des références par défaut, y compris en sciences économiques et sociales. On sent bien pourtant une gêne à rejeter un traitement dont la probabilité de faux positif serait de 5.1% (ou même 20%) au lieu de 4.9%, dans un contexte où son éventuelle valeur ajoutée serait déterminante.

Sans recourir à davantage de formalisme, ébauchons ici les bases d’une approche pragmatique pour adapter un cadre statistique à un contexte donné. Plus les bénéfices globaux attendus du traitement sont élevés, plus il faut être strict sur la puissance statistique du test en exigeant un β faible. Et à mesure que le coût total du traitement (financier – y compris le déploiement à grande échelle, effets indésirables, externalités, etc.) diminue, la contrainte sur α se relaxe – à l’extrême, on est dans un pari pascalien. Une approche alternative consisterait à imposer que α/β soit une fonction croissante de l’efficience, mesurée par le rapport entre l’efficacité et le coût d’une mesure.

Ni les coûts ni l’efficacité présumée ne sont connus précisément avant de procéder au test. Il faut donc spéculer sur ces variables pour déterminer α et β. Il n’y a là rien de choquant : même si α et β sont arbitrairement fixés, on doit spéculer sur l’efficacité du traitement et l’écart type de la variable qui le mesure pour dimensionner l’échantillon.

Toutes les spéculations qui conditionnent le modèle de décision font appel à un savoir imparfait. Une affirmation telle que « le traitement présente peu de risques chez les sujets ne présentant pas telle ou telle caractéristique » relève de cette catégorie. Elle dérive d’un corpus de connaissances éparses, mêlant littérature sur les principes actifs et expérience de celui qui la formule. Ce n’est pas une preuve constituée, c’est peut-être faux, mais il serait dommage de faire sans.

Les avocats du traitement controversé le classifieraient dans la case supérieure gauche de la figure, sur la base que: (i) le coût financier du traitement est faible, (ii) son caractère déployable à grande échelle est avéré, (iii) ses effets négatifs sont réputés faibles sur la très large sous population ne souffrant pas d’hypertension ou de problèmes cardiaques (ce qui exclue toute forme d’automédication), (iv) même une très faible efficacité sauverait beaucoup de vies au vu du nombre important de personnes contaminées actuelles et futures. Les sceptiques sur l’effet positif ou craignant le risque d’effets négatifs le classifieraient dans la case inférieure gauche.

Dans tous les cas, il est intéressant de noter que personne n’a réclamé de telles expériences pour statuer sur l’efficacité d’une seule des autres mesures adoptées dans l’urgence de cette crise, médicale ou non. Même en régime normal, le recours à la randomisation reste une pratique anecdotique en France, et on peut le regretter.

Il en va ainsi des mesures de fortunes pour se couvrir le visage, ou encore sur le fait d’adopter une alimentation propice à renforcer les capacités immunitaires. Ces traitements présentent pourtant des caractéristiques similaires : peu onéreux, facilement déployables, sans bilan négatif net (a priori). Ces « recettes de grand-mère » se situent en gros dans la case en bas à gauche.

Il n’est pas non plus envisagé de randomiser des aides promises par Bercy aux entreprises en difficulté. La mesure sera pourtant très onéreuse, et son efficacité ne rivalisera probablement pas, et de loin, avec le nombre de vies sauvées même si le traitement est à peine efficace. Cette mesure se situerait quelque part dans la colonne de droite.

Ainsi, l’exigence de rigueur est la plus élevée pour la mesure à l’espérance de gains peut être la plus prometteuse et parmi les moins onéreuses. A défaut de bien prendre en compte le contexte (le temps, les risques), on a biaisé la mécanique d’aide à la décision et d’autant plus que les contraintes sur la taille de l’échantillon sont considérables :

  • le virus guérit spontanément dans la très grand majorité des cas, ne laissant donc qu’un espace restreint pour démontrer la valeur ajoutée d’un traitement,
  • la taille de l’échantillon augmente rapidement avec la précision souhaitée (quadratique),
  • une large population n’est pas forcément très homogène, d’où une variance peut être élevée, d’où un échantillon plus large toute chose égale par ailleurs,
  • le traitement proposé est essentiellement préconisé en amont, alors que les tests concernent une population plus vaste - la probabilité de passer à côté d’un effet positif sur une strate spécifique augmente car la statistique sera diluée dans le reste de l’échantillon.

Ainsi, l’essentiel est réuni pour rejeter l’hypothèse d’un effet (), ce qui augmente les chances de commettre une erreur de deuxième espèce (passer à côté d’un traitement), sauf à disposer d’un échantillon énorme. Ce qui demande un temps qu’une situation de crise ne peut s’offrir, surtout en phase ascendante de la vague pandémique.

Ajoutons que le caractère aveugle de la randomisation est injustifié. Il garantit le fait d’isoler l’effet du médicament « net de placebo » - les effets psychologiques que le patient, ou que la relation de soignant à patient, pourraient induire sur son état. L’objectif étant de sauver des vies et non de documenter l’efficacité d’un principe actif, c’est l’effet « brut » du traitement qui compte : si des ressorts psychologiques nous sauvent parfois, réjouissons-nous-en humblement. Là encore, on a plaqué une méthode certes éprouvée mais inadaptée. 

Même bien conçue, la randomisation pose aussi problème car l’assignation véritablement aléatoire d’individus dans des groupes distincts exige de passer outre leur consentement. Si l’éthique l’interdit, le protocole est alors compromis et les résultats sont moins fiables.

Fallait-il procéder oui ou non à une expérience randomisée ? Oui, avec un protocole mieux adapté à la finalité recherchée et en rendant accessible le traitement de façon massive de façon préventive, quitte à faire marche arrière une fois les résultats définitivement connus. Il va de soi que tout autre traitement présentant des caractéristiques similaires appellerait la même conclusion.

Sous le faux nez de la rigueur intellectuelle, la prostration sur une procédure répandue mais inadaptée suggère une propension à s’ancrer dans la situation par défaut et un certain manque de recul vis-à-vis d’enjeux épistémologiques et de gestion de risques. On peut aussi l’interpréter comme une nouvelle manifestation funeste d’un principe de précaution devenu excessif.

Cette affaire illustre du même coup et avec acuité la nécessité de repenser les rapports entre experts et décideurs. L’essentiel se joue souvent dans la façon dont les donneurs d’ordre expriment leurs attentes aux experts et leur capacité à savoir les sélectionner.

Dans sa dimension juridique, au travers de la tension entre d’une part la liberté de prescription assortie du consentement éclairé du patient, et de l’autre une posture dans laquelle l’Etat arbitrerait seul des risques pour le compte de ses administrés, ce débat éclaire sous un angle nouveau une quête de liberté individuelle et de responsabilité. Preuve que ces valeurs ne sont pas incompatibles avec les élans de cohésion et de dévouement altruiste auxquels nous assistons par ailleurs.

A défaut d’être moteur, l’Etat ne doit pas entraver l’accès à ce traitement. Au pire, supposons jusqu’à preuve du contraire l’innocuité du traitement et procédons comme pour l’homéopathie, libre d’accès mais non prise en charge par la collectivité tant que son efficacité n’est pas établie.

Tentons de tirer de cette séquence difficile quelques leçons utiles en temps de crise :

  • Effectuer une évaluation lucide du rapport au temps - contre qui joue-t-il ? La vitesse requise dimensionne le cadre à adapter à l’objectif principal.
  • Rechercher le meilleur compromis entre l’assemblage d’expertises complémentaires et la nécessité de concentrer les pouvoirs pour gagner en vitesse et impact.
  • Accentuer les efforts sur l’identification des ressources pertinentes face à un problème donné en questionnant les catégories de savoir préétablies.
  • Ne pas négliger le risque de statu quo et respecter la symétrie des problèmes (principe extrêmement fécond en sciences) pour éviter les biais analytiques, statistiques ou autres.

Guillaume Dulac  //  gdulac78@gmail.com  //  https://www.linkedin.com/in/guillaume-dulac-4666411

Télécharger la Lettre de XMP-Consult n°7 (avril 2020) en .PDF

 

Les propos tenus dans ce texte n'engagent que son auteur et ne représentent pas un avis officiel de l'association XMP-Consult.



Commentaires

Vous devez être connecté pour laisser un commentaire. Connectez-vous.