publicité
Facebook Facebook Facebook Partager

Cardiologie générale

Publié le 15 nov 2018Lecture 30 min

Recommandations, AMM et utilité des hypolipémiants - Logiques et modèles sous-jacents

François DIEVART, Clinique Villette, Dunkerque

L’élaboration d’un texte de recommandations thérapeutiques pour la pratique clinique et l’attribution d’une AMM (Autorisation de mise sur le marché) avec une indication pour un traitement dans le domaine des lipides sont deux démarches ayant un substrat commun : évaluer un dossier scientifique afin de juger s’il faut utiliser ou mettre à disposition un traitement permettant d’améliorer l’état de santé d’une population. Pourtant, les modalités d’utilisation d’un traitement telles que définies par ses indications peuvent être différentes de celles proposées dans un texte de recommandations et divers textes de recommandations sur un même thème peuvent proposer des stratégies thérapeutiques différentes. Pourquoi ? Parce que plusieurs logiques sont à l’œuvre dans ces démarches, et notamment deux logiques particulières aux intérêts pouvant être contradictoires : une logique économique conduisant à tenir compte de contraintes financières permettant la pérennité d’un système de soins et une logique thérapeutique visant à promouvoir l’accès des patients ou consommateurs de soins aux innovations thérapeutiques.

Des recommandations de pratique sur un même thème, dans notre cas, la prise en charge des dyslipidémies, peuvent aboutir à des propositions de stratégies thérapeutiques différentes, laissant le médecin perplexe. Il est d’autant plus perplexe que les données scientifiques à l’origine des diverses recommandations sur un même thème sont censées être les mêmes et ces données étant assimilées à des faits, devraient conduire à de mêmes propositions de pratique dans les diverses recommandations. C’est oublier que diverses logiques doivent être conciliées et que diverses analyses de mêmes faits peuvent être produites par des experts différents, considérant un fait comme plus ou moins fiable, et que des interprétations différentes répondant à des démarches d’école sont aussi à l’œuvre dans l’élaboration de recommandations. Le médecin peut être d’autant plus perplexe que les propositions d’utilisation d’un traitement pour la prise en charge des dyslipidémies produites dans un texte de recommandations peuvent être différentes des autorisations d’utilisation et de remboursement dans le cadre de l’AMM de ce même traitement. Pourtant, au départ et dans les deux cas, recommandations et attribution d’une indication, les données scientifiques servant de support à l’utilisation de ce traitement peuvent paraître identiques. Alors pourquoi une telle différence à l’arrivée ? Cet article (parfois avec sarcasme) se propose d’exposer quelques-unes des logiques sous-jacentes et des modèles pouvant conduire à proposer une stratégie thérapeutique plutôt qu’une autre dans un texte de recommandations concernant les dyslipidémies et en quoi un jugement différent sur l’utilisation de ce traitement peut être produit dans une indication. Le premier modèle qui sera pris en compte est celui du rapport coût-bénéfice d’un traitement reposant pour les administrations en charge des finances publiques sur une logique financière et pour les médecins sur une logique utilitariste et éthique. Pour cela, il faudra parler à plusieurs reprises d’un outil, le NNT, en en illustrant les apports potentiels et les limites. Différences entre recommandations et AMM Un exemple qui peut avoir surpris les médecins est que l’atorvastatine a un statut différent dans certaines recommandations et dans ses indications en France. Ainsi, en 2014, les recommandations anglaises du NICE pour la prise en charge des dyslipidémies proposaient d’utiliser une statine, et nommément l’atorvastatine à 20 ou 80 mg/j, pour la prévention des événements CV majeurs en prévention CV primaire ou secondaire. En France, en 2017, l’indication de l’atorvastatine comprenait deux items, le premier étant « l’hypercholestérolémie » (et donc la réduction du taux de cholestérol dans certaines formes de dyslipémies), et le deuxième étant « la prévention des maladies cardiovasculaires » dont le texte est les modalités d’utilisation sont les suivantes : « Prévention des événements cardiovasculaires chez les patients adultes ayant un risque élevé de présenter un premier événement cardiovasculaire, en complément de la correction des autres facteurs de risque ». En d’autres termes, en indiquant qu’il s’agit de la prévention du premier événement CV, ce texte ne donne une indication à cette molécule qu’en prévention CV primaire et n’en autorise pas l’utilisation en prévention CV secondaire. Plus encore, dans les recommandations de la HAS de février 2017 pour la prise en charge des dyslipidémies, il était proposé (selon l’Afssaps) tout à la fois d’atteindre une cible de LDL-C et d’utiliser une statine en prévention secondaire, ce qui suppose, dans certains cas, d’utiliser une statine ayant un effet puissant de baisse du LDL-C et donc d’utiliser soit l’atorvastatine à 80 mg/j soit la rosuvastatine à 20 mg/j). Ce même texte rappelait cependant que « L’atorvastatine et la rosuvastatine ne possèdent pas d’indication validée (AMM) en prévention secondaire ». Ici, la contradiction implicite est comprise dans le même texte. On aura compris que ces contradictions relèvent d’une analyse différente des données acquises de la science et des éléments analysés : – pour donner une AMM, les experts en charge de cette mission examinent un dossier spécifique à une molécule, et uniquement une molécule. Ils jugent si la valeur de l’étude (voire des études) soumise est suffisamment adaptée et forte pour permettre une indication précise spécifique à cette étude. Ils ne prennent en compte le contexte propre à la molécule que pour établir le niveau d’ASMR (amélioration du service médical rendu) en cas d’indication retenue et de SMR (Service médical rendu) suffisant ; – dans des recommandations, les experts jugent un ensemble de données scientifiques, pouvant comprendre celles propres à une molécule, afin d’élaborer des stratégies thérapeutiques reposant sur des modèles et théories jugés éprouvés et pouvant permettre des extrapolations. Ainsi, il peut être extrapolé que 1) il est cliniquement bénéfique de diminuer le LDL-C ; 2) dans cet objectif, il y a un effet classe des statines et 3) ce qui différencie principalement les statines, c’est leur niveau d’évaluation et leur puissance à diminuer le LDL-C et, concernant notamment le NICE, leur coût. De ce fait, un texte de recommandations peut proposer d’utiliser les statines « en général » dans une situation clinique ou seules quelques statines ont été évaluées. Une fois cet élément de base rappelé et une fois que certaines des logiques sous-jacentes à l’élaboration de recommandations ont été exposées, une notion justifie d’être discutée, celle de l’utilité d’un traitement ou d’une stratégie thérapeutique. Ainsi, par exemple, dans la controverse médiatique sur les statines, un élément a été particulièrement mis en avant, celui de leur utilité en prévention CV primaire. Puisque le risque CV est souvent faible en prévention primaire, le bénéfice des statines pour réel qu’il soit a été discuté en amalgamant les notions d’utilité et d’efficacité. Rappelons que les statines sont efficaces en prévention primaire (voir dossier précédent [Cardiologie Pratique n°1135 du 1er février 2018]) mais qu’effectivement, leur utilité est sujette à débat. Mais, quel modèle utiliser pour juger de leur utilité ? Ce sont donc maintenant les différents modèles, et leurs limites, permettant de juger de l’utilité d’un traitement qui doivent être abordés. Et dans ce domaine, un élément a pris une place majeure : le NNT. Invention et gloire du NNT Qu’est-ce que le NNT ? Un jour, on ne sait par qui, on ne sait comment, le NNT fut inventé puis son aspect magique conquit les foules et les décideurs. De quoi s’agit-il ? De l’acronyme de l’expression « nombre de patients à traiter pour éviter un événement », en anglais « Number Needed to Treat ». Qu’est-ce que cela veut dire ? Que, selon le traitement et la situation clinique, il faudra traiter plus ou moins de personnes pour éviter un événement clinique majeur. Comment cela se calcule-t-il ? Simplement, en divisant 1 par la réduction absolue du risque. Ainsi, par exemple, soit un groupe de patients dont le risque d’infarctus du myocarde (IDM) est de 10 % à 5 ans et soit un traitement qui diminue ce risque de 30 %. Quand ce traitement est appliqué à ce groupe de patients, le risque absolu d’IDM diminue en valeur relative de 30 % pour atteindre un nouveau risque absolu de 7 % : la réduction absolue du risque est donc de 3 %. En divisant 1 par 0,03, on obtient 33,33, qui sera simplifié à 33. Ce chiffre veut dire que chaque fois que 33 patients de ce groupe de patients seront traités par ce médicament pendant 5 ans, un IDM sera évité : 33 est donc le NNT, le nombre de patients à traiter pour éviter un événement. Si le risque absolu moyen du groupe traité est de 1 % d’IDM à 5 ans, le même traitement aurait porté ce risque absolu à 0,7 %. La différence de risque absolu aurait alors été de 0,3 % et, dans une telle population, il faudrait traiter 333,33 patients pendant 5 ans pour éviter un IDM : le NNT est donc ici de 333. On aurait aussi pu dire que pour 1 000 patients traités pendant 5 ans par ce traitement, dans le premier cas, on évite 30 IDM et dans le deuxième 3 IDM. Cela revient au même, mais perd un certain côté pratique, ce que nous allons voir. Gloire (économique) du NNT Pourquoi ce critère simple connaît-il une certaine gloire ? Parce qu’il permet de juger de l’utilité potentielle, notamment sur le plan économique, d’un traitement. Ainsi, un autre jour, on ne sait qui et on ne sait pourquoi, quelqu’un alla voir un administrateur des finances publiques et lui exposa ce raisonnement dont les éléments de base (qui nous serviront tout au long de cet article à titre d’exemple fil rouge), sont les suivants : – supposons qu’un traitement réduise le risque d’IDM de 30 % lorsqu’il est utilisé pendant 5 ans dans une population définie et supposons que cette ampleur d’effet est fixe, quel que soit le type de patient traité ; – supposons que le coût de l’IDM la première année revienne à 10 000 euros dans notre pays ; – et supposons que ce traitement coûte 15 euros par mois, c’est-à-dire 180 euros par an. Voilà, si vous prescrivez ce traitement à des patients dont le risque d’IDM à 5 ans est de 50 %, le NNT sera de 1 divisé par 0,15 = 6,66, ce qui sera arrondi à 7. En d’autres termes, il suffit de traiter 7 patients de ce type pendant 5 ans pour éviter un IDM. De ce fait, comme 7 patients x 5 ans x 180 euros par an coûtent 6 300 euros au total, en prescrivant ce traitement à ce type de patient, c’est-à-dire à des patients à risque très élevé, éviter un IDM permet d’économiser 3 700 euros (10 000 – 6 300) de dépenses de santé en 5 ans, soit 740 euros par an d’économisés. La prévention est donc rentable. Inversement, si vous prescrivez ce traitement à des patients dont le risque d’IDM à 5 ans est de 1 %, le NNT sera de 1 divisé par 0,003 = 333,33, qui sera arrondi à 333. En d’autres termes, il faudra traiter 333 patients pendant 5 ans pour éviter un IDM. De ce fait, comme 333 patients x 5 ans x 180 euros par an coûtent 299 700 euros, et qu’un IDM coûte 10 000 euros, éviter un IDM coûtera 289 700 euros en 5 ans soit 57 940 euros par an de dépensés. La prévention est donc coûteuse. Conclusion simple, il faut concentrer la prescription de ce traitement sur les sujets à plus haut risque et donc prendre en considération le NNT. Ébloui par la démonstration, l’administrateur des finances publiques alla de suite au ministère exposer ce raisonnement. En interne, le politique qui reçut le message indiqua à l’administrateur qu’il serait heureux que l’attitude vertueuse, celle qui ne consiste à traiter que les patients les plus à risque, fasse l’objet de promptes recommandations. Et, en externe, le même politique s’empressa de clamer sur les ondes qu’une prévention bien utilisée est rentable et permettra de diminuer le coût de la santé. Et ainsi, il allait inscrire les mesures de prévention dans son programme électoral, mais qui plus est, grâce à elles, il pouvait promettre aux Français qu’il allait réduire le déficit de la Sécurité sociale. Le NNT et les scientifiques De leur côté, les scientifiques en charge d’élaborer des recommandations de pratiques n’étaient pas insensibles à la notion du NNT et ne pouvaient pas non plus ne pas tenir compte de cette logique économique. Mais ils avaient plusieurs autres logiques à prendre en compte parmi lesquelles : – la logique scientifique, celle de la médecine reposant sur les preuves. Cette logique conduit à vérifier que le bénéfice d’un traitement est avéré avant d’envisager de le proposer et de vérifier dans quelles situations cliniques ce traitement a un bénéfice clinique démontré. Il faut donc faire une synthèse de la littérature scientifique et proposer un niveau de preuve pour chaque attitude. Comment concilier alors le problème faisant qu’un traitement peut avoir un niveau de preuve élevé indiquant qu’il est très bénéfique alors que son coût est très élevé ou que son utilité est marginale dans certaines situations cliniques ? Les scientifiques jugèrent que la prise en compte du coût de la santé ne faisait pas partie de leur mission principale et donc, que la logique éthique et scientifique devait primer sur la logique économique. Ils se réfugièrent donc derrière d’autres logiques ; – la logique éthique qui conduit à postuler qu’il ne faudrait pas, au prétexte qu’un traitement coûte cher, y renoncer alors qu’il diminue le risque d’IDM. Ainsi, en reprenant l’exemple du début, même s’il faut traiter 1 000 patients pendant 5 ans pour éviter 30 IDM, c’est toujours 30 IDM d’évités. Il faut donc prendre une position conforme à la mission dévolue à la médecine. Toutefois, c’est une position raisonnable de penser que, dans certaines circonstances cliniques des traitements efficaces ont une utilité modeste et il ne faut donc pas négliger une certaine autre logique ; – la logique sociale ou utilitariste conduit à estimer qu’il faut qu’un certain nombre de patients tirent bénéfice du traitement pour le proposer et donc être utile, c’est ne pas proposer un traitement efficace aux patients à très faible risque. Il faut donc calculer le NNT dans diverses situations cliniques et choisir un seuil acceptable pour celui-ci. Il faut donc disposer ou élaborer des outils d’évaluation du risque et rester enfin pragmatique ; – la logique pragmatique : elle considère l’ensemble des données disponibles afin de faire en sorte que les propositions faites dans un texte de recommandation soient simples. Il faut donc faire des choix pour tirer un message clair de données diffuses, complexes et relevant de logiques aux effets parfois contradictoires. Ainsi, la promotion d’une stratégie thérapeutique repose sur certains modes d’analyse reposant eux-mêmes sur des logiques parmi lesquelles il va falloir trancher et ce, tout en sachant que les choses les plus simples ont une forte probabilité d’être fausses et de pouvoir être contredites. Il en est par exemple ainsi du raisonnement mis en avant devant l’administrateur des finances publiques, raisonnement qui connaît tellement de limites en dehors de son aspect purement économique, qu’il n’est qu’une possibilité de choix parmi d’autres. Nous allons voir les principales limites de ce raisonnement dans un ordre divers et en ne prenant en compte que les hypolipémiants, et principalement les statines. Le NNT est-il l’outil idéal permettant de juger de l’utilité d’un traitement et de produire des informations comme celle de l’homme politique indiquant que la prévention bien utilisée est économiquement rentable ? La prévention, bien utilisée, est-elle vraiment économiquement rentable ? En analysant l’exemple cité, on peut imaginer qu’il existe un curseur de niveau de risque en dessous duquel la prévention peut être rentable et au-dessus duquel elle est économiquement désavantageuse pour un système de santé. La prévention n’est rentable que sur le plan éthique, elle ne l’est pas sur le plan économique. De fait, même quand elle semble rentable, la prévention ne l’est jamais. Prenons l’exemple d’un patient à haut risque, notamment parce que son niveau de HDL-C est très bas. En le traitant conformément au modèle choisi dans notre exemple fil rouge, il est donc possible de diminuer son risque d’IDM de 30 % en 5 ans au prix de 900 euros au total. Or, un HDL-C bas n’est pas seulement associé à un risque élevé de décès par IDM, mais est aussi associé à un risque élevé de décès par cancer ou par une autre cause qu’un cancer ou une maladie CV. Un HDL-C bas est donc associé à un plus grand risque de survenue de maladies diverses et non CV. De ce fait, en diminuant la part relative revenant à l’IDM on augmente la part relative revenant aux autres maladies. Et le patient qui évite l’IDM grâce au traitement préventif a alors le temps de faire un cancer ou une autre maladie. Ainsi, on remplace une dépense, celle de l’IDM évité, par une autre dépense, celle induite par un cancer ou une autre cause et on ajoute à celle-ci le coût de la prévention de l’IDM qui dans notre modèle est de 900 euros. La prévention est une mesure éthique, pas une mesure économique. On pourrait objecter que l’absence de rentabilité de la prévention est due au prix du médicament et que modifier le risque par des mesures hygiéno-diététiques ne coûterait rien et serait donc rentable. À cela, il y a deux objections : promouvoir une saine hygiène de vie à un coût (administration, campagnes de santé publique, dispensaires…) et cela ne retire rien aux coûts des maladies qui finissent par survenir, mais à un âge censé être plus élevé, c’est-à-dire après avoir versé une retraite pendant un temps plus long qu’en absence de prévention. Calculer le risque devrait permettre de restreindre la taille de la population à traiter… et pourtant… Si l’on suit le raisonnement reposant sur le NNT, il faut donc calculer le risque CV absolu et ne traiter que les patients à risque élevé, et ce d’autant plus agressivement que le risque est élevé. C’est l’esprit de toutes les recommandations. Mais avec quelle grille évaluer le risque ? Un jour, encore un, un laboratoire pharmaceutique voulut qu’un de ses médicaments reçoive l’indication à laquelle il pouvait prévaloir : celui-ci, une statine, avait démontré dans un essai clinique dénommé JUPITER qu’il pouvait réduire le risque d’événements CV majeurs et la mortalité totale de patients en prévention CV primaire, ayant un LDL-C initial à 1,08 g/l et n’ayant pas de diabète, mais ayant une hs-CRP supérieure à 2 mg/l. L’autorité administrative jugea que cela reviendrait à traiter un nombre considérable de personnes et que cela aurait donc un coût important. Mettant probablement en avant la logique économique, l’autorité administrative utilisa donc l’arme du NNT et demanda au laboratoire de faire une analyse particulière consistant à évaluer si, dans le sous-groupe à haut risque CV enrôlé dans l’étude JUPITER, le bénéfice clinique du traitement était aussi constaté. Démarche particulière car il fallut alors procéder à une analyse a posteriori, non prédéfinie, d’un essai clinique pour obtenir une indication. Mais ceci fut fait. Cela donna lieu à une publication en 2010 dans l’European Heart Journal précisant que furent considérés à haut risque les patients dont le risque CV absolu à 10 ans selon la grille de Framingham (prenant en compte les événements CV) étaient au moins égal à 20 % et ceux dont le risque CV absolu selon la grille de risque SCORE (prenant en compte la mortalité cardiaque) était au moins égal à 5 %. Ces définitions du haut risque sont conformes aux modalités d’utilisation et supposément de validation de ces grilles de risque. Cette analyse montrant que, dans cette population, la rosuvastatine réduit significativement le risque d’événements CV majeurs, le 6 octobre 2010, la HAS autorisa l’indication suivante pour la rosuvastatine : « Prévention des événements cardiovasculaires majeurs chez les patients estimés à haut risque de faire un premier événement cardiovasculaire (voir rubrique Propriétés pharmacocinétiques), en complément de la correction des autres facteurs de risque ». Mais que nous apprend cette histoire, outre le recours impl cite au NNT ? Cela figure dans l’avis du 6 octobre 2010 de la Commission de transparence et ne cesse de surprendre. Ainsi, si l’on souhaite évaluer le taux de patients à haut risque parmi les 17 802 patients inclus dans l’étude JUPITER il y a potentiellement trois moyens : l’utilisation de la grille de Framingham dont on dit qu’elle n’est plus adaptée car elle surévalue le risque CV absolu, la grille SCORE dont on dit qu’elle est mieux adaptée à la situation épidémiologique actuelle, notamment européenne, et enfin la méthode préconisée par la HAS (Haute Autorité de santé) en France et en 2005 reposant sur le dénombrement de certains facteurs de risque, le haut risque étant caractérisé par la présence d’au moins 3 facteurs de risque parmi l’âge (homme de 50 ans ou plus, femme de 60 ans ou plus), les antécédents familiaux de maladie coronaire précoce, le tabagisme actuel ou arrêté depuis moins de 3 ans, l’hypertension artérielle permanente traitée ou non, le diabète de type 2 traité ou non et le HDL-C < 0,40 g/l (1,0 mmol/l) quel que soit le sexe. Surprise Et que nous apprend cet avis de la Commission de transparence ? Que si l’on applique la grille de Framingham à la population de JUPITER, c’est 8,8 % de cette population qui est considérée à haut risque. De ce fait, comme la grille de Framingham surestime le risque CV, en appliquant la grille de risque SCORE, le taux de patients à haut risque dans cette population devrait être nettement moindre. Or, en appliquant la grille de risque SCORE à la même population, c’est 52,3 % des patients de l’étude qui sont à haut risque. Et enfin, en appliquant la recette de la HAS de 2005, c’est 25 % de cette même population qui est évaluée à haut risque. Peu perturbé par ces résultats, l’avis de la Commission de la transparence dans ses conclusions indique : « Place dans la stratégie thérapeutique : chez les patients à haut risque cardiovasculaire (estimé soit par la sommation de différents facteurs de risque, soit à l’aide de modèles de risque), les mesures de prévention primaire visent à éviter ou à retarder la survenue des événements coronariens et cardiovasculaires ». Ainsi donc, le médecin, face à un patient du type de celui inclus dans JUPITER a le choix d’en traiter 100 % par de la rosuvastatine selon la médecine reposant sur les preuves et les données acquises de la science : puisqu’un bénéfice a été démontré dans l’étude JUPITER, une telle attitude peut difficilement faire grief. Il a aussi le choix d’utiliser une évaluation du risque selon les modalités qu’il préfère et qui conduira soit à ne traiter que 52 % de ces patients s’il utilise la grille SCORE, soit 25 % ce ces patients s’il utilise la recette de la HAS de 2005, soit moins de 10 % de ces patients s’il utilise la grille de Framingham. Et aucune de ces attitudes ne peut lui être opposée. Et ainsi, utiliser une grille de risque peut effectivement restreindre la taille de la population à traiter mais uniquement en choisissant certaines grilles de risque plutôt que d’autres... Notons que le constat fait dans l’étude JUPITER — à savoir que les moyens d’évaluation du risque peuvent donner des résultats variant d’un facteur supérieur à 5 et que la grille de risque SCORE surestime le risque par rapport à la grille de Framingham — est passé quasiment inaperçu alors qu’il remet en cause la pensée dominante conduisant à faire reposer une stratégie sur l’évaluation du risque. Mais peut-être est-ce pour cela qu’il est passé inaperçu... Comment le médecin ne peut- il pas être perplexe, pour ne pas dire « perdu », quand de telles données lui sont exposées ? Comment peut-il comprendre qu’un même texte d’AMM permette de traiter plus de la moitié ou moins de 10 % d’une population particulière ? Comment lui expliquer qu’il n’y a actuellement pas de recette simple pour envisager la prise en charge des dyslipidémies ? Comment lui faire comprendre que si l’utilité est un critère facile à définir sur le plan conceptuel, il est nettement moins facile à définir sur le plan pratique ou opérationnel ? On aura compris que l’évaluation du risque pose donc un problème (dont certaines des causes seront traitées plus après dans ce dossier) mais que, comme il faut traiter selon le risque, s’interroger sur les moyens et limites de l’évaluation du risque pourrait remettre en cause l’assise de bien des écoles. Le NNT permet-il de faire des choix utiles et des choix économiques ? Lorsque l’on pose comme principe que le NNT permet de faire des choix utiles (éviter de traiter des personnes inutilement car à bas risque) et économiques car permettant de juger du coût induit pour éviter un événement, la démarche qui s’ensuit consiste à calculer le NNT puis à faire un choix, le plus souvent arbitraire, de la valeur qui sera retenue comme marquant l’utilité d’un traitement et/ou son avantage économique. Et faire un choix, ce n’est plus de la science mais du jugement de valeur. Dans une telle démarche, il peut être envisagé de comparer deux NNT issus de deux études différentes pour juger de l ’utilité d’un traitement par rapport à un autre. D’ailleurs, il n’est pas rare qu’à l’issue de la présentation de deux essais cliniques dans un même domaine, certains commentateurs estiment qu’un traitement est associé à un NNT plus intéressant qu’un autre traitement. Et qu’un investigateur puisse éventuellement penser « mon NNT est plus beau que le tien »… Mais peut-on, ex abrupto, comparer deux NNT différents sans prendre en compte tous les éléments sous-jacents à son calcul ? La réponse est non et nous allons voir comment faire varier un NNT en fonction de divers paramètres. Le risque de base de la population traitée En reprenant les données de l’exemple fil rouge de cet article, il est déjà possible de s’apercevoir que, pour un même traitement qui réduit de 30 % le risque d’IDM, si le risque d’IDM à 5 ans est de 1 %, le NNT est de 333 alors qu’il n’est que de 7 si le risque d’IDM à 5 ans est de 50 %. Et pourtant c’est bien un même traitement qui est utilisé, le NNT ne dépend donc pas du traitement mais du risque de base des patients (voir figure 1 concernant l’exemple des études conduites avec des statines). Figure 1. Le NNT dépend du risque absolu de base des patients inclus. Exemple des essais conduits avec des statines. Le risque absolu de base est en effet l’élément important pour évaluer le NNT. Donc le NNT enregistré dans un essai clinique est directement lié au risque de base de la population incluse et pour un même traitement ayant un même effet de diminution du risque d’IDM, le NNT peut donc être différent d’une étude à l’autre. Le NNT associé à l’utilisation d’un traitement ne doit pas être envisagé à partir de celui constaté dans une étude, mais à partir de l’effet moyen du traitement (la réduction relative du risque qu’il permet) en synthétisant l’ensemble des données acquises sur ce traitement, puis en appliquant cette réduction relative du risque au risque absolu de la population que l’on envisage de traiter. Ainsi, dans une étude, le NNT a pu être calculé comme intéressant jusqu’à 33, mais dans la pratique, lorsque le traitement est appliqué à une population différente de celle de l’étude tout en ayant la même maladie, le NNT peut devenir moins intéressant et passer par exemple à 100. La durée du suivi Autre paramètre important à prendre en compte pour évaluer le NNT : la durée du suivi. Ainsi, par exemple, en reprenant la population dont le risque absolu d’IDM à 5 ans est de 50 %, pour cette durée et avec un traitement appliqué pendant 5 ans, le NNT est de 7, mais ce même NNT, dans cette même population et avec ce même traitement, passe à 10 au terme de 1 an de traitement et diminue à 3 au terme de 10 ans de traitement (figure 2). Figure 2. Variation du NNT au fil du temps. Ainsi donc, quand on veut comparer deux NNT issus de deux études différentes, il est important de regarder à quelle échéance de l’étude il a été calculé ou assez souvent… extrapolé, et le plus souvent à plus long terme pour être encore plus faible. Pour revenir à la logique financière, la durée a aussi son importance puisqu’elle fait varier le NNT. Ainsi, en reprenant l’exemple fil rouge et considérant uniquement la population à risque absolu de 50 % d’IDM à 5 ans, on a vu que traiter 7 patients pendant 5 ans pour éviter un IDM coûte 7 x 5 x 180 = 6 300 euros et permet, compte tenu du coût supposé de l’IDM, d’économiser 3 700 euros. Mais traiter la même population pendant 10 ans, revient à 3 (NNT à 10 ans) x 10 x 180 = 5 400 euros et permet donc d’économiser 4 600 euros : traiter longtemps une population à très haut risque est donc plus rentable puisque le NNT diminuera au fil du temps. De plus, dans notre exemple, avec un tel risque et avec un tel traitement, l’espérance de vie sans IDM de cette population sera prolongée de 3 ans dans le cas d’un traitement de 10 ans. L’effet du traitement Troisième paramètre important à prendre en compte, l’effet du traitement. Continuons avec notre exemple fil rouge, mais décidons d’utiliser une plus faible dose du traitement et supposons que cette dose ne procure plus qu’une réduction relative du risque de15 % et non de 30 % : conséquence, tous les NNT sont à multiplier par deux. L’utilité du traitement diminue et le coût augmente car le coût de traitement lui, ne sera pas divisé par deux : le coût d’un traitement n’étant pas linéairement corrélé à sa dose ou à son efficacité clinique. Aussi, le coût de l’IDM évité augmentera de façon encore plus importante. L’intervalle de confiance à 95 % Le plus souvent, quand on analyse les résultats d’un essai thérapeutique contrôlé, on retient la valeur de la réduction relative du risque affichée et on néglige la valeur de l’intervalle de confiance à 95 % qui lui est associée. Pourtant celle-ci, en fonction de la puissance de l’étude, peut et doit indiquer que l’effet du traitement pourrait être plus ou moins faible que la valeur retenue à la fin de l’étude. Ainsi, en reprenant notre exemple fil rouge, nous avons supposé que le traitement pris en compte réduit le risque d’IDM de 30 % : supposons que cette valeur moyenne soit celle retenue au terme d’un ou deux essais d’évaluation ayant permis de façon isolée ou en couplant leurs résultats d’obtenir une valeur de 30 % avec un intervalle de confiance allant de 25 à 35 %. Dans ce cas le NNT doit prendre en compte cette imprécision dans l’ampleur de l’effet.  Le mode de calcul de l’intervalle de confiance associé au NNT est assez complexe. Et, par ailleurs le NNT ne suit pas une distribution normale et son intervalle de confiance est asymétrique mais il est nécessaire de rapporter cet intervalle de confiance pour mieux évaluer l’utilité et/ou l’influence d’un traitement en matière économique. La figure 3 présente les résultats de l’étude TRA 2P (Circulation 2015 ; 131 : 1 047-53) évaluant le vorapaxar contre placebo en prévention CV secondaire. Ces résultats sont ceux concernant les événements CV majeurs dans le sous-groupe de patients avec un diabète (DM) et dans celui n’ayant pas de diabète (no DM). Ce graphique illustre plusieurs éléments concernant le NNT : – 1. le NNT est d’autant plus faible que le risque de base est plus élevé (cas de diabétiques par rapport au non diabétiques) pour une réduction relative du risque approchante ; – 2. l’intervalle de confiance associé au NNT est asymétrique est peut être très large comme ici, pour les non-diabétiques où le NNT moyen est de 74 mais avec un intervalle de confiance allant de 46 à 223. Figure 3. Présentation de résultats d’une étude incluant les NNT et leurs intervalles de confiance à 95 %. Étude TRA 2P évaluant le vorapaxar contre placebo en prévention CV secondaire, résultats concernant les événements CV majeurs dans le sous-groupe de patients avec un diabète (DM) et dans celui n’ayant pas de diabète (no DM). (Circulation 2015 ; 131 : 1 047-53) En considérant la valeur basse de cet intervalle de confiance, il serait possible de juger que traiter seulement 46 patients pour éviter un événement est le gage d’un traitement utile et économiquement rentable en fonction du coût du traitement et du coût de l’événement évité. Mais en considérant la valeur haute de cet intervalle de confiance, on peut aussi juger que traiter 223 patients est peu utile et probablement très coûteux. Et pourtant il s’agit du même traitement dans une même population et avec un NNT moyen à 74 généralement considéré comme intéressant en matière d’utilité. Cependant, lorsqu’un NNT est présenté, il est rarement assorti de son intervalle de confiance, élément qui peut changer l’appréciation de l’utilité ou du coût du traitement lorsque l’intervalle de confiance est très large. L’effet du traitement en fonction de la durée de traitement Autre élément à prendre en compte, la variation de l’effet du traitement au fil du temps. Nous entrons ici dans un domaine plus spécifique aux statines. Il a été établi que pour 1 mmol/l de réduction du LDL-C, la réduction relative des événements CV majeurs sous statine est de 12 % après un an de traitement, de 17 % après 2 ans, de 20 % après 3 ans et de 22 % après 4 ans. Et donc le calcul du NNT concernant les statines (et les hypolipémiants) doit aussi prendre en compte cette variable. Et ainsi, dans une population dont le risque absolu d’IDM est de 50 % à 5 ans, avec un traitement qui baisserait ce risque de façon constante de 22 %, le NNT à 5 ans est de 9 et à 1 an est de 45. Mais, dans le cas de l’utilisation d’une statine, le NNT à 5 ans reste à 9 mais à 1 an n’est pas de 45 puisque l’effet thérapeutique n’est pas constant et est plus faible à 1 an, le NNT augmente ainsi à 83. Le paramètre pris en compte Enfin, le NNT peut être calculé en prenant en compte un événement spécifique ou un autre, voire plusieurs. Et comme, d’une part, l’effet du traitement peut être différent sur ces divers événements et, d’autre part, les risques de base de chacun de ces événements et/ou de leur association peuvent être très divers, dans une même étude peuvent être calculés divers NNT, et ce tout en gardant une même échelle de temps. Par exemple, le NNT pour éviter un IDM peut être de 45, celui pour éviter un AVC de 38 et celui pour éviter un événement CV majeur de 12… et cela au terme d’un suivi de 10 ans car extrapolé à partir des résultats d’une étude dont le suivi moyen a été de… 4 ans. Implications Alors le NNT : outil magique pour juger de l’utilité ou du coût d’un traitement ? Et quel NNT choisir pour prendre une décision ? Et au terme de quel délai ?... La figure 4 illustre le fait que pour un même traitement, il peut y avoir une quantité de NNT différents selon : – le risque de base des patients : le NNT peut ainsi varier pour une période de traitement de 5 ans de 12 à 200 ; – la durée du traitement : le NNT est d’autant plus faible que la durée du traitement est prolongée. Par exemple, pour un risque de base de 15 %, le NNT avec un traitement de 5 ans sera de 200 alors qu’il ne sera que de 50 pour un traitement de 10 ans ; – l’intervalle de confiance : on constate qu’il est asymétrique et que sa valeur basse est plus proche de sa valeur moyenne que ne l’est sa valeur haute (par exemple un NNT de 68 au terme de 5 ans de traitement est associé à un intervalle de confiance à 95 % allant de 58 à 176). De ce fait, quand un NNT n’est présenté que par sa valeur moyenne, il faut toujours envisager que celle-ci a autant de probabilité d’être un tout petit peu plus faible que d’être nettement plus élevée. Figure 4. Quel NNT prendre en compte ? Il n’est donc que peu d’apport de montrer que « dans cette étude, le NNT est plus intéressant que dans une autre étude », car les NNT sont rarement comparables du fait des valeurs différentes des critères ayant permis de le calculer. Plus encore, la question de son calcul et de sa mise en avant dans les résultats d’une étude peut être posée, puisqu’en pratique, le NNT ne dépendra pas des résultats de cette étude, mais, d’une part, de l’effet clinique moyen du traitement et, d’autre part, du risque absolu de la population à laquelle ce traitement sera appliqué. Traiter en fonction du risque permet-il de garantir un bénéfice d’autant plus grand que le risque est élevé ? Partant du principe logique sous-jacent au NNT et d’un raisonnement de « bon sens », on pourrait penser que plus un patient a un risque CV élevé, plus un hypolipémiant, et a fortiori à forte dose, doit lui être proposé : c’est sous toute vraisemblance éthique, utile et coût-bénéfique. Cette opinion se heurte cependant à quelques contradictions. • La première est un fait : une des populations qui a le risque CV absolu le plus élevé (de l’ordre de 10 % d’événements CV par an) est celle des insuffisants rénaux traités par dialyse. Or, deux études, 4D et AURORA, ont démontré que, pour une raison non expliquée, les statines n’apportent aucun bénéfice CV à ces patients. Avant ces études, il était pourtant tentant d’extrapoler les données du modèle à ce type de patients, extrapolation qui faisait envisager un bénéfice majeur chez ces patients et un NNT très faible. • La deuxième est la structure de la mortalité et/ou des événements CV. Ainsi, un patient peut être évalué selon une grille de risque comme à très haut risque CV car il a, par exemple, en utilisant la grille SCORE, un risque élevé de mortalité cardiaque à 5 ans. Mais cette mortalité peut être due à un risque élevé d’AVC sur lequel un traitement essentiellement actif sur la réduction des IDM n’aura pas d’effet et donc ne permettra pas une réduction substantielle du risque CV absolu. Dans ce cas, le bénéfice attendu n’est pas proportionnel au niveau de risque calculé et le NNT peut donc être très élevé. • La troisième est d’abord un pur problème mathématique qui devient un problème éthique. Ce raisonnement ou cette logique prend en compte la taille de la population soumise au risque et ce que l’on entend par plus grand bénéfice. Reprenons l’exemple fil rouge de cet article et avec les mêmes paramètres, il est de toute évidence plus bénéfique de traiter les patients dont le risque absolu d’IDM à 5 ans est de 50 % que de traiter les patients dont le même risque n’est que de 1 %. En est-on si sûr ? Introduisons dans le modèle une nouvelle variable et supposons maintenant, dans un territoire soumis à un système de santé défini, que la population dont le risque absolu d’IDM est de 1 % à 5 ans comporte 10 000 000 de personnes et que la taille de la population dont le risque d’IDM est de 50 % à 5 ans comporte 50 000 personnes. Dans la première population en 5 ans, il surviendra au total 100 000 IDM puisque son risque absolu est de 1 % à 5 ans et dans la deuxième population, 25 000 IDM puisque son risque absolu d’IDM est de 50 % à 5 ans. Appliquer le même traitement à ces deux populations permettra, dans la première population d’éviter 30 000 IDM en 5 ans et dans la deuxième, « seulement » 7 500 IDM. En matière de santé publique, on peut donc estimer que traiter la population à plus bas risque est une méthode plus efficiente que traiter uniquement la population à très haut risque. Ce n’est pas très économique, mais cela permet d’éviter 30 000 IDM dans une population en 5 ans, soit 6 000 IDM par an. Mais, quel serait le prix à payer pour une stratégie par rapport à l’autre ? Dans la première population, éviter 30 000 IDM en 5 ans, équivaut à « économiser » 300 millions d’euros en supposant toujours que le prix de l’IDM est de 10 000 euros la première année. Et ce au prix de 180 euros (coût annuel du traitement) x 5 (durée du traitement) x 10 millions (taille de la population prise en charge) soit 9 milliards d’euros en 5 ans. Par ailleurs, traiter 10 millions de personnes, si c’est par une statine, expose à 10 à 20 cas de rhabdomyolyses, considérant que l’incidence de cet événement est de l’ordre de 1 à 2 par million de personnes traitées. Dans la deuxième population, éviter 7 500 IDM en 5 ans équivaut à « économiser » 75 millions d’euros en 5 ans. Et ce au prix d’un coût de traitement en 5 ans de 45 millions d’euros, ce qui générera donc une économie de 30 millions d’euros en 5 ans. Et ainsi, deux logiques peuvent s’opposer : une logique économique et une logique de santé publique. Comment choisir ? Qui doit choisir ? On comprend aussi, avec le même raisonnement, que si le coût évité (celui des IDM évités) reste équivalent, à efficacité clinique égale entre divers traitements, le coût de ce traitement peut considérablement modifier les résultats de ce calcul. Ainsi, supposons que le prix du traitement ne soit plus de 15 euros par mois, mais de 40 euros par mois soit 2,6 fois plus cher, traiter la première population avec ce traitement reviendrait à 4,8 milliards d’euros par an, et à 23,4 milliards en 5 ans pour éviter 30 000 IDM : le traitement pourrait ainsi, à cette aune être jugé utile, mais le coût en serait-il supportable ? Mais, plus encore, si l’efficacité du traitement est moindre et qu’il ne réduit le risque d’IDM que de 15 % au lieu de 30 % et avec un même coût de 40 euros par mois, il ne permettra d’éviter que 15 000 IDM en 5 ans, soit 1 560 000 euros l’IDM évité en 5 ans et 312 000 euros l’IDM évité par an. On comprend que le nombre de paramètres à prendre en compte pour juger du rapport coût-bénéfice d’un traitement est élevé, que plusieurs modes d’analyse des données doivent être envisagés et que, au-delà du simple raisonnement économique, en prenant en compte une variable supplémentaire, la taille de la population exposée à un risque, même faible, qui peut prétendre que traiter des patients à bas risque n’aurait pas d’utilité ? Conclusions Au travers des quelques éléments rapportés ici, et qui ne sauraient constituer un tour d’horizon complet de la question, il est possible de comprendre qu’il existe plusieurs modèles pour évaluer l’apport d’un traitement et donc pour proposer soit une AMM, soit un mode d’utilisation dans des recommandations. Plus encore on comprend qu’il est complexe de juger de l’utilité d’un traitement si l’on ne prend en compte que quelques paramètres et pas d’autres et si l’on s’arrête à des opinions. Les modèles utilisés et logiques sous-jacentes à l’utilisation de certains paramètres et à certains modèles peuvent aboutir à des conclusions différentes quant aux propositions d’utilisation et de remboursement d’un traitement et toutes ont leurs valeurs intrinsèques qui peuvent ne pas correspondre aux valeurs du praticien ou qui, devant leurs divergences peuvent rendre celui-ci perplexe. Ajoutons à cela que le patient est aussi partie prenante dans la décision et que ses valeurs doivent être prises en compte. On comprendra que la pratique du traitement des dyslipidémies repose particulièrement sur le triptyque de la médecine fondée sur les preuves : conjuguer les données acquises de la science, l’expérience du médecin et les valeurs et choix du patient. En la matière, des recommandations ne sont qu’un guide des données acquises de la science et non pas une vérité intangible et un gage d’utilité des stratégies, tout au moins dans le domaine des dyslipidémies.  

Attention, pour des raisons réglementaires ce site est réservé aux professionnels de santé.

pour voir la suite, inscrivez-vous gratuitement.

Si vous êtes déjà inscrit,
connectez vous :

Si vous n'êtes pas encore inscrit au site,
inscrivez-vous gratuitement :

Version PDF

Articles sur le même thème

  • 3 sur 95

Vidéo sur le même thème