publicité
Facebook Facebook Facebook Partager

Cardiologie générale

Publié le 15 nov 2018Lecture 21 min

Les limites des grilles d’évaluation du risque cardiovasculaire

François DIEVART, Clinique Villette, Dunkerque

« Tout rapport au risque tente, à partir de l’expérience passée, de saisir un avenir probable pour agir dans le présent. » (In Niget D et Petitclerc M. Pour une histoire du risque. Presses de l’Université de Québec 2012)
Toutes les recommandations pour la prise en charge des dyslipidémies proposent d’évaluer le risque cardiovasculaire absolu puis d’adapter la stratégie thérapeutique en fonction de la valeur de ce risque. Cependant, plusieurs travaux ont montré, directement ou indirectement, les limites des évaluations du risque cardiovasculaire absolu par un modèle, quel qu’il soit : les résultats fournis par ces différents modèles ne sont ainsi par concordants. Pourquoi ? L’objet de cet article est d’exposer certains éléments pouvant expliquer que les résultats de l’évaluation du risque par un modèle quelconque peut ne pas être exact.

Le risque absolu est le taux de survenue dans une période donnée (5, 10 ou 20 ans par exemple) d’un ou de plusieurs événements prédéfinis dans un groupe de patients. Par exemple, dire que le risque absolu d’IDM d’un patient est de 10 % à 10 ans, signifie que sa probabilité d’avoir un IDM dans les 10 ans à venir est de 1 sur 10, ou plus simplement, que sur 100 personnes comme ce patient, 10 auront un IDM dans les 10 ans à venir. Cela veut aussi dire que 90 patients qui sont comme ce patient n’auront pas d’IDM. Toutefois, cela ne dit pas que ce patient aura ou non un IDM, ni quand il l’aura s’il doit l’avoir. Cela classe le patient dans une catégorie de risque, que, sur un plan normatif on évalue comme plus ou moins élevé. Cette notion a plusieurs intérêts parmi lesquels certains seront exposés ci-après. Un des premiers intérêts est de rendre compte de l’utilité éthique des traitements, c’est-à-dire de veiller à ce que les patients ayant le risque absolu le plus élevé reçoivent bien les traitements permettant de réduire leur risque. Un corollaire est que plus le risque est élevé, plus la prise en charge doit être importante afin de tenter de diminuer le plus possible le risque. À la notion d’utilité, on peut associer celle de l’intérêt économique du traitement : le coût du traitement pour la solidarité nationale peut ainsi être d’autant plus faible en matière de rapport coût-bénéfice que le risque est élevé. Un autre intérêt est de rendre compte de l’utilité scientifique du traitement. En effet, les principaux traitements du risque CV disponibles ont été évalués chez des patients jugés à risque CV élevé et, chez ce type de patients, la preuve du bénéfice clinique existe le plus souvent, alors qu’elle est moins affirmée chez les patients de moindre risque faute d’évaluation spécifique. Ainsi, en traitant les patients de risque le plus élevé, on augmente la garantie potentielle que le traitement apportera un bénéfice clinique. La notion consistant à traiter les patients proportionnellement au niveau de risque est ainsi devenue une donnée admise et peu remise en cause, à tel point que l’interrogation sur l’évaluation du niveau de risque est presque une donnée accessoire, alors qu’elle pose des problèmes qu’une littérature et une recherche riches sur le sujet n’ont pas encore permis de résoudre. Les différents types de risque cardiovasculaire • Le risque absolu ou risque global : c’est la probabilité de survenue d’un événement cardiovasculaire sur une période de temps donnée (5 ans, 10 ans, etc.). • Le risque relatif : c’est la probabilité de survenue d’un événement cardiovasculaire chez un sujet ayant un ou plusieurs marqueurs de risque rapporté à la probabilité de survenue de ce même événement en l’absence de ces marqueurs de risque. • Le risque vie entière : c’est la probabilité de survenue d’un événement cardiovasculaire estimé sur l’ensemble des années restant à vivre. Élaboration d’une grille de risque et enrichissement éventuel de celle-ci Lorsqu’il a pu être démontré que certains paramètres sont corrélés à une plus ou moins grande probabilité de développer une maladie définie, il a été tentant de construire des modèles prédictifs de survenue de cette maladie, afin de juger si une personne ou une population, est plus ou moins à risque de la développer. La notion de prédiction du risque est très ancienne et n’a initialement pas été créée pour un usage médical. Les chercheurs la font apparaître au Moyen Âge et se développer avec l’émergence du calcul des probabilités (dernier tiers du XVIIe siècle) et la pratique de l’assurance. De la différence entre danger, aléa et risque • On parle de danger lorsque la probabilité d’occurrence d’un événement et ses conséquences sont importantes. • On parle d’aléa lorsque la probabilité d’occurrence d’un événement est imprévisible. • On parle de risque lorsque la probabilité d’occurrence d’un événement n’est pas nulle. En médecine cardiovasculaire, si l’on fait abstraction des connaissances développées dès le début du XXe siècle par les assureurs, la notion de facteur de risque et de possibilité de prédire le risque cardiovasculaire émerge avec l’étude de Framingham (débutée en septembre 1948) et une publication princeps issue de cette étude par William Kannel en 1961. Ayant établi par cette étude prospective que certains paramètres sont corrélés à une plus grande probabilité de développer un événement CV majeur, il a envisagé de construire un modèle de prédiction statistique du risque de maladie CV à partir des critères les plus discriminants identifiés dans cette étude. Ainsi, pour construire une grille de risque, il faut mesurer des paramètres prédéfinis dans une population à un instant t, suivre ensuite cette population plusieurs années pendant lesquelles est mesurée l’incidence d’événements cliniques CV prédéfinis, évaluer s’il y a une corrélation entre les paramètres mesurés initialement et la survenue de l’événement, établir la force de la relation et utiliser des modèles statistiques conjuguant divers paramètres corrélés au risque pour tenter d’obtenir une prédiction du risque la plus précise possible. Une grille de risque est donc construite a posteriori et justifie d’être ensuite validée prospectivement dans une cohorte différente de celle ayant servi à l’élaborer. Pourquoi associer plusieurs critères plutôt qu’un seul ? Pour améliorer la prédiction. Ainsi, par exemple, l’âge est un marqueur majeur du risque mais, à âge égal, le risque peut être très différent en fonction de la valeur de certains autres paramètres comme par exemple la pression artérielle. Ainsi, par exemple, dans l’absolu, un patient de 70 ans à un risque de décès par AVC plus élevé qu’un patient de 50 ans. Si ces deux patients ont tous les deux une pression artérielle systolique (PAS) à 120 mmHg, il est même possible d’établir que le risque de décès par AVC du patient de 70 ans est 16 fois plus important que celui du patient de 50 ans. Mais, si le patient de 50 ans a une PAS à 180 mmHg, le risque de décès par AVC de ce patient devient équivalent à celui du patient de 70 ans qui a une PAS à 120 mmHg (figure 1). Ainsi, un seul paramètre, en l’occurrence ici, l’âge, manque de précision pour prédire le risque CV. Figure 1. Taux de mortalité par AVC par décennie d’âge en fonction de la pression artérielle systolique au début de la décennie d’observation. Dès lors que plusieurs critères sont pris en compte, la précision de l’estimation peut et doit augmenter mais il convient aussi que chacun de ces critères n’ait pas une corrélation avec le risque qui varie en fonction d’un des autres critères pris en compte. Si l’on a établi une grille de risque et que l’on pense pouvoir en améliorer la précision en ajoutant un nouveau critère dans cette grille, il existe des moyens pour évaluer si cela paraît utile ou non et dont le principe revient à juger si l’ajout de ce critère modifie de façon significative et utile la prédiction du risque. Enfin, une fois que des marqueurs de risque ont été identifiés, il est possible de choisir entre deux grands principes pour évaluer le risque : avoir recours à un modèle ou algorithme prédictif ou faire une sommation de quelques marqueurs de risque parmi les plus discriminants. C’est sur ce deuxième principe que reposaient les recommandations françaises de 2005 pour l’évaluation du risque et elles reposent depuis 2017 sur le premier principe, préconisant l’utilisation de la grille de risque SCORE. Les différentes grilles de risque ne fournissent pas des résultats concordants Comme on l’a vu dans l’article précédent, en appliquant trois modèles d’estimation du risque CV dans une même population, celle de l’étude JUPITER, composée de plus de 17 000 patients, il est possible d’arriver à des résultats « étonnamment » divergents. Ainsi, seront classés à haut risque CV dans cette population 8,8 % des patients si l’on utilise la grille de Framingham, 25 % de cette population si l’on utilise le moyen préconisé par la HAS en 2005 consistant en une sommation de marqueurs de risque et 52,3 % de cette population si l’on utilise la grille de risque SCORE. En 2009, paraissait dans le Journal of American College of Cardology un article important sur le sujet car rapportant les éléments essentiels à prendre en compte dans l’évaluation du risque au moyen d’une grille de risque (J Am Coll Cardiol 2009 ; 54 : 1 209-27). Dans ce travail, figure un tableau montrant les écarts de risque prédits et observés avec la grille de risque de Framingham lorsqu’elle est appliquée à diverses cohortes européennes (figure 2). Il est alors constaté que cette méthode surestime le risque dans les pays à bas risque CV mais sous-estime le risque dans les pays à haut risque CV : si l’on regarde l’écart de prédiction du risque selon les cohortes, il est possible de constater qu’il varie d’un facteur allant de 1 à 6. Figure 2. Prédiction du risque selon la grille de Framingham et risque observé dans plusieurs cohortes européennes. Pourquoi des discordances ? Les facteurs ou marqueurs de risque sont, par définition et observation, universels. De ce fait, en les associant dans des grilles afin de prédire le risque, le résultat prédit par une grille de risque devrait intuitivement être le même dans toutes les populations. Or ce n’est pas le cas. Il y a de nombreuses raisons possibles pour lesquelles la prédiction du risque peut ne pas être exacte, quel que soit le critère que l’on prend pour la qualifier d’exacte. Cela va de considérations purement méthodologiques faisant appel à des outils de calcul de probabilité divers et plus ou moins sophistiqués à des raisons plus prosaïques et ce seront quelques-unes de ces dernières qui seront exposées dans les lignes qui suivent. Définition normative des niveaux de risque Il y a une différence substantielle entre montrer que des grilles de risque sont discordantes parce que dans un cas elles évaluent des taux très différents de patients à haut risque selon la grille utilisée et dans une même population et que dans l’autre cas, elles fournissent des valeurs absolues de risque différentes d’une grille à l’autre dans une même population. La qualification normative, c’est-à-dire l’établissement de catégories de risque relevant du seul jugement, pose quelques problèmes. Le processus normatif vise à attribuer une qualification de risque à des valeurs de risque absolu : il transforme donc une variable continue en variable de catégorie. Ainsi, dans la grille de Framingham, le haut risque correspond à un risque d’événements CV d’au moins 20 % à 10 ans et dans la grille SCORE, le haut risque correspond à un risque de décès cardiaque d’au moins 5 % à 10 ans. On peut comprendre qu’il puisse ne pas y avoir de concordance entre ces deux appréciations du haut risque et qu’un haut risque évalué par la grille SCORE correspond peut-être à un risque d’événements supérieur à 25 % à 10 ans dans la grille Framingham par exemple. Mais, la qualification d’un niveau de risque pose un autre problème intéressant lorsque l’on tente de comparer les événements pris en compte dans SCORE (mortalité cardiaque) et dans Framingham (risque d’événements CV fatals ou non). Dans la gestion des risques industriels, les spécialistes du risque utilisent le terme de criticité pour qualifier un risque. Ce processus de qualification ou catégorisation du risque prend en compte deux facteurs : la fréquence (risque très improbable, risque improbable ou rare, risque probable ou occasionnel et risque très probable ou fréquent) et la gravité (faible, moyenne, grave et très grave) de l’événement pouvant survenir. Ainsi, avec ce type d’appréciation, ce qui est défini par haut risque dans SCORE ne correspond pas à ce qui est défini par haut risque dans Framingham. Dans SCORE, il est possible de considérer que ce sont les événements très graves exclusivement qui sont pris en compte alors que dans Framingham, ce peut être un événement de faible conséquence mais aussi un événement très grave qui est pris en compte, puisque le critère haut risque est appliqué au- delà d’une valeur seuil qui est un taux absolu calculé par l’équation de risque, indépendamment de la gravité de l’événement pris en compte. Un autre critère a son importance selon qu’une grille a été faite pour prédire la probabilité d’un seul événement (par exemple le risque d’IDM, qu’il soit fatal ou non) ou plusieurs événements (par exemple le risque de décès CV et/ou d’IDM et/ou d’AVC). Or, la structure de ces événements est variable avec l’âge. Un patient jeune est plus à risque d’IDM que d’AVC, faisant qu’il doit potentiellement en cas de risque global élevé préférentiellement justifier d’une statine. Un patient nettement plus âgé a un risque d’AVC équivalent ou plus souvent supérieur a un risque d’IDM, faisant qu’il doit potentiellement en cas de risque global élevé préférentiellement justifier d’un traitement antihypertenseur. Et ainsi, établir grâce à une grille de risque qu’un patient est globalement à haut risque d’événements CV peut ne pas être discriminant quant à indiquer la prise en charge la mieux adaptée. Les grilles sont spécifiques à leurs populations sources Il est admis que la valeur d’une grille de risque est spécifique à la population de laquelle elle est issue et que chaque population a ses spécificités : ainsi, à niveau de cholestérol équivalent, un Français a un risque d’IDM moindre qu’un Nord-Américain par exemple, c’est ce qui a été dénommé le paradoxe français. De ce fait, les équations de risque doivent être recalibrées pour les différentes populations dans lesquelles elles vont servir, si celles-ci sont différentes de la population source, c’est-à-dire de la population qui a servi à la construire. Et ainsi, il est proposé de recalibrer les grilles de risque en fonction des données épidémiologiques de la population dans laquelle elles seront appliquées. Recalibrer consiste à appliquer un coefficient correcteur au résultat obtenu afin que le risque prédit par la grille corresponde au risque observé. Pour cela, il faut donc disposer de données épidémiologiques à la fois récentes et régulièrement remises à jour puisque la situation épidémiologique évolue constamment. Un travail de recalibration de la grille de Framingham a été effectué dans la population chinoise, et il est instructif à analyser pour observer les avantages et limites potentielles de cette méthode (figure 3). Ainsi, en Chine, avant recalibration, l’équation de Framingham surestime systématiquement le risque CV tant chez l’homme que chez la femme et le surestime d’autant plus que le risque de base est élevé. On le constate en comparant le risque prédit (colonnes blanches) et le risque observé (colonnes noires) dans les graphiques du haut de la figure 3. Après recalibration (graphiques du bas de la figure 3), l’écart entre ce qui est prédit et ce qui est observé est moins important, l’équation d’évaluation du risque a donc gagné en précision. Mais, d’une part, un écart persiste entre le risque prédit et le risque observé, et, d’autre part, cet écart devient aléatoire suivant les niveaux de risque : ainsi, le risque prédit est parfois supérieur au risque observé et parfois inférieur. Figure 3. Risque CV prédit (colonnes blanches) par l’équation de Framingham et risque CV observé (colonnes noires) chez les hommes (graphiques de gauche) et chez les femmes (graphiques de droite) dans la population chinoise, avant (graphiques du haut) et après (graphiques du bas) calibration. L’évolution épidémiologique : un élément majeur Si le problème de la recalibration ne peut être détaché de celui de la différence existant entre une population source et une population différente et dans laquelle une grille de risque sera appliqué, il ne peut non plus et surtout ne pas être détaché de l’évolution épidémiologique. Ainsi, en y réfléchissant, par son mode d’élaboration, une grille de risque ne peut tendre qu’à se tromper. En effet, pour l’élaborer, on mesure des paramètres à un instant t (exemple : dernières années de la décennie 1940), on mesure des événements jusqu’à un instant u (exemple dernières années de la décennie 1950 et premières années de la décennie 1960), on élabore la grille jusqu’à un instant v (mitan des années 1960) et on l’applique à un patient ou une population à un instant w (aujourd’hui) pour tenter de prédire les événements qui pourraient survenir à un instant x (dans 10 ans). Plus la durée entre t et x sera importante plus la possibilité que la grille soit mise en défaut est probablement grande car l’incidence des événements dans la population aura potentiellement nettement changé entre t ou u et w ou x et possiblement différemment suivant les classes d’âge et le sexe, et suivant les poids respectifs des marqueurs de risque. Deux données peuvent illustrer l’importance de l’évolution épidémiologique. La première montre l’évolution en 50 ans de la mortalité coronaire ajustée à l’âge dans divers pays du monde (figure 4, données issues de l’article du JACC de 2009 cité plus haut). Si l’on compare les différents pays pris en compte, il est possible de constater que la mortalité coronaire : – a presque doublé entre 1950 et 1970 en Finlande et qu’ensuite elle a été divisée par plus de 8 entre 1970 et 2000 ; – a presque doublé entre 1990 et 2000 en Ukraine ; – a presque doublé entre 1950 et 1970 en France pour rester stable jusqu’en 1980 puis diminuer de moitié entre 1980 et 2000 ; – que malgré ces évolutions très contrastées les taux sont très différents selon les pays variant de 1 à plus de 400 en 1970 entre le Japon et la Finlande pour ne plus être entre ces deux pays différents d’un facteur 1 à 3 en 2000. Figure 4. Évolution en 50 ans de la mortalité coronaire ajustée à l’âge dans divers pays du monde. Comment, avec des variations et des différences de ces ampleurs, peut-on penser que la prédiction du risque puisse être fiable ? Une autre donnée marquante dans ce domaine a été publiée dans le JAMA en 2005 (JAMA 2005 ; 294 : 1 255-9). Elle montre l’évolution de l’incidence (en taux pour 100 000, figure 5) et de la prévalence (figure 6) de la mortalité coronaire en fonction de la décennie d’âge aux États-Unis de 1970 à 2000. La figure 5 concernant l’incidence montre que, quelle que soit la décennie d’âge depuis un âge compris entre 40-49 ans et situé au-delà de 80 ans, le risque de décéder d’un IDM a continuellement diminué au fil du temps. En revanche, pour l’anecdote (figure 6), comme la population s’est accrue dans la même période, et notamment et surtout la population âgée, la prévalence de la mortalité coronaire n’a pas suivi la même évolution. Figure 5. Évolution de l’incidence (en taux pour 100 000) de la mortalité coronaire en fonction de la décennie d’âge aux États-Unis de 1970 à 2000 (JAMA 2005 ; 294 : 1 255-9). Figure 6. Évolution de la prévalence de la mortalité coronaire en fonction de la décennie d’âge aux États-Unis de 1970 à 2000. (JAMA 2005 ; 294 : 1 255-9). En d’autres termes, les cardiologues observeront de plus en plus d’IDM chez les sujets âgés, non pas parce que l’incidence a augmenté dans ces tranches d’âge, mais parce que le nombre de patients de ces tranches d’âge a augmenté beaucoup plus vite que l’incidence des IDM ne diminuait. Un autre élément permet aussi d’illustrer la difficulté à ce qu’un risque prédit par une grille de risque soit fiable. Si l’on considère, dans la même étude du JAMA de 2005, l’incidence (en taux pour 100 000) de la mortalité par cancer dans la population américaine par tranche de décennie d’âge entre 1970 et 2000, et que l’on veut évaluer le risque de décéder par cancer au moyen d’une grille d’estimation de ce risque spécifique, la figure 7 illustre, à la fois la différence d’évolution entre la mortalité coronaire (en la comparant à la figure 5) et la mortalité par cancer dans une même période et dans une même population et le fait que l’évolution peut être différente au fil du temps : dans la plupart des classes d’âge, sauf chez les plus jeunes où elle diminue continuellement, l’incidence de la mortalité par cancer augmente entre 1970 et le début des années 1990 pour diminuer nettement ensuite. Figure 7. Évolution de l’incidence (en taux pour 100 000) de la mortalité par cancer en fonction de la décennie d’âge aux États-Unis de 1970 à 2000. (JAMA 2005 ; 294 : 1 255-9). La construction de la grille de risque SCORE ne peut aussi qu’exposer à des erreurs de prédiction du risque. Afin de fournir un outil adapté à la population européenne elle a associé les données de 12 études prospectives conduites dans 11 pays d’Europe entre 1972 et 1991 et ayant regroupé un total de 117 098 hommes et 88 080 femmes. Les études utilisées ont été disparates quant aux critères pris en compte, marqueurs et événements évalués, quant à la définition de ces critères faisant qu’il n’a pas été possible d’inclure le diabète dans les critères pris en compte, de même que l’IDM ou l’AVC, ce qui explique le choix de prendre la mortalité cardiaque comme élément de jugement, ce critère pouvant être jugé de définition à peu près homogène dans les diverses études. Même si cette grille est recalibrée nationalement et régulièrement (avec les limites de ce type de méthode) et même si elle a subi un processus de validation externe dans diverses cohortes avec un résultat acceptable, elle a les limites de l’ancienneté et d’une grande hétérogénéité des études et populations prises en compte, et aussi d’avoir été élaborée rétrospectivement. Puissance parfois trop faible Il y a un autre élément qui peut expliquer qu’une grille d’évaluation du risque CV puisse donner des résultats différents des risques réels (différence entre risque prédit et risque réel), c’est la puissance parfois trop faible de l’étude initiale. L’exemple typique est fourni par la prise en compte du HDL-C. Dans l’étude de Framingham, le HDL-C a été validé comme marqueur puissant et inverse du risque CV à partir d’une étude ayant compris 2 815 patients ayant totalisé 142 événements coronaires. Et, lorsqu’en 2015, les résultats de l’étude CANHEART portant sur plus de 600 000 patients ont été disponibles, il a été possible de constater que la relation entre HDL-C et risque CV n’est pas linéaire alors que cette relation est apparue strictement linéaire dans l’étude de Framingham et ce, par manque de puissance, c’est-à-dire par manque de précision. De ce fait, on peut penser que chez des patients ayant un HDL-C très élevé et donc un risque CV aussi très élevé, l’utilisation de la grille de Framingham minimise nettement le risque et fait passer le patient évalué d’une catégorie de risque à une catégorie inférieure. Prise en compte de paramètres différents, de poids respectifs différents et d’interactions différentes Les équations de risque peuvent aussi aboutir à des résultats différents parce qu’elles prennent en compte des paramètres différents qu’elles pondèrent différemment dans leurs équations, et cette pondération peut être fiable pour une population mais pas pour une autre du fait des contrastes de situation épidémiologique (figure 4). Le poids d’un marqueur de risque peut varier en fonction de son interaction avec un autre marqueur et cette variation pourrait être différente dans différentes populations. Pour comprendre l’interaction entre deux marqueurs, reprenons les données de la figure 1 qui ne comptent que deux marqueurs, l’âge et la PAS et un seul événement, la mortalité par AVC. Il est ainsi possible de constater : – qu’une même variation de PAS, passant de 120 mmHg à 180 mmHg multiplie le risque d’AVC par 16 chez un sujet âgé de 50 à 59 ans mais seulement par 2 chez un sujet de plus de 80 ans ; – et inversement, à PAS équivalente l’effet de l’âge sur le risque d’AVC n’est pas le même. Ainsi, pour une PAS de 120 mmHg un sujet de 80 ans a 64 fois plus de risque d’AVC qu’un sujet âgé de 50 à 59 ans, mais pour une PAS de 180 mmHg, le sujet de plus de 80 ans a un risque d’AVC qui n’est que 4 fois supérieur à celui du sujet âgé de 50 à 59 ans. Un autre exemple flagrant est qu’il est demandé dans l’évaluation du risque de prendre en compte l’hérédité cardiovasculaire, mais sans préciser qu’il faut pondérer ce facteur en fonction de l’âge du patient. En effet, le poids de ce facteur dans le risque d’un patient donné diminue nettement avec l’âge pouvant contribuer à multiplier par 4 le risque CV absolu d’un patient de 30 ans mais n’augmenter que de 10 % le risque CV absolue d’un patient de 70 ans. On conçoit ainsi que, plus on ajoute de paramètres dont les poids respectifs sont différents en fonction de la valeur de l’un et l’autre, plus il devient difficile de construire des équations de risque d’une grande précision. Enfin, il y a aussi des différences dans la façon de prendre en compte certains paramètres, consistant à transformer des variables continues (par exemple : la pression artérielle, le cholestérol total, la glycémie) en variable de catégorie (par exemple : hypertendu ou non hypercholestérolémique ou non, diabétique ou non). La figure 8 concernant l’exemple du diabète illustre cette notion. Elle montre qu’à partir d’une glycémie à jeun à 5 mmol/l (0,9 g/l), il existe un risque graduel et linéaire de décès cardiovasculaire et ainsi, par exemple, pour une glycémie à jeun de 7,5 mmol/l (1,35 g/l) le risque de décès CV est multiplié par 1,7 par rapport à une valeur de 5 mmol/l, mais si ce patient avait été d’emblée qualifié de diabétique en place de prendre en compte le risque associé à la glycémie, son risque de décès CV aurait été quantifié comme 2,3 fois supérieur à celui d’un non diabétique. Et donc le poids du facteur peut varier de quasi- ment 30 % en fonction de son mode de prise en compte. Figure 8. Relation entre la glycémie à jeun et le risque de décès de cause cardiovasculaire (N Engl J Med 2011 ; 364 : 829-41). Alors, que faire ? Comment concilier la prise de conscience des limites de l’évaluation du risque et une pratique de prise en charge qui semble devoir être fonction du risque individuel et non populationnel ? Il y a plusieurs possibilités, dont on peut penser que, même si elles ne sont pas en accord avec les recommandations, elles ont des avantages et limites respectives. • Une première pourrait consister à adopter une stratégie populationnelle telle qu’elle a été décrite par Geoffrey Rose : traiter tout le monde un peu plus tôt que seulement quelques-uns beaucoup. Il serait alors potentiellement possible de se passer d’utiliser une grille de risque. Le modèle développé par G. Rose était qu’en abaissant même un peu la pression artérielle et le cholestérol dans l’ensemble de la population, le bénéfice pour l’ensemble de cette population en nombre absolu d’événements évités devrait être considérable. C’est aussi un des principes sur lequel repose l’utilisation d’une polypill. G. Rose avait ainsi fait remarquer qu’une stratégie de prise en charge reposant sur le très haut risque uniquement devrait conduire à rendre la ceinture de sécurité obligatoire uniquement chez les conducteurs à très haut risque d’accident. Mais comme, d’une part, les modèles prédictifs sont imparfaits et que surtout, d’autre part, en nombre absolu, il y a plus de mort par accident de la route chez les bons conducteurs que chez les mauvais conducteurs, et ce, tout simplement parce que même si leur risque est faible, les bons conducteurs sont nettement plus nombreux que les mauvais conducteurs, la ceinture de sécurité doit être obligatoire chez tous les conducteurs. Mais ceci n’empêche pas d’adopter des mesures spécifiques chez les patients jugés très mauvais conducteurs en sus, et revient donc à évaluer le risque. • Une deuxième possibilité consiste à utiliser un moyen d’évaluation du risque quel qu’il soit parmi ceux proposés, en sachant qu’il a des limites de fiabilité, mais qu’y recourir est pratique. • Une troisième possibilité est d’évaluer le risque sur des éléments simples (âge, tabagisme, diabète, paramètres lipidiques, pression artérielle, antécédent familiaux) et agir en fonction de ceux-ci dans une approche intuitive et c’est d’ailleurs ce que font la plupart des médecins. En effet, si le patient a 50 ans, est fumeur et diabétique, ai-je besoin pour tenter de diminuer son risque CV de savoir si son risque d’IDM à 10 ans est plutôt de 12, 18, 22 ou 30 % ? • Une quatrième possibilité consiste à utiliser une équation de risque, en prenant en compte non pas le risque absolu, mais le risque relatif, c’est-à-dire l’augmentation éventuelle du risque qu’a le patient évalué par rapport au risque idéal pour l’âge, c’est-à-dire si tous les marqueurs de risque étaient dans la position la plus favorable. Il faut alors déterminer quelle augmentation relative du risque doit être prise en charge en sachant que plus le patient sera jeune plus cette augmentation relative devra être importante. Par exemple, il serait possible de considérer qu’un patient de 30 ans dont le risque CV absolu est faible mais est 2 fois supérieur à celui de son âge doit être pris en charge intensivement alors que l’augmentation relative du risque à prendre en compte pourrait n’être qu’une valeur de 30 ou 20 % au-delà de 50 ans. Il y a probablement encore de nombreuses autres possibilités et nul doute que beaucoup ont leurs recettes et que l’homogénéisation des pratiques n’est pas encore à l’ordre du jour. Et donc, comme on le voit, prendre en compte un problème, l’évaluation du risque, prendre en compte ses déterminants et limites, rend compte qu’il ne peut y avoir de solutions simples, fiables et validées pour la prise en charge du risque cardiovasculaire en prévention primaire.

Attention, pour des raisons réglementaires ce site est réservé aux professionnels de santé.

pour voir la suite, inscrivez-vous gratuitement.

Si vous êtes déjà inscrit,
connectez vous :

Si vous n'êtes pas encore inscrit au site,
inscrivez-vous gratuitement :

Version PDF

Articles sur le même thème

Vidéo sur le même thème