Le mathématicien Ismar Volić propose d’analyser et de perfectionner le fonctionnement démocratique des États-Unis au moyen d’une formalisation mathématique.
Le mathématicien Ismar Volić propose d’analyser et de perfectionner le fonctionnement démocratique des États-Unis au moyen d’une formalisation mathématique.
Le fédéralisme et l’histoire nationale des États-Unis font de l’organisation démocratique du pays un sujet de recherche riche d’enseignements pour les tenants de l’étude mathématique du fait politique. Les idéaux d’égale considération de tous les citoyens et d’équité au sein de procédures destinées à exprimer le vœu majoritaire sont centraux pour le régime politique étasunien et se prêtent particulièrement bien à la mise en équation. Ils guident le choix du type de scrutin utilisé pour les élections, la méthode de répartition des sièges entre les différents États fédérés [1] ou les règles organisant le découpage électoral en circonscriptions. Selon le mathématicien Ismar Volić, ces trois procédures, au cœur du fonctionnement démocratique étasunien, gagnent à être analysées par le biais d’une formalisation mathématique.
Dans Making Democracy Count, I. Volić évalue la pertinence des choix historiquement opérés pour décider de la forme de chacune de ces procédures, en présentant au lecteur les rudiments de théorie du choix social nécessaires pour aborder ces questions [2], puis propose une série de réformes destinées à pallier les défauts du système électoral en vigueur aux États-Unis. Pour cela, il utilise des exemples simplifiés et des études de cas historiques qui illustrent certains travers ou paradoxes inhérents à chacune de ces trois procédures, et permettent de rendre compte de l’utilité de la formalisation de critères destinés à détecter des situations jugées non-souhaitables.
L’auteur propose d’abord une introduction synthétique à la théorie du choix social, qui rend compte des qualités et défauts des différents modes de scrutin selon leur aptitude à identifier la préférence majoritaire d’un collectif d’individus traités équitablement.
Ce travail théorique conduit ensuite I. Volić à proposer une réforme électorale en faveur du vote à second tour instantané, également appelé vote alternatif (instant runoff) et à critiquer le scrutin uninominal majoritaire à un tour, qui mène aujourd’hui à l’élection de la grande majorité des représentants aux États-Unis [3]. Lors d’un vote alternatif, l’électeur classe sur son bulletin de vote les candidats selon ses préférences. Au premier tour, seul le choix préféré par chaque électeur compte : si un candidat obtient la majorité absolue, il est élu ; sinon, le dernier candidat à l’issue de ce tour est éliminé, et les votes qui s’étaient portés sur ce candidat sont redistribués aux candidats restants au tour suivant selon l’ordre annoncé sur chaque bulletin de vote. La procédure d’élimination du candidat le moins bien classé et de redistribution des votes se répète jusqu’à ce qu’un candidat soit élu à la majorité absolue.
La légitimité démocratique du scrutin uninominal majoritaire à un tour est minée par quatre de ses propriétés : (1) sa vulnérabilité à la dispersion des voix, ou vote splitting (situation où un groupe d’électeurs partage ses voix entre deux candidats relativement proches, permettant à un troisième candidat de gagner l’élection) ; (2) sa sensibilité au spoiler effect (retirer un candidat perdant de l’élection modifierait le vainqueur de l’élection si elle était rejouée) ; (3) sa tendance empirique à favoriser un système bipartisan (appelée Loi de Duverger) ; (4) sa disposition à décourager la diversité des candidats et des idées (p. 31). Les deux premières caractéristiques incitent les électeurs à voter tactiquement (pour un candidat différent de celui qu’ils préfèrent) ; les deux dernières structurent un système bipartisan où sont menées des campagnes dirigées contre l’adversaire plutôt qu’en faveur des idées du parti. L’auteur remarque que si le vote alternatif n’élimine formellement ni le spoiler effect ni la possibilité de vote splitting, en pratique, les élections où ce mode de scrutin est en vigueur sont moins sujettes à ces quatre travers.
C’est l’occasion pour l’auteur de présenter différents scrutins qui font concurrence à ceux que l’on utilise le plus couramment : des méthodes de classement, comme la méthode Borda [4] ou le scrutin de Condorcet [5], mais aussi des méthodes évaluatives comme le vote par points, où l’électeur distribue n points entre les candidats et peut par conséquent révéler l’intensité de ses préférences. Chacun de ces modes de scrutin satisfait – ou échoue à satisfaire – un ensemble de propriétés qui garantissent que la décision majoritaire tient compte de la même façon des préférences de chacun. L’auteur nomme ces propriétés « axiomes de la démocratie » (« axioms of democracy », p. 100). Ces axiomes formalisent des « critères évidents » (« self-evident criteria », p. 101) pour un démocrate, et donnent un cadre à l’étude mathématique des choix collectifs. Les six critères formulés sont :
– L’anonymat : si deux votants échangent leurs bulletins, le résultat ne change pas.
– La neutralité : si A est le vainqueur, que tous les électeurs de A votent B, et que tous les électeurs de B votent A, B est désormais le vainqueur.
– La monotonie : le vainqueur ne peut pas devenir perdant en gagnant des voix.
– La majorité : quand une majorité de votants a placé un candidat en premier choix de leur vote, celui-ci doit gagner l’élection.
– Le critère de Condorcet : quand une élection a un vainqueur de Condorcet (candidat préféré à n’importe quel autre en cas de duel), celui-ci est le vainqueur de l’élection.
L’indépendance des alternatives non pertinentes : l’introduction d’une nouvelle option ou le retrait d’une option existante dans une situation où A est collectivement préféré à B ne peut pas mener à une situation où B est préféré à A.
Par exemple, la méthode Borda a été historiquement critiquée en ce qu’elle échoue à satisfaire le critère de Condorcet : un candidat peut y être préféré à chacun de ses adversaires, et être pourtant déclaré perdant [6].
Comprendre ces théorèmes évite d’en exagérer la portée. D’une part, le théorème d’impossibilité d’Arrow ne démontre pas l’irrationalité de la démocratie en son sens usuel : il prouve simplement qu’un ensemble défini de propriétés qu’on aimerait voir satisfaites lorsqu’on choisit un mode de scrutin ne peut pas être garanti a priori : selon K. Arrow lui-même, « la plupart des systèmes ne vont pas dysfonctionner tout le temps. Tout ce que j’ai montré, c’est qu’ils peuvent tous dysfonctionner de temps en temps » (« most systems are not going to work badly all of the time. All I proved is that all can work badly at times », cité par l’auteur, p. 109). D’autre part, les preuves empiriques dont nous disposons concernant les méthodes de classement, et en particulier le vote alternatif, sont encourageantes : la structuration réelle de l’offre politique dans les démocraties étudiées rend improbables les classements qui provoqueraient l’apparition de cycles ou les situations où l’un des critères proposés serait remis en cause par le résultat de l’élection.
En matière de représentation politique, deux mécanismes censés assurer le traitement équitable des électeurs sont étudiés : l’allocation d’un nombre de sièges à la Chambre des représentants relatif à la population de chaque État (apportionment), et le redécoupage électoral qui détermine au sein de chaque État les circonscriptions électorales après chaque recensement.
Dès l’indépendance des États-Unis, un débat mathématico-politique concernant le choix de la méthode d’allocation des sièges eut lieu entre Alexander Hamilton et Thomas Jefferson autour de la question suivante : lorsque les populations [8] des États fédérés sont quantitativement différentes et le nombre de députés fixé, comment attribuer à chaque État un nombre de représentants le plus proportionnellement possible relativement à sa population ? Choisir une méthode favorable à certains États menacerait la stabilité de l’Union, en rompant l’équilibre établi par le Grand Compromis de 1787, qui combinait une représentation égale de chaque État au Sénat, conformément au souhait des moins peuplés, avec une représentation proportionnelle à leur population à la Chambre des représentants, demandée par les plus peuplés. I. Volić retrace l’histoire des controverses ayant conduit à adopter puis rejeter certaines méthodes du fait des écarts de représentativité qu’elles introduisaient au bénéfice de certains États, et montre comment se sont constitués en contrepoint des critères formels permettant de juger de l’équité d’une méthode de répartition des sièges. Après avoir pris acte du théorème d’impossibilité de Young-Balinski [9], qui démontre qu’une procédure d’allocation des sièges conforme aux principes d’équité historiquement identifiés n’existe pas, l’auteur se prononce finalement en faveur de la méthode de Webster. Inventée en 1842, cette règle d’attribution évite empiriquement les écueils des méthodes favorisant par construction les plus petits États ou les États les plus peuplés. Pour ce faire, elle modifie la manière de calculer les quotients utilisés pour répartir les sièges en utilisant la série des diviseurs impairs (1, 3, 5, 7, etc.) dans l’opération de répartition des sièges. Cela lui permet en général de reproduire quasi parfaitement la proportionnalité souhaitée entre nombre de sièges attribués et nombre d’habitants par États, sans être a priori favorable aux États les plus peuplés ou aux États les moins peuplés.
L’analyse du découpage électoral partisan (gerrymandering) est l’occasion d’une rencontre entre outils mathématiques et lois ambiguës : la constitution de l’Idaho, par exemple, interdit les districts « bizarrement formés » (« oddly shaped », p. 231). Dans ces cas-là, un arsenal mathématique diversifié est employé pour juger de la légalité d’un plan de découpage : la comparaison entre le nombre moyen de sièges qu’obtiendrait chacun des partis pour un même nombre de votes, le décompte des proportions de « votes perdus » par parti [10] sur l’ensemble de l’État, ou encore l’étude du rapport géométrique entre le périmètre et la surface du district électoral, peuvent être autant d’indices d’un découpage illégal. Après avoir évalué les qualités et les limites de chacune de ces méthodes, l’auteur prend parti pour les approches computationnelles récentes qui génèrent et échantillonnent un ensemble immense de cartes légalement possibles avant d’en calculer les résultats respectifs auxquels sont ensuite comparés les résultats empiriques de l’élection, ce qui permet d’évaluer la probabilité qu’un biais intentionnel ait été introduit dans la carte actuellement en vigueur. Pour limiter le problème du gerrymandering, I. Volić appelle à généraliser l’usage de commissions indépendantes chargées d’organiser le découpage électoral, de façon à éviter que l’option retenue ne soit motivée par des considérations partisanes.
En réponse aux défauts inhérents aux procédures d’allocation des sièges et de découpage électoral, l’auteur plaide pour une réforme introduisant une forme de représentation proportionnelle par le moyen de circonscriptions plurinominales, où plusieurs représentants sont élus sur un même territoire. I. Volić propose dix arguments en faveur de la proportionnelle, qui vont de la meilleure représentation des communautés d’intérêt – une simulation de l’organisme FairVote citée par l’auteur estime que le nombre de représentants afro-américains augmenterait de 25% avec le dispositif de représentation proportionnelle proposé – à la plus grande proportion de femmes élues dans les systèmes proportionnels, mêlant là encore des résultats formels et empiriques.
La dernière partie de l’ouvrage est une réflexion sur les méfaits causés par l’élection présidentielle au scrutin indirect, dont 63% des adultes étasuniens souhaitent le remplacement par un scrutin uninominal à un tour organisé à l’échelle nationale, selon un sondage de 2022 [11]. Si une telle règle avait été en vigueur en 2016, Donald Trump aurait perdu les élections cette année-là, ayant recueilli au niveau national un nombre de voix plus faible que celui de la candidate démocrate, Hillary Clinton. Après avoir examiné différentes mesures visant à court-circuiter le collège électoral, I. Volić soutient une initiative actuellement en cours d’élaboration : le National Popular Vote Interstate Compact. Cet accord vise à réunir des États qui posséderaient ensemble la majorité des grands électeurs. Ces derniers s’engageraient alors à voter systématiquement en faveur du vainqueur du vote populaire, contournant ainsi le caractère indirect du collège électoral. Aujourd’hui, les États ayant rejoint l’accord élisent seulement 209 grands électeurs sur les 270 requis. Cette dernière solution évite aussi bien les complications juridiques qu’impliquerait une suppression du collège électoral par révision constitutionnelle, que l’imprécision mathématique inévitable qu’engendrerait l’organisation d’une élection à la proportionnelle des grands électeurs dans chaque État.
Les exigences didactiques de l’ouvrage entrent cependant parfois en tension avec la justification des réformes défendues : différents idéaux sont successivement présentés comme souhaitables, mais leur compatibilité ne va pas de soi, et les raisons justifiant le maintien de certains principes plutôt que d’autres lorsqu’il s’agit de proposer une réforme ne sont pas explicitées. Par exemple, dans le chapitre sur le gerrymandering, l’auteur plaide d’abord pour des élections concurrentielles (p. 225) – où le résultat dans chaque circonscription est serré –, qui évitent la formation de baronnies locales, puis propose ensuite une mesure des biais du découpage électoral en vigueur en le comparant à un « découpage idéal » (« ideal districting ») strictement proportionnel où x% des voix octroient x% des sièges (p. 240).
Ces deux idéaux – concurrence électorale et proportionnalité des résultats – s’opposent cependant dans certains cas. Le premier porte sur la proportion de résultats serrés parmi les circonscriptions de l’État concerné, tandis que le second porte sur la comparaison entre le résultat de l’élection et la répartition des votes à l’échelle de l’État entier. Supposons par exemple un État disposant de quatre représentants, où 51% des électeurs sont Républicains et 49% Démocrates. Les Républicains sont largement majoritaires à la campagne et les Démocrates à la ville. Un moyen simple de se conformer à l’idéal de proportionnalité est de tracer quatre circonscriptions non-concurrentielles : deux entièrement rurales, une entièrement urbaine, et une presque entièrement urbaine. En revanche, se conformer à l’idéal de concurrence consisterait à créer quatre circonscriptions à moitié rurales et à moitié urbaines, ce qui maximiserait en retour l’incertitude quant à la proportionnalité du résultat final.
Enfin, on peut parfois regretter que les considérations juridiques et historiques propres au système étasunien contraignent la discussion des solutions proposées par l’auteur et limitent la portée plus générale de son propos. Le choix d’utiliser des circonscriptions plurinominales pour instaurer une représentation proportionnelle semble par exemple injustifiable mathématiquement : si l’objectif était d’éliminer définitivement le gerrymandering et si « la géographie compte davantage qu’elle ne le devrait » aux États-Unis (« geography matters more than it should », p. 299), alors un scrutin à la proportionnelle à l’échelle nationale, sans aucun découpage territorial, serait plus souhaitable encore, indépendamment de sa constitutionnalité.
Il n’en reste pas moins que pour les objectifs qu’il se donne, Making Democracy Count parvient à rendre extrêmement accessible un champ d’études réputé pour sa complexité et son hermétisme, et à faire valoir sa pertinence dans l’étude de nos démocraties.
par , le 8 septembre
Mattéo Stienlet, « La démocratie en équation », La Vie des idées , 8 septembre 2025. ISSN : 2105-3030. URL : https://laviedesidees.fr/La-democratie-en-equation
Si vous souhaitez critiquer ou développer cet article, vous êtes invité à proposer un texte au comité de rédaction (redaction chez laviedesidees.fr). Nous vous répondrons dans les meilleurs délais.
[1] Tous les dix ans, à la suite du recensement, chaque État se voit alloué un certain nombre de sièges à la Chambre des représentants en fonction de sa population et d’une méthode de répartition des sièges, dite d’apportionment.
[2] Développée dès les années 1950, la théorie du choix social est l’étude formelle de la prise de décision collective. Elle succède à la « mathématique sociale » du XVIIIe siècle, intense période de réflexion sur les modes de scrutin.
[3] Le Maine et l’Alaska sont les deux seuls États à utiliser un mode de scrutin différent pour élire leurs représentants.
[4] Chaque personne ordonne les différentes options et attribue un score à chacune d’elle : la première des n options gagne n points, la seconde n-1, jusqu’à la dernière, qui obtient 1. Après avoir fait l’addition de chacun des scores, il est possible de désigner le vainqueur.
[5] Chaque votant exprime ses préférences en classant tous les candidats. Après avoir calculé le vainqueur potentiel de chaque duel, on appelle « vainqueur de Condorcet » le candidat qui aurait remporté chacun des duels. Le vainqueur de Condorcet n’existe cependant pas systématiquement. On appelle alors « cycle de Condorcet » une situation où la transitivité des préférences collectives n’est pas respectée. Par exemple, A est préféré à B, B à C, et C à A.
[6] Trois électeurs classent les candidats selon l’ordre de préférence suivant : A, B, C, tandis que deux autres suivent l’ordre B, C, A. Dans ce cas, A obtient 12 points, B en obtient 10, et C en obtient 7. A est donc le vainqueur de la méthode Borda, alors que la majorité des électeurs préfère B à C (cinq électeurs contre zéro), et B à A (trois électeurs contre deux).
[7] Une méthode de choix est dite dictatoriale quand le choix social (collectif) ne dépend que du choix d’un individu (le dictateur).
[8] La population est elle-même le produit d’un calcul qui assigne des valeurs différentes à chaque homme. L’auteur rappelle l’existence du compromis des trois-cinquièmes (p. 177) passé en 1787. Un esclave est alors comptabilisé dans la population d’un État à hauteur de 60% d’un homme libre.
[9] Michel L. Balinski et H. Peyton Young, Fair Representation : Meeting the Ideal of One Man, One Vote, 2d ed., Washington, Brookings Institution Press, 2010.
[10] Votes qui ne servent pas à élire un candidat. Ce phénomène est particulièrement présent dans les scrutins uninominaux à un tour, et permet de calculer « l’écart d’efficacité » (efficiency gap) des votes entre deux partis. Les votes d’un parti gagnant systématiquement avec une faible marge et subissant des défaites extrêmement lourdes sont donc rarement perdus, et plus « efficaces » que ceux d’un parti qui subit des défaites serrées et gagne largement : autrement dit, avec un même nombre de votes, le premier parti élirait plus de représentants que le second.
[11] Voir la version actualisée du sondage.