ChatGPT dans votre entreprise, c'est Louis XIV par défaut. Non par choix, mais par absence de design. L'usage démarre sans rôles, sans validation, sans contrôle qualité. Chacun crée, administre, évalue et diffuse ses propres outils IA. Ça fonctionne au début. Puis ça devient ingérable.
En 1748, Montesquieu a diagnostiqué le problème et proposé la solution : pour qu'on ne puisse abuser du pouvoir, il faut que le pouvoir arrête le pouvoir. Législatif, Exécutif, Judiciaire. Trois fonctions séparées. C'est le fondement de toute démocratie. Et c'est exactement ce qui manque à vos pratiques IA.
Trois citations, un diagnostic
« C'est une expérience éternelle que tout homme qui a du pouvoir est porté à en abuser. »
Traduit en IA : tout collaborateur qui a accès à un outil IA sans contrainte finira par en faire un usage non contrôlé. Pas par malveillance. Par nature. Un outil IA qui n'est relu par personne, dont les contenus de référence ne sont validés par personne, dont la qualité n'est évaluée par personne, finit par dériver. C'est mécanique.
« Lorsque dans la même personne ou dans le même corps de magistrature, la puissance législative est réunie à la puissance exécutrice, il n'y a point de liberté. »
Traduit : quand la même personne crée un outil IA (prompt + contenus + style), l'administre sur la plateforme et juge sa qualité, il n'y a aucun garde-fou. C'est exactement la situation dans ChatGPT, Copilot ou tout outil IA sans gouvernance. Création, administration et évaluation sont concentrées dans les mêmes mains.
Les trois pouvoirs appliqués à l'IA
Montesquieu identifie trois fonctions qui doivent être séparées pour que la liberté existe. Appliquons-les à la gouvernance IA.
La puissance de cette séparation, c'est que personne ne cumule les trois fonctions. L'Auteur crée, mais ne décide pas de la promotion en Officiel. Le Modérateur administre, mais ne juge pas la qualité. L'Expert évalue, mais ne modifie pas les publications. Et quand la communauté plébiscite un outil que l'Expert juge risqué, c'est le Modérateur qui tranche : lui seul décide de la promotion en espace Officiel. Chaque pouvoir contrôle les autres.
Le despotisme IA : un diagnostic
Montesquieu décrit le despotisme comme un régime où un seul homme exerce les trois pouvoirs. Il écrit :
« Tout serait perdu, si le même homme, ou le même corps des principaux, ou des nobles, ou du peuple, exerçaient ces trois pouvoirs : celui de faire des lois, celui d'exécuter les résolutions publiques, et celui de juger les crimes ou les différends des particuliers. »
Remplacez « homme » par « outil » et vous avez le diagnostic exact de l'usage IA en entreprise en 2025.
Le scénario qui ne ment pas
Un consultant senior crée un agent IA qui utilise des contenus clients confidentiels comme contexte de référence. Il le nourrit avec des données financières, des organigrammes, des comptes-rendus internes. L'agent est performant, le consultant l'utilise tous les jours.
Aucune trace dans le système. Aucune validation des contenus qui le nourrissent. Aucune évaluation de la qualité de ses réponses.
Trois mois plus tard, l'agent hallucine un chiffre devant un client. Le consultant est parti en vacances. Qui est responsable ? Qui savait ? Qui peut corriger ? Personne. C'est ça, le despotisme IA.
Avec une constitution IA, cet agent aurait été créé par un Auteur identifié, ses contenus de référence validés par un Modérateur, sa qualité évaluée par un Expert, son usage traçable dans un espace dédié. Le problème aurait été détecté avant d'arriver devant le client.
La liberté n'est pas l'absence de règles. C'est la présence de contre-pouvoirs. Un consultant qui utilise un outil de l'espace Officiel sait qu'il a été assemblé, validé et évalué par trois personnes différentes. Il l'utilise avec confiance. Cette confiance est impossible sans séparation des pouvoirs.
À quoi ressemble une constitution IA en pratique ?
Cinq règles. Pas cinquante. Le cadre doit être assez léger pour que l'adoption suive, assez structurant pour que la dérive soit impossible.
Montesquieu a gagné : l'AI Act existe
Ce qui précède n'est pas une vision théorique. C'est en train de devenir la loi.
Le Règlement européen sur l'IA (AI Act, UE 2024/1689) est entré en vigueur le 1er août 2024 et s'applique progressivement. Les premières obligations démarrent le 2 février 2025 (pratiques interdites, littératie IA), puis le régime général s'applique à partir du 2 août 2026, avec un palier supplémentaire au 2 août 2027 pour certains systèmes à haut risque intégrés à des produits réglementés.
Pour les systèmes à haut risque, l'AI Act exige notamment : documentation technique complète, journaux et traçabilité, gouvernance des données, contrôle humain renforcé, système de gestion de la qualité, et surveillance post-déploiement.
Le texte n'impose pas une « séparation des pouvoirs » au sens politique. Mais il impose une gouvernance traçable qui, dans les faits, revient au même : celui qui crée le système doit documenter (pouvoir législatif). Celui qui l'administre doit garantir la gouvernance des données et le contrôle humain (pouvoir exécutif). Celui qui l'évalue doit assurer la surveillance post-déploiement et la gestion de la qualité (pouvoir judiciaire). Trois fonctions. Séparées. Traçables.
Les sanctions vont jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires mondial, selon l'infraction. D'autres paliers existent pour les infractions moins graves.
Autrement dit : si vous déployez des systèmes IA relevant de ces catégories sans rôles, sans traçabilité et sans contrôle qualité, vous vous exposez à un risque réel de non-conformité et donc de sanctions.
Et non, une « charte IA » ne suffit pas. Montesquieu l'aurait dit avant nous : écrire une loi sans constitution pour la faire appliquer, c'est décorer un mur sans construire la maison. Une charte déclare des principes. Qui vérifie qu'ils sont respectés ? Qui sanctionne quand ils ne le sont pas ? Qui trace les usages ? Sans architecture de rôles, sans mécanisme de contrôle, sans traçabilité intégrée à l'outil, votre charte est un PDF que personne ne relit après la réunion de lancement.
Une charte déclare. Une constitution structure. Une architecture implémente.
Montesquieu a écrit la philosophie. L'Europe en a fait la loi. Votre entreprise doit en faire l'architecture.
Donnez une constitution à vos pratiques IA
Montesquieu a posé le principe en 1748. L'Europe en a fait un règlement en 2024. Et votre entreprise ? Si vos pratiques IA fonctionnent encore sans rôles séparés, sans traçabilité, sans évaluation indépendante, vous êtes à la fois vulnérable et non conforme.
La bonne nouvelle : structurer ne prend pas des mois. Cinq règles, trois pouvoirs, une architecture claire. Le cadre existe. Il suffit de l'appliquer avant que le régulateur ne vous le demande.
Créer · Administrer · Évaluer
Trois pouvoirs séparés. Des rôles distincts : Auteur, Modérateur, Expert.
La gouvernance IA n'a pas besoin d'un dictateur bienveillant.
Elle a besoin d'une constitution.
Montesquieu l'avait compris en 1748.
L'Europe l'a légiféré en 2024.
Votre stack IA devrait l'implémenter en 2025.