Le désordre de la politique de l’IA : Fédéral vs. État, États-Unis vs. UE, et personne n’est d’accord
Si vous essayez de suivre la politique de l’IA en 2026, je ressens votre douleur. C’est un véritable désordre. Le gouvernement fédéral américain se dispute avec les États. L’UE se dispute avec les entreprises technologiques. Et tout le monde discute de ce que signifie même “IA responsable”.
Essayons de mettre de l’ordre dans tout cela.
Les États-Unis : Gouvernement fédéral vs. États
L’histoire de la politique de l’IA la plus importante aux États-Unis en ce moment n’est pas une nouvelle loi — c’est une lutte pour savoir qui a le droit de faire les lois.
En décembre 2025, le président Trump a signé l’Ordre Exécutif 14365, “Assurer un cadre politique national pour l’intelligence artificielle.” L’objectif principal : empêcher les États de créer un patchwork de réglementations sur l’IA qui pourrait freiner la domination américaine en matière d’IA.
L’ordre exigeait que le secrétaire au Commerce publie un rapport d’ici le 11 mars 2026, listant les lois sur l’IA des États jugées “pénalisantes”. Et par “pénalisantes”, l’administration entend à peu près toute loi étatique qui impose des exigences de conformité significatives aux entreprises d’IA.
Les cibles sont évidentes :
- L’AI Act du Colorado (en vigueur le 30 juin 2026) — nécessite des évaluations d’impact pour les systèmes d’IA à haut risque et interdit la discrimination algorithmique
- La loi sur la transparence dans l’IA de pointe de Californie (en vigueur le 1er janvier 2026) — exige la divulgation des données d’entraînement et des capacités des modèles pour l’IA de pointe
- Différentes lois étatiques sur l’IA dans le recrutement, l’assurance et les soins de santé
L’argument de l’administration : ces lois des États créent un cauchemar de conformité pour les entreprises d’IA et menacent la position concurrentielle de l’Amérique. L’argument des États : quelqu’un doit protéger les citoyens des dommages causés par l’IA, et le Congrès ne le fait pas.
Les deux camps ont raison. Et c’est ce qui rend tout cela si complexe.
Le vide fédéral
Voici la vérité inconfortable : le Congrès n’a pas adopté de loi fédérale complète sur l’IA. Pas parce qu’il ne le veut pas — il y a eu des dizaines de projets de loi proposés. Mais la réglementation de l’IA est politiquement compliquée.
Les républicains veulent généralement moins de réglementation pour promouvoir l’innovation. Les démocrates veulent généralement plus de réglementation pour prévenir les dommages. Et l’industrie de l’IA dépense des sommes énormes pour faire du lobbying auprès des deux parties.
Le résultat : des décrets exécutifs qui peuvent être annulés par le prochain président, des lois des États qui peuvent ou non survivre à des défis de préemption fédérale, et beaucoup d’incertitude pour tout le monde.
Pendant ce temps, l’AI Act de l’UE est déjà en vigueur. La Chine a ses propres réglementations en matière d’IA. Et les entreprises américaines opérant à l’international doivent se conformer à toutes ces règles, peu importe ce qui se passe au niveau national.
Le panorama mondial en 60 secondes
Voici où se situe chaque juridiction majeure en mars 2026 :
UE : AI Act en application progressive. Pratiques interdites déjà illégales. Exigences pour les haut-risques à venir en août 2026. Amendes allant jusqu’à 35 millions d’euros ou 7 % des revenus mondiaux.
États-Unis : Pas de loi fédérale sur l’IA. Décret exécutif essayant de préempter les lois des États. Les États avancent malgré tout. Complète incertitude sur ce qui s’applique.
Royaume-Uni : Approche sectorielle. Projet de loi sur l’IA en développement. Basé sur des principes mais pas encore juridiquement contraignant.
Japon : Loi sur la promotion de l’IA. Innovation d’abord, lignes directrices volontaires. Quartier général de la stratégie IA dirigé par le PM.
Chine : Plusieurs réglementations sur l’IA déjà en vigueur. Règles de recommandation algorithmique, règles sur les deepfakes, règles sur l’IA générative. Plus centralisées et prescriptives que n’importe quelle approche occidentale.
Canada : AIDA (Loi sur l’intelligence artificielle et les données) en cours de traitement au Parlement. Créerait un cadre fédéral pour l’IA avec des sanctions.
Ce que cela signifie si vous construisez de l’IA
Conseils pratiques pour naviguer dans ce chaos :
1. Conformez-vous aux règles les plus strictes qui s’appliquent à vous. Si vous servez des clients de l’UE, l’AI Act est votre base. Si vous opérez dans le Colorado, leur AI Act s’applique, peu importe ce que dit le gouvernement fédéral (du moins jusqu’à ce qu’un tribunal dise autrement).
2. Documentez tout. Chaque juridiction s’oriente vers une exigence accrue de transparence sur les systèmes d’IA. Si vous documentez déjà vos données d’entraînement, les capacités de vos modèles et vos évaluations de risques, vous êtes en avance sur le jeu peu importe les règles qui finiront par s’appliquer.
3. Surveillez l’AI Act du Colorado. Il entre en vigueur le 30 juin 2026, et c’est la loi sur l’IA la plus complète des États-Unis. Son application (ou sa préemption) fixera le modèle pour tout ce qui suivra.
4. Ne pariez pas sur le gouvernement fédéral pour résoudre cela. Même si le décret exécutif réussit à bloquer certaines lois des États, cela ne crée pas un cadre fédéral. Vous serez toujours en train d’opérer dans un vide réglementaire au niveau fédéral.
Ma prédiction
Nous obtiendrons finalement une loi fédérale sur l’IA aux États-Unis. Mais pas en 2026, probablement pas en 2027, et elle sera moins forte que ce que l’UE a. En attendant, la véritable réglementation se fera au niveau des États et par le biais des agences fédérales existantes (FTC pour la protection des consommateurs, EEOC pour la discrimination en matière d’emploi, FDA pour les dispositifs médicaux).
Les entreprises qui considèrent la conformité comme une caractéristique plutôt que comme un fardeau gagneront. Non pas parce que les régulateurs les récompenseront — mais parce que les clients se soucient de plus en plus de la façon dont l’IA les affecte, et “nous prenons cela au sérieux” devient un avantage concurrentiel.
Le désordre politique se réglera finalement. Votre travail est de construire une IA que vous seriez à l’aise de défendre devant n’importe quel régulateur, dans n’importe quelle juridiction. Si vous pouvez faire cela, les règles spécifiques comptent moins que vous ne le pensez.
🕒 Published: