L'AI Act entre pleinement en vigueur en août 2026. Guide pratique.

La principale échéance de l'AI Act européen tombe le 2 août 2026. Si vous utilisez ChatGPT, un outil de recrutement IA ou toute IA dans votre produit, vous avez des obligations. Voici lesquelles, expliquées pour les CTO, pas pour les juristes.

9 min de lectureRead in EnglishAuf Deutsch lesen
L'AI Act entre pleinement en vigueur en août 2026. Guide pratique.

En resume

L'AI Act classe les systèmes d'IA en quatre niveaux de risque et attribue des obligations en conséquence. Huit pratiques interdites sont déjà en vigueur depuis février 2025. L'échéance majeure est le 2 août 2026, date à laquelle les règles sur les systèmes à haut risque, les exigences de transparence et les amendes jusqu'à 35 millions d'euros ou 7% du CA mondial deviennent pleinement applicables. La plupart des entreprises européennes utilisant des outils IA comme ChatGPT ou Copilot sont des "déployeurs" avec des obligations propres qu'elles ne peuvent pas sous-traiter à leur fournisseur. Les outils IA européens comme Mistral et Aleph Alpha disposent d'un avantage structurel de conformité grâce à leurs modèles open-weight, leur hébergement en UE et l'absence d'exposition au CLOUD Act.

L'AI Act européen est la première réglementation complète sur l'IA au monde. Il est entré en vigueur le 1er août 2024. Les premières règles s'appliquent déjà. L'échéance principale, le 2 août 2026, arrive dans quatre mois.

Si vous utilisez de l'IA dans votre entreprise, vous y êtes probablement déjà soumis. Si vous construisez des produits IA, c'est certain. Et les sanctions sont sérieuses : jusqu'à 35 millions d'euros ou 7% du chiffre d'affaires annuel mondial.

Ceci n'est pas une note juridique. C'est un guide pratique pour les CTO et fondateurs qui utilisent des outils IA et doivent comprendre ce qui change, ce qu'ils doivent faire, et combien de temps il leur reste.

Ce qui est déjà en vigueur

Deux séries de règles s'appliquent depuis le 2 février 2025.

Huit pratiques d'IA sont interdites. Ce ne sont pas des interdictions futures. C'est la loi aujourd'hui. La liste comprend : les systèmes de manipulation subliminale du comportement, l'exploitation des vulnérabilités (âge, handicap), le scoring social par les autorités publiques, la prédiction de risque criminel basée uniquement sur le profilage, le scraping non ciblé d'images faciales pour constituer des bases de données de reconnaissance, la reconnaissance des émotions sur le lieu de travail et dans les écoles, la catégorisation biométrique déduisant la race, la religion ou l'orientation sexuelle, et l'identification biométrique en temps réel dans les espaces publics pour les forces de l'ordre (avec des exceptions étroites).

Des exemples concrets ? Un outil RH qui analyse les expressions faciales des candidats pendant les entretiens vidéo pour évaluer leur "adéquation culturelle" ? Interdit. Un SaaS qui constitue des bases de reconnaissance faciale en scrappant LinkedIn ou Instagram ? Interdit. Un outil de productivité qui surveille l'état émotionnel des employés via leur webcam ? Interdit.

La littératie IA est obligatoire. Toute entreprise utilisant de l'IA, quel que soit le niveau de risque, doit s'assurer que le personnel travaillant avec des systèmes d'IA comprend suffisamment leur fonctionnement, leurs capacités et leurs limites. Pas de certification ou de cursus imposé. Mais les entreprises doivent documenter leurs efforts de formation. Une enquête de l'AI Office en 2024 a révélé que moins de 25% des organisations européennes utilisant l'IA avaient des programmes formels de littératie.

Depuis le 2 août 2025, les fournisseurs de modèles d'IA à usage général (GPT-4, Claude, Mistral Large, Gemini) ont aussi des obligations : documentation technique, conformité au droit d'auteur, et résumé public des données d'entraînement. 26 grandes entreprises d'IA ont signé le Code de Pratique GPAI, dont OpenAI, Anthropic, Google, Microsoft et Mistral AI. Meta a refusé de signer.

Les quatre niveaux de risque, avec des exemples que vous reconnaîtrez

L'AI Act classe chaque système d'IA dans l'une de quatre catégories.

Risque inacceptable : interdit. Les huit pratiques ci-dessus. Déjà en vigueur.

Risque élevé : obligations lourdes. C'est là que l'échéance d'août 2026 compte vraiment. Un système d'IA est à haut risque s'il entre dans l'une des huit catégories de l'Annexe III du règlement :

CatégorieCe que ça veut dire concrètement
BiométrieReconnaissance faciale, catégorisation biométrique
Infrastructures critiquesIA gérant les réseaux électriques, l'approvisionnement en eau, le trafic
ÉducationIA décidant des admissions, des notes, surveillant les examens
Emploi & RHIA triant les CV, classant les candidats, décidant des promotions, surveillant la performance
Services essentielsScoring de crédit, évaluation du risque en assurance, éligibilité aux prestations publiques
Forces de l'ordreÉvaluation des preuves, prédiction de la récidive
Migration & frontièresTraitement des demandes de visa/asile, identification aux frontières
Justice & démocratieIA assistant les tribunaux, IA influençant les élections
Si votre entreprise utilise un outil IA pour l'un de ces usages, vous avez des obligations en tant que déployeur. Si vous construisez un produit IA pour l'un de ces usages, vos obligations sont nettement plus lourdes en tant que fournisseur.

Risque limité : transparence requise. Si votre produit inclut un chatbot, les utilisateurs doivent savoir qu'ils interagissent avec une IA. Si l'outil génère des images, du son ou de la vidéo, le contenu doit porter des marqueurs lisibles par machine (watermarking). Les deepfakes doivent être étiquetés. Les systèmes de reconnaissance des émotions doivent informer la personne analysée.

Risque minimal : pas d'obligation spécifique. Filtres anti-spam, IA dans les jeux vidéo, gestion des stocks, moteurs de recommandation basiques. La grande majorité des systèmes d'IA. Seule exigence : la littératie IA (qui s'applique à tout le monde).

Fournisseur ou déployeur : lequel êtes-vous ?

C'est la distinction la plus importante de l'AI Act. Elle détermine vos obligations.

Vous êtes déployeur si vous utilisez un système d'IA sous votre autorité dans un contexte professionnel. C'est le cas le plus fréquent pour les entreprises européennes. Si votre équipe utilise ChatGPT pour la rédaction, Claude pour l'analyse, Copilot pour le code, ou n'importe quel SaaS dopé à l'IA, vous êtes déployeur.

Vous êtes fournisseur si vous développez un système d'IA (ou le faites développer) et le mettez sur le marché sous votre nom ou votre marque. Ça inclut la construction de produits sur des API d'IA.

C'est là que ça se complique. Utiliser l'API d'OpenAI pour construire un outil de tri de candidatures que vous vendez sous votre marque ? Vous n'êtes pas déployeur du système d'OpenAI. Vous êtes le fournisseur d'un nouveau système d'IA. Et si ce système entre dans une catégorie à haut risque (le recrutement en est une), vous portez tout le poids des obligations fournisseur : système de gestion des risques, documentation technique, évaluation de conformité, marquage CE, surveillance post-marché, signalement des incidents.

Le piège du "fournisseur accidentel" est réel. White-labeler un système d'IA à haut risque, le modifier substantiellement, ou changer sa finalité pour qu'il devienne à haut risque, tout cela transforme un déployeur en fournisseur.

Ce que les déployeurs doivent faire avant le 2 août 2026

Si vous utilisez des systèmes d'IA à haut risque en tant que déployeur, l'article 26 vous impose 12 obligations spécifiques. Les plus importantes :

Utiliser le système conformément aux instructions du fournisseur. Ça paraît évident, mais ça implique de lire la documentation et de respecter les limitations indiquées.

Confier la supervision humaine à des personnes compétentes, formées et autorisées. Quelqu'un dans votre organisation doit pouvoir comprendre, interpréter et passer outre les résultats du système. Ça ne veut pas toujours dire qu'un humain examine chaque décision. Pour beaucoup de systèmes, une surveillance continue avec capacité d'intervention suffit. Mais les personnes chargées de cette supervision doivent avoir la formation et l'autorité pour agir.

Surveiller le système et conserver les logs au moins 6 mois.

Informer les personnes concernées. Si quelqu'un fait l'objet d'une décision prise ou assistée par un système d'IA à haut risque, il doit le savoir. Les salariés et leurs représentants doivent être informés avant le déploiement de toute IA sur le lieu de travail.

Réaliser une évaluation d'impact sur les droits fondamentaux pour certains cas d'usage (scoring de crédit, assurance, services publics).

Signaler les incidents graves au fournisseur et aux autorités dans les 15 jours.

Pour les usages non à haut risque (rédaction marketing, productivité générale, assistance au code), vos obligations sont plus simples : assurer la littératie IA et signaler l'utilisation de l'IA quand le système interagit avec des personnes.

Les amendes

Les sanctions sont proportionnelles à la gravité :

ViolationAmende maximale
Pratiques IA interdites35 millions d'euros ou 7% du CA mondial
Obligations haut risque et GPAI15 millions d'euros ou 3% du CA mondial
Informations incorrectes aux autorités7,5 millions d'euros ou 1% du CA mondial
Pour les grandes entreprises, le plafond est le montant le plus élevé. Pour les PME et startups, c'est le plus bas. C'est une protection significative.

Aucune sanction formelle n'a encore été prononcée en avril 2026. Mais l'infrastructure d'application se construit : la Finlande est devenue le premier pays de l'UE avec une application pleinement opérationnelle en janvier 2026, l'Italie a adopté une loi nationale complète sur l'IA avec des sanctions pénales pour les deepfakes, et l'agence espagnole de supervision de l'IA (AESIA) fait tourner un sandbox réglementaire depuis 2023.

Pourquoi les outils IA européens ont un avantage

Utiliser un outil IA américain ne vous met pas automatiquement en infraction. OpenAI, Anthropic, Google et Microsoft ont tous signé le Code de Pratique GPAI et investissent dans la conformité. Ils proposent des options d'hébergement en UE.

Mais les fournisseurs d'IA européens disposent d'avantages structurels qui simplifient la conformité :

Pas d'exposition au CLOUD Act. Mistral AI, Aleph Alpha et DeepL ne sont pas soumis au CLOUD Act américain, qui permet aux autorités US d'exiger l'accès aux données quel que soit le lieu d'hébergement. Pour les secteurs réglementés, ça élimine un conflit juridique fondamental.

Les modèles open-weight permettent l'audit. L'approche open-weight de Mistral permet aux déployeurs et aux régulateurs d'inspecter l'architecture et le comportement du modèle, en soutien direct aux exigences de transparence de l'AI Act (article 13). Quand un régulateur demande comment fonctionne votre système d'IA, pouvoir pointer vers des poids de modèle inspectables est une réponse solide.

L'auto-hébergement préserve la souveraineté. Vous pouvez déployer les modèles Mistral sur une infrastructure européenne (OVHcloud, Scaleway) sans qu'aucune donnée ne quitte l'UE. Les modèles Pharia d'Aleph Alpha sont présentés comme conformes à 100% à l'AI Act dès leur lancement.

Pour un panorama de l'écosystème IA européen, consultez notre article sur les outils IA européens qui remplacent vraiment les américains. Et pour la dimension souveraineté, notre guide sur la souveraineté numérique explique pourquoi la résidence des données ne suffit pas.

Ce que vous devriez faire maintenant

Le 2 août 2026 est dans quatre mois. Voici un calendrier réaliste :

Maintenant (avril 2026) : inventorier chaque système d'IA que votre entreprise utilise ou développe. Inclure le shadow AI (comptes ChatGPT personnels). Classer chacun par niveau de risque et déterminer si vous êtes fournisseur ou déployeur.

Mai 2026 : réaliser les évaluations d'impact pour les systèmes à haut risque. Mettre à jour les contrats fournisseurs pour exiger la documentation de conformité, la notification d'incidents et la coopération en cas de contrôle.

Juin 2026 : finaliser les procédures de supervision humaine. Former l'ensemble du personnel à la littératie IA. Constituer les dossiers de documentation.

Juillet 2026 : audit interne et correction des écarts.

2 août 2026 : application complète.

Un point à surveiller : l'UE a proposé un paquet Digital Omnibus en novembre 2025 qui pourrait repousser certaines obligations à décembre 2027. Le Conseil et le Parlement ont adopté leurs positions en mars 2026, et les trilogues sont en cours. Mais le report n'est pas garanti. Planifiez pour le 2 août et considérez tout délai supplémentaire comme un bonus.

Le Compliance Checker de l'AI Act, géré par le Service Desk de la Commission, peut vous aider à évaluer où se situent vos systèmes. Et le répertoire d'outils IA européens sur From Europe, With Love permet de trouver des alternatives européennes pour chaque catégorie.

L'essentiel

L'AI Act n'est pas le RGPD 2.0. Il est plus ciblé. La plupart des systèmes d'IA sont à risque minimal et n'exigent rien au-delà de la littératie. Mais si vous utilisez l'IA pour tout ce qui touche aux droits des personnes, à l'emploi, aux finances ou à la sécurité, il faut prendre le sujet au sérieux.

La bonne nouvelle : si vous vous souciez déjà de souveraineté numérique et que vous utilisez des outils européens, vous avez de l'avance. L'AI Act récompense la transparence, la documentation et l'auditabilité, exactement les qualités sur lesquelles les fournisseurs d'IA européens ont construit leurs produits.

Commencez par votre inventaire IA. Le reste en découle.

Points cles

  • 1. Huit pratiques d'IA sont déjà interdites en Europe depuis février 2025, dont la reconnaissance des émotions au travail, le scoring social et le scraping non ciblé d'images faciales.
  • 2. Si votre entreprise utilise ChatGPT, Claude ou Copilot, vous êtes un "déployeur" au sens de l'AI Act avec des obligations de conformité propres que votre fournisseur US ne peut pas remplir à votre place.
  • 3. Si votre entreprise construit un produit sur une API d'IA et le vend sous sa marque, vous êtes un "fournisseur" avec des obligations nettement plus lourdes, dont l'évaluation de conformité.
  • 4. Les amendes atteignent 35 millions d'euros ou 7% du CA mondial pour les pratiques interdites, mais les PME paient le montant le plus bas entre somme fixe et pourcentage du CA.
  • 5. Les outils IA européens (Mistral, Aleph Alpha, DeepL) offrent des avantages structurels de conformité : modèles open-weight auditables, hébergement exclusivement en UE, et aucune exposition au CLOUD Act américain.

Questions frequentes

L'AI Act s'applique-t-il à mon entreprise si j'utilise juste ChatGPT en interne ?
Oui. Si vous utilisez des systèmes d'IA dans un contexte professionnel au sein de l'UE, vous êtes un "déployeur" au sens de l'AI Act. Pour des usages internes de productivité comme la rédaction ou le brainstorming (risque minimal), vos obligations se limitent à assurer la littératie IA de votre équipe et à signaler l'utilisation de l'IA quand le système interagit avec des personnes. Pour des usages à haut risque comme le tri de candidatures ou le scoring de crédit, des obligations supplémentaires s'ajoutent : supervision humaine, surveillance, information des personnes concernées.
Quelle est la différence entre fournisseur et déployeur dans l'AI Act ?
Un fournisseur développe un système d'IA et le met sur le marché sous son nom. Un déployeur l'utilise dans un contexte professionnel. La plupart des entreprises européennes sont des déployeurs. L'exception critique : si vous construisez un produit sur une API d'IA (comme OpenAI ou Anthropic) et le vendez sous votre marque, vous devenez fournisseur avec des obligations nettement plus lourdes, dont l'évaluation de conformité, le marquage CE et la surveillance post-marché.
Quelles sont les amendes en cas de non-conformité à l'AI Act ?
Les amendes vont jusqu'à 35 millions d'euros ou 7% du CA annuel mondial pour les pratiques interdites, 15 millions d'euros ou 3% pour les autres violations (obligations haut risque ou GPAI), et 7,5 millions d'euros ou 1% pour les informations incorrectes. Pour les grandes entreprises, le plafond est le montant le plus élevé. Pour les PME et startups, c'est le plus bas, ce qui offre une protection significative aux petites structures.
Les outils IA européens ont-ils un avantage de conformité par rapport aux outils US ?
Les fournisseurs d'IA européens disposent d'avantages structurels. Les modèles open-weight de Mistral permettent d'inspecter l'architecture et le comportement, en soutien direct aux exigences de transparence. Les fournisseurs basés en UE ne sont pas soumis au CLOUD Act américain, éliminant les conflits juridiques pour les secteurs réglementés. L'auto-hébergement sur infrastructure européenne (OVHcloud, Scaleway) maintient les données intégralement sous juridiction européenne. Cela dit, les fournisseurs US comme OpenAI et Anthropic ont aussi signé le Code de Pratique GPAI et proposent de l'hébergement en UE.
L'échéance d'août 2026 pourrait-elle être repoussée ?
C'est possible. L'UE a proposé un paquet Digital Omnibus en novembre 2025 qui pourrait reporter certaines obligations haut risque à décembre 2027. Le Conseil et le Parlement ont adopté leurs positions en mars 2026, et les trilogues sont en cours. Mais le report n'est pas garanti et ne concernerait pas toutes les obligations. Les pratiques interdites et la littératie IA sont déjà en vigueur. L'approche prudente : planifier pour le 2 août 2026 et considérer tout report comme un bonus.

Articles similaires

Aidez-nous à cartographier la tech européenne.

Soumettez un outil ou suggérez une modification. Nous examinons chaque entrée.