AI Act : l’Union européenne encadre l’intelligence artificielle
L’IA, une révolution à encadrer
L’intelligence artificielle est partout : dans nos téléphones, nos voitures, nos banques, nos services publics… Si elle promet des avancées majeures, elle soulève aussi des questions cruciales : comment éviter les dérives ? Protéger nos droits fondamentaux ? S’assurer que les systèmes d’IA sont sûrs, transparents et dignes de confiance ?
C’est pour répondre à ces défis que l’Union européenne a adopté l’AI Act, ou règlement sur l’intelligence artificielle, en mars 2024. Il s’agit du tout premier cadre légal mondial spécifiquement conçu pour encadrer l’usage de l’IA.
Qu’est-ce que l’AI Act ?
L’AI Act est un règlement européen (et non une simple directive), ce qui signifie qu’il s’appliquera directement dans tous les pays membres, sans nécessiter de transposition nationale.
Son objectif ? Créer un cadre juridique harmonisé pour :
- Protéger les citoyens contre les usages abusifs ou dangereux de l’IA,
- Favoriser une innovation responsable,
- Renforcer la confiance dans les technologies d’IA,
- Soutenir le développement d’une IA « éthique » et conforme aux valeurs européennes.
Une approche fondée sur le risque
L’originalité de l’AI Act repose sur une approche graduée, en fonction du niveau de risque que représente le système d’IA pour les droits fondamentaux et la sécurité. On distingue 4 grandes catégories :
1. Les systèmes interdits
Ce sont les IA jugées inacceptables car contraires aux valeurs européennes. Exemples :
- La notation sociale (type « crédit social »),
- Les systèmes de manipulation cognitive à grande échelle,
- Certaines formes de surveillance biométrique en temps réel dans l’espace public.
Ces systèmes sont tout simplement interdits dans l’UE.
2. Les IA à haut risque
Elles sont autorisées, mais strictement encadrées. Cela concerne notamment les IA utilisées dans :
- Le recrutement et les ressources humaines,
- L’éducation (notation, orientation),
- Les soins de santé,
- Les services publics,
- Les systèmes judiciaires,
- Les infrastructures critiques (énergie, transports…).
Ces IA devront respecter des exigences strictes :
- Documentation et transparence,
- Évaluation des risques,
- Supervision humaine,
- Qualité des données utilisées,
- Conformité CE.
3. Les IA à risque limité
Elles devront respecter des obligations de transparence. Par exemple :
- Informer l’utilisateur qu’il interagit avec une IA (chatbot, deepfake, etc.),
- Signaler quand une image, une vidéo ou une voix a été générée artificiellement.
4. Les IA à risque minimal ou nul
Ce sont les usages les plus courants (recommandations de films, assistants vocaux…). Ils ne sont pas soumis à réglementation spécifique.
Et les IA génératives comme ChatGPT ?
Les IA génératives (comme ChatGPT ou Midjourney) entrent dans une catégorie spécifique. Elles doivent :
- Mentionner clairement que le contenu est généré par IA,
- Prévenir les risques de désinformation,
- Respecter le droit d’auteur (y compris dans les données d’entraînement),
- Fournir une documentation technique.
Les modèles dits « fondamentaux » (foundation models), très puissants, devront faire l’objet d’un encadrement renforcé en matière de sécurité, de robustesse et de transparence.
Qui est concerné par l’AI Act ?
Tous les acteurs impliqués dans le cycle de vie d’un système d’IA :
- Développeurs d’IA,
- Fournisseurs et distributeurs,
- Utilisateurs professionnels, y compris les administrations publiques,
Même les entreprises hors UE si leurs systèmes d’IA sont utilisés dans l’Union européenne.
Quand entre-t-il en vigueur ?
L’AI Act a été adopté en 2024. Il entrera progressivement en application à partir de 2025, avec des délais différents selon les catégories de risques :
- Les systèmes interdits seront bannis dès 2025,
- Les IA à haut risque auront 2 ans pour se mettre en conformité,
Les obligations de transparence pour les IA génératives s’appliqueront plus rapidement (dans un délai d’environ 12 mois).
Pourquoi c’est important ?
L’AI Act place l’Europe à l’avant-garde de la régulation de l’IA, dans un contexte où les grandes puissances technologiques avancent vite, parfois au détriment des droits individuels. Ce règlement :
- Protège les citoyens européens,
- Clarifie les règles pour les entreprises,
- Encourage une IA éthique, durable et responsable
