Comprendre le règlement européen sur l’IA
Le règlement européen sur l’IA publié au JO de l’Union Européenne le 12 juillet 2024, entrera progressivement en application à partir du 2 février 2025.
Objectif du règlement sur l'IA (RIA) - cadre d'application - sanctions
Ce règlement vise à établir un cadre juridique uniforme pour le développement, la mise sur le marché, la mise en service et l’utilisation des systèmes d’IA.
Ce nouveau cadre juridique s’appliquera aux acteurs du secteur privé comme aux acteurs du secteur public, à l’intérieur comme à l’extérieur de l’UE dès lors que le système d’IA est mis sur le marché dans l’Union Européenne.
Les sanctions seront graduées en fonction de l’obligation non respectée. La sanction la plus élevée fait l’objet d’amendes administratives pouvant aller jusqu’à 35 millions d’euros. Une structure de gouvernance ad hoc (au niveau européen et état membre) sera mise en place afin de faire respecter le RIA.
Contenu du règlement (RIA)
Le texte prévoit un régime graduel, à savoir :
- Usages considérés comme faisant peser un risque « inacceptable ». Ils sont interdits même si certaines exceptions peuvent exister (exemple : la reconnaissance des émotions)
- Usages jugés à « haut risque ». Dans les domaines tels que l’éducation ou la formation professionnelle, il s’agit des systèmes utilisés pour évaluer les acquis d’apprentissage, orienter le processus et surveiller els comportements malhonnêtes. Inscrit dans le sillon du RGPD, ce modèle impose une mise en conformité et implique une gouvernance des données utilisées pour l’entraînement, la validation ou les tests et surtout une obligation de transparence et d’information vis à vis des utilisateurs.
- Usages « à faible risque ». Il s’agit du recours à des robots conversationnels ou à des tuteurs personnels pour lesquels le principe de transparence est appliqué.
- Les systèmes présentant un risque minime ne sont pas concernés par le texte.
Règles applicables aux modèles d'IA à usage général
Les fournisseurs des « modèles d’IA à usage général » (Mistral AI, Open AI…) doivent mettre certaines informations à la disposition des fournisseurs en aval, et garantir qu’ils respectent les droits d’auteur.
Les fournisseurs de modèles présentant des risques « systémiques » doivent signaler les incidents graves, procéder à des essais et évaluations de modèles.
Calendrier d'application
Les règlement est applicable à partir du 02/08/2026 avec des exceptions.
- Les interdictions relatives aux systèmes présentant des risques inacceptables : 02/02/2025
- Les obligations relatives aux fournisseurs de modèles d’IA à usage général et la désignation des autorités compétences : 02/08/2025
- Les règles concernant les systèmes d’IA à haut risque : 02/08/2027