Intelligence artificielle : les premières règles sont déjà entrées en application
Sont concernées par cette nouvelle réglementation les organisations qui développent les systèmes d’IA et les mettent sur le marché (appelées fournisseurs) et celles qui les utilisent à des fins professionnelles (appelées déployeurs).
Le règlement retient une approche par les risques et tout fournisseur ou déployeur d’un système d’IA doit donc déterminer le niveau de risque susceptible d’en résulter.
Le règlement définit quatre niveaux de risques :
Niveau de risque | Critères | Obligations |
Risque inacceptable | Il s’agit de systèmes considérés comme une menace évidente pour la sécurité, les moyens de subsistance et les droits des personnes. | Interdiction |
Risque élevé | Il s’agit de systèmes susceptibles de présenter des risques graves pour la santé, la sécurité ou les droits fondamentaux. | Obligations : évaluation de conformité, documentation technique, mécanismes de gestion des risques, etc. |
Risque limité | Il s’agit des systèmes qui nécessitent des mesures spécifiques de transparence. | Les utilisateurs doivent être informés qu’ils interagissent avec une machine afin de pouvoir prendre une décision éclairée. |
Risque minime | Il s'agit des systèmes n’entrant dans aucune des catégories ci-dessus. | Pas d’obligations spécifiques |
L’entrée en application de ce règlement se fait en plusieurs étapes :
Dates | Mesures |
2 février 2025 | - Entrée en application des dispositions générales (objet du texte, champ d’application et définitions)
- Obligation pour les fournisseurs et les déployeurs d’assurer une bonne maitrise de l’IA dans leur organisation
- Interdiction des systèmes d’IA présentant un risque inacceptable
|
2 août 2025 | - Application des règles pour les modèles d’IA à usage général
- Nomination des autorités compétentes au niveau des Etats membres
|
2 août 2026 | - Entrée en application des autres dispositions du règlement sur l’IA à l’exclusion des dispositions entrant en vigueur le 2 août 2027
- Mise en œuvre par les autorités des Etats membres d’un bac à sable réglementaire
|
2 août 2027 | Application des règles relatives aux systèmes d’IA à haut risque de l’annexe I (jouet, équipements radio, dispositifs médicaux de diagnostic in vitro …) |
La Commission européenne a publié :
Le non-respect du règlement expose l’auteur de l’infraction à une amende administrative dont le montant est fonction de la nature de l’infraction et peut atteindre 35 000 000 euros ou 7% de son chiffre d’affaires annuel mondial total réalisé au cours de l’exercice précédent.
En outre, indépendamment de leur niveau de risque, les systèmes d’intelligence artificielle sont susceptibles de porter atteinte :
- à la confidentialité des données transmises,
- à la vie privée et
- aux droits de propriété intellectuelle.
Tant les fournisseurs et les déployeurs que les utilisateurs de systèmes d’IA doivent donc faire preuve d’une grande vigilance.
Tags:
Juris Initiative ,Anne-Solène Gay,Behring,Intelligence artificielle,IA Act- réglementation européenne ,nouvelles technologies,systèmes d’intelligence artificielle,réglementation IA