Source: OJ L, 2024/1689, 12.7.2024
Current language: FR
- Artificial intelligence act
Basic legislative acts
- AI act regulation
Article 82 Systèmes d’IA conformes qui présentent un risque
Lorsque, ayant réalisé une évaluation au titre de l’article 79, après avoir consulté l’autorité publique nationale concernée visée à l’article 77, paragraphe 1, l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; d’un État membre constate que, bien qu’un système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; soit conforme au présent règlement, il comporte néanmoins un risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; pour la santé ou la sécurité des personnes, pour les droits fondamentaux, ou pour d’autres aspects relatifs à la protection de l’intérêt public, elle demande à l’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concerné de prendre toutes les mesures appropriées pour faire en sorte que le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concerné, une fois mis sur le marché ou mis en service, ne présente plus ce risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci;, et ce sans retard injustifié, dans un délai qu’elle peut prescrire.
Le fournisseur, une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit; ou autre opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concerné s’assure que des mesures correctives sont prises pour tous les systèmes d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concernés qu’il a mis à disposition sur le marché de l’Union dans le délai prescrit par l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; de l’État membre visée au paragraphe 1.
Les États membres informent immédiatement la Commission et les autres États membres d’une constatation au titre du paragraphe 1. Les informations fournies incluent toutes les précisions disponibles, notamment les données nécessaires à l’identification du système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concerné, l’origine et la chaîne d’approvisionnement de ce système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels;, la nature du risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; encouru, ainsi que la nature et la durée des mesures nationales prises.
La Commission entame sans retard injustifié des consultations avec les États membres concernés et les opérateurs, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concernés, et évalue les mesures nationales prises. En fonction des résultats de cette évaluation, la Commission décide si la mesure est justifiée ou non et, si nécessaire, propose d’autres mesures appropriées.
La Commission communique immédiatement sa décision aux États membres concernés ainsi qu’aux opérateurs, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concernés. Elle en informe également les autres États membres.
Springlex and this text is meant purely as a documentation tool and has no legal effect. No liability is assumed for its content. The authentic version of this act is the one published in the Official Journal of the European Union.