Source: OJ L, 2024/1689, 12.7.2024

Current language: FR

Article 79 Procédure applicable au niveau national aux systèmes d’IA présentant un risque


    1. On entend par systèmes d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; présentant un risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci;, un «produit présentant un risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci;» au sens de l’article 3, point 19), du règlement (UE) 2019/1020, dans la mesure où ils présentent des risques, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; pour la santé ou la sécurité, ou pour les droits fondamentaux, des personnes.

    1. Lorsque l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; d’un État membre a des raisons suffisantes de considérer qu’un système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; présente un risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; au sens du paragraphe 1 du présent article, elle procède à une évaluation de la conformité, la procédure permettant de démontrer que les exigences relatives à un système d’IA à haut risque énoncées au chapitre III, section 2, ont été respectées; du système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concerné avec l’ensemble des exigences et obligations énoncées dans le présent règlement. Une attention particulière est accordée aux systèmes d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; présentant un risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; pour les groupes vulnérables. Lorsque sont identifiés des risques, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; pour les droits fondamentaux, l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; informe également les autorités ou organismes publics nationaux concernés visés à l’article 77, paragraphe 1, et coopère pleinement avec eux. Les opérateurs, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concernés coopèrent, en tant que de besoin, avec l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; et avec les autres autorités ou organismes publics nationaux visés à l’article 77, paragraphe 1.

    2. Si, au cours de cette évaluation, l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; ou, le cas échéant, l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; en coopération avec l’autorité publique nationale visée à l’article 77, paragraphe 1, constate que le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; ne respecte pas les exigences et obligations énoncées dans le présent règlement, elle invite sans retard injustifié l’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concerné à prendre toutes les mesures correctives appropriées pour mettre le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; en conformité, le retirer du marché ou le rappeler dans un délai qu’elle peut prescrire, et en tout état de cause au plus tard dans les 15 jours ouvrables, ou dans un délai prévu par la législation d’harmonisation de l’Union concernée, le délai le plus court étant retenu.

    3. L’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; informe l’organisme notifié, un organisme d’évaluation de la conformité notifié en application du présent règlement et d’autres actes législatifs d’harmonisation de l’Union pertinents; concerné en conséquence. L’article 18 du règlement (UE) 2019/1020 s’applique aux mesures visées au deuxième alinéa du présent paragraphe.

    1. Lorsque l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; considère que la non-conformité n’est pas limitée à son territoire national, elle informe la Commission et les autres États membres, sans retard injustifié, des résultats de l’évaluation et des mesures qu’elle a exigées de l’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur;.

    1. L’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; s’assure que toutes les mesures correctives appropriées sont prises pour tous les systèmes d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concernés qu’il a mis à disposition sur le marché de l’Union.

    1. Lorsque l’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; d’un système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; ne prend pas de mesures correctives adéquates dans le délai visé au paragraphe 2, l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; prend toutes les mesures provisoires appropriées pour interdire ou restreindre la mise à disposition du système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; sur son marché national ou sa mise en service, la fourniture d’un système d’IA en vue d’une première utilisation directement au déployeur ou pour usage propre dans l’Union, conformément à la destination du système d’IA;, pour retirer le produit ou le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; autonome de ce marché ou pour le rappeler. L’autorité notifie ces mesures sans retard injustifié à la Commission et aux autres États membres.

    1. La notification visée au paragraphe 5 contient toutes les précisions disponibles, notamment les informations nécessaires pour identifier le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; non conforme, son origine et la chaîne d’approvisionnement, la nature de la non-conformité alléguée et du risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; encouru, ainsi que la nature et la durée des mesures nationales prises et les arguments avancés par l’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concerné. En particulier, l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; indique si la non-conformité découle d’une ou plusieurs des causes suivantes:

      1. le non-respect de l’interdiction des pratiques en matière d’IA visées à l’article 5;

      2. le non-respect, par le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci;, des exigences énoncées au chapitre III, section 2;

      3. des lacunes dans les normes harmonisées, une norme harmonisée au sens de l’article 2, paragraphe 1, point c), du règlement (UE) no 1025/2012; ou les spécifications communes, un ensemble de spécifications techniques au sens de l’article 2, point 4), du règlement (UE) no 1025/2012 qui permettent de satisfaire à certaines exigences établies en vertu du présent règlement; visées aux articles 40 et 41 qui confèrent une présomption de conformité;

      4. le non-respect de l’article 50.

    1. Les autorités de surveillance du marché autres que l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; de l’État membre qui a entamé la procédure informent sans retard injustifié la Commission et les autres États membres de toute mesure adoptée et de toute information supplémentaire dont elles disposent à propos de la non-conformité du système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concerné et, en cas de désaccord avec la mesure nationale notifiée, de leurs objections.

    1. Lorsque, dans les trois mois suivant la réception de la notification visée au paragraphe 5, aucune objection n’a été émise par une autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; d’un État membre ou par la Commission à l’encontre d’une mesure provisoire prise par une autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; d’un autre État membre, cette mesure est réputée justifiée. Cette disposition est sans préjudice des droits procéduraux de l’opérateur, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concerné conformément à l’article 18 du règlement (UE) 2019/1020. Le délai de trois mois visé au présent paragraphe est ramené à 30 jours en cas de non-respect de l’interdiction des pratiques en matière d’IA visées à l’article 5 du présent règlement.

    1. Les autorités de surveillance du marché veillent à ce que les mesures restrictives appropriées soient prises sans retard injustifié à l’égard du produit ou du système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; concerné, par exemple son retrait de leur marché.

We're continuously improving our platform to serve you better.

Your feedback matters! Let us know how we can improve.

Found a bug?

Springflod is a Swedish boutique consultancy firm specialising in cyber security within the financial services sector.

We offer professional services concerning information security governance, risk and compliance.

Crafted with ❤️ by Springflod