Source: OJ L, 2024/1689, 12.7.2024

Current language: FR

Article 46 Dérogation à la procédure d’évaluation de la conformité


    1. Par dérogation à l’article 43 et sur demande dûment justifiée, toute autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; peut, pour des raisons exceptionnelles de sécurité publique ou pour assurer la protection de la vie et de la santé humaines, la protection de l’environnement ou la protection d’actifs industriels et d’infrastructures d’importance majeure, autoriser la mise sur le marché, la première mise à disposition d’un système d’IA ou d’un modèle d’IA à usage général sur le marché de l’Union; ou la mise en service, la fourniture d’un système d’IA en vue d’une première utilisation directement au déployeur ou pour usage propre dans l’Union, conformément à la destination du système d’IA; de systèmes d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; spécifiques sur le territoire de l’État membre concerné. Cette autorisation est accordée pour une période limitée pendant la durée des procédures d’évaluation de la conformité, la procédure permettant de démontrer que les exigences relatives à un système d’IA à haut risque énoncées au chapitre III, section 2, ont été respectées; nécessaires, en tenant compte des raisons exceptionnelles justifiant la dérogation. Ces procédures sont menées à bien sans retard injustifié.

    1. Dans une situation d’urgence dûment justifiée pour des raisons exceptionnelles de sécurité publique ou en cas de menace spécifique, substantielle et imminente pour la vie ou la sécurité physique des personnes physiques, les autorités répressives,toute autorité publique compétente pour la prévention et la détection des infractions pénales, les enquêtes et les poursuites en la matière ou l’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces; outout autre organisme ou entité à qui le droit d’un État membre confie l’exercice de l’autorité publique et des prérogatives de puissance publique à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces; ou les autorités de protection civile peuvent mettre en service un service d’IA à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; spécifique sans avoir obtenu l’autorisation visée au paragraphe 1, à condition que cette autorisation soit demandée sans retard injustifié pendant ou après l’utilisation. Si l’autorisation visée au paragraphe 1 est refusée, l’utilisation du système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; cesse immédiatement et tous les résultats et sorties de cette utilisation sont immédiatement mis au rebut.

    1. L’autorisation visée au paragraphe 1 n’est délivrée que si l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; conclut que le système d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; satisfait aux exigences de la section 2. L’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; informe la Commission et les autres États membres de toute autorisation délivrée conformément aux paragraphes 1 et 2. Cette obligation ne couvre pas les données opérationnelles sensibles, les données opérationnelles relatives à des activités de prévention et de détection des infractions pénales, ainsi que d’enquête ou de poursuites en la matière, dont la divulgation pourrait compromettre l’intégrité des procédures pénales; relatives aux activités des autorités répressives,toute autorité publique compétente pour la prévention et la détection des infractions pénales, les enquêtes et les poursuites en la matière ou l’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces; outout autre organisme ou entité à qui le droit d’un État membre confie l’exercice de l’autorité publique et des prérogatives de puissance publique à des fins de prévention et de détection des infractions pénales, d’enquêtes et de poursuites en la matière ou d’exécution de sanctions pénales, y compris la protection contre les menaces pour la sécurité publique et la prévention de telles menaces;.

    1. Si aucune objection n’est émise, dans un délai de quinze jours civils suivant la réception des informations visées au paragraphe 3, par un État membre ou par la Commission à l’encontre d’une autorisation délivrée par une autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; d’un État membre conformément au paragraphe 1, cette autorisation est réputée justifiée.

    1. Si, dans un délai de quinze jours civils suivant la réception de la notification visée au paragraphe 3, un État membre soulève des objections à l’encontre d’une autorisation délivrée par une autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; d’un autre État membre, ou si la Commission estime que l’autorisation est contraire au droit de l’Union ou que la conclusion des États membres quant à la conformité du système visée au paragraphe 3 n’est pas fondée, la Commission entame sans retard des consultations avec l’État membre concerné. Les opérateurs, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concernés sont consultés et ont la possibilité de présenter leur point de vue. Sur cette base, la Commission décide si l’autorisation est justifiée ou non. La Commission communique sa décision à l’État membre concerné ainsi qu’aux opérateurs, un fournisseur, fabricant de produits, déployeur, mandataire, importateur ou distributeur; concernés.

    1. Si la Commission estime que l’autorisation est injustifiée, elle est retirée par l’autorité de surveillance du marché, l’autorité nationale assurant la mission et prenant les mesures prévues par le règlement (UE) 2019/1020; de l’État membre concerné.

    1. Pour les systèmes d’IA, un système automatisé qui est conçu pour fonctionner à différents niveaux d’autonomie et peut faire preuve d’une capacité d’adaptation après son déploiement, et qui, pour des objectifs explicites ou implicites, déduit, à partir des entrées qu’il reçoit, la manière de générer des sorties telles que des prédictions, du contenu, des recommandations ou des décisions qui peuvent influencer les environnements physiques ou virtuels; à haut risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; liés à des produits couverts par la législation d’harmonisation de l’Union dont la liste figure à l’annexe I, section A, seules les dérogations à l’évaluation de la conformité, la procédure permettant de démontrer que les exigences relatives à un système d’IA à haut risque énoncées au chapitre III, section 2, ont été respectées; établies dans ladite législation d’harmonisation de l’Union s’appliquent.

We're continuously improving our platform to serve you better.

Your feedback matters! Let us know how we can improve.

Found a bug?

Springflod is a Swedish boutique consultancy firm specialising in cyber security within the financial services sector.

We offer professional services concerning information security governance, risk and compliance.

Crafted with ❤️ by Springflod