Source: OJ L, 2024/1689, 12.7.2024

Current language: FR

Article 90 Alertes de risques systémiques données par le groupe scientifique


    1. Le groupe scientifique peut adresser une alerte qualifiée au Bureau de l’IA, la fonction de la Commission consistant à contribuer à la mise en œuvre, au suivi et à la surveillance des systèmes d’IA et de modèles d’IA à usage général et de la gouvernance de l’IA, établi par la décision de la Commission du 24 janvier 2024; les références faites au Bureau de l’IA dans le présent règlement s’entendent comme faites à la Commission; lorsqu’il a des raisons de soupçonner:

      1. qu’un modèle d’IA à usage général présente un risque, la combinaison de la probabilité d’un préjudice et de la sévérité de celui-ci; concret identifiable au niveau de l’Union; ou

      2. qu’un modèle d’IA à usage général satisfait aux conditions visées à l’article 51.

    1. À la suite d’une telle alerte qualifiée, la Commission, par l’intermédiaire du Bureau de l’IA, la fonction de la Commission consistant à contribuer à la mise en œuvre, au suivi et à la surveillance des systèmes d’IA et de modèles d’IA à usage général et de la gouvernance de l’IA, établi par la décision de la Commission du 24 janvier 2024; les références faites au Bureau de l’IA dans le présent règlement s’entendent comme faites à la Commission; et après en avoir informé le Comité IA, peut exercer les pouvoirs prévus à la présente section aux fins de l’évaluation de la question. Le Bureau de l’IA, la fonction de la Commission consistant à contribuer à la mise en œuvre, au suivi et à la surveillance des systèmes d’IA et de modèles d’IA à usage général et de la gouvernance de l’IA, établi par la décision de la Commission du 24 janvier 2024; les références faites au Bureau de l’IA dans le présent règlement s’entendent comme faites à la Commission; informe le Comité IA de toute mesure prise conformément aux articles 91 à 94.

    1. L’alerte qualifiée est dûment motivée et indique au moins:

      1. le point de contact du fournisseur, une personne physique ou morale, une autorité publique, une agence ou tout autre organisme qui développe ou fait développer un système d’IA ou un modèle d’IA à usage général et le met sur le marché ou met le système d’IA en service sous son propre nom ou sa propre marque, à titre onéreux ou gratuit; du modèle d’IA à usage général concerné présentant un risque systémique, un risque spécifique aux capacités à fort impact des modèles d’IA à usage général, ayant une incidence significative sur le marché de l’Union en raison de leur portée ou d’effets négatifs réels ou raisonnablement prévisibles sur la santé publique, la sûreté, la sécurité publique, les droits fondamentaux ou la société dans son ensemble, pouvant être propagé à grande échelle tout au long de la chaîne de valeur;;

      2. une description des faits pertinents et les motifs de l’alerte donnée par le groupe scientifique;

      3. toute autre information que le groupe scientifique juge pertinente, y compris, le cas échéant, les informations recueillies de sa propre initiative.

We're continuously improving our platform to serve you better.

Your feedback matters! Let us know how we can improve.

Found a bug?

Springflod is a Swedish boutique consultancy firm specialising in cyber security within the financial services sector.

We offer professional services concerning information security governance, risk and compliance.

Crafted with ❤️ by Springflod