Le règlement (UE) 2024/1689 établit un cadre juridique harmonisé pour l'utilisation de l'intelligence artificielle dans l'Union européenne. Il vise à garantir que les systèmes d'IA respectent les droits fondamentaux, la sécurité et l’éthique, tout en stimulant l’innovation. Voir article 1.
Les objectifs du règlement sont de promouvoir une IA digne de confiance, de garantir la sécurité juridique, de renforcer la gouvernance et la protection des droits fondamentaux, et de favoriser l’innovation responsable. Voir article 1.
Le règlement s’applique aux fournisseurs, utilisateurs, importateurs et distributeurs de systèmes d’IA dans l’UE, ainsi qu’à ceux opérant en dehors de l’UE si les systèmes sont utilisés sur le territoire européen. Voir article 2.
L’article 3 fournit des définitions clés telles que 'système d’IA', 'modèle fondamental', 'fournisseur', 'utilisateur', entre autres, essentielles pour comprendre les obligations spécifiques. Voir article 3.
Les pratiques interdites incluent les systèmes d’IA manipulant le comportement humain de manière subliminale, exploitant des groupes vulnérables, notant socialement les individus ou utilisant la reconnaissance biométrique non autorisée. Voir article 5.
Les systèmes d’IA sont classés selon quatre niveaux de risque : inacceptable (interdits), élevé (réglementé), limité (transparence exigée), et minimal (non réglementé). Voir article 6.
Les systèmes à haut risque doivent répondre à des exigences strictes concernant la gestion des risques, la qualité des données, la documentation, la transparence, la surveillance humaine, etc. Voir article 8.
Les données utilisées dans les systèmes d’IA à haut risque doivent être pertinentes, représentatives, exemptes de biais et suffisamment complètes. Voir article 10.
Le règlement impose une supervision humaine appropriée afin de prévenir les risques pour la santé, la sécurité et les droits fondamentaux. Voir article 14.
Les utilisateurs doivent être informés lorsqu’ils interagissent avec un système d’IA, notamment en cas de systèmes générant des contenus ou d’analyse émotionnelle. Voir article 13.
Les citoyens peuvent participer au débat via des forums consultatifs et bénéficier de garanties juridiques contre les usages abusifs des IA. Voir article 68.
Les bacs à sable réglementaires permettent de tester les systèmes d’IA innovants dans un cadre supervisé, en collaboration avec les autorités nationales. Voir article 57.
Les fournisseurs sont responsables de la conformité de leurs systèmes d’IA, notamment à travers une évaluation des risques, la documentation technique et la mise à jour des systèmes. Voir article 16.
Le Bureau européen de l’IA, sous l’égide de la Commission européenne, supervise l’application uniforme du règlement et fournit des orientations techniques. Voir article 64.
Les fournisseurs doivent assurer la surveillance continue après la mise sur le marché afin de corriger les éventuelles failles ou incidents. Voir article 72.
Les modèles d’IA à usage général sont ceux pouvant être appliqués à de nombreux cas d’utilisation. Des obligations spécifiques s’appliquent à ceux présentant des risques systémiques. Voir article 51.
Oui, des essais de systèmes d’IA sur des personnes sont autorisés sous conditions strictes de transparence, de sécurité et de consentement éclairé. Voir article 60.
La gouvernance est assurée par un comité d’experts, un bureau européen de l’IA, des autorités nationales et des mécanismes de coopération. Voir article 66.
Le non-respect des dispositions peut entraîner des amendes pouvant aller jusqu’à 35 millions d’euros ou 7 % du chiffre d'affaires mondial. Voir article 99.
Les normes harmonisées permettent aux entreprises de démontrer la conformité de leurs systèmes à certaines exigences réglementaires. Voir article 40.
L’évaluation de conformité peut être faite par autoévaluation ou par des organismes notifiés selon le type et le niveau de risque du système. Voir article 43.
Le marquage CE indique qu’un système d’IA respecte les exigences du règlement et a passé les procédures de conformité requises. Voir article 48.
Les codes de conduite sont encouragés pour aider à l’application volontaire de bonnes pratiques, notamment dans les PME. Voir article 56.
Oui, des mesures spécifiques sont prévues pour soutenir les PME, comme un accès facilité aux bacs à sable réglementaires. Voir article 62.
Les citoyens peuvent signaler des incidents graves ou risques via des mécanismes officiels mis en place par les États membres. Voir article 73.