Le Règlement européen sur l’intelligence artificielle : publics concernés, dates clés, conséquences pour les entreprises

Le Règlement européen sur l'intelligence artificielle : publics concernés, dates clés, conséquences pour les entreprises

Lien source de cet article.
Auteur :

Les systèmes d’intelligence artificielle, considérés comme présentant un risque minimal ou nul, ne sont soumis à aucune obligation particulière au titre du règlement.

Qui est concerné par l’IA Act ? 

Le règlement sur l’IA concerne toute organisation, qu’elle soit une entreprise, une association ou une administration, qui fournit, importe, distribue ou déploie des systèmes ou modèles d’intelligence artificielle encadrés par le règlement.

Cela inclut les entités établies dans l’Union européenne (UE), ainsi que celles situées en dehors de l’Union, dès lors que leurs produits sont utilisés ou distribués dans l’UE.

Les acteurs particulièrement concernés sont ceux qui fournissent des systèmes d’IA dits « à haut risque » dans l’UE.

Ce que le règlement européen sur l’IA change pour les entreprises

Le règlement européen sur l’intelligence artificielle aura un impact non négligeable pour les entreprises, en particulier celles qui développent ou déploient des systèmes d’IA qui seront classés comme étant à haut risque.

Avant de pouvoir commercialiser ces systèmes, les fournisseurs devront obtenir un marquage CE et s’inscrire dans la base de données de l’Union européenne (base de données contenant des informations sur les systèmes d’IA à haut risque).

Elles devront également mettre en place un système de gestion des risques et garantir la gouvernance des données pour s’assurer que celles-ci ne sont pas biaisées.

Une documentation technique complète sera nécessaire, de même qu’un système de gestion de la qualité pour assurer la conformité à toutes les étapes du cycle de vie du produit, y compris la surveillance après sa commercialisation.

Les entreprises devront rédiger une déclaration de conformité, garantir la traçabilité et la transparence des systèmes d’IA, et assurer un contrôle humain sur les décisions prises par l’IA.

Enfin, elles devront veiller à la robustesse, l’exactitude et la cybersécurité des systèmes d’IA à haut risque qu’elles fournissent.

En savoir plus

Autres articles