Plongez dans le nouveau règlement de l’UE sur l’IA : Comprenez son impact sur l’intelligence artificielle et votre sécurité
L’avancée rapide de l’intelligence artificielle (IA) a un impact profond sur notre vie quotidienne, et l’Europe reconnaît son rôle essentiel dans le façonnement de la croissance et de la prospérité de la région. Exploiter la puissance des données et des technologies connectées est crucial, c’est pourquoi un nouveau règlement sur l’IA de l’UE a été élaboré.
Le 14 juin 2023, les membres du Parlement européen (MEP) ont adopté leur position de négociation sur la loi sur l’IA, marquant une étape importante vers la réglementation de l’IA. Les discussions à venir avec les pays de l’UE au sein du Conseil visent à façonner la version finale de la loi, dans le but de parvenir à un accord d’ici la fin de cette année.
L’adoption d’un acte sur l’IA complet par le Parlement européen reflète l’urgence de trouver un équilibre entre l’exploitation des avantages potentiels de l’IA et la réduction des risques potentiels. L’acte représente un effort concerté visant à établir un cadre réglementaire solide qui protège les intérêts des individus et des entreprises. Apprenez-en plus sur le règlement de l’IA de l’UE pour les dispositifs médicaux ci-dessous.
Règlement de l’IA de l’UE : Une nouvelle approche pour les systèmes d’IA
En établissant des règles et des normes claires, l’Europe vise à garantir que l’IA est déployée de manière éthique, responsable et transparente. Cette législation favorisera non seulement le développement de technologies d’IA de pointe, mais renforcera également la confiance parmi les citoyens.
Le projet de loi sur l’IA représente un effort visant à introduire une réglementation complète et horizontale de l’IA. Axé sur la prise en compte de l’utilisation spécifique des systèmes d’IA et des risques associés, le cadre juridique proposé vise à établir une définition technologiquement neutre des systèmes d’IA dans le droit de l’UE. De plus, il cherche à classer les systèmes d’IA en fonction d’une approche fondée sur les risques, ce qui permet des exigences et des obligations adaptées pour différentes catégories de systèmes d’IA. L’accent est mis sur la surveillance humaine plutôt que sur l’automatisation complète afin d’éviter tout effet néfaste.
Le projet de loi sur la réglementation de l’IA établit un ensemble clair d’objectifs pour guider sa mise en œuvre :
- Veiller à ce que les systèmes d’IA mis sur le marché de l’UE soient conformes aux lois de l’UE existantes et respectent les normes de sécurité
- Renforcer la gouvernance et l’application efficace des lois de l’UE relatives aux droits fondamentaux et aux exigences de sécurité des systèmes d’IA
- Fournir une certitude juridique pour favoriser un environnement propice à l’investissement et à l’innovation
En établissant des obligations claires pour les fournisseurs et les utilisateurs de systèmes d’IA en fonction du niveau de risque, les nouvelles règles trouvent un équilibre entre la promotion de l’innovation et la réduction des risques potentiels. Même les systèmes d’IA présentant un risque minimal sont soumis à une évaluation, ce qui souligne l’importance d’un processus d’évaluation approfondi.
Les niveaux de risque pour les systèmes d’IA sont les suivants :
- Risque inacceptable
- Grand risque
- IA générative
- Risque limité
Réglementation de l’IA pour les dispositifs médicaux
Les dispositifs médicaux contenant des systèmes d’IA sont répertoriés comme étant “à haut risque”, car ce sont des produits relevant de la législation européenne sur la sécurité des produits. Par conséquent, ces dispositifs font l’objet d’une évaluation approfondie avant leur mise sur le marché et tout au long de leur cycle de vie. Pour garantir la conformité, les fournisseurs de systèmes d’IA à haut risque doivent :
- Enregistrer leurs produits dans une base de données centralisée gérée par la Commission avant leur mise sur le marché ou leur prestation de services
- Si les produits et services médicaux à IA relèvent de la législation existante sur la sécurité des produits, ils doivent suivre les cadres de conformité de tierces parties établis
- Pour les systèmes d’IA actuellement non régis par la législation de l’UE, les fournisseurs doivent procéder à leur propre évaluation de conformité pour démontrer leur conformité aux nouvelles exigences relatives aux systèmes d’IA à haut risque et obtenir le marquage CE
Les systèmes d’IA à haut risque doivent respecter un ensemble complet d’exigences, notamment en matière de :
- Gestion des risques
- Tests
- Robustesse technique
- Formation et gouvernance des données
- Transparence
- Surveillance humaine
- Cybersécurité
L’accent mis sur la gestion des risques, la gouvernance des données, la transparence et la cybersécurité souligne l’importance du développement et de l’utilisation responsable de l’IA, favorisant la confiance du public dans ces technologies.
De plus, les fournisseurs, importateurs, distributeurs et utilisateurs de tels systèmes d’IA ont une série d’obligations à remplir. Les fournisseurs basés en dehors de l’UE doivent nommer un représentant autorisé au sein de l’Union pour superviser l’évaluation de conformité, établir un système de surveillance après commercialisation et prendre des mesures correctives lorsque cela est nécessaire. Les systèmes d’IA qui se conforment aux nouvelles normes harmonisées de l’UE anticipées, actuellement en développement, bénéficieront d’une présomption de conformité aux exigences décrites dans le projet de loi sur l’IA.