En plein essor, l’intelligence artificielle (IA) inspire à la fois émerveillement et inquiétude, poussant l’Union européenne à s’engager résolument dans un cadre réglementaire avec l’AI Act. Que doit-on retenir de ce texte, et comment se positionne-t-il par rapport aux prouesses technologiques et aux risques potentiels de l’IA ?
Comprendre l’enjeu de l’AI Act
Face à la croissance rapide du secteur de l’IA, la nécessité d’une réglementation appropriée est devenue un enjeu majeur pour les gouvernements. Dans ce contexte, l’Union européenne a présenté l’AI Act dans l’objectif de définir ses propres règles et de les imposer au reste du monde, proférant ainsi un défi considérable aux acteurs de l’IA.
L’AI Act a été conçu dans l’idée d’établir une « IA digne de confiance ». Pour Carme Artigas, secrétaire d’État espagnole à la numérisation et à l’intelligence artificielle, il est essentiel de stimuler l’innovation en IA dans toute l’Europe tout en respectant les droits fondamentaux des citoyens.
Décrypter la structure de l’AI Act
L’AI Act établit un cadre réglementaire en évaluant les risques et en distinguant les différents niveaux de risque associés aux différents systèmes d’IA. Les systèmes jugés comme présentant des risques inacceptables sont interdits, tandis que les autres sont classés comme posant des risques systémiques, élevés ou faibles.
Les systèmes à « risques systémiques » font l’objet d’un régime spécifique. Ils incluent des modèles de grande envergure exploitant de grandes quantités de données, comme ChatGPT. Des obligations renforcées leur sont imposées, notamment en matière de notification d’incidents de cybersécurité.
Quant aux systèmes « à haut risque », ils englobent entre autres les systèmes d’IA utilisés dans les processus de recrutement, l’attribution de droits sociaux ou l’octroi de l’asile. Plusieurs obligations leur sont appliquées, comme la mise en place d’un système de gestion des risques robuste ou le maintien d’une documentation technique exhaustive.
Enfin, les systèmes à risques faibles ou limités restent malgré tout soumis à une obligation de transparence.
Appréhender les limites de l’AI Act
L’AI Act est généralement bien accueilli, mais certaines réticences se font connaître, notamment concernant le définition des modèles à « risque systémique ». De plus, plusieurs compromis soulèvent des inquiétudes quant à leur possible exploitation abusive, comme l’autorisation donnée aux États d’utiliser des dispositifs d’identification biométrique en temps réel pour des motifs de sécurité nationale.
Un cadre réglementaire à compléter
L’AI Act est un pas important vers une régulation de l’IA, mais il n’épuise pas les besoins d’encadrement. Sa mise en conformité, surtout pour les systèmes à haut risque, nécessite également le respect de standards techniques encore en cours d’élaboration.
En outre, la lecture de l’AI Act devra être combinée à d’autres textes, comme le Règlement général sur la protection des données (RGPD) ou encore le Règlement sur les services numériques (Digital Services Act), afin de couvrir tous les aspects de l’IA.
Quel futur pour la régulation de l’IA ?
Il semble clair aujourd’hui que la régulation de l’IA ne devrait plus reposer uniquement sur les entreprises du secteur. L’AI Act établit un premier cadre, mais sa mise en œuvre devra pallier les nombreuses zones d’ombre qui demeurent. Alors, comment les différentes parties prenantes accueilleront-elles les nouvelles régulations ? Et quels seront les prochains développements dans ce domaine passionnant ?