Intelligence artificielle (IA) : la CNIL publie un plan d’action
Intelligence artificielle (IA) : le plan d’action de la CNIL comporte 4 volets
Depuis quelques mois, l’intelligence artificielle (IA) dite « générative » connait un grand développement avec l’apparition d’outils tels que ChatGPT, Bard, Dall-E, Midjourney, Vall-E, etc.
Pour la petite histoire, sachez que l’IA générative est un système qui crée du texte, des images ou d’autres contenus (musique, vidéo, voix, etc.) à partir d’une instruction d’un utilisateur humain (le « prompt engineering »).
L’intérêt pour l’IA générative a amené la CNIL à publier un plan d’action, en attendant l’adoption d’un accord européen sur le sujet (le projet de règlement européen dit « IA Act », actuellement en discussion).
Ce plan s’articule autour de 4 axes :
- Axe 1 : appréhender le fonctionnement des systèmes d’IA et leurs impacts pour les personnes ;
- Axe 2 : permettre et encadrer le développement d’IA respectueuses des données personnelles ;
- Axe 3 : fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe ;
- Axe 4 : auditer et contrôler les systèmes d’IA et protéger les personnes.
L’axe 1 doit amener les particuliers et les professionnels à se poser des questions sur la protection des données, notamment :
- la loyauté et la transparence des traitements de données sous-jacents au fonctionnement de ces outils ;
- la protection des données publiquement accessibles sur le Web face à l’utilisation du moissonnage de données pour la conception des outils ;
- la protection des données transmises par les utilisateurs lorsqu’ils utilisent ces outils, allant de leur collecte (via une interface) à leur éventuelle réutilisation, en passant par leur traitement par les algorithmes d’apprentissage automatique ;
- les conséquences sur les droits des personnes sur leurs données, tant en ce qui concerne celles collectées pour l’apprentissage de modèles que celles qui peuvent être fournies par ces systèmes ;
- la protection contre les biais et les discriminations susceptibles de survenir ;
- les enjeux de sécurité inédits de ces outils.
Ces questions sont envisagées par le laboratoire d’innovation numérique de la CNIL (LINC). Notez que le LINC a notamment publié un dossier sur l’IA générative pour mieux comprendre les enjeux spécifiques de ces systèmes.
L’axe 2 vise à anticiper l’application de l’IA Act et à préparer les entreprises et les particuliers à l’impact des systèmes d’IA dans les années à venir. À cet effet, la CNIL a déjà publié des fiches pédagogiques sur le sujet et continuera à publier des documents dans les mois et années à venir.
L’axe 3 se matérialise déjà concrètement par 3 mesures :
- la création d’un « bac à sable » pour accompagner les projets innovants depuis 2021 ;
- la création d’un programme d’accompagnement spécifique des fournisseurs de vidéosurveillance « augmentée » dans le cadre des Jeux olympiques de 2024 ;
- la création d’un programme « d’accompagnement renforcé » pour assister les entreprises innovantes dans leur conformité au RGPD.
Par ailleurs, la CNIL se tient à disposition des entreprises qui souhaitent développer des systèmes d’IA dans une logique de protection des données personnelles. Pour se faire, il est possible de la contacter à l’adresse ia@cnil.fr.
Enfin, l’axe 4 vise à doter la CNIL d’un outillage lui permettant d’auditer les systèmes d’IA. À ce propos, sachez que le LINC a publié un dossier sur les solutions d’audit algorithmique.
Durant l’année 2023, la CNIL va mener des actions concernant :
- le respect, par les entreprises, de sa position sur l’usage de la vidéosurveillance « augmentée » ;
- l’usage de l’IA pour lutter contre la fraude (par exemple la fraude à l’assurance sociale), au regard des enjeux liés à l’usage de tels algorithmes ;
- l’instruction de plaintes déposées auprès de ses services.