Les travaux de l’ANSSI en matière d’IA s’articulent autour des axes prioritaires suivants
Accompagner la mise en œuvre du Règlement européen sur l’IA (dit « RIA ») sur le volet cyber
Le RIA a été publié au Journal officiel de l’Union européenne le 12 juillet 2024. Ce règlement vise à encadrer le développement et l'utilisation de l'IA pour garantir la sécurité, les droits fondamentaux et la protection des données. Il s’agit d’un règlement orienté vers la surveillance de marché, et non spécifiquement cyber.
La cybersécurité des systèmes d’IA est évoquée dans le règlement (art. 15), mais la définition des spécificités techniques cyber est renvoyée aux instances de normalisation européennes (CEN/CENELEC). L’AFNOR contribue à ces travaux au travers d’un groupe de travail dédié, dont l’ANSSI est membre.
Si l’ANSSI n’a pas vocation à assumer un rôle d’autorité de surveillance de marché des systèmes d’IA au sens du RIA, elle jouera toutefois un rôle en matière d’assistance technique sur les questions de cybersécurité dont la définition des modalités exactes est actuellement en cours.
Accompagner les administrations dans leurs déploiements d’IA
Le déploiement de l’IA dans les administrations, à des fins d’outillage ou d’expérimentation, est une priorité pour l’Agence qui assure la cybersécurité de ces dernières. Dans ce contexte, l’ANSSI accompagne les déploiements de systèmes d’IA au sein des administrations afin de s’assurer de la bonne prise en compte des enjeux de cybersécurité. A titre d’exemple, l’ANSSI contribue au déploiement d’Albert, l’outil d’intelligence artificielle générative développé par la DINUM.
Accompagner les offreurs et les acquéreurs de solutions de cybersécurité
Les solutions de cybersécurité intégrant de l’IA se multiplient sur le marché. Dans le cadre de ses missions vis-à-vis de l’écosystème cyber, l’Agence accompagne les industriels dans l’intégration sécurisée de l’IA au sein des solutions de sécurité. De plus, l’ANSSI veille à ce que la cybersécurité soit prise en compte dans les projets d’IA financés par France 2030, dès leur conception.
Participer à la construction de schémas de certification de cybersécurité de produits et de systèmes d’IA
La France est l’un des principaux acteurs européens dans le domaine de la certification de cybersécurité. A la lumière de l’utilisation croissante des systèmes d’IA, l’écosystème français et européen doit travailler à la création de schémas de certifications dédiés. Ces derniers sont nécessaires pour favoriser le développement et l’usage des systèmes d’IA de confiance sur le marché.
L’ANSSI s’implique, avec l’écosystème français et les partenaires étrangers, à l’élaboration de méthodes d’évaluation et de certification adaptées aux systèmes d’IA. Par ailleurs, l’Agence œuvre pour l’harmonisation des différents contextes réglementaires dans lesquels il pourrait être fait appel à la certification.
Sensibiliser l’ensemble de l’écosystème aux enjeux de cybersécurité liés à l’IA
Alors que le sujet de l’IA ne cesse de prendre de l’ampleur, l’ANSSI sensibilise l’écosystème aux enjeux de cybersécurité liés à ces systèmes.
L’Agence participe à des événements d’ampleur sur l’IA. En février 2025, elle a contribué à la deuxième édition du sommet international pour l’action sur l’IA (« AI Action Summit ») à Paris. L’ANSSI a piloté les travaux sur la cybersécurité et a notamment organisé un exercice de crise cyber mobilisant près de 200 participants experts cyber et industriels IA ( (Ouvre une nouvelle fenêtre) Sommet pour l'action sur l'intelligence artificielle - février 2025).
Suivre le développement de l’Institut national d’évaluation et de sécurité de l’IA
L’Agence participe aux travaux de l’Institut national d’évaluation et de sécurité de l’intelligence artificielle (INESIA ou AI Safety Institute français) en lien avec l'Institut national de recherche en informatique et en automatique (INRIA), le Laboratoire national de métrologie et d’essais (LNE) et le Pôle d'expertise de la régulation numérique (PEReN).
Cet institut s’inscrit dans une démarche internationale en lien avec les autres AI Safety Institutes. Il permettra à la France de jouer pleinement son rôle au sein du réseau international des AI Safety Institutes. Aux côtés du Canada, de la Corée du Sud, des Etats-Unis d’Amérique, du Japon, du Kenya, de Singapour, du Royaume-Uni ou encore de l’AI Office de la Commission européenne, l’INESIA travaillera à promouvoir la sécurité, l’inclusivité et la confiance dans l’IA.
Les travaux de l’INESIA français porteront sur l'analyse des risques systémiques dans le champ de la sécurité nationale, le soutien à la mise en œuvre de la régulation de l'IA, et l'évaluation de la performance et de la fiabilité des modèles d'IA. ( (Ouvre une nouvelle fenêtre) communiqué de presse).