Sommet de l’IA : AFNOR au rendez-vous

En février 2025, AFNOR participe au Sommet pour l’action sur l’IA voulu par le président de la République. Son crédo : l’industrie française de l’IA a besoin de normes volontaires. Il s’agit d’outiller les professionnels avec de quoi bâtir des IA de confiance et bien étudier leur impact environnemental.

Écoutez cet article :
Temps de lecture : 6 minutes

ChatGPT, DeepSeek aujourd’hui… Face à la tornade IA, AFNOR propose comme abri les normes volontaires ! En 2022 déjà, nous disions que l’intelligence artificielle, a fortiori avec les derniers développements de l’IA générative, avait besoin d’un code de conduite favorisant la compréhension entre les acteurs et l’interopérabilité des systèmes, d’un cadre de nature à diffuser la confiance, en particulier pour les systèmes d’IA à hauts risques répertoriés dans ce qui est aujourd’hui l’AI Act, le règlement européen sur l’intelligence artificielle. C’est avec cette posture qu’en février 2025, le groupe participe au Sommet pour l’action sur l’IA à Paris voulu par le président de la République, sur deux séquences :

  • Une première séquence scientifique, le 7 février, à l’école Polytechnique
  • Une seconde séquence politique, le 10 février, au Grand Palais.

Le 7 février, AFNOR animera une table ronde sur l’IA de confiance (session n° 3, auditorium Faurre), avec la participation de Touradj Ebrahimi, professeur à l’Ecole polytechnique fédérale de Lausanne, de représentants d’organismes européens et internationaux de normalisation (BSI, CEN-Cenelec, Danish Standards, DIN, IEC, ISO) et de l’entreprise Naa.ia, première entreprise française certifiée ISO 42001 par AFNOR Certification. Vous pouvez vous inscrire ici (nombre de places limitées). La norme volontaire ISO/IEC 42001, déclinaison à l’univers IA de la norme-mère ISO 9001, s’affirme comme un socle précieux pour les professionnels de l’IA souhaitant avancer de manière méthodique et travailler en amélioration continue. « Elle précise le cadre d’un système de management de la qualité pour l’entreprise concevant ou développant des systèmes d’IA, sans oublier les utilisateurs », résume Virginie Desbordes, responsable de la thématique Confiance numérique chez AFNOR Certification.

Normalisation de l’IA : une question de souveraineté

L’ISO 42001 norme est issue d’un consensus international. Elle constitue un socle sur lequel prendront appui une série de documents normatifs attendus à l’échelle européenne. Une dizaine d’entre elles doivent même devenir des normes harmonisées, c’est-à-dire proposer une manière de faire détaillant, une à une, chaque exigence du règlement IA, et ainsi offrir, une fois citées au Journal Officiel, une présomption de conformité réglementaire à tout acteur qui les appliquera. Leur périmètre : trustworthyness framework, risk management, conformity assessment, etc. Le sujet de la caractérisation de la confiance (trustworthyness) est débattu au CEN-Cenelec au sein d’un comité qui est vice-présidé par AFNOR pour la France. « L’Europe défend l’idée que le développement et l’utilisation des IA à haut risque guidés par des principes – principes qui seront à terme des contraintes – stimulent l’innovation tout en garantissant un meilleur contrôle des résultats de ces innovations », souligne Anna Médan, chargée de la thématique IA chez AFNOR Normalisation.

AFNOR a pris les devants en constituant une communauté d’acteurs attachés à construire une position française et à la défendre, plutôt que de se voir imposer des règles du jeu tierces. C’était le sens du Grand Défi IA, mission pilotée par le Secrétariat général pour l’investissement. A son lancement en 2021, AFNOR a été chargée de « créer l’environnement normatif de confiance accompagnant les outils et les processus de certification des systèmes critiques à base d’intelligence artificielle ». La défense d’une communauté française de l’IA s’accordant sur des bonnes pratiques reste d’actualité, comme l’indique un rapport de l’Office parlementaire d’évaluation des choix scientifiques et techniques (OPECST) de novembre 2024 : « Il faut permettre à la France de défendre au mieux l’intérêt national ainsi que les intérêts de ses entreprises nationales en matière de normalisation de l’IA, ce qui implique de mobiliser davantage AFNOR et le Cofrac. »

La France a imprimé sa marque normative en abordant l’IA aussi par l’angle environnemental. En témoigne l’intérêt recueilli par le référentiel AFNOR Spec 2314 sur l’IA frugale, co-construit avec des dizaines d’acteurs dont Ecolab, un service du Commissariat général au développement durable (ministère de la Transition écologique), et téléchargeable gratuitement ici. Si les systèmes d’IA posent un risque, c’est bien celui d’une pression accrue sur l’environnement, au regard de l’énergie dépensée pour les entraîner ! Le référentiel AFNOR passe en revue les critères à prendre en compte pour évaluer ces impacts. Un document qui facilitera grandement la conception des normes volontaires qui s’annoncent à l’échelle européenne et à l’échelle internationale. D’autant qu’AFNOR est associée à la Coalition mondiale pour une IA durable, lancée dans le sillage du sommet par le ministère français de la Transition écologique. Sur ce sujet, comme sur tous les autres de la thématique IA, AFNOR Compétences propose une gamme de formations étoffée.

Enfin, vouloir une IA responsable suppose de mettre les pratiques en cohérence et pousser que les événements sur le sujet soient eux-mêmes responsables. En ce sens, après audit, AFNOR Certification a remis aux organisateurs du Sommet parisien la certification ISO 20121 et le label Egalité Grand événement.