Sommet de l’IA : AFNOR au rendez-vous
ChatGPT, DeepSeek aujourd’hui… Face à la tornade IA, AFNOR propose comme abri les normes volontaires ! En 2022 déjà, nous disions que l’intelligence artificielle, a fortiori avec les derniers développements de l’IA générative, avait besoin d’un code de conduite favorisant la compréhension entre les acteurs et l’interopérabilité des systèmes, d’un cadre de nature à diffuser la confiance, en particulier pour les systèmes d’IA à hauts risques répertoriés dans ce qui est aujourd’hui l’IA Act, le règlement européen sur l’intelligence artificielle. C’est avec cette posture que le groupe participe au Sommet de l’IA à Paris voulu par le président de la République, sur deux séquences :
- Une première séquence scientifique, le 7 février 2025, à l’école Polytechnique
- Une seconde séquence politique, le 10 février 2025, au Grand Palais.
Le 7 février, AFNOR animera une table ronde sur l’IA de confiance (session n° 3, auditorium Faurre), avec la participation de Touradj Ebrahimi, professeur à l’Ecole polytechnique fédérale de Lausanne, de représentants d’organismes européens et internationaux de normalisation (BSI, CEN-Cenelec, Danish Standards, DIN, IEC, ISO) et de l’entreprise Naaia, première entreprise française certifiée ISO 42001. La norme volontaire ISO/IEC 42001, déclinaison à l’univers IA de la norme-mère ISO 9001, s’affirme comme un socle précieux pour les professionnels de l’IA souhaitant avancer de manière méthodique et travailler en amélioration continue. « Elle dessine le cadre d’un système de management de la qualité pour l’entreprise mettant en œuvre un dispositif d’IA à haut risque », résume Virginie Desbordes, responsable de la thématique Confiance numérique chez AFNOR Certification.
Normalisation de l’IA : une question de souveraineté
Cette norme-chapeau préfigure une série de documents normatifs attendus à l’échelle européenne pour appuyer l’IA Act. Une dizaine d’entre elles doivent même devenir des normes harmonisées, c’est-à-dire proposer une manière de faire détaillant, une à une, chaque exigence du règlement, et ainsi offrir, une fois citées au Journal Officiel, une présomption de conformité réglementaire à tout acteur qui les appliquera. Leur périmètre : trustworthyness framework, risk management, conformity assessment, etc. « L’Europe défend l’idée que le développement et l’utilisation des IA guidés par des principes, qui seront à terme des contraintes, stimulent l’innovation tout en garantissant un meilleur contrôle des résultats de ces innovations », souligne Anna Médan, chargée de la thématique IA chez AFNOR Normalisation.
AFNOR a pris les devants en constituant une communauté d’acteurs attachés à construire une position française et à la défendre, plutôt que de se voir imposer des règles du jeu tierces. C’était le sens du Grand Défi IA, mission pilotée par le Secrétariat général pour l’investissement. A son lancement en 2021, AFNOR a été chargée de « créer l’environnement normatif de confiance accompagnant les outils et les processus de certification des systèmes critiques à base d’intelligence artificielle ». La défense d’une communauté française de l’IA s’accordant sur des bonnes pratiques reste d’actualité, comme l’indique un rapport
de l’Office parlementaire d’évaluation des choix scientifiques et techniques (OPECST) de novembre 2024 : « Il faut permettre à la France de défendre au mieux l’intérêt national ainsi que les intérêts de ses entreprises nationales en matière de normalisation de l’IA, ce qui implique de mobiliser davantage AFNOR et le Cofrac. »
La France a imprimé sa marque normative en abordant l’IA aussi par l’angle environnemental. En témoigne l’intérêt recueilli par le référentiel AFNOR Spec 2314
sur l’IA frugale, co-construit avec des dizaines d’acteurs dont Ecolab, un service du Commissariat général au développement durable (ministère de la Transition écologique), et téléchargeable gratuitement ici
. Si les systèmes d’IA posent un risque, c’est bien celui d’une pression accrue sur l’environnement, au regard de l’énergie dépensée pour les entraîner ! Le référentiel AFNOR passe en revue les critères à prendre en compte pour évaluer ces impacts. Un document qui facilitera grandement la conception des normes volontaires qui s’annoncent à l’échelle européenne. Sur ce sujet, comme sur tous les autres de la thématique IA, AFNOR Compétences propose une gamme de formations
étoffée.