A quality standard and certification for AI
Créer la confiance. Alors que les outils basés sur l’intelligence artificielle se multiplient partout dans le monde et envahissent le quotidien, les craintes associées à ces nouvelles technologies n’ont rien de virtuelles. Répondre à ces interrogations, c’est tout l’enjeu d’ISO/IEC 42001, norme volontaire de portée internationale, récemment publiée dans la collection AFNOR Editions sous le libellé ISO/IEC 42001 (le préfixe IEC signifie International Electrotechnical Commission). On est bien ici sur le terrain de la normalisation volontaire, et non sur celui de la réglementation telle que la dessine l’IA Act européen, même si les deux vont de pair.
« L’un des principes posés par le référentiel est de faire en sorte que l’humain conserve toujours le contrôle sur la machine, précise Paul Houzé, en charge de la normalisation chez Microsoft et membre de la commission de normalisation française pilotée par AFNOR. Le texte s’appuie sur le modèle des systèmes de management qui font la force d’ISO (dont la célèbre ISO 9001 sur le management de la qualité, ndlr), avec une structure qui prend en compte les exigences de toutes les parties prenantes, les risques mais aussi la modularité. ISO/IEC 42001 s’adapte à tous les contextes et à toutes les futures innovations. »
ISO/IEC 42001 : une certification à la clef
Selon qu’elle soit destinée à un usage industriel, militaire ou commercial, l’intelligence artificielle revêt en effet des contours radicalement différents. Applicable à ces différentes situations, le référentiel fixe néanmoins des principes généraux quant à la protection des données, la spécification des informations utilisées pour « nourrir » l’IA, sa robustesse mais aussi sa transparence et son explicabilité. À chaque acteur de se les approprier, selon ses besoins et ses spécificités. Une formation AFNOR Compétences est d’ores et déjà disponible ici pour se perfectionner.
« Il s’agit d’un référentiel certifiable. Des auditeurs indépendants seront donc amenés à vérifier les pratiques du concepteur avant de remettre un signe de reconnaissance, qui prouvera à toutes ses parties prenantes (partenaire, législateur, client…) le respect des principes fixés. C’est un outil qui va créer la confiance entre les acteurs du marché », complète Paul Houzé. « L’esprit de la certification est proche de celui de la certification qualité pour les dispositifs médicaux », poursuit Brice Gilbert, qui a préparé la commercialisation de cette certification AFAQ chez AFNOR Certification. « L’organisation qui obtient la certification ISO 42001 témoigne de son engagement à gérer l’intelligence artificielle de manière éthique et responsable », complète Mame Astou Ndiaye, qui assisté ce dernier dans ce travail. Autre objectif : éviter les dérives et encadrer un secteur en plein essor ces dernières années. Vous pouvez d’ores et déjà demander un audit de certification ici.
Accompagner l’innovation avec la norme
En parallèle, les pays s’arment et légifèrent. Le cadre légal va prochainement se durcir, notamment en France. Mais ISO/IEC 42001 anticipe. « Le référentiel est conçu pour s’adapter aux futures exigences réglementaires, quel que soit le pays. C’est la force du système de management, qui encadre sans brider, commente Paul Houzé. Alors que l’IA connaît un développement fulgurant, l’objectif de la norme n’est pas d’empêcher l’innovation, mais au contraire de l’accompagner en fixant des principes partagés, qui font consensus et tracent la voie à suivre. » Lisez à ce sujet la tribune d’un collectif de professionnels favorables à une régulation de l’IA par les risques, parmi lesquels Patrick Bézombes, président de la commission de normalisation AFNOR, Laurence Devillers, professeure à la Sorbonne et membre de cette commission, et Franck Lebeugle, responsable des activités de normalisation chez AFNOR.
Comme pour tout référentiel certifiable basé sur une norme NF, le certificat sera valable trois ans, avec des audits de suivi et de renouvellement. ISO/IEC 42001 pourrait rapidement s’imposer comme un incontournable pour rassurer les utilisateurs et, plus généralement, une société inquiète de la place de la technologie et de la machine. Ou comment faire de l’IA un outil de progrès… et non d’asservissement à d’obscurs algorithmes.
Vous pouvez également consulter notre dossier sur l’intelligence artificielle