Grand Défi IA : la saison 2 a débuté ce jeudi
Lorsque les pouvoirs publics français ont lancé le Grand Défi IA, en 2021, il y avait cet objectif, signant clairement une stratégie d’influence : « A l’issue du projet, la France disposera d’une stratégie de standardisation dans le domaine de l’IA et la mettra en œuvre en s’appuyant sur des partenariats concertés (…), elle accroîtra son influence dans les instances européennes et internationales de normalisation (…), elle améliorera la compétitivité des entreprises françaises. »
Orchestré par le Secrétariat général pour la programmation des investissements (SGPI), un service du Premier ministre, le Grand Défi IA saison 1 se plaçait très en amont de la production de normes : il s’agissait d’aller chercher les entreprises éloignées de la normalisation, d’expliquer et de vulgariser les normes volontaires existantes, de créer une cartographie des normes et de faciliter leur adoption. Et bien sûr, de fédérer un maximum d’experts autour du projet. Retrouvez ici le communiqué diffusé au démarrage du partenariat.
Bientôt les normes harmonisées de l’AI Act
Mission accomplie. Depuis trois ans, la France, via AFNOR, est devenue un acteur important de la normalisation de l’intelligence artificielle, en pilotant par exemple le groupe de cartographie stratégique à l’ISO-IEC JTC1/SC42 ou en prenant la vice-présidence du CEN-CLC JTC 21. « Nous avons structuré l’écosystème français autour d’une feuille de route, par le biais de partenariats avec des acteurs Confiance.ai, France Digitale ou Hub France IA, explique Morgan Carabeuf, responsable du pôle numérique chez AFNOR Normalisation. Nous avons mobilisé des acteurs comme l’INRIA, Microsoft, Numalis, IBM, IRT System X, Airbus, Schneider, l’institut Montaigne… » La publication, fin 2023, de la norme ISO/IEC 42001 cadrant les systèmes de management de l’IA (une norme certifiable) est aussi une victoire.
Et pourtant, « au regard des enjeux autour des normes harmonisées, davantage d’experts français fortement impliqués serait nécessaire », poursuit Morgan Carabeuf. Les normes harmonisées, de quoi s’agit-il ? Elles ont un statut particulier, à mi-chemin entre normes volontaires et normes réglementaires. Dans l’Union européenne, la conformité d’un produit aux normes harmonisées constitue une présomption de conformité à la loi, et devient alors un vrai avantage concurrentiel de marché. C’est dire leur pouvoir. En l’espèce, les normes harmonisées de l’AI Act doivent être prêtes pour avril 2025. Nous sommes donc en plein dans la course, et ce n’est pas le moment pour la France de faire une pause. C’est le sens de l’avenant au contrat signé avec le SGPI le 25 juillet 2024. D’autant que le contexte évolue rapidement. Fin 2022, on a vu débarquer ChatGPT, rapidement suivi de ses « cousins ». En termes de bonnes pratiques, l’IA générative mérite sans doute une stratégie dédiée.
La norme « AI Trustworthiness Framework », une porte d’entrée
Mais la feuille de route des prochaines années tourne surtout autour de la future norme volontaire européenne sur la caractérisation de la confiance pour l’IA (AI Trustworthiness Framework), un projet proposé par la France et accepté en janvier 2024. Actuellement en cours de rédaction, pour une durée maximale de trois ans, cette future norme sera elle aussi harmonisée au sein des Vingt-Sept. « Elle est vue comme stratégique par la Commission européenne, qui en a fait une de ses priorités. Elle pourra faire référence à d’autres normes plus détaillées, venant soit de l’ISO, soit de l’ETSI [l’instance de normalisation des télécoms, ndlr], soit de l’IEEE [celle de l’électronique] », explique Morgan Carabeuf. La stratégie française a consisté à réduire le risque de déluge normatif en proposant ce projet, qui doit être la porte d’entrée à la normalisation para-réglementaire. Ce projet fournira les exigences de haut niveau et guidera les entreprises dans leurs démarches de conformité à l’AI Act. »
Aux commandes, on trouve Enrico Panai, éthicien de l’IA et farouche défenseur de la normalisation, depuis de nombreuses années. « L’idée vient de loin et a donné lieu à plusieurs publications qui ont inspiré l’AI Act, dit-il. Avec comme fil conducteur le fait que la confiance est un élément fondamental de tous les processus de normalisation. » Pourquoi ? « Car l’Europe est convaincue qu’il faut de la confiance pour qu’un marché se développe, répond Enrico Panai. A l’opposé de ceux qui jettent l’opprobre sur la régulation, sous prétexte qu’elle tue l’innovation. »
La confiance, une condition nécessaire pour innover
L’éthicien rappelle qu’en Europe, l’innovation est faite par des PME et TPE, et non par les Gafam. « Il faut en être conscient. Si les consommateurs ne font pas confiance à la technologie de l’IA, les entreprises ne pourront rien développer du tout », martèle Enrico Panai. Autre aspect, lui aussi sous-estimé selon lui : « Une technologie n’est jamais construite par une seule entreprise. On a besoin de toute une chaîne d’acteurs et de développeurs. Mais impossible de signer des contrats sans standards pour s’aligner ! »
Travailler sur un sujet immatériel comme la confiance n’est pas évident, mais il est possible d’y arriver grâce à des « proxys » (marqueurs, indices). « On indique par exemple que telle caractéristique mesurable est une preuve qui signifie qu’on peut construire une relation de confiance. C’est la même chose que dans un restaurant, où vous pouvez vous dire qu’une cuisine ouverte, le bon signalement d’une marche, ou encore la propreté des sanitaires, constituent un bon signal », compare Enrico Panai. Le message est passé : si vous avez envie de vous investir en normalisation… n’hésitez plus ! « Il s’agit d’une œuvre chorale où de nombreuses voix sont nécessaires pour parvenir à un résultat partagé et acceptable. »