Venez écrire les normes volontaires de l’intelligence artificielle
Les systèmes sollicitant une intelligence artificielle (IA) font d’ores et déjà partie de notre quotidien. Et ce n’est qu’un début. À l’heure actuelle, une publication scientifique sur 25 traite d’IA et 21 % des investissements en capital-risque au sein de l’OCDE portent sur ce domaine en pleine explosion. Toute une industrie se développe dans ce secteur aux multiples applications, ce qui en fait un enjeu de souveraineté économique pour la France et l’Europe. Et plus particulièrement en ce premier semestre 2022, dans le cadre de la présidence française de l’Union européenne…
Mais pour s’imposer sur les marchés, les systèmes à base d’IA doivent inspirer confiance. Les acteurs doivent aussi partager des bonnes pratiques, un vocabulaire et des protocoles communs. « Objectif : adopter l’approche la moins discriminante possible pour les nouveaux entrants, souligne Renaud Vedel, coordinateur de la stratégie française en IA. Il nous faut une IA interopérable, construite sur des solutions agnostiques qui ne privilégient ni un composant, ni une technologie. » Ce partage n’est possible qu’avec des normes volontaires.
En Europe, ces normes viendront en appui du règlement que la Commission de Bruxelles prépare sur le sujet. Contrairement à ce futur règlement, qui sera coercitif comme l’est déjà le RGPD, la normalisation est d’application volontaire.
Normes de l’IA : 6 axes de travail
Pilotage d’une voiture, fonctionnement d’un dispositif médical voire maniement d’une arme… L’intelligence artificielle est amenée à intervenir dans tous les domaines, même les plus critiques. « Or, dans le monde numérique, les protocoles sont en mutation constante raconte Christoph Peylo, SVP Digital Trust de Bosch. Dans ce domaine instable, pour éviter que le contrôle n’échappe à l’humain, il est indispensable de bâtir un environnement robuste, souverain et compréhensible pour créer une IA de confiance ».
« L’acceptabilité sociale des systèmes d’intelligence artificielle passe par la confiance et l’utilité des applications, abonde Julien Chiaroni, directeur du Grand Défi Intelligence artificielle, un projet arrimé au programme d’investissement d’avenir (PIA) et au plan France Relance. Nous sommes face à un enjeu industriel majeur, avec un marché estimé à 50 milliards d’euros. Accompagner l’écosystème passe par la standardisation et la définition d’une solution basée sur la confiance. »
Pour ce faire, en mai 2021, l’Etat a mandaté AFNOR dans le cadre de ce Grand Défi IA avec une mission : « créer l’environnement normatif de confiance accompagnant les outils et les processus de certification des systèmes critiques à base d’intelligence artificielle ». Aujourd’hui, le programme de travail est finalisé. Vous pouvez le consulter ici, a fortiori si, comme 260 acteurs français du domaine, vous avez pris part à la consultation menée à l’été 2021 pour le construire.
Vous pourrez ensuite participer à l’élaboration des normes dans l’enceinte de nos commissions de normalisation. « La contribution n’est pas réservée aux grands groupes, bien au contraire, insiste Patrick Bezombes, président de la commission de normalisation française. Les start-up et PME constituent un maillon essentiel de l’écosystème, elles doivent faire entendre leur voix et donner leur point de vue : les orientations choisies les impacteront directement, en plein cœur de leur business. »
La feuille de route comporte 6 axes :
- Axe 1 : Développer les normes portant sur la confiance
Les caractéristiques prioritaires à normaliser retenues sont la sécurité, la sûreté, l’explicabilité, la robustesse, la transparence, l’équité (dont non-discrimination). Chaque caractéristique devra faire l’objet d’une définition, d’une description du concept, des exigences techniques et des métriques et contrôles associés. - Axe 2 : Développer les normes sur la gouvernance et le management de l’IA
L’IA génère de nouvelles applications, qui comportent toutes des risques. Ces risques sont d’origine diverse : mauvaise qualité des données, mauvaise conception, mauvaise qualification, etc. Une analyse des risques pour les systèmes à base d’IA est donc essentielle, pour ensuite proposer un système de management des risques. - Axe 3 : Développer des normes sur la supervision et le reporting des systèmes d’IA
Il s’agit de s’assurer que les systèmes d’IA sont contrôlables (capacité à reprendre la main), que l’humain pourra reprendre la main aux moments critiques où l’IA sortira de son domaine de fonctionnement nominal. - Axe 4 : Développer des normes sur les compétences des organismes de certification
Il reviendra à ces organismes de s’assurer, non seulement que les entreprises ont mis en place des processus de développement et de qualification des systèmes d’IA, mais également que les produits sont bien conformes aux exigences, notamment règlementaires. - Axe 5 : Développer la normalisation de certains outils numériques
L’un des enjeux de l’IA consiste à disposer de simulations reposant sur des données synthétiques, et non plus sur des données réelles. Les normes devront rendre ces données fiables. - Axe 6 : Simplifier l’accès et l’utilisation des normes
Afin de faire vivre cette stratégie et de l’ajuster en cours de route, une plateforme de concertation sera mise à votre disposition. En attendant, n’hésitez pas à consulter le document et à en parler autour de vous !
IA : le résumé du webinaire AFNOR du 10 mars 2022 en 2 minutes 30
IA : revivez en intégralité le webinaire AFNOR du 10 mars 2022.
IA : écoutez les témoignages sur les enjeux industriels.
Vous pouvez également consulter notre article sur « Une norme et une certification qualité pour l’IA »ainsi que notre dossier sur l’intelligence artificielle.