15
1 AI Livre blanc LES SUJETS CLES DE L’IA DANS L’ENTREPRISE Septembre 2020 Partenaires académiques

AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

  • Upload
    others

  • View
    2

  • Download
    0

Embed Size (px)

Citation preview

Page 1: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

1AI

Livre blanc

LES SUJETS CLES DE L’IA DANS L’ENTREPRISE

Septembre 2020

Partenairesacadémiques

Page 2: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

2 3

INTRODUCTION En lançant la deuxième saison du Think Tank IA for Business en octobre 2019, nous n’aurions jamais imaginé que la restitution de nos travaux interviendrait, presque un an plus tard, dans un monde si profondément bouleversé. Entre-temps, la pandémie de coronavirus a causé plus de 850.000 morts et mis la quasi-totalité des pays à l’arrêt pendant des mois, entraînant une chute brutale de l’activité économique mondiale.

Face à ce drame, et malgré les progrès spectaculaires de l’apprentissage automatique et de la science des données, malgré les milliards de dollars investis ces dernières années en recherche et développement, l’intelligence artificielle n’a pas été d’un grand secours. Elle n’a pas permis, du moins dans un premier temps, de répondre à une crise aussi violente que soudaine. Les modèles de prédiction et de prévisions, qui se basent essentiellement sur les données du passé, n’étaient pas calibrés pour des changements aussi radicaux. L’intelligence artificielle n’aime pas plus que les humains les situations imprévues, et elle a souvent beaucoup plus de mal qu’eux à y répondre.

Pourtant, le monde de l’après-Covid a toujours autant besoin d’intelligence artificielle, en particulier pour les entreprises. L’optimisation, l’aide à la décision, l’automatisation de tâches répétitives peuvent permettre aux acteurs économiques de faire plus, ou de faire mieux, avec des moyens qui restent contraints par la crise.

Ce livre blanc a pour objectif de les aider à en tirer le meilleur parti. Après une première saison consacrée aux grands enjeux de l’IA pour les entreprises (complémentarité homme-machine, éthique, adoption, gestion des talents…), notre ambition était d’aller plus loin dans le concret, en étudiant en détail les meilleures pratiques pour réussir son intégration.

Pour cela, nous avons abordé les grandes questions que se posent les dirigeants et leurs équipes : peut-on avoir confiance dans les systèmes d’IA ? Quelle est la bonne répartition des tâches entre humains et machines ? Comment adapter son organisation pour devenir « AI-first » ? Faut-il confier le développement de l’IA à des acteurs extérieurs, ou au contraire privilégier le travail en interne pour conserver un avantage stratégique ?

Toutes ces questions restent pertinentes dans un monde post-Covid. Et la méthode que nous avons suivie a gardé, elle aussi, tout son sens : réunir, régulièrement, des acteurs de l’IA pour qu’ils partagent leurs expériences, leurs convictions, leurs astuces, mais aussi leurs doutes et leurs accidents de parcours. Avec l’aide de nos partenaires (BCG GAMMA et UiPath), nous avons pu rassembler des chercheurs, des spécialistes de la data, des fournisseurs de solutions, des groupes de tous les secteurs (industrie, distribution, environ-nement, assurance…).

Ce livre n’existerait pas sans eux. Il découle directement de leurs interventions et leurs échanges, parfois passionnés, toujours constructifs. Qu’ils soient ici remerciés de leur engagement constant tout au long de cette année si imprévisible.

Notre proposition de définition

Reconnaissance de l'écritureReconnaissance d'images et vidéosReconnaissance facialeReconnaissance de la voix

Interface en langage naturelTraduction machineAnalyse de sentiments

Robotique physiqueRobotique logicielleRobotique système complexes

Analytique descriptifAnalytique prédictifAnalytique prescriptif

IA

Agir

Nous assistons à une accélération et à un changement de nature de l’IA »

Avant le Covid, l’intelligence artificielle permettait avant tout d’améliorer les mo-dèles d’analyse et de prévision utilisés depuis des années par les entreprises. Or, à partir du confinement et du coup d’arrêt brutal de l’économie, les entreprises n’ont plus pu faire tourner ces modèles avec leurs données historiques, car celles-ci n’étaient plus pertinentes face à une situation radicalement nouvelle. La bonne nouvelle, c’est qu’une solution existe. Elle passe par de nouveaux modèles d’IA, qui utilisent de grandes quantités de données très diverses, réactualisées en temps réel, pour tenter de trouver des signaux dans cet environnement très incer-tain - par exemple pour estimer les prévisions de vente dans tel ou tel pays.

Nous l’avons fait dans la construction, pour connaître les besoins futurs en maté-riaux ; dans le marketing, pour relancer des campagnes dans les zones où la consom-mation commençait à redémarrer ; dans la distribution, pour choisir quels points de ventes rouvrir en priorité ; dans la banque, pour savoir quelles entreprises étaient en risque de faillite. Nous l’avons fait également pour différents gouvernements. Nous avons travaillé ainsi sur des données épidémiologiques afin d’aider à la prise de décisions, allouer au mieux les ressources médicales disponibles et décider des mesures de confine-ment les plus adaptées.

Dans tous ces cas d’usage, l’intelligence artificielle a permis d’utiliser des quantités massives de données peu structurées, sur des périodes relativement courtes, pour pallier le manque de données historiques de l’entreprise.

C’est un changement de paradigme dans l’usage de l’intelligence artificielle. Désor-mais, le rôle de l’humain n’est plus seulement de vérifier que les machines font aussi bien qu’eux : ils doivent maintenant s’assurer que les décisions prises par la machine à partir de données inexploitées jusqu’alors ont réellement du sens.

Sylvain Duranton, directeur monde de BCG GAMMANicolas De Bellefonds, directeur général France BCG GAMMA

Page 3: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

4 5

Les participantsREMERCIEMENTS

Merci à nos partenaires BCG GAMMA et UiPath qui ont permis de réaliser une deuxième édition du Think Tank AI FOR BUSINESS.Merci à Benoît Georges, journaliste spécialisé sur les sujets IA au sein de la rédaction qui a piloté de New York l’évolution des travaux.Merci également à Jean-Marc Vittori éditorialiste au sein du journal Les Echos pour son aide précieuse dans la préparation et l’animation d’une partie des réunions du Think Tank.Enfin merci à Jacques Henno qui a réalisé les synthèses des échanges des réunions et retranscrit des recommandations claires.

Experts

Organisateurs et Partenaires

Professionnels

Bertrand Braunschweig Directeur de coordination du programme national de recherche en IA

Jean-François TarabbiaGroup Senior Vice-président R&D and product marketing VALÉO SA

Jacques HennoJournalisteLES ÉCHOS

Laurent AcharianMarketing & Communication DirectorBCG & BCG GAMMA

Marie-Hélène PigisMarketing Program ManagerUIPATH FRANCE

Samir AmellalChief Data Officer LA REDOUTE

Benoit GougeonDirecteur général délégué UIPATH FRANCE

Nicolas PolaillonData, AI & CRMKERING

Guillaume Rouil Chief Data Officer AXA INVESTMENT MANAGERS

David Giblas Chief Innovation, Digital, Data Officer MALAKOFF MÉDÉRIC

Françoise Soulié-FogelmanConseiller ScientifiqueHUB FRANCE IA

Pierre SamecOperating Partner General ATLANTIC

Sylvain DurantonGlobal Leader BCG GAMMA

Alison HarryMarketing CoordinatorBCG

Nicolas de BellefondsDirecteur général FranceBCG GAMMA

Cécile LefebvreDirectrice pôle businessLES ÉCHOS

Serge BérengerSenior VP innovation & R&T LATÉCOÉRE

Emmanuel BacryDirecteur de Recherche, CNRSChief Scientific Officer HEALTH DATA HUB

Sofiene JenzriData Scientist UIPATH FRANCE

Pierre NouguéCEOECOSYS

Chafika ChettaouiChief Digital OfficerSUEZ

Raphael De CormisVP Digital Factory THALES

Pierre DulonCEOAZQORE

Benoît GeorgesJournalisteLES ÉCHOS

Corinne Figuereo Directrice de l’innovation et de la transformationSPIE

Jean MeplombHead Deputy of Group ComplianceCRÉDIT AGRICOLE SA

Grégoire FerreChief Digital Office FAURECIA

Jean-Marc VittoriEditorialiste LES ÉCHOS

Alexis TrichetDirecteur Stratégie, Data et Connaissance ClientORANGE FRANCE

Edouard MailfaitChief Data Officer Global Digital Marketing CARREFOUR

Romain Jérôme Chief Digital OfficerCA INDOSUEZ

Page 4: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

6 7

Les 20 Recommandations

I - La confiance1 - Travailler à la mise en place de systèmes transparents et aux décisions explicables,

en particulier pour les applications critiques.

2 - Définir des critères d’évaluation et de vérification (audit) des systèmes, afin d’arriver à des normes claires pouvant donner lieu à un label en particulier pour les systèmes critiques.

3 - Confier l’évaluation des systèmes à des équipes différentes de celles qui les ont conçus.

4 - Concevoir des systèmes capables d’indiquer un indice de confiance applicable à leurs décisions, et les facteurs pris en compte pour réaliser une prédiction.

5 - Former les utilisateurs aux principes de bases de l’IA, et leur fournir des critères d’explicabilité pour les systèmes qu’ils sont appelés à utiliser.

6 - Définir un seuil à partir duquel une intervention humaine est requise, afin d’impliquer les utilisateurs et de les mettre dans la boucle.

II - Le passage à l’échelle7 - Identifier les projets prioritaires en fonction de leur valeur stratégique et de l’impact

que peut avoir l’IA sur le travail des employés.

8 - Élaborer une charte stipulant les principes éthiques que l’entreprise souhaite voir appliquer, à destination des fournisseurs et des salariés.

9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain.

10 - Impliquer les métiers utilisateurs des algorithmes, notamment en leur demandant d’assurer eux-mêmes le suivi de certains paramètres, grâce à des outils mis à leur disposition par la direction data.

11 - Prévoir une boucle de rétroaction : les utilisateurs doivent pouvoir faire remonter simplement des cas d’usage du terrain aux spécialistes de la donnée et de l’IA, chargés ensuite d’améliorer les algorithmes.

III - L’organisation12 - Développer les cas d’usage sur un modèle « agile », avec des équipes multifonctionnelles.

13 - Centraliser le développement et la supervision du déploiement de l’IA à travers une « task force », pour éviter l’éparpillement des ressources.

14 - Mettre en place une organisation dédiée à la gouvernance de la donnée, distincte de la fonction IA, et impliquant fortement les métiers concernés .

15 - Créer et diffuser une « culture data » par le recrutement et la formation de data analysts, répartis dans les métiers.

16 - Revoir et adapter fréquemment l’organisation en réponse à des besoins évoluant très vite.

IV - Le « make or buy »17 - Identifier les solutions qui représentent un avantage stratégique pour l’entreprise,

et celles sur lesquelles elle dispose d’un avantage en matière de données.

18 - Acquérir les données manquantes constituant un avantage stratégique pour les métiers, ou envisager des partenariats de start-up ayant déjà entraîné des modèles.

19 - Concevoir une stratégie évolutive : commencer par sous-traiter, en achetant (compétences, logiciels, données selon le cas) ou en nouant des partenariats, puis monter en compétence et en autonomie.

20 - Ne pas chercher systématiquement une internalisation totale des compétences, et garder une flexibilité pour accepter des apports externes.

Page 5: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

8 9

I - La confiance« Si nous n’arrivons pas à donner confiance dans l’intelligence artificielle, un nouvel hiver de l’IA s’installera ! ». Bertrand Braunschweig, directeur de coordination du programme national de recherche en intelligence artificielle a clairement posé les enjeux de cette deuxième réunion de la saison 2 d’AI for Business, le Think Tank des Échos dédié à faciliter l’adoption de l’IA en entreprise1.

Si l’IA n’inspire pas confiance, elle subira un nouvel “hiver” : les pouvoirs publics et les entreprises, comme ils l’ont fait régulièrement depuis une quarantaine d’années, à chaque fois que les espoirs placés dans l’IA étaient déçus, risquent de réduire les investissements en recherche et développement consacré à cette discipline. Or, comme l’a rappelé Jean-Marc Vittori, journaliste et éditorialiste aux Échos, en ouverture de cette réunion qu’il animait, l’IA fait peur : « A cause de son impact sur l’emploi, bien sûr, mais aussi pour une raison sans doute plus archaïque, car l’IA apparaît comme un monstre froid qui remet en cause notre humanité. »

Trois temps forts ont rythmé cette matinée : un exposé sur le contexte général de la confiance dans l’IA, une discussion sur les meilleures approches pour incorporer la confiance dans l’IA et une réflexion sur comment remettre l’humain dans les circuits de l’IA.

Les systèmes d’IA critiques

« L’absence de confiance serait rédhibitoire » Bertrand Braunschweig

Au cours de son introduction sur la confiance dans l’IA, Bertrand Braunschweig a énuméré les ingrédients indispensables aux systèmes d’IA pouvant avoir des conséquences critiques sur la vie ou la santé des personnes, mais aussi sur le bon fonctionnement des sites industriels. De tels systèmes doivent :

n être transparents (on doit savoir quand ils prennent la main, par exemple lorsqu’un véhicule freine automatiquement) ;

n proposer des moyens d’expliquer leurs décisions ;

n pouvoir être non seulement évalués, mais aussi vérifiés (ils doivent donc pouvoir conserver comme preuves les informations qui les ont conduits à prendre telle ou telle décision) ;

n être labellisés s’ils respectent les normes édictées ;

n et, bien sûr, résister à toute forme de cyberattaque.

« L’absence de confiance serait rédhibitoire, a insisté Bertrand Braunschweig. Si votre banque n’est pas capable d’expliquer pourquoi elle vous a refusé un prêt, vous allez voir ailleurs ! »

Les meilleures pratiques

« L’IA doit rentrer dans le rang de la pratique informatique » Françoise Soulié-Fogelman, Hub France IA

Nicolas de Bellefonds, directeur France de BCG GAMMA (l’entité dédiée à la data science du BCG qui compte 900 data scientists dans le monde) est entré ensuite dans le vif du sujet de la deuxième partie : les meilleures approches pour incorporer la confiance dans l’IA. Il a distingué les situations d’utilisation de l’IA externes à l’entreprise et celles de son utilisation en interne. Vis-à-vis des citoyens et des consommateurs, le plus simple, en apparence, serait de certifier les algorithmes. « Mais, concrètement, que va-t-on tester par exemple, dans la voiture autonome ? Quels seuils d’erreur seront acceptables ? Faudra-t-il certifier chaque nouvelle version des programmes ? ».

En interne, les points d’inquiétude portent sur l’aspect “boîte noire” des algorithmes, l’incapacité de beaucoup de salariés à lire et comprendre le détail de ces programmes et le sentiment de défiance générale qui pose comme principe que la machine ne peut pas être plus compétente que l’homme.

Les solutions passent là par la création d’un poste de référent, « M. ou Mme IA » en charge de rédiger les lignes directrices et les limites imposées à l’IA. Elles passent aussi par l’auto-ouverture de la boîte noire : l’IA doit être capable de formuler l’indice de confiance applicable à ses décisions et d’expliquer les facteurs qu’elle a pris en compte pour réaliser telle prédiction.

Enfin, une équipe différente de celle qui a conçu les programmes doit s’assurer de leur bon fonctionnement.

Entrant encore davantage dans le « pratico-pratique », Françoise Soulié-Fogelman (Hub France IA), a présenté les travaux du groupe d’experts de haut niveau sur l’intelligence artificielle nommés par la Commission européenne et qui a publié un guide pratique intitulé « Lignes directrices en matière d’éthique pour une IA digne de confiance ». Ce livret comprend 150 questions à valider pour s’assurer que l’on a bien suivi un processus éthique lors de l’élaboration des programmes et lors de leur mise à jour. « Cela prend du temps, de l’argent, mais l’éthique a un prix, a prévenu Françoise Soulié-Fogelman. L’IA, qui a longtemps été un objet de recherche, est désormais en production dans les entreprises : elle doit rentrer dans le rang de la pratique informa-tique. » Tout, de la conception à la révision des programmes d’IA, doit être tracé et documenté afin de permettre leur audibilité.

Nouveau coup de zoom avec l’application de ce guide pratique chez Malakoff Médéric, où une dizaine d’algorithmes d’IA tournent en production, dont certains depuis plus de deux ans. L’ajout de critères d’explicabilité a permis d’accroître la confiance des utilisateurs, puisque cette entreprise a vu une augmentation du pourcentage des recommandations émises par l’IA et effectivement suivies par les opérateurs humains : au départ réticents à utiliser l’IA, des médecins ont découvert au fur et à mesure que cet algorithme les aidait à repérer des incohérences dans les déclarations de congé-maladie qu’eux-mêmes n’avaient pas détectées.

1) AI for Business Les Échos bénéficie du soutien de BCG GAMMA (l’entité du BCG dédiée à la science de la donnée), d’UiPath (spécialiste de la RPA : Automatisation robotisée des processus) et de l’école Polytechnique

Page 6: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

10 11

« Mais il faut désormais que tout cela soit intégré dès la conception : nous avons regardé avec Françoise Soulié-Fogelman comment la liste des 150 questions du livret européen pouvait nous aider, a précisé David Giblas (Malakoff Médéric).

Nous avons retenu une cinquantaine de questions autour de la robustesse, de la répétabilité - mêmes données, mêmes questions, mêmes résultats ? -, de la preuve… » De plus, une charte éthique a été rédigée pour l’IA. Elle précise par exemple les finalités que Malakoff Médéric veut atteindre avec l’IA (rendre les emplois plus intéressants, maintenir le travail en équipe…), celles que l’entreprise s’interdit (supprimer le poste d’un expert…), sans oublier l’accompagnement nécessaire : que devient le travail d’un responsable dont toute l’équipe voit ses compétences surmultipliées par l’IA ? « Ce cadre social de l’IA doit être inclus dans la cadre de confiance de l’IA », a insisté David Giblas.

Emmanuel Bacry, (CNRS/Université Paris-Dauphine PSL et Health Data Hub) a insisté sur la certification des données par un tiers, l’explicabilité par des experts et sur l’éducation. « Trop peu de masters où sont formés les data scientists prévoient, dans leur cursus, de les sensibiliser à ces enjeux », a-t-il regretté. Plus largement, Françoise Soulié-Fogelman a déploré le manque d’éduca-tion des citoyens aux utilisations potentielles de leurs données et aux risques de l’IA, même si plusieurs projets sont en cours. S’inspirant de l’initiative finlandaise Elements of AI, l’Institut Montaigne et OpenClassrooms préparent « une formation en ligne gratuite […] pour tout comprendre sur l’IA en quelques heures […] grâce à une série de vidéos pédagogiques et d’interviews inédites des meilleurs spécialistes du domaine.2»

L’humain dans la boucle

« Admettons que nous ayons un algorithme validé et transparent ; reste une question : “que se passe-t-il s’il dérape ? “ ». Guillaume Rouil, AXA Investment Managers

L’intervention de Raphaël de Cormis (Thales), a constitué la transition vers la troisième et dernière partie de la matinée : comment réintégrer l’humain dans la boucle. Après avoir rappelé le rôle, dans la confiance vis-à-vis de l’IA, de la sécurisation et de l’utilisation du minimum possible de données, il a insisté sur les aspects humains de l’intelligence artificielle.

Concrètement, un opérateur doit pouvoir demander à un algorithme de justifier sa décision. « Nous travaillons aussi beaucoup sur les imaginaires qui se développent autour de l’IA : il faut essayer de comprendre comment les personnes perçoivent la technologie afin de ne pas prêter le flanc à ces fantasmes », a-t-il expliqué.

Responsable adjoint de la conformité pour le groupe Crédit Agricole, Jean Meplomb a estimé que « pour bâtir l’écosystème de la confiance, c’est-à-dire

bâtir l’IA avec les humains », il fallait associer ces derniers tout au long des processus de pilotage, de contrôle en production et d’auditabilité ; bref, au choix des normes et des labels. « On peut s’inspirer là des démarches existantes dans les autres domaines des entreprises affectées par la notion de risque », a-t-il indiqué.

« La difficulté est que nous devons faire face à des systèmes qui ne sont finis ni sur le plan technologique, ni sur le plan humain, a nuancé David Giblas. Pour la première fois, nous automatisons des tâches cognitives : il est donc très difficile d’anticiper les conséquences sur le terrain. »

Samir Amellal (La Redoute) a mis en lumière un aspect essentiel de cet « écosystème de la confiance » : la responsabilité. « Qui doit être responsable de la décision de suivre l’algorithme ou de mettre son veto ? Nous avons noté beaucoup de réticences à approuver l’algorithme car les personnes impliquées se disent : “si j’accepte la décision de l’algo-rithme, je vais devoir en assumer les conséquences en cas de problème ultérieur” ».

Un point sur lequel Guillaume Rouil (AXA Investment Managers) a également insisté : « Admettons que nous ayons un algorithme validé et transparent ; reste une question : “que se passe-t-il s’il dérape ? “ ». « Préciser ces responsabilités fait partie de la phase d’appropriation et de sécurisation de la mise en place de l’IA, qui (chez Malakoff Médéric) a été plus longue que prévue », a confirmé David Giblas. « Seule une bonne explicabilité des décisions permet une bonne appropriation », a repris Samir Amellal.

Alexis Trichet, (Orange), a invité également à la prudence : « Il faut savoir résister aux pressions de rentabilité qui souhaiteraient mettre le plus vite possible les algorithmes d’IA entre les mains de tout le monde : au contraire, il ne faut pas déployer auprès de toutes les populations concernées, afin de pouvoir, en continu, vérifier le bon fonction-nement de l’IA mais aussi démontrer qu’elle apporte de la valeur ajoutée au travail. »

Après cet échange à la frontière des deux thèmes de la matinée - la confiance et l’humain dans la boucle - Jean-Marc Vittori a recentré les débats sur « l’humain dans la boucle ». Sofiene Jenzri, spécialiste des données chez UiPath, a détaillé les pratiques de cet éditeur de plateformes d’automatisation des processus métier. Il a rappelé que les algorithmes faisant appel à du machine learning pouvaient émettre une probabilité de confiance dans leur décision : « Il est alors possible de définir un seuil de confiance en-dessous duquel on va solliciter une intervention humaine. Cela crée de la confiance et permet également de déclencher automatiquement un apprentissage actif sous contrôle. » « Autre avantage, les salariés se rendent compte que tout en déléguant à l’IA, ils peuvent se concentrer sur d’autres tâches. Petit à petit, ils vont prendre goût à déléguer de plus en plus », a ajouté Benoît Gougeon (UiPath).

Au cours de la discussion, Édouard Mailfait (Carrefour), et Nicolas de Bellefonds (BCG GAMMA) ont rappelé que « mettre l’humain dans la boucle de l’IA » concernait aussi les utilisateurs finaux, à qui l’on pouvait demander, par exemple, leurs préférences en termes d’exposition à la publicité. Corinne Figuereo, directrice de l’innovation et de la transformation chez SPIE, a insisté sur le rôle des experts-métiers et des difficultés de communication intergénérationnelle qui peuvent exister entre eux et les scientifiques de la donnée, plus jeunes : « Pour pallier ce problème, nous ne visons pas que des PoV (proove of value) et réalisons des PoC, des preuves de concept, dont nous ne savons pas si elles seront duplicables mais qui sont indispensables pour prendre l’habitude d’incorporer le savoir-faire des experts-métiers. »

Romain Jérôme (CA Indosuez), est revenu sur l’importance de la formation. Pour lui, le suivi des programmes d’IA n’est pas sans rappeler celui des algorithmes prédictifs des salles de marché qui étaient contrôlés par des équipes indépendantes. « Bien sûr,

2) citation extraite du site https://info.openclassrooms.com/fr/lp/formation-gratuite-intelligence-artificielle

Page 7: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

12 13

II - Le passage à l’échelle

Au menu de cette rencontre, animée par Benoît Georges, des Échos : une présentation du BCG, trois cas d’entreprise (La Redoute, Malakoff Médéric et Orange), le témoignage d’un fournisseur de solutions, UiPath, et les remarques de Bertrand Braunschweig, directeur de coordination du programme national de recherche en intelligence artificielle.

« Seuls 40% des entreprises ayant investi dans l’IA ont obtenu des résultats “business”. » François Candelon, directeur général du BCG Henderson Institute, le think tank du BCG

« Le passage à l’échelle, c’est le grand sujet du moment ! Les entreprises se demandent comment enfin tirer profit de leurs investissements dans l’IA, a constaté François Candelon, directeur général du BCG Henderson Institute, le think tank du BCG. Dans le cadre d’un partenariat avec le MIT, nous avons interrogé près de 3.000 entreprises. Certes, 90% d’entre elles affirment avoir investi dans l’IA, mais seulement 40% de ces dernières ont obtenu des résultats “business”. »

Selon le BCG, une formule « magique » permet de réussir le passage à l’échelle : consacrer 10% des efforts à l’algorithme, 20% aux données… et 70% au management. L’accompagnement managérial sur le long terme est d’autant plus nécessaire que l’arrivée de l’IA remet en cause la façon de travailler de beaucoup de salariés et suscite forcément des résistances. « Il s’agit d’une modification massive des modèles opératoires : il vaut mieux s’assurer que l’on est en position de convaincre des apports positifs de l’IA », a précisé François Candelon.Une certaine forme de centralisation et d’harmonisation, tant des décisions que de la gestion des ressources ou de l’organisation - qui doit devenir plus modulaire - s’impose donc. « Il faut cependant tenir compte des spécificités des métiers de l’entreprise dans chaque zone géographique, a précisé François Candelon. On peut, par exemple, créer des classes d’équivalence réunissant trois ou quatre pays. »

Les salariés des BETIC1 plus soucieux de l'impact de l'IA sur les questions éthiques

1. Bureaux d'études techniques, ingénieurs conseil, numérique, etc. 2. Métallurgie, sidérurgie, aéronautique, fabrication de produits informatiques/électroniques/optiques, fabrication et réparation de de produits métalliques, de machines et

d'équipements, industries agroalimentaire, manufacturière, extractive, textile, chimique3. "Un impact plutôt négatif" ou un "impact très négatif"

Part des répondants anticipant un impact négatif3 de l'IA dans leur entreprise sur les questions d'éthiques liées à l'utilisation de la donnée et des algorithmes (respect de la vie privée, protection des données personnelles, niveau de contrôle de l'entreprise sur les salariés)

45% 43%48%

26% 29% 30%34%

49%

35%

Industrie lourde2Total BETIC1

Δ vs. moyenne des entreprises interrogées en cas d'écart significatif

+15 pts

+ - ptsSalariésManagersDirigeants

0 Copy

righ

t ©

202

0 by

Bos

ton

Cons

ulti

ng G

roup

. Al

l ri

ghts

res

erve

d.

Passage

à l'échelleTechnologie et Données

• Besoin de faire évoluer l'architecture et les modes de fonctionnement IT pour permettre le passage à l'échelle – architecture modulaire, plateforme de données, passage à l'agile.

• Problèmes de gouvernance et de qualité des données – Goulet d'étranglement de la transformation.

Adoption business

• Difficulté à faire adopter une prise de décision tirée par l'IA dans des métiers fondés sur l'expertise et l'expérience.

• Hétérogénéité des processus métiers dans les différentes entités et géographies. Entraîne une difficulté à répliquer les premiers pilotes.

Ethique et gestion des biais

• Comment mettre en place des équipes de contrôles indépendantes de l'IA ?

• Importance de responsabiliser les métiers• Sujet souvent insuffisamment anticipé,

mais pouvant rapidement bloquer le passage à l'échelle.

• A l'inverse, risque d'une sur-prudence limitant la capacité à déployer.

Ressources

• Ressources parfois éparpillées entrainant des difficultés pour les mobiliser.

• Difficulté à assembler à grande échelle l'ensemble des compétences nécessaires en interne – business owner, data scientist & engineer, software engineer, équipes de déploiement.

Gouvernance

• Nécessité d'un soutien managérial très fort et dans la durée, en particulier face aux résistances possibles de l'organisation.

• Nécessité d'une gouvernance stricte du portefeuille (vs foisonnement) pour focaliser les investissements, les ressources et la gestion du changement.

Challenges rencontrés par les entreprises aujourd'hui

Source : Boston Consulting Group

Une appréhension paradoxale de l'IA, entre focalisation sur les tâches à plus forte valeur ajoutée et déshumanisation du travail

41%

66%

23%

32%

41%

58%65%

49%56%

61%

25%32%

20% 23% 25%

La valeur ajoutée du travail et

l’intérêt des tâches

L’équité de traitement entre les salariés

Total Le lien social, la dimension

humaine du travail

La qualité des emplois

Part des répondants anticipant un impact positif1 du développement de l'IA sur la création et le partage de la valeur

Dirigeants Managers Salariés

1. Réponses "Très positif" et "Plutôt positif" à la question: "Au global, diriez-vous que le développement de l'IA va avoir un impact très positif, assez positif, plutôt négatif ou très négatif sur … ? "

Un paradoxe dans la perception des dirigeants

avec l’IA, tous les collaborateurs étant concernés, le passage à l’échelle est plus difficile, a-t-il relativisé. D’où l’importance de l’acculturation pour préparer l’appropriation. »

« À l’instar de la Convention Citoyenne pour le Climat, il faudrait lancer une Convention Citoyenne pour l’IA afin d’associer les citoyens au choix du projet de société que nous voulons mener avec l’Intelligence Artificielle. »Pierre Nougué, Ecosys Group

Pierre Nougué (Ecosys Group), a, pour ainsi dire, conclu la séance en élargis-sant cette nécessité d’acculturation à l’ensemble des citoyens : « À l’instar de la Convention Citoyenne pour le Climat, il faudrait lancer une Convention Citoyenne pour l’IA afin d’associer les citoyens au choix du projet de société que nous voulons mener avec l’Intelligence Artificielle. » À ce sujet, Françoise Soulié-Fogelman a rappelé que le Forum Mondial sur l’IA pour l’Humanité (GFAIH) qui s’est tenu en octobre dernier devrait être suivi d’un forum sur les valeurs sociétales de l’IA.

Source : Etude BCG x Malakoff Médéric Humanis – IA et capital humain : L’humain est l’avenir de l’IA

Page 8: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

14 15

Dernier défi à relever : l’éthique et la gestion des biais. Une charte stipulant les principes éthiques que l’entreprise souhaite voir appliquer doit être proposée à tous les fournisseurs. Ensuite, une équipe dédiée doit vérifier les algorithmes, contrôler leurs performances, éliminer les biais… « Au besoin en tentant de battre l’IA à la main, c’est-à-dire avec des processus de prise de décision alternatifs », a conseillé François Candelon.

Le mur du PoC« Lorsque le programme de pilotage d’un bras de manutention des colis ou le programme de mise en ligne automatique des références des marques parte-naires “plante”, parce que les bases de données qui les alimentaient sont modifiées, nous préférons éviter de faire de la rétro-ingénierie pour trouver les origines du problème, puis de publier des rustines ..» Samir Amellal, La Redoute

Samir Amellal (La Redoute), a été le premier à témoigner des difficultés rencontrées lors de la mise en production et de la maintenance de « PoC » (« proof of concept »). Ces preuves de concept sont réalisées rapidement et avec enthousiasme par de jeunes data scientists et spécialistes IA, parfois laissés à eux-mêmes. Souvent, ils n’ont pas l’habitude de documenter rigoureu-sement le développement de leurs algorithmes… « Lorsque le programme de pilotage d’un bras de manutention des colis ou le programme de mise en ligne automatique des références des marques partenaires a “planté”, parce que les bases de données qui les alimentaient avaient été modifiées, nous n’avons pas eu d’autre choix que de faire de la rétro-ingénierie pour trouver les origines du problème, puis de publier des rustines : au final, que de temps perdu ! », a insisté Samir Amellal.

Les solutions ? Plus de rigueur, bien sûr, en pré-développement, en développe-ment et en contrôle technique, ce qui passe essentiellement par l’adoption des normes déjà en vigueur au sein du département informatique de l’entreprise. Mais aussi l’implication des différents métiers utilisateurs des algorithmes, par exemple, en leur demandant d’assurer eux-mêmes le suivi de certains paramètres, grâce à des outils que la direction data met à leur disposition.

« L’IA doit être pilotée, transparente et explicable. »David Giblas, Malakoff Médéric

David Giblas (Malakoff Médéric) a lui aussi décrit le processus mis en place dans son entreprise qui permet à chaque algorithme, environ un an et demi après sa mise en service dans une équipe, de contribuer à l’activité. L’arrivée de l’IA a été impulsée par le PDG, persuadé que la donnée devait être au cœur de l’activité de ce groupe paritaire de protection sociale français. Une étude amont a été menée, avec le BCG, sur l’impact de ces technologies sur le capital humain. Les changements à venir ne pouvant être que profonds, s’en est suivi un important travail sur les raisons d’être et les finalités de l’IA.

Du data scientist à l’utilisateur« L’IA doit être pilotée, transparente et explicable, a résumé David Giblas. C’est indis-pensable pour obtenir une meilleure acceptabilité et une meilleure industrialisation. Car le vrai sujet de l’industrialisation, c’est comment faire passer un algorithme de l’ordinateur d’un data scientist au poste d’un utilisateur final. » Chez Malakoff Médéric, le responsable “métier” est venu lui-même présenter l’algorithme à ses équipes, avant de passer le relais aux niveaux intermédiaires (experts métiers). Des tableaux de bord, permettant de suivre une soixantaine de cas de figures, par vagues de trois ou quatre, facilitent le contrôle de l’évolution de la performance du processus de prise de décision. De plus, une équipe mêlant spécialistes de l’informatique et experts de la direction de l’organisation a été mise sur pieds, pour expliquer au mieux ce qui entrait dans l’algorithme, ce qui allait en sortir et ce que cela allait changer dans l’organisation et la prise de décision.

« Certes, les utilisateurs finaux étaient déjà habitués à manipuler des outils de scoring, mais l’IA va chercher de nouvelles variables explicatives, ce qui bouleverse les habitudes et peut provoquer une résistance au changement », a détaillé David Giblas. Cette même équipe mixte « direction informatique/direction du changement » permet aussi de faire remonter des cas d’usages du terrain aux spécialistes de la donnée et de l’IA, chargés ensuite de mettre au point les algorithmes appropriés. Ce processus permet de faire passer le taux d’amélioration des performances du service, en un an et demi, de 1,3 à 2,6. Autre avantage, ce processus permet de gérer à la fois les demandes d’applications liées à l’apparition de nouveaux métiers (« early stage ») et les demandes des services déjà anciens (« core business »).

« Un travail aussi important en amont, sur la présentation des données utilisées, et en aval, sur le fonctionnement de l’algorithme, permet de lever bien des a priori », a confirmé Benoît Gougeon (UiPath). S’enclenche ainsi un cercle vertueux qui permet de découvrir « des mines d’or dans les données de l’entreprise ».

« Nous n’étions pas capables d’affirmer si, dans le passé, l’affecta-tion des moyens dévolus à l’IA et à la data avait été la bonne » Alexis Trichet, Orange France

Le troisième retour d’expérience a été donné par Alexis Trichet (Orange France). LL’IA est déjà une réalité forte chez Orange, avec des compétences, et des résultats. Des compétences ? « Orange France dispose de plus de 400 spécialistes data répartis au plus près des équipes », a détaillé Alexis Trichet. Des résultats ? Les algorithmes de diagnostic des pannes clients utilisées par les équipes d’intervention permettent d’économiser quelques dizaines de millions d’euros par an. Reste une question, posée par la Directrice d’Orange France, Fabienne Dulac, à ses équipes : les 400 spécialistes data travaillent-ils sur les priorités stratégiques de l’entreprise ?

Aligner les priorités« Nous n’étions pas capables d’affirmer si, dans le passé, l’affectation des moyens dévolus à l’IA et à la data avait été la bonne. Pour remédier à cette situation, en repartant de notre plan stratégique, nous avons identifié les domaines de l’entreprise sur lesquelles l’IA pouvait avoir un impact majeur en termes de réduction des coûts, de

Page 9: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

16 17

III - L’organisationLa réunion du 12 mars était consacrée à l’adaptation de l’organisation afin que les entreprises puissent tirer le meilleur profit du déploiement de l’intelligence artificielle. Animée par Jean-Marc Vittori, des Échos, elle s’est déroulée en quatre temps : un exposé de Nicolas de Bellefonds (BCG GAMMA) et les partages d’expériences de Chafika Chettaoui (Suez), Raphaël de Cormis (Thales) et de Pierre Nougué (Ecosys group).

« Les entreprises qui centralisent le développement et le déploiement de l’IA ont tendance à mieux réussir que celles qui décentralisent » Nicolas de Bellefonds, BCG GAMMA

Nicolas de Bellefonds, (BCG GAMMA) a rappelé les trois questions qui reviennent le plus souvent lorsqu’il s’agit d’adapter une organisation à l’IA : comment créer une masse critique de compétences, tout en gardant le plus de proximité possible avec les métiers de l’entreprise ? Où loger ces compétences, et comment les articuler de manière efficace avec l’IT ? Comment organiser ces équipes, et quelles fonctions « régaliennes » créer autour de l’IA (éthique, supervision des algorithmes, …) ? « Un élément de réponse se trouve peut-être dans l’étude “Winning with AI” que nous avons menée conjointement avec MIT Sloan Management Review et dont les résultats avaient été dévoilés lors de notre première réunion, a rappelé Nicolas de Bellefonds. Les entreprises qui centralisent tout ce qui est développement et déploiement de l’IA ont tendance à mieux réussir que celles qui décentralisent. »

Coordonner et expliquer

« La data governance doit être partagée entre les RH, la communication, la formation, l’IT, les BU et la data » Chafika Chettaoui, Suez

Chafika Chettaoui (Suez) a détaillé les six rôles qui ont été créés pour favoriser le dialogue entre son département data, l’IT et les métiers : data engineers, data architects et data scientists, à l’IT, qui reste responsable de la qualité des données ; data owners, data stewards et lead data officers dans les BU (business units). Le data owner est généralement un des responsables de la BU ; le data steward est responsable, au sein de cette même BU, de surveiller la qualité des données mises à la disposition de cette entité ; quant aux lead data officers, ce sont des membres des BU sur lesquels s’appuie le département “data” de Chafika Chettaoui pour mettre en place les data owners et les data stewards. Le département « data » est en effet le chef d’orchestre de ce dialogue tripartite IT-BU-Data. « Pour assurer le déploiement de l’IA, il faut une concertation beaucoup plus large : la data governance doit être partagée entre les RH, la communication, la formation, l’IT, les BU et la data », constate Chafika Chettaoui. En février 2019, elle a créé la data

développement de chiffres d’affaires ou d’amélioration du NPS », a expliqué Alexis Trichet. Dix domaines prioritaires ont été ainsi désignés. Par exemple, sur le NPS (« Net Promoter Score » : le taux de recommandation des clients sur la marque), l’effort va se concentrer sur la capacité à rétablir l’internet pour les clients qui sont touchés par des pannes collectives.

Pour accélérer, une équipe centrale et pluridisciplinaire d’une dizaine de personnes est en cours de constitution. Ces spécialistes de l’informatique, du changement, de la data science, du contrôle de gestion, auront pour responsabilité d’assurer la réalisation des objectifs en focalisant les énergies sur les domaines prioritaires, et assureront la construction d’un écosystème technique et de gouvernance de la donnée optimal.

« Pour réussir le passage à l’échelle, il faut bien sûr de la technologie et des compétences, mais surtout une vision portée par une équipe centrale. » Benoît Gougeon, UiPath

Benoît Gougeon (UiPath) a ensuite synthétisé ces retours d’expériences ainsi que ceux des 250 clients français de son entreprise. « Pour réussir le passage à l’échelle, il faut bien sûr de la technologie et des compétences, mais surtout une vision portée par une équipe centrale, une éthique, une évaluation de l’impact sur les ressources humaines et l’implication tant des salariés sur le terrain que des partenaires externes : fournisseurs, partenaires, clients », a-t-il résumé. Il est important de démarrer sur des sujets limités, dont la contribution est déjà bien connue : il sera ainsi plus facile de mesurer la valeur ajoutée de l’IA ou de l’automatisation.

Les défis technologiques du passage à l’échelle

Bertrand Braunschweig a évoqué trois défis technologiques du passage à l’échelle :• la consommation électrique : Meena, le dernier-né des chatbots de

Google Brain, a nécessité pour sa mise au point 2048 processeurs TPU (« Tensor Processing Unit ») pendant 30 jours. Ce qui représente 10 millions de kilowatts-heure. Selon l’AI Index de Stanford, la courbe de consomma-tion électrique induite par la mise au point du plus gros système d’IA au monde du moment double tous les trois mois et demi. Soit une tendance à être multipliée par 1.000 en trois ans ! Il sera difficile de continuer ainsi. D’où l’importance d’aller vers d’autres modes d’apprentissage, comme l’IA hybride, alliant statistiques et logique.

• les données : les conserver au sein de son entreprise fait bien sûr sens, mais il faut aussi s’intéresser aux projets de mutualisation qui apparaissent un peu partout, en particulier dans le domaine de la santé et de l’environnement.

• les plateformes de développement : pour des questions évidentes de souveraineté, les entreprises européennes et françaises ont tout intérêt à s’affranchir des outils proposés par les GAFAM. Il existe des alternatives, comme le projet AI4EU (Artificial Intelligence for European Union), porté par la Commission européenne et mené par Thales. Les entreprises doivent s’y intéresser.

Page 10: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

18 19

task force, qui comprend désormais une centaine de personnes issues de ces six départements. Des réunions bimestrielles permettent de passer en revue trois types de sujets liés à la data : la technologie (pour s’assurer que les bonnes plateformes sont déployées), la répartition des responsabilités (ce qui a permis de définir les six rôles précédemment évoqués) et l’acculturation (avec un programme de formation réservé d’abord aux grands managers puis ouvert à tous les salariés). « Nous avons encore beaucoup de travail d’explication à mener auprès de la DSI, afin que ses responsables acceptent de lâcher la data : ils doivent accepter de lâcher pour mieux gagner », a conclu Chafika Chettaoui.

Nous avons fait monter des salariés en compétence plutôt que d’embaucher » Raphaël de Cormis, Thales

Raphaël de Cormis (Thales) a ensuite décrit l’organisation qu’il avait contribué à mettre en place chez Gemalto, acquis début 2019 par Thales. L’IA a été retenue pour des cas d’usage liés à l’amélioration des produits (reconnaissance faciale, certification d’identité…) et à l’optimisation des opérations (mainte-nance prédictive…).

Pour des raisons de gestion des compétences mais aussi de sécurité, un lac de données central, accessible à toutes les applications métier, a été créé. De même, une équipe de 30 data scientists en central est là pour co-construire les modèles utilisés avec les 80 data engineers présents dans les métiers. De plus, une communauté de 400 data hobbyists a été constituée pour convaincre les différents secteurs de l’entreprise de l’utilité de l’IA et de la maîtrise des compétences nécessaires en interne. « Nous essayons désormais de pousser quatre bonnes pratiques vers l’ensemble du groupe Thales : l’accent sur la sécurité, la mise en avant de cas d’usage qui fonctionnent déjà dans l’industrie, la rapidité de la mise en production et le choix de faire monter des salariés en compétence plutôt que d’embaucher », a énuméré Raphaël de Cormis.

« Je crois beaucoup à des initiatives où les besoins en formation sont évoqués par tous les acteurs d’un même secteur » Françoise Soulié-Fogelman, Hub France IA

À son tour, Jean-François Tarabbia (Valeo), a décrit l’organisation mise en place pour faciliter l’introduction de l’IA dans les produits mis sur le marché par son groupe (reconnaissance d’émotion, calcul de trajectoire…). Valeo dispose d’ingénieurs IA proches des unités développant les produits s’appuyant sur l’IA, d’une organisation cadre - en charge, entre autres, des questions de réglementation et de cyber sécurité -, et d’un groupe de chercheurs universitaires. Soit, au total, une centaine d’ingénieurs, dont une vingtaine de thésards. « Ces trois niveaux sont complémentaires : ces experts aiment discuter les uns avec les autres et échanger autour de problèmes concrets », constate Jean-François Tarabbia.

Françoise Soulié-Fogelman, (Hub France IA), a rebondi sur l’expérience de Valeo, pour évoquer les aspects formation. Elle a décrit ses travaux au sein de la SIA (Société des Ingénieurs de l’Automobile) dont les responsables se sont mis d’accord pour définir de façon précise tous les postes gravitant autour de l’IA. Reste à former les profils nécessaires. « Je crois beaucoup à ce type d’initiatives où les besoins en formation sont évoqués par tous les acteurs concernés et de façon détaillée : comment définir par exemple un chef de projet IA ? Comment le former ? », a indiqué Françoise Soulié-Fogelman.

« Nous avons changé d’organisation trois fois en trois ans » David Giblas, Malakoff Médéric

Les réactions qui ont suivi indiquent un large consensus pour regretter une pénurie de spécialistes. « Tout le monde a formé des data scientists mais nous manquons de data analysts, engineers, architects, stewards… J’espère un déclic en 2020/2021 qui me permettra de former des personnes en interne, déjà dotées d’une bonne expérience », a indiqué Chafika Chettaoui (Suez). Françoise Soulié-Fogelman, elle, s’inquiète des formations aux métiers de la data gouvernance. Pierre Nougué, co-fondateur et président d’Ecosys group, a comparé l’effort qui va être demandé aux DRH, en termes d’organisation et de recrutement, à un « tsunami », qui va demander beaucoup de précisions pour régler des situations complexes. Guillaume Rouil (AXA Investment Managers) a souligné, par exemple, la difficulté à définir les profils attendus dans trois ans. David Giblas (Malakoff Médéric) a insisté sur la nécessité, pour faire face à toutes ces difficultés d’organisation, d’être extrêmement réactif. « Formation gouvernance, taille du data lake, relation avec la DSI… autant de variables dont l’ajustement se trouve dans les changements d’organisation, a-t-il estimé. Dans notre groupe, nous avons changé d’organisation trois fois en trois ans. »

Grâce à un constat de Benoît Gougon (UiPath), qui a rappelé que « le plus compliqué, c’est de transformer les responsables de l’IT, parfois réticents à abandonner les pro-grammes qu’ils ont développés et les données en leur possession », les échanges ont porté ensuite sur ce thème. « Les personnes de l’IT ont du mal à percevoir la différence entre décisionnel et data : elles pensent que la data constitue une forme traditionnelle de mode de prise de décision et qu’il n’y a donc rien à changer à leurs habitudes », a regretté David Giblas.

Impératif de sécuritéGuillaume Rouil (AXA Investment Managers) s’est interrogé sur la meilleure attitude à avoir quand, au sein d’une organisation, tous les départements souhaitent développer leurs propres applications d’IA, ce qui peut poser des problèmes en termes de risques et de conformité. Raphaël de Cormis a confirmé qu’il avait déjà rencontré ce genre de situations en particulier dans la biométrie. « Il faut insister pour maintenir les mêmes niveaux de sécurité, de qualité de service et performance », a-t-il conseillé. Le dédoublement des flux - process habituel d’un côté / process IA de l’autre - permet de prouver que l’IA est aussi performante. Benoît Gougeon (UiPath), s’est, lui, demandé comment gérer la frustration qu’engendrent les retards de mise en service dus aux délais nécessaires pour obtenir la certification « sécurité » des applications IA, obligatoire dans certains environnements réglementés. « Il ne faut pas se voiler la face : un quart du temps d’industrialisation est consacré à la data, un autre quart à la construction du modèle et la moitié… au reste ! », a admis Raphaël de Cormis.

Page 11: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

20 21

« La nécessité de changer doit être expliquée aussi bien aux responsables métiers qu’aux responsables de l’IT, a insisté Edouard Mailfait (Carrefour). Il faut donner envie à l’IT de se rapprocher des métiers, et aux métiers l’envie de travailler avec l’IT. »

Une première forme d’acculturation peut passer par la dataviz. « La visualisa-tion des données est assez facile à diffuser : les personnes à qui on l’explique reviennent généralement peu de temps après vers nous avec des idées pour exploiter les données en leur possession », a constaté David Giblas. « La dataviz constitue effectivement le premier axe de la diffusion de la culture data », a acquiescé Chafika Chettaoui (Suez), qui a détaillé les deux actions (top/down et bottom/up) menées dans son entreprise. Les data stewards ont été formés à la dataviz, à la sécurité et au RGPD, pour donner envie aux business units de commencer à « jouer » avec leurs data. Et lorsque les responsables des métiers souhaitent mettre en place des projets data, des data scientists sont mis à leur disposition pour les développer, en mode agile.

digitale et à l’IA. « Depuis six mois, nous assistons à une bascule complète dans plusieurs grands groupes industriels des secteurs de l’énergie, de la défense, de la mobilité ou de l’immobilier, qui nous amène à parler de “jumeaux numériques” », a-t-il expliqué. Cette notion de “jumeaux numériques” permet de créer des doubles virtuels de territoires, de bâtiments, d’usines, de véhicules… et d’explorer au sein de ces modèles toutes les relations organiques reliant tels équipements ou telles personnes.

Cela nécessite de renoncer aux modèles en silos et d’être capables d’écrire des modèles de données complexes, en réseau. Il s’agit d’une véritable rupture d’usage, touchant tous les métiers, tous les secteurs mais qui permet de proposer un projet de vie, d’entreprise et de société, à même de motiver et de mettre en confiance tous les acteurs. Il a cité les «jumeaux numériques» de production mais aussi d’organisation MCO (Mise en Conditions Opérationnelles). Et a donné l’exemple de Naval Group, capable désormais de proposer aux marines nationales des «duplicatas numériques» de leurs bâtiments. La maintenance prédictive en est facilitée à bord tandis que le suivi virtualisé à distance permet de réduire les temps d’arrêt. Raphaël de Cormis (Thales) a demandé à Pierre Nougué si Naval Group, tourné vers le militaire, n’avait pas eu trop de mal à accepter de travailler avec un prestataire extérieur civil. « Les militaires français ont emboîté le pas à leurs homologues américains, qui estiment depuis longtemps que la collaboration avec le monde civil est une question de vie ou de mort », a répondu Pierre Nougué. Gare à la gouvernance des données

« Si vous donnez la propriété des données à un service commercial, souvent soumis à de fortes pressions pour faire du chiffre, vous risquez d’avoir des catastrophes » Benoît Gougeon, UiPath

Jean-Marc Vittori a alors soulevé le problème, dans ce cas, de la propriété des données : restent-elles au niveau des métiers ? sont-elles transférées à l’IT ou à la data ? Plus largement, qui doit-être en charge de la gouvernance de la data et de l’IA ? Pour Benoît Gougeon (UiPath), cela relève avant tout d’initiatives de formation et de communication, dans lesquelles la DRH doit être impliquée. « Par exemple, si vous donnez la propriété des données à un service commer-cial, souvent soumis à de fortes pressions pour faire du chiffre, vous risquez d’avoir des catastrophes », a-t-il reconnu.

« Le sujet structurant par rapport à la gouvernance, c’est l’éthique, la confiance : comment être sûr que tout le monde va respecter les règles fixées par la hiérarchie, en particulier sur le contrôle des use cases ? », a demandé David Giblas (Malakoff Médéric). Pour cela, il faut une vraie filière “gouvernance des données”. Chez Malakoff Médéric, le Chief Governance Officer anime 60 data owners ; et une batterie de consoles permettent de surveiller l’usage qui est fait des data. « La DPO - la délégation à la protection des données - a un rôle essentiel », a ajouté Edouard Mailfait (Carrefour).

Mais dans un tel contexte, qui osera prendre des risques ? Chafika Chettaoui (Suez) et Jean-François Tarabbia (Valeo) ont semblé d’accord pour dire que la décision de prise de risque devait être répartie au sein d’une communauté d’experts à même d’indiquer les lignes rouges à ne pas franchir.Après avoir rappelé que ce sujet de la valorisation des données concernait aussi les prestataires et les clients, Pierre Nougué a livré son expérience de co-fondateur et de président d’Ecosys group, un dispositif associatif regroupant 450 PME dans le monde spécialisées dans l’accompagnement de la transformation, dont une douzaine dédiées à la transformation

Qui nommer pour bien transformer ?

Le choix des personnes amenées à porter la bonne parole de l’IA est l’une des clés de la réussite. « Nous avons constitué une task force pluridisciplinaire de transforma-tion, a expliqué Corinne Figuereo (SPIE). Mais parmi ces personnes que nous avions formées, nous avons eu parfois des déceptions. Comment mieux les cibler ? »

« Parmi les personnes que nous avions formées, nous avons eu parfois des déceptions. Comment mieux les cibler ? » Corinne Figuereo (SPIE)

Raphaël de Cormis (Thales) et Guillaume Rouil (AXA Investment Managers) ont tous les deux mis en avant une approche empirique, sélectionnant des personnes sur leurs compétences et leur envie de s’impliquer dans un projet de transformation IA. Chafika Chettaoui (Suez) base, elle, son choix sur trois critères : « Choisir les per-sonnes les plus data driven parmi le réseau relationnel interne, cibler les business units les plus à l’aise financièrement, et ne se consacrer qu’à quelques gros projets de transformation. ». Corinne Figuereo a fait remarquer que son entreprise aussi sélectionnait les per-sonnes sur leur capacité à entraîner, communiquer, défricher et persévérer, mais que malgré tout, certaines s’épuisaient au bout d’un an. « Il faut faire preuve de réelles capacités de transformation dans un contexte instable et sur des projets compliqués qui durent entre un an et un an et demi. Au bout d’un an, cela devient effectivement difficile à gérer », a admis David Giblas (Malakoff Médéric). Malgré toutes les précautions prises : la définition avec la DRH de fiches de poste très précises (compétences, salaires, parcours professionnels…), l’attention portée à la motivation des personnes et le soin mis à la mise en place du management intermédiaire, en charge de la gestion des équipes. « C’est une question de psychologie de groupe : qui va pouvoir jouer sa carrière sur l’IA et entraîner des centaines d’autres personnes autour d’une vision définie par la direction ? », a résumé Benoît Gougeon (UiPath).

Page 12: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

22 23

IV - Le « make or buy »production dans les 300 usines du groupe. Autre précision : « Le “Make or Buy”, c’est aussi les consultants et les infrastructures ». Pour bâtir sa stratégie IA, qui repose sur deux questions (« où est la valeur de l’IA ? » et « où a-t-on de la data ? »), Faurecia s’est appuyé sur une matrice d’analyse comportant trois colonnes : « off the shelf » (pour les solutions disponibles et éprouvées sur le marché), « compétences achetables », « infrastructures » ; et trois lignes : « intelligence artificielle », « DevSecOps » (« Développement Sécurité Opérations », afin de réfléchir à la sécurité de l’application et de l’infrastructure dès le départ), et enfin « data ».Dans ce cadre, pour accélérer l’élaboration de solutions en parallèle du plan de recrutement de compétences internes pour sa Digital Services Factory d’une centaine de personnes, un partenariat a été noué avec Accenture.

A mesure que Faurecia devenait suffisant, ce soutien a été progressivement réduit au fur et à mesure, mais les « achats sur étagère » se poursuivent.Faurecia a investi dans le Cloud (Microsoft Azure) et dans certaines licenses clés, a réalisé des « PoC » (Proof of Concept) avec des start-up.

Sur les domaines clés où rien n’existait, Faurecia a construit ses propres logiciels avec la volonté de pouvoir réaliser des logiciels et des plateformes à valeur ajoutée pour l’interne et/ou commercialisables à des clients externes. Une quinzaine de brevets ont d’ailleurs été déposés par Faurecia dans le domaine de l’IA en 2019, et dans une vingtaine usines déjà, l’IA a permis d’améliorer la qualité des produits sortants.

« Le “Make or Buy”, c’est aussi l’ouverture sur le monde, des associations avec des centres de compétences… » Serge Bérenger, Latécoère

Serge Bérenger, (Latécoère), a ensuite évoqué la stratégie IA de ce sous-traitant aéro-nautique. L’introduction de l’IA dans les produits (portes d’avion, tronçons de fuselage, systèmes d’interconnexion…) doit permettre à terme de générer de nouveaux revenus, l’IA au service des outils de production devant permettre de gagner en compétitivité. « Sur les produits, nous n’avons pas encore trouvé le moyen d’augmenter nos marges : comment pouvons-nous contribuer à fournir des données à nos clients pour supporter un nouveau business model?, a demandé Serge Bérenger. Et dans les usines, nous avons énormément de données mais nous n’en avons pas encore identifié leur valeur. »

Pour Latécoère, le « Make or Buy » doit comporter l’acquisition de compétences humaines, des partenariats avec des « conglomérats de sachants », mais aussi « l’ouver-ture sur le monde : pour accroître les savoirs de nos équipes, nous nous sommes associés au centre de compétences ANITI (Artificial and Natural Intelligence Toulouse Institute), à Toulouse », a détaillé Serge Bérenger.

« Ne pas faire faire tout et ne pas faire tout soi-même. » Françoise Soulié-Fogelman, Hub France IA

L’intervention de Françoise Soulié-Fogelman a plus particulièrement porté sur le Make or Buy dans les PME : conseillère scientifique du Hub France IA, elle pilote, au sein de cet

La dernière réunion de travail de la saison deux d’AI for Business était intitulée « Le Make or Buy (comment intégrer les partenaires ?) et l’industrialisation des talents ». Au menu de cette rencontre, animée par Jean-Marc Vittori : une présentation par le BCG GAMMA, les retours d’expérience de deux entreprises (Faurecia et Latécoère), les constats de Françoise Soulié-Fogelman sur le cas de l’intelligence artificielle dans les PME et ETI, puis une discussion entre les diffé-rents membres du Think Tank, présents, pour quelques-uns, dans les bâtiments des Échos, ou pour la plupart, en téléconférence.

Jean-Marc Vittori a tout d’abord rappelé que le « Make or Buy » était un sujet vieux comme l’industrie, mais que dans le cas de l’IA, il fallait tenir compte d’une spécificité : la matière première, en l’occurrence la donnée, est produite en interne.

« Si je possède un avantage de données par rapport au marché, je ne dois pas en faire profiter des logiciels externes qui vont apprendre grâce à mes données. » Nicolas de Bellefonds, BCG

Nicolas de Bellefonds, (BCG GAMMA), l’entité d’intelligence artificielle du BCG, a estimé que la vraie question à se poser pour les entreprises, dans le cadre du « Make or Buy », était de prendre ou non des logiciels « sur étagère » (« off the shelf » en anglais), c’est à dire déjà sur le marché… car conçus pour d’autres. Pour le BCG, l’entreprise doit regarder chaque domaine d’application et se poser deux questions : quelle est la valeur stratégique de ce domaine ? De quel avantage de données l’entreprise dispose-t-elle par rapport à des acteurs tiers ? « Si je dispose de cet avantage, je ne dois pas en faire profiter des solutions d’IA tierces qui vont apprendre grâce à mes données, a averti Nicolas de Bellefonds. Sinon, alors des solutions tierces seront toujours plus performantes que les miennes et j’ai intérêt à m’en servir – ou à les racheter. »

Deux situations nécessitent d’être examinées de plus près. Premièrement, le cas d’un domaine non stratégique, sur lequel l’entreprise dispose de beaucoup de données : l’entreprise peut avoir vocation à les monétiser en dévelop-pant des solutions pour des tiers. Ce peut être le cas par exemple des sociétés de paiement. L’autre situation concerne les domaines stratégiques pour lesquels l’entreprise ne dispose pas d’un avantage de données ; dans ce cas, des stratégies en rupture doivent être envisagées, comme des partenariats ou des acquisitions. Un exemple typique est les sociétés de biens de grande consommation qui n’ont souvent pas accès aux consommateurs finaux.

« Le “Make or Buy”, c’est aussi les consultants et les infrastructures » Grégoire Ferré, Faurecia

Grégoire Ferré (Faurecia), a rappelé que la stratégie IA de cet équipementier automobile avait deux volets : l’IA dans les produits (ou comment dégager de la valeur ajoutée grâce à la donnée) et l’IA au service de l’amélioration de la

Page 13: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

24 25

organisme, le plan de mesures Pack IA, destiné à aider les PME/ETI à s’équiper en outils d’IA pour gagner en compétitivité. « L’interrogation que je perçois, d’après mes nombreux contacts avec des PME est la suivante : pour démarrer en IA, est-ce que je dois faire faire, ou est-ce que je dois faire ? Comment recruter, que faut-il acheter ? », a précisé Françoise Soulié-Fogelman. Son conseil est « de ne pas faire faire tout et ne pas faire tout soi-même. »

La bonne stratégie consiste à adopter une dynamique dans le temps : commencer par du « buy », puis rapidement faire soi-même. Autrement dit, commen-cer par se faire accompagner pour comprendre, sans quitter des yeux deux objectifs : réussir le projet d’IA tout en permettant à ses équipes internes de découvrir les principales difficultés liées à l’implantation de cette technologie dans une PME. Ce qui suppose d’être capable d’attirer des talents, de structurer une équipe dont la motivation doit être entretenue.

« Dans l’IA, tout n’est pas lié uniquement aux compétences : le problème peut avoir été mal posé au départ », Samir Amellal, La Redoute

La discussion qui a suivi entre les participants peut être synthétisée autour de cinq thèmes : la feuille de route de départ, l’accompagnement, l’intégration des data scientists, la gouvernance, la collaboration grands groupes / start-up.

Samir Amellal (La Redoute) a insisté sur l’importance d’établir le plus en amont possible une « roadmap » en fonction des difficultés propres à l’entreprise, de ses choix stratégiques pour l’IA, de son avantage concurrentiel en termes de données et de ce qui existe déjà sur le marché. « Dans l’IA, tout n’est pas lié uniquement aux compétences : le problème peut avoir été mal posé au départ », a-t-il insisté.

« Le dialogue régulier entre des universitaires disposant d’un peu de recul et ces jeunes diplômés contribue fortement à attirer les talents et à faciliter leur intégration au sein de l’entreprise. »Emmanuel Bacry (CNRS/Université Paris-Dauphine PSL et Health Data Hub)

D’où l’importance de l’accompagnement par des compétences externes, a minima dans les premiers mois du projet. Cet accompagnement, a rappelé Françoise Soulié-Fogelman (Hub France IA), peut être trouvé auprès de cabinets conseils, de sociétés spécialisées, d’universitaires ou, si le projet a été bien défini dès le départ, de start-up.

Emmanuel Bacry, a plaidé, pour sa part, pour l’accompagnement par des universitaires, le mieux à même, selon lui de favoriser l’intégration des data scientists, frais émoulus de l’université, et qui peut poser problème : « Le dialogue régulier entre des universitaires disposant d’un peu de recul et ces jeunes diplômés contribue fortement à attirer les talents et à faciliter leur intégration au sein de l’entreprise. »

Jean-François Tarabbia (Valeo), a ainsi relaté que, dans son entreprise, le recrutement de brillants data scientists a échoué : « Ils ont eu du mal à comprendre nos enjeux, à fédérer les équipes autour d’eux ; démotivés, ils ont fini par partir. » David Giblas, (Malakoff Médéric), a confirmé que le recrutement des data scientists peut être cauchemardesque.

« La personne la plus importante à recruter est quelqu’un de l’interne très au fait de l’entreprise et de ses métiers, et qui a une forte sensibilité IA/data. » Jean-François Tarabbia, Valeo

Pour plusieurs membres du Think Tank, l’écueil principal au succès de l’IA est donc bel et bien la constitution et la montée en compétences des équipes internes. Pour Emmanuel Bacry (CNRS/Université Paris-Dauphine PSL et Health Data Hub), le pivot de toute l’organisation est le project manager. Pour Benoît Gougeon (UiPath), ce poste fait appel à des compétences très précises : « Il doit bien connaître l’entreprise, ainsi que ses métiers et être capable de faire travailler ensemble des individualités. » Ce qu’a confirmé Jean- François Tarabbia (Valeo) : « La personne la plus importante à recruter est quelqu’un de l’interne très au fait de l’entreprise et de ses métiers, et qui a une forte sensibilité IA/data. »

Pour David Giblas (Malakoff Médéric), la première étape indispensable a été de créer le métier de Chief Data Officer. « Puis nous avons travaillé avec le BCG pour construire une direction data, d’abord mixte, composée à la fois de compétences internes et de ressources externes, avec l’objectif de devenir autonomes dans les 15 mois. » Guillaume Rouil (AXA Investment Managers), a confirmé que les compétences externes permettent de faire progresser les salariés, mais a mis en garde contre une trop grande précipitation pour devenir autonomes.

Chez Malakoff Médéric, un important travail de définition des responsabilités a été mené avec les ressources humaines sur la gouvernance et le pilotage de la data et de l’IA. Un point sur lequel Chafika Chettaoui (Suez), a également insisté : « La data gouvernance doit permettre de casser les silos. » Pour rassembler les données, Samir Amellal (La Redoute) a noué un partenariat avec Google Cloud.

« Les grands groupes peuvent se faire aider dans leur mise en place de l’IA par des start-up soit en devenant client de ces dernières, soit en prenant une participation dans leur capital. » Guillaume Rouil, AXA Investment Managers

La collaboration grands groupes / start-up a donné lieu ensuite à de nombreux échanges. Plusieurs types de relations sont possibles. Guillaume Rouil (AXA Investment Managers) a rappelé que les grands groupes peuvent se faire aider dans leur mise en place de l’IA par des start-up soit en devenant client de ces dernières, soit en prenant une participation dans leur capital. Grégoire Ferré (Faurecia) a précisé que le choix entre une prise de participation dans une start-up ou son rachat relevait d’une décision stratégique : « Si l’on se contente d’une participation, il faut accepter l’idée que cette start-up prendra peut-être un jour son envol avec d’autres clients. » Il a donné l’exemple d’une start-up suédoise, spécialisée dans la réduction de bruit dans l’habitacle, dans laquelle Faurecia a investi. « Mais si les compétences que vous apporte une start-up sont stratégiques pour votre entreprise, il n’y a pas d’alternative : il faut la racheter », a-t-il prévenu.

« C’est difficile de travailler avec des start-up, a estimé de son côté Samir Amellal (La Redoute). Nous le voyons à travers notre incubateur, Lafayette Plug & Play, qui est très sollicité : peu de start-up sont vraiment Plug & Play et capables de s’adapter rapi-dement aux besoins d’un grand groupe. » Françoise Soulié-Fogelman (Hub France IA) a suggéré une origine à ce problème : s’il est assez facile, à travers les nombreux catalogues qui existent, de trouver une start-up capable, sur le papier, d’aider une entreprise, il est plus difficile de déterminer la vraie valeur de cette start-up. Les projets de grille d’analyse

Page 14: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10

Livr

e bl

anc

• AI

for

bus

ines

s

26 27

des start-up lancés séparément par Hub France IA et la BPI n’en sont qu’à leurs débuts. « Ce sera de toute façon difficile à faire », a prévenu Emmanuel Bacry (CNRS/Université Paris-Dauphine PSL et Health Data Hub). »

Enfin, Corinne Figuereo (SPIE), a rappelé que si l’on choisit de travailler avec une start-up, il faut avoir conscience que des problèmes peuvent survenir dans la durée : « De nouveaux actionnaires de la start-up peuvent faire évoluer sa roadmap ; et si c’est le grand groupe qui veut faire évoluer le projet, il devra peut-être reprendre la main sur les flux de données qu’il a partagés avec la start-up. »

Attention à l’héritage !

Les entreprises doivent prendre en compte la gestion du « legacy », l’héritage de systèmes informatiques précédents. Aujourd’hui, la plupart des algorithmes d’IA sont récents dans les entreprises, mais ils deviendront un jour des systèmes informatiques ‘hérités’ du passé qu’il faudra bien entretenir et adapter. « Attention : les algorithmes d’IA évoluent aussi avec le temps, a pointé David Giblas (Malakoff Médéric). Les compétences externes seront-elles toujours là pour les faire vivre ? » « Les logiciels d’IA sont vivants, a conclu Grégoire Ferré (Faurecia). Le paradigme de la legacy IT sera de plus en plus aigu dans l’IA, au moins pour la partie Buy. »

BIBLIOGRAPHIE●n Livre blanc intelligence artificielle (IA) - Inria

https://www.inria.fr/sites/default/files/2019-10/AI_livre-blanc_n01%20%281%29.pdf

n Lignes directrices en matière d’éthique pour une IA digne de confiance. Groupe d’experts de haut niveau sur l’intelligence artificielle, appointés par la Commission européenne https://ec.europa.eu/futurium/en/ai-alliance-consultation/guidelines#Top

n Elements of AI : cours en ligne gratuit de l’université d’Helsinki expliquant les bases de

l’intelligence artificielle https://www.elementsofai.com/

n Formation en ligne gratuite « pour tout comprendre sur l’IA en quelques heures », de l’Institut Montaigne et d’OpenClassrooms (non disponible à la date - 21 janvier 2020- de l’écriture de ces lignes). https://www.institutmontaigne.org/initiatives/objectif-ia https://info.openclassrooms.com/fr/lp/formation-gratuite-intelligence-artificielle

n Site du Forum mondial sur l’IA pour l’humanité (GFAIH) https://gfaih.org/

n centre de compétences ANITI (Artificial and Natural Intelligence Toulouse Institute) à Toulouse : https://aniti.univ-toulouse.fr/

n Le Pack IA, offre inédite pour aider les PME/ETI à gagner en compétitivité grâce à l’IA, co-piloté par le Hub et financé à 50% par la Région Ile-de-France : https://www.hub-franceia.fr/2020/02/04/le-pack-ia-dans-actu-ia/

● n Incubateur Lafayette Plug and Play https://lafayetteplugandplay.com/fr/

LES SUJETS CLES DE L’IA DANS L’ENTREPRISE

Septembre 2020

Page 15: AI - lesechos-events.fr · appliquer, à destination des fournisseurs et des salariés. 9 - Consacrer 10% des efforts à l’algorithme, 20% aux données, et 70% à l’humain. 10