71
B B i i g g D D a a t t a a : : f f i i n n o o u u r r e e n n o o u u v v e e a a u u d d u u m m a a r r k k e e t t i i n n g g

Livre Blanc Big Data : fin ou renouveau du Marketing ?

  • Upload
    aproged

  • View
    1.207

  • Download
    5

Embed Size (px)

Citation preview

Page 1: Livre Blanc Big Data : fin ou renouveau du Marketing ?

BBiigg DDaattaa :: ffiinn oouu rreennoouuvveeaauu dduu mmaarrkkeettiinngg

Page 2: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 1

Sommaire

INTRODUCTION 2 I BIG DATA : CES DONNEES CHANGENT-ELLES LA DONNE ? 5 - Du web 1.0 au web 3.0, l’écueil d’une vision auto-centrée 6 - Intégrer le client dans les projets Big Data 10

II COMMENT MESURER LA FIABILITE DES SOURCES ? 11 - On résume souvent le Big Data par les « 4V » 12 - La gouvernance comme moteur de la valeur et de la qualité des données 13 - Une matière première à identifier et surtout à développer 14 - Créer de la donnée dans son organisation 14 - Se fournir auprès des entreprises spécialisées 14 - La donnée en tant que produit économique 15

III BIG DATA ET SENTIMENT ANALYSIS : QUELS USAGES POUR QUELLES PROBLEMATIQUES ? 16 - Big data et sentiment analysis 17 - Veut-on une analyse globale ou détaillée du message ? 19 - Le champ de l'étude est-il mono-source ou multi-sources ? 20 - Le champ de l'étude couvre t-il des entités homogènes ou non ? 21 - Vise-t-on un système entièrement automatique ou seulement une assistance ? 21 - Quelles technologies pour quels cas d'usage ? 22 - Les cas favorables, et ceux qui sont problématiques 22

IV BIG DATA ET TEMPS REEL : DES TECHNOLOGIES A ADAPTER ? 23 - Des données temps réel complexes 24 - Des problématiques temps réel 25 - Des technologies traditionnelles inadaptées 26 - Une approche technologique pour le temps réel 26 - Illustration : améliorer la Relation Client en temps réel 27

V COMMENT UTILISER LES CAPACITÉS DU BIG DATA ET L’APPROCHE ANALYTIQUE POUR CONTRIBUER À TRANSFORMER LE MARKETING ? 30

- Utiliser les capacités du Big Data et l’approche analytique pour contribuer à transformer le marketing 31 - Se préparer aux challenges du Big Data 32 - Adresser les impératifs clefs du marketing 33 - Redéfinir les fonctions marketing traditionnelles 34 - Améliorer l’efficacité du marketing avec l’analyse prédictive et prescriptive des comportements 35 - Améliorer la valeur délivrée au client à chaque interaction avec une pertinence temps réel 36 - Comment débuter la transformation 37

VI LE BIG DATA : « LA TENTATION DE LA CLANDESTINITE ? » 38 - Le Big Data : « La tentation de la clandestinité ? » 39

VII LE BIG DATA, NERF DE LA GUERRE DES GRANDES PLATEFORMES SOCIALES ? 42 - Le Big Data, nerf de la guerre des grandes plateformes sociales ? 43 - Qu’entend-on par « Big Data »? 44 - Les médias sociaux, acteurs originels du Big Data 44 - Tout réside dans l’exécution 45 - Le Big Data à la base des revenus des médias sociaux 46 - Du Big Data à la Big Intelligence ? 48

VIII LE BIG DATA PEUT-IL RENDRE VOS CLIENTS PLUS FIDÈLES ? 49 - Retour aux sources du « Big Data » 50 - Des outils et des hommes … 51 - Avant d’être « Big Data » votre base doit être « Quality Data » ! 52 - Alors comment approcher votre projet Big Data? 53 - Alors rêvons un peu ! 53

IX MARKETING, LOCALISATION ET BIG DATA : GÉOMARKETING OU BIG BROTHER ? 54 - Marketing, localisation et Big Data : géomarketing ou Big Brother ? 55 - Historique : les trois temps du géomarketing 56 - Trois bonnes pratiques pour le géomarketing à l’ère du Big Data 58

TRIBUNE DE PASCAL BUFFARD - CIGREF 60 - Big Data : entre opportunité et menace pour les entreprises 61 - Créer de l’information à forte valeur ajoutée 62

CONCLUSION 64

Page 3: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 2

INTRODUCTION

Page 4: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 3

Tel un coup de semonce, le mot Big Data retentit dans le ciel des entreprises.

Eldorado pour certains, fardeau pour d'autres, les réalités sont aussi variables que les conditions dans lesquelles le Big Data est considéré. Selon une étude de Gartner, le Directeur marketing passera en 2017 plus de temps à traiter des questions d’informatisation que … le Directeur des systèmes d’information. Peu importe que cette prévision soit vraiment étayée ou non, elle montre en tout cas les profondes transformations que le Big Data va provoquer dans le monde du marketing. Un nouveau livre blanc, en collaboration entre l’Aproged et l’Adetem, dans la lignée du précédent sur la e-Réputation en B2B, propose la réflexion de nos deux associations sur ces sujets. A travers son titre volontairement provocateur et polémique, c’est la réalité de ces changements qui sont abordés : d’une logique verticale, l’entreprise poussant ses messages vers les consommateurs, on passe à une logique horizontale, l’entreprise observant les messages que les consommateurs échangent entre eux, pour en tirer analyses et décisions d’action, intervenant elle-même, le cas échéant, dans ces conversations. Au fil des contributions, les auteurs de ce livre blanc vous livrent leur propre vision fondée sur une pratique déjà éprouvée. Éprouvée car ce phénomène n'est pas une nouveauté. Les données existent depuis longtemps. C'est l'accélération de leur production et le phénomène d'accumulation récent qui leurs donnent cette importance récente, sans compter la médiatisation assurée par les vendeurs de solutions et a presse. Les raisons de cette production accélérée sont nombreuses : le cloud computing, les progrès des technologies informatiques du stockage, de la recherche et de l'analyse des grands volumes de données, les échanges et recommandations sur les réseaux sociaux, les objets connectés et l'intérêt d’en savoir toujours plus sur ses clients. Seulement voilà, la proportion moyenne des données potentiellement utiles mais effectivement exploitées dans nos entreprises ne dépasse pas les 1%. (étude IDC Digital Universe, EMC, Décembre 2012) Derrière cette « massification » se cache donc un process subtil, interne à l'entreprise qui l'amène à s'interroger et à revisiter au besoin son organisation. Telle l'eau qui nous alimente, la donnée est vitale pour l'entreprise, en devenant un facteur clé dans son processus de décision et par conséquence de production. Ce fameux 1% n'est peut-être pas le signe d'un manque d'expertise pour déceler la bonne information mais plutôt l’acuité à faire remonter, synthétiser et analyser le 1% de données le plus pertinent et exploitable d’un point de vue stratégique. La maitrise du Big Data suppose la combinaison de plusieurs facteurs : des outils technologiques, sans quoi rien n'est possible, mais aussi et peut-être surtout, une question de travail et d’organisation. La donnée prenant de plus en plus de valeur, elle devient un facteur plus que stratégique dans le développement d’une entreprise. Au travers de leur contribution, nos auteurs nous apprennent que l’enjeu du Big Data se relève collectivement. Non, ce n’est pas la fin du marketing. C’est le début d’une ère plus transversale dans les organisations, d’un décloisonnement impératif entre la finance, la production, le commercial et le marketing (…). C'est aussi le début d'un dialogue nouveau entre ces directions opérationnelles des entreprises et leurs directions informatiques.

Page 5: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 4

C’est enfin un intérêt nouveau à porter à son client dans le cadre d’une relation respectueuse de sa vie privée et de ses intérêts, en évitant de l'espionner à son insu, mais plutôt en l'écoutant en favorisant un dialogue d'un genre nouveau. Le Big Data, ce n'est pas la fin du marketing, mais c'est certainement l’opportunité d’un marketing en profonde évolution.

Bernard Normier Jean Marc Goachet Vice-Président de l'APROGED Co-Président du Club

marketing 2.0 Adetem et membre du CA

"Valorisation des contenus"

Page 6: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 5

I BIG DATA : CES DONNEES CHANGENT-ELLES LA DONNE ?

Internet des objets, recherche sémantique, personnalisation… les limites techniques disparaissent peu à peu au profit de services qui relevaient, il y encore peu, de la science-fiction. Dans ce web du futur, l’internaute ne cherche plus l’information, elle vient à lui grâce à des procédés de plus en plus prédictifs et fondés pour une part sur les technologies Big Data. Fascinées par les possibilités en matière de ciblage comportemental qu’offrent ces nouvelles technologies, les entreprises rêvent à de nouveaux moyens de conquête et d’influence de masse. Au risque d’en oublier l’essentiel en perdant de vue … le client lui-même.

DU WEB 1.0 AU WEB 3.0, L’ÉCUEIL D’UNE VISION AUTO- CENTRÉE 7

INTEGRER LE CLIENT DANS LES PROJETS BIG DATA 10

Page 7: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 6

Du web 1.0 au web 3.0, l’écueil d’une vision auto-centrée

Caroline FAILLET, co-dirigeante de Bolero Web Intelligence

Même récente, l’histoire du web illustre hélas une certaine constance des entreprises à oublier la vision client. De manière caricaturale à des fins pédagogiques, commençons par résumer le web en trois phases :

Le Web 1, celui des sites et des moteurs de recherche Le Web 2, celui des outils d’expression et de mise en relation Le Web 3, celui des données.

Ainsi à l’ère 1.0, durant les années 2000, les entreprises concevaient-elles, ce que l’on a appelé péjorativement par la suite, des sites « vitrine », c’est-à-dire l’équivalent de plaquettes en ligne non orientées utilisateurs. De même, à l’égard des moteurs de recherche, il est saisissant de se remémorer que ces mêmes entreprises mesuraient (et mesurent encore souvent) alors leurs performances sur des mots clés qu’elles-mêmes choisissaient au lieu de mesurer leurs positions sur des requêtes réellement saisies par les internautes – clients potentiels. Faut-il voir dans ces paradoxes l’expression d’un quelconque amateurisme du débutant ? Cela n’est pas si sûr car l’histoire a tendance à se répéter… En effet, avec l’avènement des média et réseaux sociaux – l’ère 2.0 du web, nombre d’entreprises ont exploité ces espaces de dialogue comme des nouveaux canaux de communication, telles des colonisateurs envahissant des terres inconnues, ignorants de leurs lois et de leurs rituels, si avides qu’ils étaient de convertir des indigènes. Ces entreprises ont alors ouvert des blogs, des pages Facebook, des comptes Twitter vantant les mérites de leurs actions et de leurs produits, tout en attaquant en justice les internautes qui détournaient leur nom ou leur logo. Depuis l’époque du web 1.0, leur acculturation à ces nouveaux espaces et communautés n’a que peu évolué puisque beaucoup mesurent aujourd’hui encore leur performance dans le web social à l’aune de leur capacité à fédérer des internautes autour de leur nom (followers, fans et autre Klout scoring). Le risque de cette vision autocentrée, plus de 15 ans après l’émergence du web Grand Public, est de passer une troisième fois à côté de l’internaute. Avec les moteurs de recherche puis avec le web social, l’internaute a en effet enrichi son parcours en ligne de multiples formes de réponses qui couvrent de mieux en mieux son besoin. Et pendant ce temps, l’entreprise à la vision auto-centrée met toute ses ressources à créer des parcours artificiels vers son écosystème web, faute d’avoir pu se mettre au diapason du comportement de ses cibles. Au regard de ce bref historique, arguons que toutes les leçons sur le manque de connaissance client ne vont pas être tirées pour le niveau 3.0 du web…

Page 8: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 7

Sans vouloir jouer les prophètes pour certains ou les oiseaux de mauvaise augure pour d’autres, relevons trois erreurs susceptibles de faire passer, une nouvelle fois, l’entreprise à côté de son client. Erreur n°1 : des volumes de données insuffisants pour en tirer des enseignements sur le client

Qu’implique ce web 3.0 ? En préambule, il faut être conscient qu’incrémenter des versions du web n’est qu’une approche simpliste pour matérialiser des ruptures technologiques et marketing dans l’évolution du web. Sur ce point, d’aucuns s’accordent sur le fait que le web 3.0, est d’abord le passage d’un web de documents à un web de données. Ce ne sont plus seulement les pages web qui peuvent être liées entre elles mais les données stockées. Il est aujourd’hui techniquement possible d’imaginer un site Internet dont le contenu s’actualiserait automatiquement en fonction de ce que l’internaute a

acheté précédemment, des requêtes Google du moment, de l’importance des « like » sur un contenu de la page Facebook associée ou encore du nombre de partages d’un tweet de l’entreprise. Au-delà de la prouesse technique, la complexité d’un tel site repose sur l’édiction de règles qui consistent à associer un contenu pertinent à une action donnée ou à une succession d’actions de l’internaute. C’est précisément l’objet du marketing prédictif qui vient construire des modèles permettant d’anticiper des comportements futurs de prospects ou de clients en fonction de leurs actions passées. L’avènement du web social où l’individu est incité à évaluer, commenter, partager, aimer, se localiser, recommander – de manière générale à interagir avec un contenu – offre une matière en or aux chercheurs du comportement, au travers de milliards de nouvelles données comportementales. Grâce aux technologies Big Data, qui permettent de collecter et de traiter ces données en temps réel, il serait logique de déduire que l’analyse prédictive a de beaux jours devant elle. C’est pourtant davantage un sujet pour les fournisseurs de solutions qu’un projet d’envergure pour les dirigeants des entreprises françaises. En effet, si 44 % des décideurs interrogés placent l’exploitation et l’utilisation des données dans les trois premiers enjeux liés à la gestion de leurs informations décisionnelles, seulement 14% des managers, d’après la même étude1, positionnent le Big Data dans les trois premiers enjeux de la gestion de l’information. Ainsi, ces derniers préfèrent-ils capitaliser sur les données internes à l’entreprise avant de collecter des données en masse des réseaux sociaux. Signe de sagesse des managers, qui ne succombent pas aux sirènes des éditeurs de la « nouvelle vague » Big Data ? Oui et non… Oui, si c’est pour faire l’inventaire des données internes avant de s’ouvrir au mirifique potentiel de l’externe. Non, si c’est pour passer d’un projet Big Data à un projet « Small Data » qui annihile de fait toute velléité d’analyse prédictive puisque, en général, l’on ne disposera pas de suffisamment de données pour modéliser des comportements. Une première erreur consiste donc à croire que l’on lance un projet Big Data là où l’on

1 Etude Markess International. De l’information à la prise de décision : nouveaux modes d’accès et d’analyses pour la performance du business (France, 2012-2014).

Page 9: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 8

remanie de facto de simples data. Comme pour M. Jourdain, l’effet d’annonce ne ferait que souligner une indigente connaissance client. Erreur n°2 : des données centrées sur l’interne plus que sur le besoin client S’affranchir de données en provenance des media sociaux et se recentrer sur les données internes pose aussi la question de la pertinence de ces données pour le client. Issues du logiciel de relation clients et des bases de données produits, souvent partielles et fragmentées en silos, reflets des procédures maison ou des modes et normes de fabrication, ces données internes sont souvent stériles pour l’interprétation comportementale. Prenons l’exemple d’un fabricant d’isolants pour le bâtiment. Les données en base concernant ses produits comprennent par exemple : la norme NF, le DTU auquel ils se conforment, la conductivité thermique, l’élongation à la rupture ou encore la résistance à la vapeur d’eau. Des données essentiellement techniques et règlementaires. L’observation des discussions d’internautes dans les réseaux sociaux montre pourtant que les critères de décision en matière d’isolation pour leur habitat portent plutôt sur : le type de paroi (mur, sol, ..), le label que cet isolant permet d’obtenir (bâtiment basse consommation, maison à très haute qualité environnementale…) ou encore sur le profil de projet (construction, rénovation). Autant de données qui traduisent le besoin client et qui ne figurent pas dans les bases de cet industriel, l’empêchant d’envisager tout projet de ciblage élaboré comme le laissent entrevoir les solutions Big Data. A l’inverse, le distributeur de ces mêmes produits isolants, qui dispose d’un site Internet ouvert aux interactions sociales (avis, évaluations du produit, partages sur les réseaux sociaux…) aura, quant à lui, rajouté au sein de ses fiches produits, ces couches d’information nécessaires au choix du prospect : paroi, label, projet…. Le distributeur a donc complété les données communiquées par le fabricant d’isolants par des informations favorisant le choix du prospect et ce même distributeur s’assure par ailleurs d’une collecte en continu de nouvelles données comportementales qui viendront enrichir sa vision client. On voit là l’impérieuse nécessité pour les entreprises de ne pas rester centrées sur leurs données internes, trop peu orientées utilisateurs. Certaines expérimentent l’ouverture au travers de projets Open Data, terrains de métissage des données et où vision entreprise et vision utilisateur s’apprivoisent en douceur. Au contact des développeurs informatiques, les entreprises touchent du doigt le besoin client et révisent leurs convictions. SNCF Transilien a pu par exemple s’étonner, lors de son premier « Hackathon » (journée dédiée à l’ouverture des données Transilien pour imaginer les applications attendues des clients), que les projets plébiscités par les usagers étaient bien ancrés dans leur quotidien pratique. Des projets relativement éloignés des applications ludiques que SNCF Tansilien avaient pourtant conjecturé ! Malheureusement ces démarches d’« open innovation » restent encore souvent des initiatives isolées, qui ne sont guère généralisées, voire sont de simples opérations de communication, empêchant là encore la vision utilisateur d’infuser à l’échelle de l’entreprise toute entière.

Page 10: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 9

Erreur n°3 : des données incompatibles avec la nécessité d’émerger sur le parcours digital Le web 3.0 c’est aussi, dans un futur proche, le web sémantique qui consacre l’apparition de techniques permettant d’interpréter et de donner du sens à ces données. La sémantique ne s’appuiera pas cette fois sur des algorithmes de ciblage mais sur des ontologies qui consistent à représenter la connaissance et à apprendre aux ordinateurs à travailler pour nous. Et le résultat est à rapprocher du marketing prédictif : de plus en plus, c’est la donnée qui vient à l’internaute plus qu’il ne la cherche. Du ciblage comportemental fondé sur les Big Data à l’avènement de la sémantique, nous pouvons supputer que le web 3.0 inaugure une ère d’un renouveau du parcours client à travers les données. Le flou règne encore sur la manière dont les entreprises vont s’approprier ces langages, le travail sur les ontologies étant fastidieux et dirigé encore par le monde académique. Il est toutefois certain que les acteurs majeurs du web vont accélérer la prise en compte de cette structuration des données. Ainsi, Google synthétise déjà l’information qu’il recueille de différents sites (encyclopédique, météo, bourse, hôtels…), compare les prix, donne des scores d’appréciation, le tout depuis sa page de résultats : or cette donnée est bien multi-sources, enrichie de la coopération des machines. Facebook, quant à lui, met en confiance avec « Facebook Connect », suggère, recommande selon le profil de l’internaute : la donnée est ciblée voire personnalisée, pour être au plus près du besoin de l’individu. Reprenons le cas de notre fabricant d’isolant et de son revendeur. Il est probable que le distributeur ne va pas se contenter d’afficher les données pertinentes sur son seul site web. Pour augmenter sa visibilité et sa captation de prospects, il va sans doute chercher à les faire émerger depuis la page de résultats de Google, grâce aux fonctions sémantiques qui proposent une synthèse des informations clés : les avis, le prix, la performance du produit, la facilité d’utilisation… Il en ressort que, marginalisé sur le parcours client, le fabricant d’isolant ne peut rester référent sur ses propres données et que, prisonnier du distributeur, il n’a plus d’emprise sur l’acte d’achat du prospect. Nous conclurons de ces trois natures d’erreurs qu’il ne suffit pas d’avoir des données, encore faut-il qu’elles soient d’une part en quantité suffisante, d’autre part pertinentes pour le client et enfin susceptibles d’émerger dans un web où la concurrence sémantique s’avère la plus dangereuse. Dans cette course aux armements subséquente à l’évolution naturelle du web, comment l’entreprise doit-elle évoluer ?

Page 11: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 10

Intégrer le client dans les projets Big Data La démarche proposée ici est inspirée de la méthode Bolero Web Intelligence®. C’est en prenant comme point de départ l’effet recherché – les comportements que l’on veut susciter de la part du client –, à partir d’une situation donnée – le comportement actuel du client –, que le reste, des applications aux data en passant par les technologies, va logiquement découler. Le tout pouvant être résumé par la loi du PCD, les trois étapes clés : Parcours > Contenus > Data. Le parcours digital Le premier enjeu sera de comprendre comment les prospects vont choisir, acheter et parler des produits demain via le digital. Pour cela, il s’agit de ne pas raisonner outils, ni même usages génériques mais parcours digital, en s’ouvrant à la connaissance et à la compréhension des séquences de comportements en ligne des différents profils de clients. Le fait est que les chefs de projet « Big Data » dans l’entreprise sont rarement des experts des moteurs de recherche et des réseaux sociaux, et que cette méconnaissance sur la valorisation des données auprès du prospect/client risque de leur faire défaut, conduisant l’entreprise, comme à l’occasion du web 1.0 et du web 2.0, à aborder les Big Data de manière auto-centrée. Nous en connaissons maintenant l’issue : l’entreprise sera condamnée à laisser le champ libre à ses concurrents réels et sémantiques et à devoir occuper les espaces publicitaires pour exister et promouvoir des chemins artificiels vers son écosystème web. Contenus et services La connaissance de ce parcours digital va offrir à l’entreprise la possibilité d’imaginer les nouveaux points de contact avec ses cibles qui permettront à la marque non seulement d’émerger mais aussi de proposer au bon endroit, au bon moment, à la bonne cible, les contenus les plus pertinents, les services les plus innovants, les applications les plus fidélisantes. En outre, parce qu’elle reprend l’emprise sur le parcours d’achat, elle reste la source d’information référente sur ses propres données. La domination du distributeur sur le fabricant est loin d’être une fatalité sur Internet ! Data et technologies C’est une fois la stratégie de contenus et de services élaborée, qu’il devient pertinent de se pencher sur les données de l’entreprise pour vérifier qu’elles sont compatibles et suffisantes pour la mise en œuvre de cette stratégie. Il conviendra alors d’inventorier les données disponibles et si besoin d’accepter l’ouverture (open Data, open innovation, données du web social…). Enfin, l’entreprise pourra étudier l’opportunité d’utiliser des technologies (sémantiques, analyse prédictive…) qui vont faciliter la mise en valeur de ces données sur les parcours clients. De ce parcours digital renouvelé par les données résulte une information « augmentée » qui démultiplie pour l’utilisateur les occasions de se passer de la source d’information originale – l’entreprise. Cette dernière est de ce fait mise en danger sur l’exploitation de ses propres données. L’ère des Big Data et du web sémantique présente alors un nouvel enjeu d’adaptation pour les entreprises dont la clé repose, encore et toujours, sur la connaissance client et dont la menace réside, encore et toujours, sur une vision trop autocentrée. Des écueils facilement surmontables, tout est question de méthode et de bon sens !

Page 12: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 11

II COMMENT MESURER LA FIABILITE DES SOURCES ?

Le BigData, ou « volume massif de données », fait référence à l'explosion du volume des données dans l'entreprise depuis l’avènement du numérique et des nouveaux moyens technologiques mis en œuvre pour les exploiter. Surnommé le « nouveau pétrole » par le Forum économique mondial, le BigData peut améliorer la prise de décision, raccourcir les délais et augmenter les profits. Toutefois, il présente également un certain nombre de risques non négligeables, proportionnels au volume (quantitatif et qualitatif) de données traitées. Des risques qui peuvent aller de la fuite de données à la violation de la vie privée, en passant par des problèmes de conformité.

LES « 4 V » 12 LA GOUVERNANCE COMME MOTEUR DE LA VALEUR ET DE LA

QUALITE DES DONNEES 13 UNE MATIERE PREMIERE A IDENTIFIER ET SURTOUT A

DEVELOPPER 14 CREER DE LA DONNEE DANS SON ORGANISATION 14 SE FOURNIR AUPRES DES ENTREPRISES SPECIALISEES 14 LA DONNEE EN TANT QUE PRODUIT ECONOMIQUE 15

Page 13: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 12

On résume souvent le Big Data par les « 4V »

Isabelle Saladin, Perceptive Software

On résume souvent le BigData par les « 4 V » : - Le Volume : la masse de données numériques est passée de 480 milliards de gigaoctets en 2008 à 2800 milliards en 2012 et continue à croître de façon exponentielle, le volume de données produites chaque année dans le monde devrait être multiplié par 44 d’ici 2020, - La Variété : la part des données numériques non structurées stockées sur la Toile augmente significativement, texte, photo, vidéo…, - La Vélocité : le développement de nouveaux usages fondés sur l’immédiateté de l’information (micro-conversations, réseaux sociaux…) demande une nouvelle puissance du traitement des données, - La Valeur : la qualité des données gérées et traitées doit également être pointue, aussi bien en termes de pertinence que de fiabilité. Mais face à cette croissance de volume, de variété et de vélocité, les entreprises ont besoin d’une solution capable d’assurer la sécurité et la pérennité des données dans un environnement informatique complexe. En effet, si récolter des informations sur ces clients et partenaires est nécessaire, les stocker et les traiter correctement pour en extraire des informations stratégiques est indispensable. Et cette démarche doit être d’autant plus anticipée et prévue dans un contexte de BigData, où toutes les précautions à prendre autour des données sont accrues par le volume. Il faut une réelle réflexion en amont sur le contenu des bases de données pour éviter de croiser des informations non pertinentes et vouloir maitriser finement l’ensemble des données brutes, issues de sources diverses, qui par définition sont non structurées, de format divers, variables, …

Page 14: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 13

La gouvernance comme moteur de la valeur et de la qualité des données

Le BigData permet aux entreprises de consulter, de regrouper et d’analyser des quantités de données en constante augmentation (pages Web, habitudes de navigation, signaux de capteurs, emplacement géographique de Smartphones, informations génomiques, etc...). S’il représente une formidable occasion de faire de l’information le principal moteur de création de valeur, le BigData peut aussi être source de risques non négligeables pour l’entreprise si cette dernière ne l’encadre pas de politiques et de principes exhaustifs.À ce titre, un référentiel de gouvernance est nécessaire pour se faire des pratiques d’utilisation du BigData, un allié sûr, afin de créer de la valeur et conduire aux bonnes décisions

Gouverner : Le premier challenge du BigData consiste à appliquer les méthodes de gouvernance aux données prioritaires pour le métier.

Décrire l’information - Cette tâche permet d’analyser la structure d’une source, et de définir les modes d’exploitation de cette donnée en fonction de sa finalité (métier) ou de son potentiel, afin de l’utiliser à bon escient. Ce potentiel est complexe à appréhender, puisque souvent la valeur est révélée en couplant plusieurs types d’informations entre elles. Il est donc important d’évaluer ce potentiel au regard des autres sources à disposition.

Organiser l’information (sujet, auteur, source, année, mots clés et concepts métiers associés…) Dans le contexte BigData, ce type de traitement est rendu complexe sur les sources externes, car souvent pauvres en méta données. Il faut donc en extraire le sens pour créer à la volée les métadonnées pertinentes.

Définir la qualité et la fiabilité : Point clé des systèmes décisionnels et de la construction de référentiels, la qualité des sources BigData impacte directement l’exploitabilité de l’information et la lourdeur des traitements de « nettoyage » associés. La fiabilité pouvant s’avérer encore plus problématique, il est nécessaire d’évaluer le taux de fiabilité d’une information, afin d’optimiser son utilisation.

Optimiser la sécurité : Il ne s’agit pas de traiter des problématiques de cryptage, anonymisation ou encore stabilité des systèmes, mais de l’aspect organisationnel du BigData. La valeur étant créée par le croisement de différentes sources ou silos informationnels, comment gérer le « pouvoir » des utilisateurs ayant accès à l’ensemble des informations de l’entreprise ?

S’adapter au cadre réglementaire : Les réglementations autour de l’utilisation et de la conservation des données, sont nombreuses et en pleine évolution concernant les BigData. De nouvelles réglementations Européennes sont attendues en 2013. Pour faire face au risque juridique, il est utile de se doter d’outils et de fonctions permettant de tracer l’utilisation des données et leur finalité ainsi que de fonctions de « droit à l’oubli »

Définir le cycle de vie : Etant donnée la volumétrie de données dans le BigData, on peut s’intéresser à des phénomènes court terme (Real Time Data), comme à des phénomènes sur plusieurs décennies (Long Data). Comme tout stocker indéfiniment serait trop lourd, il faut par conséquent mettre en œuvre une stratégie de réduction de la donnée, où seules les données ayant une valeur définie sont conservées.

Page 15: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 14

Une matière première à identifier et surtout à développer

Cette « matière première », constituée des données du « data déluge », échappe encore beaucoup aux organisations. En effet, les stratégies pour localiser ces volumes de données, les extraire et en produire de nouvelles n’ont pas encore été clairement identifiées. En d’autres termes, quelles sont les données utiles pour mon organisation ? Sont-elles disponibles à domicile ou dois-je me les procurer ? On a bien souvent tendance à souligner l’intérêt que représente l’utilisation de données déjà présentes dans les organisations : sociales, transactionnelles, mobilité, etc… Pourtant l’un des grands enjeux à l’étude actuellement concerne l’acquisition de nouvelles données, soit au sein de l’organisation, soit à l’extérieur de celle-ci.

Créer de la donnée dans son organisation

Produire de la donnée au sein de sa propre organisation revient ainsi à mettre en place des outils ciblés de suivi sur les activités et les leviers qui semblent fournir une information stratégique pour l’organisation : il n’est pas de BigData sans reporting organisé sur les indications que représentent les logs, les données textuelles issues du web, les données de géolocalisation… La prise de conscience tardive sur ces enjeux explique ainsi le relatif déséquilibre observé actuellement dans les BigData, encore souvent très homogènes, structurés et transactionnels. Leur qualification en « BigData » relève davantage d’un effet volume que de la réelle diversité des données. Il est donc primordial pour les organisations, qu’il s’agisse de PME ou de grands comptes, de se pencher sur la question des outils de tracking et de reporting pour exploiter plus systématiquement les données qualitatives issues de sources variées.

Se fournir auprès des entreprises spécialisées

Les entreprises peuvent également acquérir des données externes, déjà traitées et identifiées par des sociétés spécialisées qui organisent le relevé d’informations et s’assurent de la fiabilité des données. Qu’il s’agisse de grands data markets spécialisés de sites internet agrégeant des quantités volumineuses de données (comparateurs de prix, moteurs de recherche…) ou d‘acteurs de l’Open Data, ces fournisseurs sont de plus en plus sollicités, précisément parce que les données qu’ils transmettent sont déjà identifiées et proviennent de sphères de recherche particulièrement larges capables de remonter des informations généralistes pas forcément à portée de main de toute entreprise spécialisée. La question qui est posée alors est celle du prix accordé à chaque donnée BigData. Sur ce point, il est difficile d’avoir des informations précises et une grille de lecture normée, dans un marché, là encore, en pleine structuration.

Page 16: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 15

La donnée en tant que produit économique

Cette réflexion sur le prix accordé à chaque donnée conduit nécessairement à la question de la valeur de la donnée : quelle valeur économique la donnée initiale ou traitée recèle-t-elle formellement ? C’est tout l’enjeu entourant le produit fini, la donnée traitée et utilisable pour l’entreprise. Quelle utilité économique représente-t-elle pour l’entreprise et comment la quantifier ? Plusieurs pistes sont ouvertes, qu’on pourrait résumer sous ces quatre indicateurs de performance économique :

une amélioration du chiffre d’affaires grâce au ciblage marketing une réduction des coûts grâce à une optimisation des plannings et une diminution

des erreurs un développement vers des activités innovantes à forte valeur ajoutée - ou encore

des gains de parts de marché liées à l’avantage concurrentiel d’être le premier détenteur de ces données stratégiques

Le V de Valeur semble avoir dépassé les 3 autres V. D’une réflexion technologique, le BigData serait donc passé à une préoccupation économique, renforcée par le besoin d’optimisation des coûts.

Page 17: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 16

III BIG DATA ET SENTIMENT ANALYSIS : QUELS USAGES POUR QUELLES PROBLEMATIQUES ?

BIG DATA ET SENTIMENT ANALYSIS 17 VEUT-ON UNE ANALYSE GLOBALE OU DÉTAILLÉE DU MESSAGE ? 19 LE CHAMP DE L'ÉTUDE EST-IL MONO-SOURCE OU MULTI-

SOURCES ? 19 LE CHAMP DE L'ÉTUDE COUVRE T-IL DES ENTITÉS HOMOGÈNES

OU NON ? 21 VISE-T-ON UN SYSTÈME ENTIÈREMENT AUTOMATIQUE OU

SEULEMENT UNE ASSISTANCE ? 21 QUELLES TECHNOLOGIES POUR QUELS CAS D'USAGE ? 22 LES CAS FAVORABLES, ET CEUX QUI SONT PROBLÉMATIQUES 22

Page 18: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 17

Big data et sentiment analysis

Bernard Normier, consultant en text-mining et sentiment analysis

Comme dans les systèmes d'information classiques, il y a deux sortes de big data, selon que les données sont structurées ou non. Les premières sont partout: toutes sortes de données numériques venant de capteurs de plus en plus nombreux et divers, ou de méta-données structurées associées des documents textuels, audio ou vidéo. Le traitement de ces données, s'il pose de sérieux problèmes techniques du fait de leur volume, à la fois en stock et en flux, et de leur hétérogénéité, ce pose cependant pas de problème conceptuel majeur au niveau de leur compréhension unitaire. Chaque donnée, prise individuellement, est claire et parfaitement compréhensible. C'est la possibilité d'une interprétation de la masse, de son évolution dans le temps, des tendances qu'on peut en dégager, qui constitue l'apport majeur des technologies du big data. Il en va autrement pour les données non structurées. La problématique est alors sensiblement plus délicate puisque se pose déjà la question de la compréhension de chaque donnée individuelle, avant même d'envisager une interprétation de la masse. L'interprétation de l'information textuelle, qu'elle le soit le soit "nativement" ou qu'elle résulte d'une transformation de parole en texte ("speech to text") est déjà un enjeu majeur. On ne parlera pas ici de l'interprétation de données non structurées complexes comme le repérage d'émotions dans des photos de visages, ou de la communication gestuelle dans une vidéo, ou encore de la prosodie dans un enregistrement audio, sujets sur lesquels des progrès technologiques constants sont réalisés et commencent à donner lieu à des applications opérationnelles. Restons donc sur l'interprétation des textes. Ils représentent la plus grande partie du "big data": tweets, blogs, réseaux sociaux, presse, etc... Leur recueil est devenu un métier en

Page 19: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 18

soi: une société comme GNIP, par exemple, annonce récolter 3 milliards de messages par jour... en constante augmentation. La difficulté est donc d'abord d'identifier, parmi cette masse considérable de messages dont la grande majorité n'a aucun intérêt, quels sont ceux qui peuvent être intéressants pour telle ou telle étude ou entreprise, et ensuite d'en interpréter le contenu pour en tirer des analyses utiles d'un point de vue marketing, notamment pour apprécier la satisfaction et les attentes des clients. La première tâche est à peu près résolue avec les systèmes de veille, qui sont capables de recueillir les messages émanant de tous types de sources à partir de formules booléennes de mots clés, puis de les organiser par différentes méthodes de filtrage et de catégorisation. La deuxième tâche, visant à "interpréter" le contenu pose un problème nouveau. Les techniques classiques du "big data" ne peuvent pas s'appliquer puisque des textes ne sont pas des "data". Il faut d'abord extraire des données depuis le texte, en utilisant des technologies venant d'un autre domaine, celui de l' IE pour "Information Extraction". On définit souvent la tâche de l'IE comme l'opération consistant à remplir une base de données structurées à partir de textes: identifier des "entités nommées" (en gros des noms propres), des thématiques, des relations entre elles. Ces informations extraites peuvent être factuelles (Le plat du jour est à 12 euros) ou subjectives (Le plat du jour est trop cher). L'exploitation de ces données subjectives constitue une aubaine pour le marketing, et pour toute une série d'activités qui ont intérêt à surveiller l'évolution des opinions. Sans doute n'est-il pas très utile de faire de complexes systèmes d'interprétation des textes pour récupérer des données factuelles que l'on pourrait trouver déjà formatées ailleurs. Mais pour tout ce qui du domaine des avis, recommandations, émotions, rumeurs, une analyse des textes peut apporter énormément d'informations utiles. C'est le domaine de l' "opinion mining" ou "sentiment analysis", deux termes anglophones quasiment synonymes dans ce contexte. Le sujet est polémique. Il est difficile de se faire une opinion sur ce que peut apporter, en pratique, le "sentiment analysis" quand on regarde les nombreux articles, commentaires, posts, qui donnent des avis tranchés qui vont de "çà marche très bien" à "çà ne sert à rien" , en passant par "faut voir, çà peut être utile si un expert humain révise les analyses"... , en laissant d'une manière générale le sentiment que cela ne fonctionne pas suffisamment bien pour être utilisable. Il faut faire la part des choses, et bien différencier les cas d'utilisation. Il en est où cela sera très utile, d'autres où cela sera inutilisable. Malheureusement ces différents cas ne sont généralement pas différenciés dans la plupart des plateformes, ce qui conduit souvent à des résultats plus que fantaisistes qui discréditent la technologie, renforçant l'idée que "çà ne marche pas". Quel est l'objectif d'un système de sentiment analysis ? Collecter, repérer, analyser des opinions. Donc quelle définition formelle pour une opinion ? L'approche la plus souvent retenue est celle de Bing Liu, donnée dans son livre "Sentiment Analysis and Opinion Mining" (Morgan and Claypool 2012), qui définit une opinion comme un quintuplet formé de:

Page 20: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 19

Une opinion est un quintuplet (ei, aij, sijkl, hk, tt) , dans lequel :

e représente une « entité » a représente un « aspect » s représente un « sentiment » sur un aspect de l’entité h représente l’auteur de l’opinion (« holder ») t représente le moment (« time ») où est exprimée l’opinion.

On utilise souvent d'autres mots en français pour désigner ces mêmes notions ("objet" pour "entité", "facette" ou "critère" pour "aspect" ), mais on peut garder ici la terminologie directement traduite de l'anglais. Par exemple, dans l’avis exprimé par Dupont le 9 octobre 2012 « l’ hôtel X est très décevant. Les chambres sont sombres et petites. Mais mes enfants ont trouvé que le petit déjeuner était bon », on identifie trois opinions distinctes :

e=hôtel X, a=0, s=négatif : décevant, h = Dupont, t = 9 oct 12 e=hôtel X, a=chambre, s=négatif : petit, h=toto77, t = 9 oct 12 e=hôtel X, a= petit déjeuner, s=positif : bon, h= enfants de toto, t = 9 oct 12

Cette définition a le mérite d’être simple, même si on pourrait bien sûr complexifier le modèle dans plusieurs directions, mais tenons nous en là pour le moment. Ce cadre permet de distinguer déjà plusieurs cas de figure et plusieurs types d’analyse.

Veut-on une analyse globale ou détaillée du message ?

En fait, beaucoup de systèmes simplifient grandement le problème, et proposent une analyse globale, en affectant une tonalité à l’ensemble du message, sans chercher à identifier les entités, et encore moins leurs aspects. Si le message ne parle que d’une seule entité, le résultat peut être acceptable. Mais si le message porte sur plusieurs entités, le résultat est généralement inexploitable. Par exemple, que veut dire le calcul d’une tonalité unique sur un message comme « J’ai été très mal reçu par mon agence à la banque X et j’ai décidé de les quitter pour Y » qui a de bonnes chances d’être analysé comme globalement négatif ? surtout si l’objet de l’étude est Y… Admettons que la phrase est particulièrement difficile à comprendre et prenons plutôt « « J’ai été très mal reçu par mon agence à la banque X et j’ai décidé de les quitter pour Y qui est bien plus agréable ». Avec une analyse grossière, sans repérer les entités, il est probable que les tonalités s’annulent et que la note globale soit « indéterminé » ou « neutre » selon les conventions du logiciel. C’est déjà mieux, au moins il n’y a pas de contresens total. Une analyse détaillée est donc préférable en théorie, mais on tombe alors sur d’autres problèmes. Par ailleurs, on notera au passage que la notion de note globale est difficile à calculer, y compris dans le cas d'analyse détaillée, parce que l'on ne connait pas, a priori, les pondérations que l'utilisateur donnerait à chaque aspect. On peut très bien trouver un message critiquant sévèrement un produit sur plusieurs aspects, mais lui attribuant finalement une note globale positive.

Page 21: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 20

Le champ de l'étude est-il mono-source ou multi-sources ?

Plus grand sera le nombre de sources et plus il sera difficile d’agréger des données de plus en plus hétérogènes, et dont la fiabilité sera de moins en moins évidente. La façon d’exprimer le facteur S (sentiment), par exemple, peut être très différente d'une source à l'autre: des notes numériques sur des échelles elles-mêmes variables, l'attribution d'un nombre d'étoiles, des smileys qui sont eux-mêmes très variables selon les librairies utilisées, des "likes", du texte libre, etc. Par ailleurs les différents aspects des entités observées pourront varier d’une source à l’autre, complexifiant encore les analyses, comme dans les deux exemples ci-dessous, venant de deux sites d’avis sur des hôtels. Un avis pris sur tripadvisor :

et un avis pris sur easyvoyage :

Alors, pourquoi se compliquer la vie en allant chercher dans plusieurs sources pour une même entité ? Il y a plusieurs réponses : la plupart du temps le nombre d’avis sur un site

Page 22: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 21

donné pour une entité particulière est relativement modeste, on veut donc élargir le corpus de messages en allant sur plusieurs sources. Et d’autre part, on a plus de chances d’avoir un échantillon plus représentatif de la population d'utilisateurs si l’on va sur plusieurs sources.

Le champ de l'étude couvre t-il des entités homogènes ou non ?

Si le corpus de messages est homogène, en ne couvrant qu’ un seul type d’entité, ou un nombre limité et connus de types d’entités, on peut définir les facteurs A (aspects) qui sont intéressants à suivre. Par exemple pour un hôtel on pourra suivre des critères comme ceux montrés dans l’exemple ci-dessus. Mais si l’on doit suivre plusieurs types d’entités, les choses se compliquent. Prenons l’exemple suivant, « je reviens de vacances. J’avais choisi une formule location de voiture + hôtel. Çà s’est bien passé dans l’ensemble. Pas eu de problème avec la voiture, même si le prix était élevé. Mais hôtel X très décevant. Le garage était trop exigu pour ma voiture. Les chambres étaient sombres et petites. Mais mes enfants ont trouvé que le petit déjeuner était bon » L’entité « location de voiture » pourrait être décrite par des aspects comme le prix, l’assurance, le kilométrage, etc. Certains aspects pourront être communs à plusieurs entités, comme le prix dans l’exemple ci-dessus, et il faut alors que l’analyseur soit capable de construire correctement les associations « entités / aspects ». Cet exemple reste simple, mais le traitement peut devenir très complexe si l’on se trouve dans un projet ouvert, avec des entités très diverses, voire même inconnues au départ de la veille, et qu’il devient impossible d’avoir un modèle des aspects attendus par entité. Il faut alors un analyseur suffisamment fin pour qu’il repère de lui-même les aspects pertinents dans le texte.

Vise-t-on un système entièrement automatique ou seulement une assistance ?

Ces deux situations sont évidemment complètement différentes. Si l’on veut une assistance, le système d’analyse faisant des propositions qui sont ensuite révisées par un analyste, son efficacité va bien sûr dépendre de son niveau de qualité d’analyse, mais aussi, et sans doute surtout, d’autres critères comme l’ergonomie de l’interface de révision et les capacités d’apprentissage, ou du moins de répercussion d’une révision à l’ensemble de messages similaires. Pour prendre un exemple simple, réviser la tonalité d’un tweet devrait réviser celle de ses retweets à l’identique. Si les conditions d’utilisation du système ne permettent pas de révision, et si l’on doit accepter et analyser des messages textuels, il faut alors être bien conscient du niveau de qualité obtenu, ne serait-ce que pour prendre des précautions adéquates vis a vis des utilisateurs. On se demande parfois, quand on regarde certains systèmes, si leurs auteurs ont vraiment fait ces évaluations.

Page 23: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 22

Quelles technologies pour quels cas d'usage ?

On sait que plusieurs types de technologies sont envisageables pour analyser les tonalités de ce type de message. La "technologie" (?) la plus simple, est "tout à la main": le logiciel se contente de donner la possibilité de marquer par un tag les messages dans les catégories positif, négatif, neutre et indéterminé. (Certains fournisseurs ne manquant pas d'aplomb indiquant même proposer un système de "sentiment analysis" avec ce type de solution...). La deuxième famille de solution est basée sur l'apprentissage. Très à la mode parce que facile à mettre en œuvre, cette méthode peut donner des résultats satisfaisants dans certains cas, quand le volume de données d'apprentissage est important. D'où l'intérêt de méthodes combinant apprentissage et "crowd sourcing" les utilisateurs construisant eux-mêmes le corpus d'apprentissage. Mais en tout état de cause, ces méthodes restent approximatives et ne peuvent pas rentrer dans le détail d'analyse que seules des méthodes basées sur des analyses linguistiques peuvent atteindre. L'inconvénient étant alors que l'adaptation au domaine peut être une tâche relativement lourde. Les cas favorables, et ceux qui sont problématiques

On le voit, la qualité du résultat d’un système de « sentiment analysis » va donc dépendre de plusieurs caractéristiques du projet. On en a cité quelques une ici, mais il en est bien d’autres. Si l' on veut surveiller un domaine vaste, généraliste, que l’on ne sait pas bien ce qu’on cherche, que l'on veut aller sur un grand nombre de sources hétérogènes, et qu'on n'a pas la possibilité de révision manuelle, alors les critiques de ceux qui ont des doutes risquent d’être justifiées. Mieux vaut sans doute attendre quelques années que la technologie progresse. Mais si le projet ne porte que sur quelques types d’entités bien identifiés, que l’on analyse quelques sources de messages relativement homogènes, comme par exemple des sites d’avis, ou des messages sur la hot-line d'une entreprise, et qu’on a un modèle des objets et des aspects que l’on veut analyser, alors il y a de bonnes chances qu’un système de « sentiment analysis » fonctionne correctement. Et c'est satisfaisant, parce que çà correspond à de nombreux cas d'usages d'entreprises qui veulent juste surveiller des sources bien identifiées sur très peu d'entités.

Page 24: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 23

IV BIG DATA ET TEMPS REEL : DES TECHNOLOGIES A ADAPTER ?

Les problématiques de BigData, notamment celles liées au marketing et à la gestion client, nécessitent souvent un traitement en temps réel. Les systèmes classiques de datamining ne peuvent offrir cette analyse instantanée. Il faut une approche innovante en terme d’architecture pour s’immiscer au cœur des phénomènes complexes. L’utilisateur dépasse alors le stade d’observateur et devient acteur.

DES DONNEES TEMPS REEL COMPLEXES 24 DES PROBLEMATIQUES TEMPS REEL 25 DES TECHNOLOGIES TRADITIONNELLES INADAPTÉES 26 UNE APPROCHE TECHNOLOGIQUE POUR LE TEMPS RÉEL 26 ILLUSTRATION : AMÉLIORER LA RELATION CLIENT EN TEMPS

RÉEL 27

Page 25: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 24

Des données temps réel complexes

Amirhossein Malekzadeh, Focusmatic

L’exemple type du phénomène BigData décrit les grands volumes et la diversité des données du web et des réseaux sociaux. Des chiffres vertigineux détaillent les centaines de millions d’utilisateurs de services tels Twitter, Facebook ou encore Youtube. Sur ces plateformes les internautes produisent chaque seconde textes, photos, vidéos et autres contenus media. Ce sont les reflets d’expressions, de sentiments ou d’intérêts. Ces mêmes internautes laissent aussi, malgré eux, de riches traces au cours de leur navigation et au travers de leurs actions (clics, pages visités, etc.). Il est ainsi possible de reconstruire leur parcours et comprendre quel objectif ils visent et comment ils l'atteignent. Ces flux massifs et temps réel de données contiennent des leviers d’action rapides et efficaces pour le business. Les tweets expriment le pouls des conversations et sont des vecteurs de leur propagation. Chaque tweet peut renvoyer vers un article, en faire sa promotion, signaler sa publication ou encore émettre un jugement dessus. L’analyse des interactions entre Twitter et les blogs prend alors toute son importance. Elle permet de mieux comprendre la propagation des contenus et des conversations. Il est ainsi possible d’identifier les messages qui ont participé à la viralité d’un contenu. Or, les systèmes informatiques classiques sont mal adaptés au traitement de données très hétérogènes comme des articles, de blogs ou des tweets. Un tweet de 140 caractères n’est pas comparable avec un article riche écrit sur un blog et contenant des commentaires de lecteurs. La sémantique est différente tout comme l’ensemble des informations disponibles autour (auteurs, support, audience, etc.). Cela pose des problèmes d’acquisition, de stockage et d’analyse de données. Pour rendre les résultats d’analyse pertinents et complets, d’autres sources sont nécessaires : Facebook, Pinterest, Youtube, Instagram, etc. Chacune enrichit l’approche, mais complexifie aussi le problème à son tour car chaque support a des données différentes. Il est donc difficile de les agréger et de faire des analyses croisées. L’analyse de l’ensemble est une problématique BigData dont la résolution permet d’optimiser sa vision de l’existant et ses actions futures en marketing et communication digitale.

Page 26: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 25

Des problématiques temps réel

Cependant cet apport de valeur est encore plus important dans l’instant présent, c’est à dire si ces BigData sont analysées instantanément. Comprendre en profondeur ce qui se passe permet d’influer dessus, par exemple sur les actes d’achats, sur les conversations, ou encore la qualité du service rendu aux clients. Si vous analysez par exemple les sujets de discussion de vos consommateurs, l’information n’aura de valeur qu’au moment de la conversation. Dans le schéma suivant nous traçons le signal commun entre l’actrice Charlize Theron et la marque de luxe dont elle est l’égérie de l’un des parfums. Au cours des 10 premiers mois de 2013, il semble n’y avoir eu qu’un seul moment où l’égérie a apporté de l’exposition médiatique à la marque. Il s’agit de la cérémonie des oscars où la star était habillée par la marque. Cet événement fut fortement commenté sur les réseaux sociaux par les téléspectateurs. Une analyse temps réel ce soir-là vous aurait permis de bien mieux profiter de l’impact media apporté par l’égérie, notamment en rediffusant sur vos canaux ce buzz pour l’amplifier et le faire perdurer. Cependant pour cela il vous aurait fallu avoir identifier ce signal (qui est faible rapporté à l’ensemble des messages vous concernant). L’apprendre le lendemain est certes intéressant mais inutile pour agir dessus.

Ces informations sont non seulement produites, mais aussi mises à disposition en temps réel. Il est donc possible de récupérer les flux de données de toutes ces sources afin d’enrichir son propre système en continu. Le problème est leur exploitation en temps réel.

Page 27: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 26

Des technologies traditionnelles inadaptées

C’est précisément à ce niveau que les architectures classiques souffrent. Soit elles sont capables d’absorber des volumes importants de données, soit elles permettent une analyse en profondeur, mais pas les deux en même temps. Dans le premier cas, il s’agit des systèmes transactionnels, OLTP (Online Transaction Processing) comme les grandes bases de données relationnelles qui absorbent des flux massifs d’informations structurées. L’autre modèle, celui de l’OLAP (Online Analytical Processing) permet des analyses en profondeur sur ces mêmes données structurées comme les systèmes de Business Intelligence. Ces deux modèles sont complémentaires et peuvent coexister au prix d’une forte latence. La partie transactionnelle va absorber les flux de données, et se déverser régulièrement dans un modèle OLAP pour analyse. Les délais ainsi imposés peuvent êtres conséquents et il n’est pas rare que les outils de Business Intelligence vous fassent travailler sur les données au mieux de la veille, au pire de la semaine dernière. Pour réduire en partie cette latence, il y a des solutions qui s’appuient sur des machines plus rapides et plus nombreuses. Cela accélère les calculs, mais n’enlève pas le décalage dans le temps. Les données d’un système OLTP restent une extraction du système OLTP à un moment donné, ensuite transvasées dans le système OLAP. Certains éditeurs ont développé des solutions sur le principe de n’utiliser que la mémoire vive des systèmes (in-memory analytics) qui permet des calculs effectivement quasi-instantanés. En effet, les accès de lecture et écriture en mémoire sont bien plus rapides que les accès aux disques physiques. Cependant ces solutions sont ne sont pas adaptées à l’analyse de grands volumes de données. En effet, elles sont limitées par le volume qu’elles peuvent traiter puisque la mémoire est difficilement extensible. Par ailleurs, il y a un sujet de sauvegarde et de résilience puisqu’en cas de défaillance la mémoire est perdue. Enfin, ces solutions sont assez coûteuses.

Une approche technologique pour le temps réel

Pour résoudre ce problème, une approche consiste à concevoir un système qui s’appuie sur une chaine de production similaire à celle des usines en mode flux tendus, associé à un puissant moteur analytique qui fait les calculs instantanément et à la demande. Les sources de données renvoient des volumes massifs d’informations à l’entrée de la chaine de traitement. Ces volumes ne sont pas toujours prédictibles et leur contenu est de qualité et de format variable. Les fournisseurs de ces données modifient parfois les formats ou bien les règles du jeu, c’est alors au système en aval de s’adapter. La première tache du système est d’absorber ces flux. Puis, les données passent aux travers de différents acteurs le long de la chaine de traitement. Leur rôle est de s’assurer que ce qui est récupéré est exploitable et d’enrichir les données pour faciliter l’analyse. Ces acteurs vont catégoriser et pré-analyser les données avec des algorithmes statistiques ou sémantiques (ex : pertinence du message, catégorisation, reconnaissance d’entités, analyse du sentiment, etc.)

Page 28: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 27

L’implémentation de ces algorithmes sémantiques est une étape critique. En effet, certains sont très complexes et pourraient causer non seulement de la latence, mais aussi des goulots d’étranglement dans la chaine de traitement. D’autant plus que certains algorithmes vont nécessiter des appels à des données sur des systèmes externes. Pour anticiper et résoudre ces problèmes, on ne peut se contenter de rajouter plus de machines car le volume de données en entrée est aussi en constante croissance. Une meilleure solution consiste à s’inspirer de la théorie des contraintes. L’approche est itérative afin d’identifier les potentiels points de blocage, de les analyser, puis de mettre en œuvre une solution pour fluidifier le système. Derrière cette chaine de traitement en amélioration constante, il convient d’installer un moteur analytique capable de résoudre les requêtes sous la seconde. Il sera garant de la qualité de l’expérience client : la machine doit s’adapter au rythme de pensée de ses utilisateurs au lui de lui imposer de prendre un café entre les résultats de deux requêtes. Cela suppose avant tout de remettre en cause les schémas classiques de calculs et stockages de données afin de permettre au système de résoudre les requêtes avec le moins d’utilisation possible des actions pénalisantes comme les accès disques.

On arrive ainsi à concevoir un système capable de gérer en temps réel, à la fois les flux de données en entrée et les analyses complexes.

Illustration : améliorer la Relation Client en temps réel

Une application type est de maintenir une cartographie fine et en temps réel des conversations. Celle-ci est source de valeur marketing et commerciale pour les entreprises. En effet, nous observons souvent un décalage entre les sujets de la communication officielle de l’entreprise et les conversations entre ses consommateurs. La cartographie permet d’éviter au fossé de continuer à se creuser et permet d identifier les ressources pour le réduire. Dans l’univers des télécoms cela se traduit par un décalage entre ce qu’un opérateur communique, les préoccupations des clients, et ce sur quoi ses ambassadeurs interviennent spontanément sur les réseaux sociaux et les divers forums de discussion. Une solution BigData temps réel permet d’analyser en profondeur les différences, et de comprendre le sentiment de chaque segment de communiquant sur chaque sujet et comment ils l’abordent.

Page 29: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 28

Le schéma suivant reprend les sujets abordés par la communication officielle de trois opérateurs télécom. On peut y voir l’importance accordée par l’ensemble des opérateurs sur leur communication au sujet des forfaits, de divers concours et des cartes SIM.

Cependant, lorsque l’on regarde les préoccupations au même moment des consommateurs (en excluant les messages de la communication officielle des opérateurs et ceux des fans et hyperactifs des marques), nous nous rendons compte que la facture client, les SMS et l’espace client, sont les principaux problèmes des utilisateurs. L’intérêt de la capacité d’analyse temps réel est qu’il est alors possible de rentrer dans les détails fins de chacune de ces catégories et de mieux comprendre le décalage. Les opérateurs sont alors en mesure d’allouer des ressources et d’affiner quotidiennement leur discours afin de mieux satisfaire leurs clients.

Cette analyse est d’autant plus importante qu’une partie de la relation client se passe hors du champ de contrôle et d’intervention de l’opérateur. Les clients s’expriment indifféremment sur les médias de leur opérateur et les forums de consommateurs pour faire part de leurs questions ou retours d’expérience. Les ambassadeurs de la marque sont eux présents sur ces terrains et particulièrement réactifs.

Page 30: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 29

L’enjeu des ambassadeurs est très important. Ce sont les défenseurs de la marque et ils résolvent les problèmes d’autres clients sur les forums, et ce souvent avant le service client ou sans que celui-ci en soit informé. Ils sont partie-prenante de la relation client de l’opérateur. Leur niveau d’activité, les sujets qu’ils abordent et la façon dont ils les abordent, sont des indicateurs importants pour l’opérateur. Cette relation que l’opérateur peut constituer avec ses ambassadeurs est un atout métier fort. Il est donc important d’avoir un monitoring fin sur ces ambassadeurs afin de savoir ce qu’ils disent et quel est leur niveau d’activité. Et ce pour agir et ajuster les autres ressources de leur dispositif de relation client. Avec de l’analyse temps réel sur Big Data il est possible d’exploiter les données issues des réseaux sociaux et du web, afin de bénéficier de ce qui s’y passe et non de le subir. Les flux massifs que l’on peut recueillir peuvent certes aider à comprendre, mais leur exploitation fine permet de réagir au bon moment et de mieux développer l’activité. Les entreprises peuvent y trouver de véritables leviers pour accélérer leur business.

Page 31: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 30

V COMMENT UTILISER LES CAPACITES DU BIG DATA ET L’APPROCHE ANALYTIQUE POUR CONTRIBUER A TRANSFORMER LE MARKETING ?

Aller de « J’ai un produit : à qui vais-je le vendre ? » à

« J’ai un client, de quoi a-t-il besoin aujourd’hui ?

Patrice Poiraud Directeur Big Data & Analytics, IBM France

UTILISER LES CAPACITÉS DU BIG DATA ET L’APPROCHE ANALYTIQUE POUR CONTRIBUER À TRANSFORMER LE MARKETING 32

SE PRÉPARER AUX CHALLENGES DU BIG DATA 33 ADRESSER LES IMPÉRATIFS CLEFS DU MARKETING 34 REDÉFINIR LES FONCTIONS MARKETING TRADITIONNELLES 35 AMÉLIORER L’EFFICACITÉ DU MARKETING AVEC L’ANALYSE

PRÉDICTIVE ET PRESCRIPTIVE DES COMPORTEMENTS 36 AMÉLIORER LA VALEUR DÉLIVRÉE AU CLIENT À CHAQUE

INTERACTION AVEC UNE PERTINENCE TEMPS RÉEL 37 COMMENT DÉBUTER LA TRANSFORMATION 39

Page 32: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 31

Utiliser les capacités du Big Data et l’approche analytique pour contribuer à transformer le marketing

Photo Patrice Poiraud, IBM

Les professionnels du marketing ont intégré qu’un des actifs les plus intéressants pour un marketing efficace est l’information client. Aujourd’hui les clients génèrent de plus en plus de données, ils démontrent leur intérêt pour une Marque au travers d’achats en ligne et de visites de sites Web, ils expliquent leurs besoins et leurs préférences lors de leurs interactions avec les centres d’appels, par des e-mails ou des visites concrètes, ils indiquent leur

satisfaction sur les produits et services en enregistrant leurs « likes » dans les médias sociaux. Ces « Big Data » - par leur volume, leur variété, le caractère « temps réel » (la vélocité) des données produites – recèlent un potentiel énorme pour les équipes marketing. En collectant et analysant ces données, on peut générer une compréhension fine des clients et ainsi avoir la capacité de délivrer une expérience client personnalisée qui va renforcer l’image de marque et maximiser la valeur de chaque interaction entre le client et la marque. Tirer le meilleur parti des données permet à une organisation d’optimiser les efforts marketing pour délivrer le bon message à la bonne personne au bon moment, au bon prix et par le bon canal. Les professionnels du marketing ont maintenant la capacité de transformer leur rôle en utilisant cette compréhension fine des marchés qu’ils peuvent produire pour contribuer aux décisions stratégiques de leur entreprise pour les années à venir.

Page 33: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 32

Les directions marketings de nombreuses d’industries ont déjà débuté leur parcours en s’appuyant sur le Big Data, ils implémentent des fonctions analytiques pour découvrir de nouveaux usages, anticiper les comportements des clients et déterminer en temps réel la prochaine meilleure action à réaliser ( que nous simplifierons par NBA ou Next Best Action). Ceci en utilisant les informations traditionnelles et surtout en intégrant les données en provenance des enquêtes, des mémos des centres d’appels, des réseaux sociaux … . Cette intégration permettant de découvrir des points de vue jusqu’alors méconnus.

Se préparer aux challenges du Big Data

S‘il est exact que le Big Data peut apporter de nombreuses opportunités, de nombreux professionnels du marketing réalisent que le chemin est parsemé de défis pour atteindre les résultats espérés.

L’explosion des données Il faut ajouter aux données stockées par l’entreprise au travers de ses transactions commerciales, des interactions avec les services clients, d’enquêtes consommateurs ou de tests, les données en provenance de sources externes comme les médias sociaux. De plus les données « temps réel » vont avoir une importance croissante comme celles collectées dans les caractéristiques des enregistrements d’appels. Il est alors simple de comprendre que quelque part dans toutes ces données, il sera possible de trouver ce qui n’était pas apparent en première approche Les médias sociaux Collecter et analyser le contenu des médias sociaux est une vraie priorité. Le volume de données échangé est en explosion continuelle, et à l’intérieur de ces échanges se trouvent des trésors d’informations permettant de détecter de nouvelles opportunités. Les équipes marketing peuvent ainsi utiliser les médias sociaux pour découvrir les dernières tendances, obtenir des retours sur les produits et services et déterminer les préférences des consommateurs. Il est possible d’observer, et bien évidemment de capitaliser sur les effets induits par les médias sociaux si on souhaite construire un « buzz » positif. Pour mettre en place ces fonctionnalités, il faut disposer d’un outillage permettant de collecter en temps réel (ou pas ) ces informations de type non structuré, de les analyser et d’en tirer des actions qui peuvent être automatisées pour une efficacité temps réel. La multiplication des canaux et des terminaux mobiles Les données des clients sont générées au travers d’une grande variété de canaux et de terminaux, il faut prendre en compte le fait que les modes de communications traditionnels type face à face, téléphone et e-mail sont complétés par les messageries instantanées, forums ou médias sociaux. Les consommateurs utilisent les traditionnels PCs , mais aussi leurs smarphone, tablette, télévision, console de jeux pour poser des questions, faire des achats, communiquer et partager leurs préférences avec leurs amis.

Page 34: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 33

Ces nouveaux canaux et terminaux donnent aux équipes marketing d’autres possibilités pour favoriser la communication montante et descendante et ainsi approfondir les relations entre une marque et un individu ce qui entraine des opportunités de business complémentaires. Pour tirer parti de ces canaux et terminaux, il faut être capable de collecter et d’analyser des données de tout type en provenance de sources extrêmement variées .

Adresser les impératifs clefs du marketing Mettre en œuvre les applications résultant d’une stratégie « Big Data & Analytics » va aider les équipes marketing à consolider ce qui est considéré par les directeurs marketing comme leurs principaux impératifs. Comprendre chaque client dans son unicité Le Big Data permet d’aller au-delà des traditionnelles segmentations pour déterminer les préférences individuelles et ainsi anticiper les comportements. En comprenant individu par individu, les offres proposées sont alors plus pertinentes, la mise en place de la meilleure activité ou action ( Next Best Action ) est simplifiée et l’expérience client accrue. Maximiser la valeur délivrée à chaque interaction Le nombre de canaux de distribution s’accroit de jour en jour, il est maintenant de première importance de passer d’une stratégie multi-canal à celle de l’omni-canal et donc s’assurer que l’expérience client personnalisée est similaire quelque soit le canal utilisé et que celui-ci puisse passer sans défaillance d’un canal à l’autre. Que le client se rende à son agence bancaire, qu’il joigne un vendeur d’un opérateur téléphonique au travers d’un centre d’appel, qu’il envoie un message instantané pour réserver un voyage ou qu’il poste un commentaire sur le site d’un distributeur, toutes ces organisations doivent anticiper ce que désire le client en optimisant chaque interaction avec celui-ci – capter et conserver son intérêt, générer un lead qualifié et le convertir en nouvelle vente – et en même temps s’assurer de la bonne utilisation des investissements marketing. S’assurer que la promesse de la marque et sa perception sont proches voire identiques Les organisations ont su gérer et contrôler la réputation de leur marque, mais une nouvelle norme est maintenant présente : la capacité pour le client et les employés de commenter chaque instant la réputation d’une marque et pour de nombreuses organisations une différence se crée entre la promesse de la marque et le ressenti des clients. Maintenant, la grande popularité des réseaux sociaux crée aussi pour le marketing la capacité à comprendre cette différence et à mettre en place les actions nécessaires pour optimiser cette équation entre la promesse et l’expérience client, chaque fois qu’un client participe ou commente sur les blogs, forums ... les organisations peuvent identifier les tendances, répondre au client, et optimiser ainsi l’image de marque de l’organisation.

Page 35: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 34

Redéfinir les fonctions marketing traditionnelles Qu’est-il possible de tirer du Big Data pour un service marketing ? Le Big Data et les fonctions analytiques vont contribuer à transformer les rôles marketing en améliorant les capacités d’exécution du marketing depuis la collecte des informations clients jusqu'à l’implémentation de promotions ou offres ciblées. Explorer toutes les informations clients disponibles Les moyens traditionnels de capture d’informations tels les « focus groups » , enquêtes, ou les travaux de recherches confiés à des entreprises tierces ne donnent pas la possibilité de capturer toutes les informations disponibles et sont souvent limités à des informations statiques, en silos et obligeant les équipes marketing à des paris sur l’avenir. Une stratégie de type « Big Data & Analytics » permet d’explorer toutes les données dynamiquement, de les relier et de trouver les informations pertinentes rapidement et à moindre coût. Anticiper les comportements plutôt que réagir aux situations

S’appuyer seulement sur l’historique des transactions et sur une segmentation classique pour développer des stratégies marketing n’est plus suffisant et ne permet pas la différentiation attendue. Il est maintenant nécessaire d’analyser d’autres données en provenance de toutes les sources possibles et ceci en temps réel au travers de solutions de type « Big Data & Analytics » pour anticiper les comportements des consommateurs et déterminer ainsi en temps réel la meilleure action à réaliser, à quel moment, par quel canal, pour chaque individu et obtenir ainsi le meilleur impact. Accroitre le contrôle de la marque Traditionnellement, le marketing décide et contrôle les messages qui définissent la marque. En utilisant les solutions « Big Data & Analytics », il est possible d’accroître ce contrôle en écoutant activement les consommateurs sur leur réseaux sociaux – c’est maintenant un des principaux endroits où une marque peut gagner ou perdre sa réputation. Délivrer un contenu en lien avec la cible

Le pilonnage ne conduit plus au gain de nouveaux clients, au contraire il exaspère et peut conduire au rejet de la marque. Le contenu des messages doit maintenant être en résonnance avec le consommateur ciblé et les promotions ou publicités doivent être alignées avec les préférences individuelles et pouvoir être délivrées en temps réel quelque soit le canal ou le média utilisé. Développer les produits de demain Les informations de tout type structurées ou non-structurées collectées par le marketing peuvent aussi être utilisées pour aider à la définition de nouveaux produits, ceci en en partageant les tendances et les retours clients en temps réel. En passant des stratégies marketing traditionnelles vers des approches basées sur l’analyse prédictive et prescriptive des données, les équipes marketing peuvent optimiser leur audience, l’utilisation de leur canaux, les contenus délivrés et la capacité à convertir les prospects en clients

Page 36: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 35

Améliorer l’efficacité du marketing avec l’analyse prédictive et prescriptive des comportements

La combinaison du Big Data et des solutions analytiques va jouer un rôle crucial dans l’utilisation des données contribuant aussi à modifier des fonctions clefs du marketing. L’analyse comportementale basée sur cette combinaison de nouvelles données et outils permettra une exploration très fine afin de détecter et comprendre les nouvelles tendances et prédire ainsi les comportements futurs. Ceci rendra plus simple ce qui doit être réalisé pour intéresser un prospect, définir les promotions et améliorer l’efficacité des campagnes de publicité en optimisant les budgets dédiés à chaque média. Pour explorer les tendances historiques et les données temps réel, le marketing devra adopter des solutions permettant l’analyse des informations structurées (de type données liées aux transactions) et des données non structurées (de type texte ou image via les réseaux sociaux ou voix dans les centres d’appels ou de services clients) capturées sur une grande variété de canaux. Les services marketing pourront alors évaluer les comportements et créer de modèles pour découvrir de nouveaux comportements d’achats. En intégrant les analyses prédictives et prescriptives, la connaissance du client deviendra plus fine et la capacité à améliorer l’expérience client sera alors plus importante, permettant donc au marketing d’anticiper sur les comportements futurs et d’identifier en temps réel l’action à réaliser pour satisfaire le consommateur. Les solutions « Big Data & Analytics » permettent aussi d’aider les services marketing à personnaliser les offres de produits ou solutions ainsi que les offres commerciales en optimisant les gains versus les efforts réalisés sur les promotions. Par exemple dans le domaine de la vente de détail, le marketing pourra analyser les données en provenance du « clickstream » pour comprendre comment le consommateur utilise le site web, avec la possibilité de rejouer l’historique, et optimiser ainsi le contenu et améliorer les résultats des ventes. Les outils d’analyse de contenus associés permettent d’explorer les milliards de conversations publiques pour identifier et analyser les avis des consommateurs permettant de visualiser les tendances émergeantes. Les équipes marketing pourront ainsi évaluer les sentiments des utilisateurs et créer des modèles permettant de prédire l’efficacité de ventes croisées ou de ventes complémentaires. Equipés des informations concernant les préférences et comportements des clients ou prospects, l’efficacité des promotions ciblées devient une réalité, et le partage de ces informations avec les équipes de développement produits ou solutions permet d’adresser plus rapidement les besoins des consommateurs. Un autre effet de l’utilisation du Big Data et de l’analytique est d’optimiser l’efficacité des campagnes de publicité. En effet, en collectant et analysant les données des médias sociaux il devient possible de comprendre si la bonne cible est atteinte, si la visibilité du produit ou de la marque s’améliore et de connaitre les réactions aux publicités on-line ou off-line. L’utilisation des modéles prédictifs permet aux services marketing des entreprises de « digital média » de tester en grandeur réelle et ainsi d’optimiser les campagnes de publicité. Cette capacité

Page 37: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 36

d’analyse temps réel permet de réagir instantanément, optimisant ainsi les « retours sur investissements ». Pour beaucoup d'organisations, la réduction des coûts du marketing est un enjeu en soi. Si ces s'organisations sont Alignées sur la captation de toutes les bonnes données (Big Data) et mettent en oeuvre les Analytiques les plus performants, c'est pour pouvoir Agir de la façon la plus ciblée et, pourtant, la moins couteuse :

Améliorer la valeur délivrée au client à chaque interaction avec une pertinence temps réel

Les analyses temps réel peuvent travailler de façon synchronisées avec les analyses comportementales pour accroître la valeur délivrée au client à chaque interaction. Les données pour mettre en place ces analyses existent déjà en masse, même si très souvent elles sont disséminées dans différentes fonctions au sein de l’entreprise. Ainsi les services marketing ont déjà collecté une grande variété de données, d’interactions avec les consommateurs de type web-clics ... les centres d’appels possèdent les discussions avec les clients, les services après-ventes ont les informations sur les retours produits. En même temps, il est possible de collecter les données des applications utilisées par les appareils mobiles, des services de GPS, les données provenant de l’efficacité des campagnes de publicité ou des promotions et bien sur d’extraire le contenu public intéressant des média sociaux.

Page 38: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 37

En analysant en temps réel ce vaste espace de données (sans cesse en mouvement) les équipes marketing peuvent définir des modèles extrêmement fins, permettant d’engager avec le client, non pas à l’intérieur d’un segment, considéré comme unique au moment le plus approprié et en définissant la meilleure prochaine action intégrant la valeur attendue par le client au moment de cette interaction. Par exemple, un client peut se voir offrir une promotion spécifique parce qu’il s’approche d’un magasin commercialisant des produits pour lesquels ce client était en conversation avec ses amis sur les réseaux sociaux ou un vendeur peut optimiser son offre à un prospect en l’associant en temps réel à l’un des micro-segment basé sur le comportement des clients déjà existants. Le but est bien de délivrer une expérience client hautement personnalisée en maximisant le retour sur investissement du marketing, Cette compréhension fine et temps réel des consommateurs est un point d’entrée exceptionnel pour optimiser le définition des nouveaux produits et leur positionnement marché.

Comment débuter la transformation La promesse du Big Data & Analytics est de contribuer à la mise en place du « Marketing 2.0 ». Celui-ci est basé sur les données en intégrant le bon outillage, afin que les équipes marketing puissent optimiser leur compréhension des clients, prédire leur comportement, créer des interactions personnalisées et maximiser le valeur délivrée à chaque contact avec le client en utilisant le bon canal. Le point de départ est toujours celui d’un besoin business. C’est ce besoin qui, combiné à la maturité de l’entreprise, sera le point de départ pour définir et construire le chemin menant à la réalisation. Ce chemin est construit en s’aidant des meilleures pratiques déjà répertoriées lors des engagements déjà réalisés. L’étude du ROI des différents projets menant à la satisfaction du besoin exprimé permettra de définir la séquence de mise en place en fonction des souhaits définis. L’analyse de l’existant de type architecture du système d’information, positionnement des données, est pris en compte permettant une vue complète du projet à traiter. Les équipes marketing peuvent débuter simplement la capitalisation de la promesse du Big Data & Analytics dès aujourd’hui.

Page 39: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 38

VI LE BIG DATA : « LA TENTATION DE LA CLANDESTINITE ? »

Les promesses du big data sont immenses. La collecte, en temps réel et en continu, de trillions d’octets de données, leur traitement et les interprétations que des machines toujours plus puissantes pourront en faire laissent présager des progrès phénoménaux dans tous les aspects de la vie humaine. Si pour tous et pour chacun, le big data signifie plus de santé, plus de sécurité, plus de service, plus de fluidité dans les échanges, le règne de la donnée marque aussi l’avènement d’une société du profilage et de la surveillance. Une perspective orwellienne qui pourrait bien conduire un nombre grandissant d’individus à tout faire pour passer sous le radar.

LE BIG DATA : « LA TENTATION DE LA CLANDESTINITÉ ? » 39

Page 40: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 39

Le Big Data : « La tentation de la clandestinité ? »

Stéphane Billiet, Président, We agency / Maître de conférences associé, CELSA Paris Sorbonne

Le croisement d’une somme exponentielle de données ouvre aux professionnels du marketing des champs d’expérimentation inédits. Avec le big data, les marketeurs vont pouvoir proposer aux consommateurs des services toujours plus contextualisés et plus personnalisés. Une fois résolus les défis technologiques, l’intelligence stratégique dont ils disposeront leur permettra de planifier, cibler et adresser leurs offres aux consommateurs avec une précision chirurgicale. Individualiser la proposition marketing au plus fin degré de granularité est un défi à la fois complexe et enthousiasmant pour les professionnels. Sur des marchés devenus hyperconcurrentiels, c’est une

condition de succès et de pérennité pour les marques. Pour le consommateur, en revanche, le bénéfice est plus mitigé : certes, la satisfaction de n’être exposé qu’à des propositions commerciales réellement pertinentes, mais aussi, la perspective moins réjouissante d’une prise de pouvoir des algorithmes sur le libre-arbitre. La possible dictature algorithmique à laquelle un profilage excessif pourrait conduire doit faire l’objet d’un regard critique. On est en droit de redouter que l’aveuglement qui accompagne les innovations technologiques de rupture ne se traduise, en l’espèce, par une valorisation excessive du caractère prédictif des données, et, en conséquence, n’aboutisse à réduire l’individu à ses us et coutumes. Clairement, le scénario d’une prise de décision inductive, déléguée aux ordinateurs sur des critères purement statistiques, a de quoi inquiéter. Et même insupporter ceux qui refusent les assignations, considérant comme une atteinte à leur dignité l’idée même que quiconque, a fortiori des entreprises, s’arroge le droit de les cataloguer sur la base de présupposés. On sait déjà, confusément, que chaque connexion, quelle que soit son objet, génère le transfert, volontaire ou non, d’informations numériques vers des fermes de serveurs capables d’archiver et de traiter des quantités exponentielles de données et de métadonnées. On ne se figure pas encore tout à fait comment les composantes de son empreinte numérique personnelle seront exploitées – pour le meilleur et sans doute aussi

Page 41: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 40

pour le pire – par des machines dont la puissance et la rapidité de calcul autoriseront un ciblage à l’échelle nanométrique. Parce que le big data interroge avec acuité l’acceptabilité sociale du Marketing, les marketeurs ne peuvent faire l’économie d’anticiper le point d’inflexion qui verra une proportion significative de la population commencer à avoir le sentiment d’être fiché, profilé et ciblé au-delà du supportable. Le Marketing ne pourra se dire responsable – durablement et de manière crédible – que si les professionnels dopés aux datas apportent des réponses convaincantes à la question du respect de la vie privée. Et, sur un plan philosophique, que s’ils affirment, de manière répétée, qu’à leurs yeux l’intégrité de la personne humaine primera toujours sur les intérêts commerciaux. De toute évidence, la mise en cause des pratiques marketing sera d’autant plus forte que les « cibles » prendront conscience de leur projection algorithmique personnelle. Comment réagiront-elles alors à la multiplication d’offres hyper-profilées, bombardées en permanence ? A partir de quelle pression verront-elles le renoncement à l’intime comme un prix trop cher à payer ? Si les marketeurs ignorent la question de la contre-productivité du big data, ils doivent s’attendre à ce que les consommateurs, même sous prétexte d’être placés au centre de dispositifs marchands de plus en plus personnalisés, refusent que leurs comportements passés soient utilisés pour déterminer, à leur place, quels désirs, motivations, intentions pourraient être les leurs à l’avenir. On prend ici le pari qu’à partir d’un certain degré de sophistication marketing, une proportion significative de la population fasse le nécessaire pour échapper à Big Brother. Si le partage de données – lié à un achat ou à un acte administratif, à la géolocalisation ou à une publication – n’est pas en soi un renoncement à son intimité, l’accumulation, l’historisation et le croisement de ces données peuvent le devenir. Le phénomène du big data est encore trop récent pour que le grand public ait pris la mesure de ce qui est en jeu, non seulement en matière de libertés individuelles mais aussi, plus trivialement, en termes de sanctuarisation de tous les faits et gestes qui font la vie. Certes, le rapport à l’intime a évolué avec la popularisation de l’usage des réseaux sociaux. Si les individus s’expriment abondamment sur ces médias interactifs, c’est, sans ambiguïté, pour être vus et entendus. De leurs amis certes, mais aussi des marques à qui ils communiquent ce qu'ils sont, ce qu'ils apprécient et ce qu'ils attendent en retour de leur engagement. C’est donc bien volontiers qu’ils laissent leur empreinte, partout où ils passent, conscients que leurs dépenses quotidiennes seront analysées, que leurs commentaires seront décryptés, que leurs comportements seront profilés. De fait, la notion de vie privée s’adapte, mutatis mutandis, au fonctionnement en réseau de la société omni-connectée. Déjà, les informations que chacun partage avec d’autres, volontairement ou à son insu, ne s’apprécient plus comme des données personnelles mais comme des données transactionnelles et relationnelles. Publier sur les réseaux sociaux beaucoup d’information sur soi est jusqu’ici un choix, celui du partage et de la relation. Mais demain ? Sous la pression de la norme sociale, le choix – utile et agréable – d’être connecté s’est déjà mué en injonction de connexion. Dans un monde toujours plus « social », être déconnecté sera bientôt perçu comme une attitude asociale, voire suspecte. Enfin, de manière inéluctable, être géolocalisable en permanence, par exemple, va devenir obligatoire pour profiter d’une multitude de services indéniablement utiles, qu’il s’agisse de commander un taxi ou de prévenir une crise cardiaque. De la même manière que la demande de sécurité a pu justifier le recours massif à la vidéosurveillance, la collecte et le traitement de données considérées jusqu’ici comme

Page 42: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 41

« personnelles » est acceptable tant que le bénéfice est supérieur à l’inconvénient ou au risque. Mais lorsque le rapport s’inversera, que plus aucune zone d’ombre ne sera permise, le besoin d’échapper au contrôle et à la surveillance ne pourra que s’exacerber. Pour preuve, l’adoption rapide des monnaies électroniques, comme le bitcoin apparu en 2009, qui garantit l’anonymat des transactions. Lorsque la transparence, valeur plébiscitée aujourd’hui, sera vécue comme un totalitarisme, la clandestinité sera peut-être le seul refuge possible. La vie privée ne se conçoit plus comme un espace coupé du monde mais comme un ensemble d’interactions permanentes avec une multitude d’interlocuteurs. Comme l’accès à un club privé, elle se caractérise par le droit d’entrée que l’on accorde à l’autre selon la nature et le contexte de la relation. Le droit d’accès à la sphère intime est donc un choix essentiellement social, guidé par une approche personnelle, volontaire et différenciée. Plus que le contenu lui-même, ce qui relève de l’intimité désormais, c’est le contexte, l’intention et la destination des données. En bref, au-delà de son identité sociale, chacun peut accepter de tout dire – mode de vie, croyances religieuses, opinions politiques, orientation sexuelle – mais pas à tout le monde et en tous lieux. Bien qu’exposée comme jamais dans l’histoire humaine, la vie privée reste un fondement essentiel de la dignité ́ de la personne. Le jardin secret, une condition sine qua non de la liberté. Les marketeurs doivent le comprendre pour définir, en conscience, jusqu’où et à quelles conditions ils peuvent conduire le citoyen-consommateur à laisser tomber les barrières de l’intime. Ils doivent continuer d’apprendre à cultiver la relation car, plus que jamais, elle est la condition de la transaction. Dès lors que le mirage technologique n’endormira plus les craintes du public quant à l’anonymisation des données, seule la confiance retiendra le consommateur de tout faire pour passer sous le radar. Plus qu’au rêve de célébrité exprimé par la voix prophétique d’Andy Warhol au siècle dernier, c’est au quart d’heure d’anonymat que chacun risque d’aspirer à l’heure du big data.

Page 43: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 42

VII LE BIG DATA, NERF DE LA GUERRE DES GRANDES PLATEFORMES SOCIALES ?

Les géants du web et des médias sociaux, Facebook, Twitter, Google, et bien sûr Yahoo!, sont les grands gagnants du Big Data. D'abord parce qu'ils ont eu la vision, ensuite parce qu'ils ont eu l'exécution (centaines de millions d'utilisateurs), et enfin parce qu'ils en tirent les bénéfices (la publicité). Est-ce pour le bien ou pour le pire? Que devons-nous en attendre ?

QU’ENTEND-ON PAR « BIG DATA » 43 LES MÉDIAS SOCIAUX, ACTEURS ORIGINELS DU BIG DATA 44 TOUT RÉSIDE DANS L’EXÉCUTION 45 LE BIG DATA À LA BASE DES REVENUS DES MÉDIAS SOCIAUX 46 DU BIG DATA À LA BIG INTELLIGENCE ? 47

Page 44: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 43

Le Big Data, nerf de la guerre des grandes plateformes sociales ?

Hervé Kabla, de Be Angels

En mars 2010, Sitaram Asur et Bernardo A. Huberman publièrent un papier assez surprenant2 dans lequel les auteurs, tous deux chercheurs des HP Labs à Palo Alto, établissaient que les médias sociaux pouvaient, dans de nombreux cas, servir d’outils prédictifs pour des événements se déroulant dans la vie réelle. Asur et Huberman proposaient, pour étayer leur propos, un modèle prédictif des revenus des films au box-office, basé sur le rythme de diffusion de tweets relatifs au film considéré, ainsi que la polarité des tweets émis – positifs vs. négatifs – pour affiner leur modèle. Les auteurs obtenaient même de meilleurs résultats que ceux s’appuyant sur l’indice HSX de la bourse aux films d’Hollywood Au-delà de l’aspect récréatif et ingénieux de leur analyse, ces deux chercheurs mettaient probablement le doigt sur l’un des aspects les plus évidents, et pourtant les moins souvent exploités des médias sociaux : ce sont de formidables machines à produire de l’information à partir d’amas de données. Données non structurées, certes, mais données tout de même, accessibles à celles et ceux qui sont prêts à s’y investir. Les grandes plateformes sociales seraient-elles les grands gagnants du Big Data ?

2 Disponible en ligne sur arXiv.org : http://bit.ly/adetem-big-data-futur

Page 45: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 44

Qu’entend-on par « Big Data »? Avant d’aller plus loin, entendons-nous sur la signification du terme “Big Data”. L’expression est assez récente, elle date d’une dizaine d’années tout au plus. Elle désigne l’accumulation de données dans des ordres de grandeur absolument pharamineux, exprimés en zettaoctets (un zettaoctet valant la modique somme de mille milliards de milliards d’octets…). De ce gigantisme des données exploitées découlent plusieurs conséquences, qui rendent obsolètes les techniques utilisées jusqu’à présent, comme relevant du domaine de la « Business Intelligence », secteur pourtant prolifique durant la dernière décennie.

Tout d’abord, les architectures sous-jacentes doivent être repensées de fond en comble : les acteurs du « Big Data » font appel à des architectures distribuées allant jusqu’aux fermes de serveurs, comme celles utilisées par Google ou Facebook, là où la BI s’appuie sur des bases de données certes de taille importante, mais où un ou quelques serveurs suffisent.

Ensuite, il a fallu repenser les approches mêmes des logiciels de base de données : là où l’extraction de cubes de données suffisait pour la BI classique, le « Big Data » fait appel à une nouvelle génération de technologies comme MapReduce ou le NoSQL, pour traiter de manière parallèle des requêtes que le brave SQL ne saurait effectuer en un temps humainement raisonnable.

Enfin, alors que la BI s’appuie sur une approche exacte, basée sur une forte densité de l’information enregistrée dans des entrepôts de données structurées, le « Big Data » s’intéresse plus aux tendances, à partir d’extractions de faible densité sur de grands volumes, afin d’inférer des comportements globaux, avec les limites qu’une telle approche impose.

Le web 2.0, par l’exploitation massive de données situées dans des emplacements multiples et peu structurés, a sans doute été un accélérateur important de l’évolution vers le « Big Data ». Il n’a pas été le seul, car d’autres tendances sont venues se greffer en parallèle, comme l’ouverture aux données publiques ou la diffusion de flux RSS. Mais il est clair que les médias sociaux, dans leur ensemble, constituent l’un des facteurs décisifs de diffusion du « Big Data ».

Les médias sociaux, acteurs originels du Big Data

Notre génération aura eu cette chance de connaître le web avant sa formidable transformation sociale du début du siècle. Les premières heures du réseau, loin d’être sombres, étaient en effet bien plus monotones qu’elles ne le sont aujourd’hui. Le web avait beau être ouvert à tous, bien peu s’y lançaient réellement, tant pour des raisons techniques que par manque d’intérêt pour une mise en relief de son histoire personnelle : l’accès à quelques sites d’information, d’e-commerce, institutionnels ou officiels suffisait amplement à meubler nos quelques heures passées en ligne. Les médias sociaux ont bouleversé cet ordre des choses, en permettant à tout un chacun de devenir acteur de sa propre histoire en ligne : les blogs dans un premier temps, puis les

Page 46: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 45

sites de partage et les réseaux sociaux, nous ont transformés en producteurs de contenu, parfois même à l’insu de notre plein gré. Entendons-nous : les médias sociaux n’ont pas été créé pour produire du big data. Mais leur profusion et leur rapide dissémination sur l’ensemble de la planète ont eu pour résultat immédiat d’accroître, de manière exponentielle dans un premier temps, la quantité de données disponibles, et parfois même librement accessibles : articles de blogs et leurs commentaires, tweets, photographies diffusées sur Flickr, Picasa, Facebook ou Instagram, vidéos partagées sur YouTube, DailyMotion, Vimeo ou Facebook (encore lui), sans oublier les données de géolocalisation collectées volontairement ou non, viennent s’accumuler à raison de plusieurs milliers par minutes. Voici par exemple une infographie diffusée par Intel il y a quelques mois, et qui recense ce qui se passe chaque minute sur le web et les grandes plateformes sociales3.

Ce qui caractérise donc une plateforme sociale, c’est avant tout d’avoir cette vision du « Big Data » comme un passage obligé, et plutôt rapidement, pour asseoir sa renommée et jouer dans la cours des grands.

Tout réside dans l’exécution Bien entendu, une telle quantité de données nécessite des moyens techniques importants, comme ceux cités plus haut, et toutes les grandes plateformes sociales évoquées se sont dotées de tels moyens. La « scalabilité », autrement dit la capacité à délivrer les mêmes performances, fonctionnalités et qualité de service quand le nombre des utilisateurs est multiplié par 100, 1000 ou 10 000, est un des enjeux, si ce n’est l’enjeu majeur des équipes techniques de ces acteurs. Mais ce n’est pas le seul, car pour pouvoir démontrer cette scalabilité, encore faut-il être capable de générer la croissance, par des investissements colossaux en communication et en marketing. Le bouche à oreille ne suffit pas, loin s’en faut : une plateforme comme leboncoin.fr, qui revendique quelques millions d’utilisateurs en France, s’est aussi développée grâce à de très importants achats médias, via Google AdWords pour damer le pion à eBay. 3 Source : http://bit.ly/adetem-big-data-1mn

Page 47: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 46

Pour devenir une grande plateforme sociale, il faut avoir à l’esprit que tout réside dans l’exécution. Facebook l’a bien compris, qui est allé chasser sur les terres de Google, acteur s’il en est du gigantisme4, certains de ses collaborateurs les plus talentueux : Sheryl Sandberg5, l’actuelle COO de Facebook, était auparavant VP en charge des ventes à l’international ; Lars Rasmussen 6 , en charge du Facebook Graph Search, était le cofondateur de Where 2 Technologies, racheté en 2004 par Google pour devenir Google Maps. Quant à Alexandre Hohagen7, VP Sales pour le Brésil, il tenait ce même poste pour le compte de Google de 2004 à 2011. On ne s’improvise pas géant du Big Data du jour au lendemain, et il est logique qu’une société comme Facebook aille recruter ses collaborateurs clefs auprès d’entreprises ayant acquis un savoir-faire indéniable dans le même domaine.

Le Big Data à la base des revenus des médias sociaux

Soyons réalistes, ni Facebook, ni Twitter, ni LinkedIn, ni même Google, évidemment, ne sont dirigées par des philanthropes. Les grands acteurs des médias sociaux sont avant tout des entreprises, et pour certaines d’entre elles, des entreprises cotées … et parfois très rentables, avec une marge opérationnelle de l’ordre de 25% pour Facebook ou Google, et légèrement plus faible pour LinkedIn (Twitter ne communique pas encore ses chiffres). Quel est donc le modèle économique des réseaux sociaux ? Sans vouloir être réducteur, il faut bien reconnaître que pour l’essentiel il repose sur la publicité, à quelques variantes près. Google, c’est bien connu, en tire l’essentiel de ses revenus, à hauteur de 96% (sur la base des revenus 2011). Facebook, qui contrairement à Google, ne vend aucun produit, n’est pas en reste : ses revenus sont en totalité issus des publicités qui y sont diffusés. Quant à LinkedIn8, la publicité ne contribue qu’à 27% de ses revenus : le reste provient des comptes premium, et surtout des solutions pour recruteurs comme le montre le schéma ci-après.

4 Le nom même de Google revendique une certaine familiarité avec les grands nombres http://bit.ly/1brPxmK 5 Cf. http://bit.ly/adetem-big-data-sheryl 6 Cf. http://bit.ly/adetem-big-data-lars 7 Cf. http://bit.ly/adetem-big-data-hohagen 8 Pour des données complètes sur les premiers exercices opérationnels de LinkedIn, voir ici: http://bit.ly/adetem-big-data-linkedin

Page 48: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 47

Si l’on creuse un peu plus cette facette, que constate-t-on ? La caractéristique principale des publicités diffusées sur ces réseaux, c’est de s’adapter au profil de celles et de ceux qui y sont exposés. Google en a fait son cheval de bataille, tout d’abord au travers de l’offre AdWords, qui propose des liens sponsorisés basés sur les termes utilisés pour une recherche en ligne, puis au travers de ses autres formats publicitaires, comme par exemple celui utilisé par Google Mail, et basé sur le contenu des courriers électroniques ; enfin, la tendance actuelle, celle du « real time bidding » consiste à mettre en concurrence des annonceurs sur la base de données contextuelles issues des sites sur lesquelles les publicités doivent s’afficher, tout cela devant s’effectuer dans un laps de temps minimal, de quelques millièmes de secondes. Facebook, de son côté, propose aux annonceurs d’organiser leurs campagnes en s’appuyant sur les données publiées sur les profils des internautes : leurs goûts culturels, leurs lieu d’habitation, leur âge, et même, probablement, leur historique de publication. LinkedIn, enfin, propose un ciblage basé sur des critères professionnels, comme la formation, la taille de l’entreprise ou le secteur. Dans chacun des cas, le procédé qui permet de trouver la publicité ou l’annonceur optimaux, requiert de brasser des volumes gigantesques de données, afin d’en extraire en un temps record les profils et les messages à mettre en relation. Plus grande est la population présente sur ces réseaux sociaux, plus étendu sera le spectre des populations concernées, et plus importantes les chances de proposer le contenu adéquat à la bonne personne. L’enjeu est donc bien, en l’occurrence, de faire rapidement, et même très rapidement, croître la taille des communautés d’utilisateurs. C’est ainsi que Facebook, par exemple, est passé en moins de 5 ans de 100 millions à plus d’un milliard d’utilisateurs : en moyenne, il aura fallu 150 jours à Facebook pour acquérir chaque nouvelle centaine de millions d’utilisateurs9 ! Brasser des millions de profils pour en tirer la bonne information, c’est le principal enjeu des principales plateformes sociales. C’est aussi le cas pour LinkedIn, qui au-delà de la

9 La croissance de Facebook est détaillée ici: http://bit.ly/adetem-big-data-facebook-pre-ipo

Page 49: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 48

publicité contextuelle, propose aussi aux annonceurs de trouver les meilleurs profils pour les missions sur lesquelles ils ou elles ont été mandatés. Le moteur de recherche de LinkedIn est l’un des plus performants jamais construits, offrant une multitude de critères sur lesquels on peut jouer pour affiner sa recherche. Cette caractéristique, avec la taille croissante et vertigineuse de la base de CVs dont il dispose, est sans doute la raison pour laquelle les entreprises et les cabinets de recrutement sont en train de passer, massivement, sur cet outil.

Du Big Data à la Big Intelligence ?

Vous l’avez bien compris, les créateurs d’entreprise tentés par une aventure entrepreneuriale sur les médias sociaux, ou ayant imaginé LE réseau social qui va déboulonner Facebook, doivent avant tout penser Big Data : c’est le nerf de la guerre. Seuls ceux qui sont capables de transformer ces zettaoctets de données en information – quel qu’en soit la teneur : ludique ou professionnelle – auront leur mot à dire. En somme, il s’agit plus vraisemblablement de passer du Big Data à la Big Intelligence.

Page 50: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 49

VIII LE BIG DATA PEUT-IL RENDRE VOS CLIENTS PLUS FIDELES ?

Depuis peu on entend partout l'expression « data déluge », mais il n’est pas nécessaire de remonter à Noé ou aux origines de ce qui serait la bible du « Big Data » pour constater que ce déluge a commencé il y a bien longtemps.

RETOUR AUX SOURCES DU « BIG DATA » 49 DES OUTILS ET DES HOMMES 50 AVANT D’ÊTRE « BIG DATA » VOTRE BASE DOIT ÊTRE « QUALITY

DATA » ! 51 ALORS COMMENT APPROCHER VOTRE PROJET BIG DATA ? 52 ALORS RÊVONS UN PEU ! 52

Page 51: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 50

Retour aux sources du « Big Data »

Elie Liberman, Expert en stratégie client au sein de MarketingCoach

Longtemps à l’échelle du temps technologique, bien entendu, car nous avons tous connu l'une des premières applications à avoir produit un volume impressionnant de données : la carte de fidélité, qui se trouve quasiment dans la poche de chaque français. Les programmes de fidélisation grâce auxquels, via le numéro de la carte, le lien entre l'identité client et l’ensemble des tickets de caisse, des articles dans chaque panier, lors de chaque achat, peut être mémorisé. La grande distribution s'est donc équipée de datawarehouses importants au service de leurs programmes de fidélisation et de leur stratégie. Dès ce moment, la connaissance client est devenue un enjeu vital pour toutes ces entreprises. Nous voilà donc début des années 90 avec des bases de données dont le volume ne cesse de croître et une capacité informatique relativement limitée et pour le moins coûteuse. Dans une situation où la quantité de données dépasse les capacités de mémorisation, on est contraint de créer des agrégats et d'effacer certaines données pour libérer de l’espace. Les dinosaures des data et du marketing dont je fais partie, se souviendront qu'à l'époque certains conservaient le détail des tickets de caisse sur 13 semaines, le total de chaque ticket les 13 semaines suivantes et enfin la valeur client comme agrégat ultime. Bref, potentiellement beaucoup de données, mais contraints par les capacités informatiques, on avait dû en réduire le volume de manière drastique. Depuis le coût du gigabyte ayant spectaculairement chuté, on ne se pose plus ce genre de question. Un autre secteur historiquement générateur d’énormément de données a été le secteur des communications. Imaginer que le mobile dans la poche de chaque Français génère une information sur la ou les antennes auprès desquelles il est connecté. Cela même quand le téléphone est en veille. Sans parler des conversations, une quantité phénoménale de données est générée à chaque instant. Mais dans ce cas les données, même si, très volumineuses, sont relativement volatiles. Seules les données entrant dans le processus de facturation « méritent » d’être conservées. Quoi qu’il en soit, nous voilà encore une fois dans un business dont certains processus métier génèrent des quantités astronomiques de données.

Page 52: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 51

À Londres une société anglaise vient d'ailleurs de tester un dispositif de tracking des passants, basée sur ces données et l’identifiant du smartphone des piétons. L’idée est de créer des « cookies » dans le monde physique. Si ce dispositif n'avait pas crée un tollé, en raison des problèmes de vie privée que ce dispositif pose, il y a de bonnes chances qu’une publicité personnalisée à la Minority Repport soit lancée dans les mois qui viennent. Ce n'est bien entendu qu'une application des possibilités générées par l'avalanche de données, issues des smartphones. Si on applique les mêmes principes à l'émergence des objets connectés, on se dit que l'avalanche de données n'est pas prête d'être enrayée. Mais dans les cas qui précèdent, si les volumes méritent d'être qualifiés de « Big Data », on reste dans de l'information structurée, issues des processus métiers, bien connue des informaticiens « old School ». Ce qui a changé la donne, est, bien entendu ce qui se passe sur la toile. Les bénéfices du « Big Data » sont bien plus dans la capacité à mixer et à analyser des informations structurées et non structurées, notamment issues des conversations du Web 2.0. Cette approche pouvait déjà être en profondeur, elle se doit maintenant d’intégrer toute la largeur et la variété de sources de données. On parle de bases NoSQL, pour « Not Only SQL ».

Des outils et des hommes … Il n’y a d’ailleurs pas que les bases de données qui ont évolué. Les outils pouvant contribuer à la stratégie de fidélisation sont de plus en plus nombreux. Mais avant de servir les marketeurs, ils ont contribué à modifier en profondeur le comportement des consommateurs. Ces derniers ont sans doute évolué plus rapidement que les services marketing des entreprises. Le débat est donc bien moins technologique que business. Les enjeux des gens du marketing sont de réussir à fidéliser leurs clients ou de trouver les moyens d’en recruter de nouveaux. Bien plus que de savoir si les données qu'ils exploitent sont « big » ou non. Mis à part pour les vendeurs et les intégrateurs de ces technologies, cet aspect n'est donc pas l'apport principal du « Big Data ». Avant de parler de fidélisation, revenons-en aux bons vieux adages « Le bon message, à la bonne personne, au bon moment » côté communication et « La bonne offre à la bonne cible » côté marketing. On peut bien entendu y ajouter « par le bon canal, au bon coût, etc. ». Réussir ces tours de force demande, à la fois une parfaite connaissance client, et un fort niveau de personnalisation.

Page 53: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 52

Avant d’être « Big Data » votre base doit être « Quality Data » !

En matière de connaissance client cela fait bien longtemps que l'analyse des données est maîtrisée par les statisticiens. De ce point de vue le « Big Data » n’est donc pas totalement neuf. C’est d'ailleurs un des sujets les plus polémiques entre les analystes traditionnels et les apôtres du Big Data. En fait cela fait longtemps que l'on est capable d'apporter de la connaissance client sans nécessairement avoir à disposition le volume, les gigantesques volumes de données. Pour les analystes, le problème est bien moins de savoir si le volume de données apporte un plus que de s'assurer que la qualité des données est au rendez-vous. Beaucoup d'entre nous connaissons l’expression « garbage in, garbage out ». En d'autres termes si les données sont pourries à l'entrée, les analyses sont pourries à la sortie. Et « Big Data » ou pas cette règle reste vraie. Ce que le « Big Data » apporte principalement c’est la capacité d'intégration de nouvelles sources de données, structurées ou non structurées, dans le spectre des analyses et de la connaissance client. Et là aussi il y a polémique, car les statisticiens ont prouvé que le nombre de variables nécessaires à l'explication d'un comportement n'est pas illimité. Alors que va apporter cette nouvelle technique aux entreprises ? Eh bien comme nous l'avons vu principalement quatre choses :

La capacité à traiter en profondeur de gigantesques volumes de données transactionnelles ou descriptives.

Les moyens d'intégrer un large spectre de sources de données structurées ou non, tant internes qu’externes à l'entreprise.

Le traitement en ligne des données mixtes. Et les outils nécessaires à rendre tout cela compréhensible pour un utilisateur pas

forcément expert.

Le tout devant contribuer à rendre le marketing totalement individualisé et fortement fidélisant. Le fameux mythe du « one to one marketing » énoncé il y a plus de 10 ans par Peppers et Rodgers. Théorie visant principalement à maximiser la rentabilité de l’entreprise en s’appuyant sur la fidélité des clients rendue possible par une personnalisation, voire une individualisation, du processus marketing. Il y a pourtant un paradoxe de la personnalisation. D’une part, malgré tous les programmes de fidélisation, toutes les initiatives de « mass customization » (production en masse de produits personnalisés) le comportement des clients ne tend pas forcément vers plus de fidélité. D’autre part, les techniques du comportemental, comme le retargetting, ont plus servi à améliorer la prospection qu’à rendre le client fidèle. Malgré cela, si on en revient aux enjeux des entreprises que sont la capacité à acquérir de nouveaux clients à des coûts raisonnables et celle de maîtriser l’attrition de son portefeuille client, la transformation des données en actions marketing restera encore pour longtemps une des clés du succès.

Page 54: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 53

Alors comment approcher votre projet Big Data?

Avant tout comme disent les américains « Think big, start small ».

Focalisez-vous d’abord sur le « Data Quality Management », qui présente l’avantage d’être utile que votre base soit Big Data ou classique.

Identifiez les bénéfices marketing attendus en matière de connaissance client et de personnalisation de vos services ou de l’expérience client.

Identifiez les sources potentielles de données à intégrer dans votre projet Confiez aux équipes de spécialistes la mission de créer de la connaissance client et

mettre en place les outils nécessaires Transformer ces informations et ces outils en actions marketing exploitables … et

rentables ! Impliquez les non experts dans le processus exploitation des informations tirées du

« Big Data » Réitérez pour améliorer la démarche ou en étendre le spectre.

En matière de « Big Data » certains philosophes pourraient vous dire que « le chemin importe plus que la destination ». Principalement, parce que le marketing d’aujourd’hui est plus que jamais la science de l’adaptabilité. Que le comportement des consommateurs change souvent plus rapidement que la capacité de l’entreprise à s’adapter. Et enfin, que, comme le disait Carl Sagan, « la seule chose dont on peut être certain au sujet de l’avenir, c’est qu’il ne sera pas une reproduction du passé ». Bref, l’agilité de votre projet « Big Data marketing » est la condition de sa survie.*

Alors rêvons un peu !

D’ici peu le web deviendra sémantique et les données, en plus de proliférer, deviendront explicatives, de faits, d’états, de comportements. Les données issues des objets connectés ajoutées aux moyens digitaux rendront la lecture du parcours client complètement intégrée. Les outils seront si simples d’utilisation que tous les acteurs de l’entreprise pourront avoir accès aux informations nécessaires à rendre l’expérience client parfaite. Et les analyses prédictives seront si puissantes et si précises qu’elles permettront d’anticiper les demandes des clients. De quoi rendre les clients vraiment fidèles, et les clients fidèles tous de vrais ambassadeurs de l’entreprise. Transformant ainsi radicalement l’image de l’entreprise, les actions d’acquisition et la manière de fidéliser.

Page 55: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 54

IX MARKETING, LOCALISATION ET BIG DATA : GÉOMARKETING OU BIG BROTHER ?

MARKETING, LOCALISATION ET BIG DATA : GÉOMARKETING OU BIG BROTHER ? 54

AVANT D’ÊTRE « BIG DATA » VOTRE BASE DOIT ÊTRE « QUALITY DATA » ! 51

ALORS COMMENT APPROCHER VOTRE PROJET BIG DATA? 52 ALORS RÊVONS UN PEU ! 52 RETOUR AUX SOURCES DU « BIG DATA » 49

Page 56: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 55

Marketing, localisation et Big Data : géomarketing ou Big Brother ?

Photo - Frédéric Cantat, chef du service du marketing de l’institut national de l’information géographique et forestière (IGN)

Le géomarketing est la branche du marketing qui consiste à analyser le comportement et les attentes des consommateurs sous un angle spatialisé. Il est né au XXème siècle, à une époque où les données étaient rares et très difficiles à collecter. C’était avant internet, avant les téléphones portables intelligents -avant les tablettes a fortiori- ces « doudous » numériques qui fournissent des services à son propriétaire (donne-moi la liste des restaurants situés dans un rayon de 200 mètres autour de moi, indique-moi la station de vélos en libre-service la plus proche avec des vélos ou des emplacements – c’est selon- disponibles, etc.) et enregistrent dans le même temps la trace laissée par celui-ci. Il existe ainsi aujourd’hui plusieurs centaines de millions de sondes, plutôt discrètes, quand elles n’opèrent pas à l’insu des utilisateurs, qui, tels des sacs aux ressources inépuisables, déposent à la façon du Petit Poucet une multitude de petits cailloux blancs. Vu qu’un smartphone dont la fonction géolocalisation est activée prend une mesure toutes les cinq secondes environ, on arrive à des dizaines de milliards d’enregistrements tous les mois. Et je ne comptabilise pas ici ni les autres données collectées par les opérateurs (prise de ligne, consultation de la messagerie vocale, etc…) ni celles collectées par d’autres appareils (appareils connectées à internet dont l’adresse IP est localisée par exemple). Les données de localisation nous plongent donc dans un océan de données, ces Big Data que certains décrivent comme le dernier eldorado : gisement -au sens propre comme au sens figuré- qui recèle des pépites comportementales (une étude du Boston Consulting Group a évalué à 1 000 milliards d’euros la valorisation des informations du Big Data en Europe en 2020) et permettrait à qui sait les extraire et les manipuler de prédire l’avenir plus sûrement que Madame Irma (Nate Silver, auteur du livre Le signal et le bruit, devenu célèbre après avoir prédit le résultat des élections présidentielles américaines en 2008 Etat par Etat, est le Pape des nerds ces passionnés des chiffres et des nouvelles technologies).

Page 57: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 56

L’attraction irrépressible provoquée par l’ivresse du marionnettiste tirant les ficelles, voire du démiurge, n’est plus très loin. De Big Data à Big Brother il n’y a qu’un mot ! C’est pourquoi en matière de géomarketing revu à l’aune des Big Data, Il convient de respecter quelques règles de bon sens afin de ne pas franchir des lignes jaunes :

sur le plan purement marketing, ne pas collecter de la donnée pour collecter de la donnée : attention à la vérité trompeuse de la Loi du (grand) nombre et aux corrélations hasardeuses ou non signifiantes ;

sur le plan réglementaire : la collecte de données personnelles, le traitement, le croisement et la circulation de ces données sont strictement encadrés de façon générale, et en France tout particulièrement (CNIL).

Sur le plan de la relation client : rompre le lien de confiance qui unit une marque à son client, par manque de transparence, par un comportement jugé comme inapproprié, voire par manque de pertinence ;

Historique : les trois temps du géomarketing

Temps 1 : planification de réseau commercial et zone de chalandise Au commencement, que je situerai dans les années 1970-1980, l’analyse des données liée à leur localisation sur le territoire gagne ses premières lettres de noblesse grâce à de grandes campagnes de collecte ou de recensement (à commencer par le recensement général de la population, RGP, piloté par l’INSEE). Obtenir une donnée nécessite une logistique importante (et donc des moyens !) puisque celle-ci est recueillie in situ via des enquêteurs (cas du RGP par exemple) ou par correspondance (cas des études de consommation par courrier nominatif adressé à plusieurs centaine de milliers de foyers). Peu à peu, une partition du territoire se dessine. La brique élémentaire (délimitée parfois sous contrainte d’agrégation des informations suffisante au regard des contraintes CNIL) ou îlot, emporte une liste de sociaux-types (nombres d’habitants, revenu moyen par foyer, catégorie socioprofessionnelle, etc.) dont la profondeur augmente année après année. « Dis-moi où tu habites et je te dirai qui tu es », dont une variante est « dis-moi qui sont tes voisins et je te dirai qui tu es », sont les accroches qui font florès sur les fonts baptismaux du géomarketing. L’époque (c’était au siècle précédent !) est à la pudeur10 et il faut bien sûr décoder son sous-titre subliminal « entreprises, je connais le pouvoir d’achat et les habitudes de consommation des foyers français, dîtes-moi ce que vous voulez vendre et je vous dirai où vous implantez ou à qui vous adressez »). La grande distribution, les banques et les assurances, et de façon plus générale les enseignes ou les organismes disposant d’un réseau d’agences, de points de vente ou de points de contact optimisent ainsi leur implantation sur le territoire à coup de positionnement sur des cartes (moi et mes concurrents) et de délimitation de zones de chalandises.

10 NA : au siècle suivant, foin de cette pudibonderie. Cela devient « dis-moi où tu habites et je te dirai combien tu gagnes ». A noter sur la région parisienne cette réalisation dans le cadre d’un projet scolaire qui allie exploitation de données ouvertes (open data), localisation et datavisualisation et qui a été publiée sur http://dataparis.io/#

Page 58: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 57

Temps 2 : localisation de clients et géocodage La disponibilité concomitante d’adresses postales dans des fichiers clients d’une part, et dans des bases de données (routières11) d’autre part, et de traitements permettant de relier les unes aux autres permet dans la fin des années 1990 de franchir une étape. Grâce à ces opérations dites de géocodage, la zone de chalandise peut être matérialisée en temps quasi réel (chaque jour je peux géocoder mon fichier client). La règle énoncée ci-avant au Temps 1 reste d’actualité bien sûr : les voisins de nos clients sont des prospects en puissance. La précision du ciblage est augmentée. Et même si on ne parle pas encore de datavisualisation, le simple fait de positionner l’ensemble de ses clients sur un fonds cartographique permet dans bien des cas d’améliorer la compréhension des phénomènes comportementaux (visualisation des barrières physiques – rue, route, voie ferrée, cours d’eau- au sein d’une zone de chalandise, de l’importance de certaines dessertes qui préfigure le calcul d’isochrones, etc.). L’intérêt pour le client, en tant qu’individu, s’est éveillé, prémices du marketing individualisé (one-to-one). Temps 3 : géolocalisation et Big Data Le début du XXIème siècle a connu l’avènement de la géolocalisation, sur les plans technique et sociétal. Jusqu’alors confinée à une niche de spécialistes (militaires, secours civils, aménageurs, pratiquants d’activités de plein-air,... ) la géolocalisation –au sein de laquelle j’inclus ici la cartographie- et l’intérêt qu’elle suscite au sein de la société explosent en s’ouvrant à tout le monde dans le début des années 2000. Et ce, grâce à l’avènement de systèmes de navigation embarquée (première et surtout deuxième montes dans les véhicules grand public) et à l’ouverture sur internet de services gratuits de consultation de plans et/ou de préparation d’itinéraires (Google Earth et Google Maps, Geoportail, Bing Maps, Mappy etc.). Dans la foulée, l’arrivée du web 2.0, des réseaux sociaux et des smartphones incorporant une puce GPS (et des applications) ont été un formidable accélérateur pour le géomarketing autour des Location-Based Services - LBS (littéralement services personnalisés en fonction de la localisation, sans équivalent en français pour le moment ; les Québécois disent « services géodépendants»). En 2013, plus de un milliard de personnes sont équipées d’un smartphone, ce chiffre devant tripler d’ici 2017 (source Gartner). Les comportements et les relations de chacun peuvent ainsi être connus précisément (tous les appareils connectés à internet peuvent être rattachés à une position géographique relativement précise par le biais de l’adresse IP). Les opérateurs téléphoniques (et fournisseurs d’accès à internet) ont bien compris tout l’intérêt des données qu’ils collectaient via leurs antennes-relais (et leurs serveurs informatiques) : en France, plusieurs milliards d’événements sont ainsi collectés et traités chaque jour pour la seule téléphonie mobile. Les gains de productivité sur les études marketing sont immenses : repensez aux zones de chalandises évoquées tout à l’heure… (et soyez certain que le code postale de votre domicile ne vous sera bientôt plus demandé lors de votre passage en caisse !). 11 Epithète abusif pour l’époque : réalisées dans le cadre de la constitution de bases répondant aux besoins naissants de la navigation routière et dont la visibilité auprès du grand public ne surviendra qu’une grosse décennie plus tard

Page 59: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 58

Trois bonnes pratiques pour le géomarketing à l’ère du Big Data

La collecte, rien que la collecte ? D’un point de vue marketing, il est important tout d’abord de ne pas succomber au vertige du Big Data en ne se focalisant que sur la collecte de la donnée. Car les problématiques de la détection des signaux faibles ou de l’établissement de corrélations pertinentes restent équivalentes en « small » ou en « big » data. Par exemple, un opérateur téléphonique s’est aperçu que l’utilisation des smartphones de ses abonnés augmentait de façon très sensible aux abords des magasins. Inciter les commerçants à améliorer leurs référencements internet ou à soigner leurs présences dans les comparateurs de prix auraient-elles constitué à votre avis de bonnes réponses ? En creusant un peu, l’explication est un peu différente (mais tellement frappée au coin du bon sens). Les applications et sites majoritairement concernés sont ceux des éditeurs d’informations. Les personnes « meublent » en fait les temps d’attente en caisse. Vous noterez que l’information est capitale pour ces éditeurs qui se doivent proposer des contenus très résumés et accessibles d’un seul coup d’œil (ou coup de scroll du doigt) dès le premier écran. Si l’aspect qualitatif n’a pas dit son dernier mot, on sent bien que le Big Data va permettre de confirmer ou d’infirmer certaines hypothèses très facilement, quand dans des temps pas si lointains l’effort à produite était bien (trop) souvent hors d’atteinte. Ne pas se prendre les pieds dans le tapis des données personnelles Il faut être particulièrement vigilant en termes de collecte et de traitement de données personnelles. Le nom et l’adresse postale d’une personne constituent des données personnelles bien évidemment et leurs collectes ou leurs traitements doivent respecter les obligations édictées par la CNIL (Loi Informatique Libertés régulièrement actualisée depuis 1978). Idem pour les adresses IP. Et le consentement préalable (opt-in) pour les cookies est inscrit dans la transposition en France de la directive dite « Paquet Telecom » depuis avril 2012 (n’avez-vous pas remarqué que de plus en plus de sites vous posent une question ou vous propose des informations à propos des cookies déposés sur votre appareil connecté ?). Attention, anonymiser une adresse postale ou une localisation géographique ne suffit pas forcément à sortir du régime de la donnée personnelle. Par exemple, dans une zone faiblement habitée il est très simple de reconstituer à la donnée complète. Ou quelques croisements assez simples (ce qui est généralement proscrit) permettent de le faire : à la fin des années 90, une étude a démontré qu’aux Etats-Unis le triplet (genre, code postal du domicile, date de naissance) était unique pour 87% de la population. Etre transparent, rester orienté client Le géomarketing ne se démarque pas du marketing en général. Les mêmes principes doivent être appliqués, le client doit être au cœur des préoccupations. Lorsque vous

Page 60: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 59

collectez une information relative à la localisation de vos clients (ou une autre), vous devez, le faire de façon transparente, et apporter en retour un service que celui-ci appréciera (en région île-de-France, la RATP indique par exemple que la validation des passes Navigo ou équivalent désormais obligatoire à la montée en bus permet d’améliorer la qualité de service). Dans certains cas, l’amélioration de la connaissance d’un territoire par exemple, établir une collaboration ouverte pourra même être possible, de façon passive (l’analyse des traces laissées permettra de détecter des zones d’intérêt : présomptions de nouvelles routes, de nouveaux chemins) voire de façon active (une interaction volontaire, par le biais de quelques annotations simples ou permettra de recueillir des signalements qualifiés : présence ou absence d’un objet attendu, signalement d’une évolution, etc.). Et en termes de marketing direct, la géolocalisation n’est pas la martingale absolue. Si la société applaudit à deux mains lorsque la localisation du téléphone de tel ou tel suspect dans une affaire criminelle permet de dénouer l’enquête, le consommateur, lui, éteindra son smartphone s’il reçoit une sollicitation (sous forme de SMS par exemple) à chaque fois qu’il passe devant un magasin. Et le temps 4 (ou géomarketing et Big Data 2) ? Je suis résolument confiant pour l’avenir du géomarketing à l’ère du Big Data et suis convaincu que son éventuel versant sombre, le Big Brother évoqué dans le titre de cet article, ne montrera pas son visage. Bien sûr certains trébucheront, mais cela ne sera pas fatal. L’ambivalence des consommateurs sur les données numériques s’applique au géomarketing : l’enquête du Boston Consulting Group déjà cité ci-dessus indique que pour 88% des internautes l’exploitation des données via le Big Data constitue une menace pour la protection de leur identité privée. Et 63% d’entre eux reconnaissent qu’ils en retirent des bénéfices réels. Les internautes se plaignent d’être surveillés mais ils s’exposent de plus en plus sur les réseaux sociaux (selon l’Ifop, en 2013 plus de 50 % des internautes français disposent d’un compte FaceBook, plus de 20 % d’un compte Google + et plus 10% un compte Twitter). Quel sera le prochain temps du géomarketing me direz-vous ? Il sera assurément celui du web 3.0, du web des données, qui sera davantage marqué par le Big Data (mais l’appellation ne sera peut-être plus qu’un souvenir). Chaque donnée, localisée par son identifiant unique de ressource (URI), sera mise en relation avec ce qui l’entoure via des règles sémantiques : la donnée brute sera ainsi liée (linked data), augmentée, élevée (voir le projet datalift : datalift.org). Ainsi chaque chose sera localisée et son interaction avec ce qui l’entoure pourra être analysée.

Page 61: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 60

TRIBUNE DE PASCAL BUFFARD - CIGREF

Page 62: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 61

Pascal BUFFARD, Président du CIGREF

Usant de ce terme comme « argument marketing » masquant des offres déjà existantes de stockage autant que comme une véritable avancée technologique, les fournisseurs de technologies se sont emparés du Big Data. Difficile, au milieu de l’abondance de définitions divergentes, de se faire une idée précise de ce phénomène récent… et révolutionnaire ! A l’instar du Cloud Computing (informatique en nuage), le Big Data n’est pas un « projet d’entreprise », encore moins un projet informatique. Un « projet Big Data » n’existe pas. Le Big Data est une démarche transversale, qui vise l’optimisation de la prise de décision sur des questions existantes, mais aussi sur des interrogations non identifiées : un des enjeux du Big Data est de fournir des éléments de réponse à la question « quelle information dont je ne dispose pas aujourd’hui serait de nature à me permettre d’améliorer les performances de mon entreprise ? ». Une démarche de Big Data permet de mettre en avant l’information, structurée ou non, pour construire et faire évoluer sa base de connaissance stratégique. Cette démarche entre donc dans une véritable pratique décisionnelle d’entreprise.

Big Data : entre opportunité et menace pour les entreprises

Des mutations qui transforment l’entreprise Les différentes mutations – Cloud computing, Big Data, mobilité – qui sous-tendent l’extension des espaces de production de valeur, représentent une formidable opportunité de croissance pour les acteurs économiques. Elle induit de repenser la stratégie d’entreprise, et donc le modèle d’affaires autour de trois grands axes clés :

L’expérience client, L’organisation des ressources (et du travail) et les pratiques managériales, La donnée (les ressources et les flux d’informations : Open Data, Big Data),

l’information étant portée par la donnée et par les flux.

Page 63: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 62

Cette transition ne concerne pas seulement les entreprises utilisatrices, elle touche tout l’écosystème et plus largement la société : « L’espace de production de valeur s’étend désormais aux parties prenantes de l’entreprise, aux espaces sociaux, à la mobilité et au temps personnel »12. L’interdépendance des entreprises avec leur écosystème (clients, fournisseurs, société civile, …), dans un contexte global où la maîtrise de l’information tient une place centrale, est une réalité que le numérique vient renforcer. Pourquoi les entreprises ne peuvent plus ignorer le Big Data ? Un flot croissant et exponentiel d’informations hétérogènes et souvent non structurées est généré par internet via les e-mails, les réseaux sociaux, ainsi que par les smartphones, les vidéos, les photos, les satellites, … dans les entreprises et en dehors. Que faire de ces données ? Comment les gérer ? Les stocker ? Les utiliser ? Les traiter ? Quelle valeur ont-elles pour l’entreprise et les Métiers ? Les méthodes traditionnelles de traitement de l’information étaient jusqu’à présent impuissantes à donner du sens à ces volumes d’informations « dormantes ». Mais aujourd’hui, des algorithmes informatiques complexes couplés à la puissance de calcul des ordinateurs et à la capacité de certains profils à faire « parler » les données en développant l’analyse statistique (Data Analysts) ouvrent des nouveaux champs d’étude prometteurs pour nombre d’entreprises ! Ainsi, l’impact du Big Data sur le modèle économique des entreprises peut être majeur car, celui-ci pourra être remis en cause, voire menacé, par certains pure players du numérique qui demain, disposant de toutes les données, pourront investir des nouveaux secteurs d’activité… Les entreprises, quels que soient leur taille et leur cœur de métier, ont donc tout intérêt à anticiper cette révolution Big Data ! L’entreprise, et chaque métier, doit réfléchir aux usages de l’information et s’interroger sur ce qui est prioritaire pour elle : est-ce la quantité, la vélocité, la qualité des données ? Faut-il tout garder et « faire le tri » plus tard, ou bien favoriser une approche de gestion responsable de la donnée en faisant le tri en amont ?

Créer de l’information à forte valeur ajoutée

Donner du sens à la donnée, la valoriser La dimension stratégique de l’information ne fait plus de doute aujourd’hui dans les entreprises : l’information est l’actif stratégique clé ! Déjà en 1990, Bill Gates déclarait : « L’information est partout, au bout des doigts ». L’information n’est pas une « révolution » mais son traitement demande des réflexes disruptifs. Désormais, l’enjeu n’est donc plus de détenir l’information (tout le monde peut l’avoir) mais d’avoir la bonne information à tout moment et en tous lieux. Pour cela, il faut apprendre à « faire parler les données », savoir les croiser avec d’autres jeux de données internes et externes, en optimiser le traitement tant d’un point de vue quantitatif que qualitatif pour gagner – ou conserver – un avantage compétitif, le plus durablement possible. Ainsi, le CIGREF considère le Big Data comme une démarche qui consiste à extraire l’information pertinente d’un ensemble de données qui cumule Volume, Variété, Vélocité et Véracité. Le volume à lui seul n’est pas une réelle problématique, étant déjà au cœur des 12 In « L’Accéluction en action, programme international de recherche ISD : premier rapport d’étape, une mise en perspective des projets Vague A », Fondation CIGREF – Octobre 2011, p. 4

Page 64: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 63

préoccupations de nombreuses entreprises depuis longtemps. Seule la combinaison de deux ou plusieurs de ces axes correspond à une démarche de Big Data : des quantités gigantesques de données (Volume) sont publiées en continu (Vélocité), dans des formats structurés ou non, provenant de sources variées (Variété) et dont la légitimité n’est pas toujours vérifiée (Véracité). Quelques cas d’usage Les cas d’application du Big Data sont aussi nombreux que les questions qu’ils soulèvent :

Les services de santé, pour affiner la qualité des prises en charge et le suivi des patients, mais quelles limites se fixe-t-on en la matière ? Allons-nous, comme dans « Bienvenue à Gattaca », être tracé, épié, testé, vivre dans un monde où la perfection humaine est reine et où l’imperfection est mise en rebus de la société, où les futurs parents peuvent choisir à l’avance les caractéristiques physiques de leur progéniture ? Où place-t-on le curseur ?

L’éducation, pour améliorer le suivi des parcours scolaires : le secteur de l’éducation est bouleversé avec les MOOC (Massive Online Open Content), les vidéos, les réseaux sociaux, … Chaque élève génère des données (manière d’apprendre, de mémoriser, méthode, résultats, …). L’impact en termes d’évolution des pratiques d’apprentissage et d’enseignement est gigantesque : qui saura innover en matière d’éducation ?

Les banques et les assureurs, pour ajuster leurs offres et adapter leur pricing en fonction des comportements de leurs clients, mais aussi pour réaliser des études prédictives sur l’évolution des comportements des consommateurs, … Et si demain les données exploitées par les banques devenaient une matière première vendue plus chère que les produits financiers ?

L’automobile, avec la voiture connectée, embarque désormais une boite noire, obligatoire sur toutes les voitures neuves à partir de 2014 aux Etats-Unis. L’objectif de cette obligation est de réduire le nombre d’accidents. La voiture devient alors une plateforme Big Data. Demain, chaque composant clé communiquera avec le reste de la voiture, ce qui génèrera des milliards d’interactions. Ces données pourront intéresser à termes les assureurs, les sociétés d’autoroute, l’Etat, et sans doute quelques pure players du numérique qui travaillent déjà sur la voiture sans chauffeur.

En conclusion, nous pouvons dire qu’il y a eu 4 grandes époques dans l’évolution de l’humanité : l’agriculture, l’industrie, les services et l’information. Les business models de la nouvelle économie sont apparus dès 1990… alors avait-on raison trop tôt ? Les limites sont celles que l’on se fixe : entre « laisser faire » et tout réguler se trouve sans doute un juste milieu acceptable… Reste à le trouver !

Pour aller plus loin sur le Big Data En octobre 2013, le CIGREF a publié un document synthétique présentant la vision et la position des grandes entreprises sur le Big Data.

Page 65: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 64

CONCLUSION

Page 66: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 65

L’écriture de ce livre blanc, réalisé en commun par l'APROGED et l'ADETEM, a été décidée il y a plusieurs mois. Depuis, le sujet a encore pris de l'importance et c'est une avalanche d'études, articles, dossiers de toutes sortes qui sont publiées sur le sujet "BIG DATA", pour confirmer s'il en était besoin l'importance du sujet. L'ALLIANCE BIG DATA, initiative qui regroupe nos deux associations avec de nombreux autres partenaires comme Cap Digital, ADBS, GFII et l’Institut Mines Telecom, le CIGREF, l’EGE et d'autres, veut contribuer à la construction d’une vision commune et favoriser le développement de nouveaux services et projets dans le domaine du Big Data en France. Ce document s'inscrit dans ce mouvement, qui organise de nombreuses actions comme l'ouverture d’un portail institutionnel (www.alliancebigdata.com), la création d’un réseau social (alliancebigdata.jamespot.pro), la rédaction et mise à disposition de la charte éthique et Big Data (www.alliancebigdata.com), le lancement de la Big data TV en octobre 2013 avec publication d’une émission tous les 15 jours, l'organisation de conférences, etc. Ce livre blanc a voulu être la contribution de nos associations à la réflexion générale, en se fixant comme périmètre les impacts dans le monde du marketing, sachant que bien d'autres secteurs sont par ailleurs concernés par ces évolutions technologiques. Il ne prétend pas donner une vision exhaustive du sujet, mais donne un éclairage sur les principaux aspects, sur les technologies, les usages, les enjeux, risques et opportunités pour le marketing. Fin ou renouveau du marketing ? Ce titre volontairement polémique veut attirer l'attention sur la transformation profonde qui s'annonce. Il a souvent, trop souvent peut-être, été dit que le big data était le nouvel eldorado du marketing. Cette nouvelle ruée vers l'or est pleine à la fois de promesses et de dangers. Les promesses sont celles d'un marketing renouvelé, basé sur une meilleure compréhension des clients, de leurs demandes, permettant des offres plus ciblées et mieux adaptées. Tout cela est maintenant connu. Mais les dangers apparaissent aussi : à trop exploiter le filon, il risque de s'épuiser rapidement. Avertis des dangers d'une exploitation abusive des données par les affaires récentes liées aux révélations de Snowden, les abus de la NSA et en même temps lassés par des sollicitations permanentes de publicités si grossièrement ciblées dès que l'on ouvre son navigateur Internet, on commence à percevoir le risque de rejet de la part des consommateurs. Les professionnels du marketing comme ceux des technologies du big data doivent trouver le juste équilibre entre exploitation rationnelle et mesurée des données, dans le respect de la vie privée, et une sur-exploitation qui serait contre-productive et pourrait provoquer la fin, non pas du marketing, mais du big data dans le monde du marketing.

Charles Huot François Laurent Président de l’Aproged Co-président de l’Adetem

Page 67: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 66

CCOONNTTRRIIBBUUTTEEUURRSS

Page 68: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 67

Contributeurs membres Aproged

Amirhossein Malekzadeh, co-fondateur de Focusmatic Amirhossein Malekzadeh a été consultant en stratégie pendant 12 ans d’abord à l’international chez Monitor Group, puis a été associé du cabinet Alténor Consulting en France. Il a ensuite initié une transition progressive vers les start-ups technologiques en accompagnant certaines. Il a fondé Focusmatic en 2012 avec ses associés pour offrir une nouvelle génération d’outils d’aide à la décision au marketing digital. Amirhossein est diplômé de Telecom ParisTech et de l’Insead.

Bernard Normier, Consultant, expert e-réputation et opinion mining Animateur du groupe de travail « Big Data et Marketing » co-piloté par l’Aproged et l’Adetem : Bernard Normier, Vice-président Valorisation des Contenus Aproged

Patrice Poiraud, initiative Smarter Analytics & Big Data IBM Patrice Poiraud est responsable de l’initiative "Smarter Analytics" pour la filiale française d’IBM. Après avoir dirigé l'activité du distributeur de produits surgelés, Agrigel, en Bourgogne, il rejoint IBM comme ingénieur commercial et se charge du marketing Software et des divisions WebSphere et Rational (Outils de gestion du cycle de vie des Logiciels et Systèmes).

Isabelle Saladin, Perceptive Software Isabelle Saladin est une spécialiste du marketing BtoB, des technologies de l’information et du web . Occupant différentes fonctions de management en France et à l’International chez les leaders du marché (hardware et software) depuis plus de 10 ans, Isabelle a en parallèle fondé, investie et accompagné plusieurs start up du web, ce que lui permet aujourd’hui d’avoir une connaissance et une vision globale des marchés de l’IT et du web, ainsi que des risques et opportunités pour les entreprises.

Page 69: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 68

Contributeurs membres Adetem

Stéphane Billiet, Président We agency - Maître de conférences associé, CELSA Paris Sorbonne, Administrateur, Adetem Président de l’agence We agency, Stéphane Billiet est Maître de Conférences associé au CELSA Paris Sorbonne, administrateur et Past-Président de Syntec Conseil en Relations Publics et administrateur de l’Adetem. Il a publié “Les Relations Publiques. Refonder la confiance entre l’entreprise, les marques et leurs publics” aux Editions Dunod (2009)

Frédéric Cantat, chef du service du marketing de l’Institut national de l’information géographique et forestière (IGN) Frédéric Cantat a occupé différentes fonctions au sein de l’IGN depuis 1995. Après avoir été chargé de relations en BtoB ou en BtoC (il a dirigé l’agence régionale Ile-de-France, le département des grands comptes ou le site de commerce électronique de l’IGN), il dirige depuis 2009 le service du marketing de l’IGN. Frédéric Cantat a réalisé son stage de fin d’étude dans le géomarketing. Il participe actuellement au projet Datalift (www.datalift.org).

Caroline Faillet, co-dirigeante de Bolero Web Intelligence Caroline Faillet fonde sa première entreprise, Ipnoz, agence de marketing interactif en 2000 sur le campus d’HEC. Passionnée par les mouvements d’opinion qui émergent déjà sur le web, elle décide de créer avec François Pinochet en 2004 le Cabinet Bolero Web Intelligence, aujourd’hui acteur référent des études et de la veille online, ainsi que du conseil en stratégie d’influence digitale ; une reconnaissance qui s’appuie en particulier sur la Méthode Bolero® d’approche du web qu’elle a elle-même élaborée et qu’elle enseigne depuis 5 ans au Celsa-La Sorbonne ainsi qu’à HEC. Caroline Faillet met à profit sa vision et son expertise unique non seulement pour contribuer au débat sur les nouveaux enjeux des évolutions du web lors de conférences mais également auprès de dirigeants de grandes organisations.

Page 70: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 69

Hervé Kabla, de Be Angels Blogueur et polytechnicien, Hervé Kabla dirige Be Angels, agence digitale spécialiste des médias sociaux et qui accompagne les entreprises dans la déclinaison de leurs stratégies marketing et communication sur les médias sociaux. http://www.be-angels.fr/ http://www.hervekabla.com/ Hervé co-anime également avec Yann Gourvennec l'association Media Aces, qui regroupe les principales entreprises françaises utilisatrices des médias sociaux, et organise des conférences trimestrielles où les entreprises viennent apporter leurs témoignages. http://www.media-aces.org/

Elie Liberman, Expert en stratégie client au sein de MarketingCoach Diplômé en informatique et en Marketing; Expert en stratégie client au sein de MarketingCoach, a lancé ou géré plus de 16 programmes de fidélisation au niveau international. Il est également chargé de cours en CRM et en technologies appliquées au marketing dans plusieurs universités (CNAM, Leonard de Vinci, Hec Paris, Solvay Business School à Bruxelles).

Pascal BUFFARD, Président du CIGREF, Réseau de Grandes Entreprises

Page 71: Livre Blanc Big Data : fin ou renouveau du Marketing ?

Adetem / Aproged 70

www.adetem.org www.aproged.org