Présentation :

Denis a développé une expérience professionnelle mixte à deux titres : entre conseil et responsabilité opérationnelle (banque et assurances), entre expertise métier et expertise big data.

Denis intervient aujourd’hui auprès de l’institut Mines Telecom pour monter des projets  de recherche innovation big data entre industriels et chercheurs, s’appuyant notamment sur la plateforme big data Teralab. Il développe en parallèle le cabinet Mémorandum qui intégre directement techniques de machine learning et  conseil en management.

  1. Quelles sont les principales innovations qui vous ont le plus intéressées/impressionnées ces derniers mois?

La serrure connectée de La Poste, PostAccess, fait entrer un emblème du monde traditionnel dans le monde numérique. Au-delà du symbole, il y a un gisement de services associés à développer que j’ai encore du mal à imaginer. Il y a également le « motion microscope » qui a la capacité d’extraire de vidéo haute définition des informations à peine imaginable : rythmes cardiaques, reconstitution de bandes son sur la base des vibrations des feuilles de plantes ou de paquet de chips.

  1. On peut lire un peu partout actuellement que le futur du marketing est dans la maîtrise de la data ? Qu’est-ce que cela vous inspire ?

Le marketing quantifie probablement ses décisions depuis toujours. Il y a cependant bien une transition en cours.

L’usage initial porte sur des chiffres de synthèse (les grandes masses, les tendances, ..) pour démontrer la rationalité d’une décision globale auprès de sa hiérarchie (lancer une campagne par exemple).

L’usage actuel est lié à un usage extensif des données de détail qui actionnent directement les leviers à des niveaux très fin : contacter tel client, avec tel argumentaire, par tel canal. La moyenne ou le « portrait chinois » ne servent plus à rien.

Ce changement en induit d’autres. Le marketing perd la main sur les décisions de niveau intermédiaire. Cela renforce les besoins aux deux extrémités de la chaine managériale.

D’abord caler avec beaucoup plus d’attention le cadre d’action : limiter la latitude de l’algorithme (définir des fréquences de contact minimum et maximum par exemple), touchant à l’identité de la marque.

Ensuite renforcer l’autonomie des personnes au contact du client, quel que soit le canal. L’enjeu pour le commercial est moins de suivre à la lettre des recommandations automatiques que de tracer précisément ce qu’il fait pour enrichir le moteur prédictif mis à sa disposition.

Améliorer la performance de ses process avec la data est essentiel. Rendre de la valeur au client qui produit la donnée est tout aussi important, mais ce réflexe est encore peu répandu. J’attends encore que ma banque me recommande des commerces quand je voyage en analysant les transactions des gens qui me ressemblent.

Autre changement important, la donnée devient une source d’action par elle-même. Il peut même être tentant de mettre la donnée au centre, transformant le client en simple producteur. Deux questions sont importantes pour aborder ce point :

  • de quels acteurs puis je devenir le cauchemar avec les données dont je dispose,
  • de quels acteurs dois-je me méfier sur mon activité actuelle à cause des données dont ils disposent

A contrario certains réflexes plus anciens deviennent moins utiles : segmenter  les clients (chaque action a déjà son score), développer une « connaissance client 360 » (en tant que connaissance indépendante de décision d’action), …

  1. L’émergence de nouveaux métiers comme les data scientists n’occulte-t-elle pas les vraies questions que doivent se poser les entreprises quant à leur business model? Ou est-ce une nécessité pour elles d’engager ce type de profils pour achever leur transformation numérique?

Le marketing du « big data » a deux effets contradictoires.

Le premier est d’inciter à une exploitation accrue des données, comme un effet de mode, tendance plutôt positive.

Le deuxième effet est le sentiment que seul un datascientist ou un mathématicien chevronné peut faire des analyses prédictives. Recruter ces oiseaux rares est perçu  comme une priorité alors que l’algorithmique devient une commodité : les plus performants sont disponibles gratuitement dans les logiciels open source. L’intelligence à déployer est aujourd’hui moins dans l’invention d’algorithmes sur mesure que dans  l’art de poser de bonnes questions et dans la créativité de traitement amont des données. Ce dernier volet relève plus d’une expertise métier qu’informatique …

Retrouvez la suite de cette interview dans notre livre en cliquant ici