Une enquête d'envergure mondiale menée par l'institut de recherche indépendant Vanson Bourne pour le compte de Teradata a mis en évidence des obstacles considérables pour les entreprises désireuses d'exploiter la "data intelligence" à l'échelle de leur organisation. De nombreux dirigeants se sont accordés pour dire que leurs investissements dans des solutions analytiques ne leur apportaient pas nécessairement les réponses espérées. L'enquête, menée aux mois d'août et septembre 2018 auprès de 260 décideurs seniors des secteurs commercial et informatique en Amérique, en Europe et dans la zone Asie-Pacifique, a concerné des entreprises de plus de 1 000 employés issues du secteur public ou privé et affichant un chiffre d'affaires mondial de 250 millions de dollars par an ou plus.
Les trois défis fondamentaux auxquels les dirigeant font face pour développer le recours aux moyens analytiques au sein de leur entreprise sont :
- Une technologie analytique trop complexe : près des trois quarts (74 %) des dirigeants interrogés ont estimé que les technologies analytiques de leur entreprise étaient complexes et 42 % d'entre eux ont même indiqué qu'elles n'étaient pas faciles à comprendre et à utiliser pour leurs employés ;
- Les utilisateurs n'ont pas accès à toutes les données dont ils ont besoin : 79 % des répondants ont affirmé avoir besoin d'accéder à davantage de données d'entreprise pour faire leur travail efficacement ;
- La rareté des experts en données, qui représente un goulet d'étranglement : seulement 25 % des répondants ont affirmé qu'au sein de leur entreprise les décideurs des stratégies et des métiers disposaient des compétences requises pour accéder aux renseignements issus de l'analyse de données et les exploiter sans avoir besoin d'un expert en données.
De quelles données parle-t-on ?
Dans ce contexte, il convient de définir les données dont on parle. Si les données structurées n'ont pas disparu, elles ne sont plus majoritaires et les sources de données se sont multipliées. Patrick Rohrbasser, directeur général de Veeam France, rappelle que les données système ont leur importance. Eric Chicha, directeur des services chez Dell-EMC France, souligne quant à lui que la donnée sans traitement n'a aucune valeur et insiste sur les nouveaux usages. "Dans le domaine automobile, par exemple, un véhicule connecté peut avoir jusqu'à 1 500 points de mesures à la minute, ce qui est quand même assez important. Les constructeurs exploitent déjà aujourd'hui ces données pour les monétiser au travers de systèmes d'assistance à la conduite. Une voiture de test peut générer jusqu'à 70 To de données par jour, dont 40 à 50 % sont de la vidéo".
"Les machines génèrent des données, mais les nouveaux services et les nouveaux usages aussi", ajoute Marie-Luce Picard, head of business consulting & data science chez Teradata France. "Une centrale nucléaire, par exemple, ce sont 10 000 capteurs. On assiste à l'explosion de la variété de données, dont il faut chercher à avoir une vision globale".
Gabriel Ferreira, responsable technique chez Purestorage France, rappelle que 90 % des données existant dans le monde n'ont pas plus de deux ans d'existence et que la grosse masse de ces données est crée par des machines. "Il y a de nombreuses sources de données, y compris les données de sauvegarde et d'historique".
Julien Lepine, responsable solutions architects EMEA chez AWS, estime qu'ils hébergent trois types de données : les données consommateurs, les données Open Data et les données d'entreprises, notamment celles liées à l'industrie 4.0. "Toutes ces données sont centrées sur l'ouverture et appuient la transformation des métiers et des modèles d'affaire en cours".
Fabien Gautier, directeur marketing d'Equinix France, constate que "lorsque nous hébergeons de nouveaux acteurs, la première réflexion est 'comment optimiser l'existant' et non 'comment créer de nouvelles données'. Ces acteurs utilisent d'ailleurs souvent le datacenter pour faire des PoC (Proof of Concept)".
En résumé, alors qu'on opposait autrefois les données structurées aux données non-structurées, aujourd'hui les deux grandes catégories de données sont devenues celles générées par les humains et celles générées par les machines.
Que change le "data centric" ?
Pour Marie-Luce Picard, "être 'data centric', c'est mettre la donnée au cœur des décisions de l'entreprise". Et de citer Enedis avec Linky ou certains avionneurs, comme Airbus, qui se voit proposer de nouveaux services de maintenance prédictive, ou encore Siemens, qui a amélioré la ponctualité de la ligne ferroviaire Madrid-Barcelone. "On voit bien qu'il y a une évolution des modèles d'affaires grâce à la donnée". Elle rappelle les résultats de l'étude évoquée plus haut, selon laquelle 79 % des dirigeants déclarent avoir besoin de plus de données.

Eric Chicha évoque les nouveaux usages et les nouveaux services dans son domaine de prédilection, celui de l'automobile, dont une plate-forme d'échange de données entre constructeurs au niveau européen. "On est centré sur la donnée et sur la standardisation de la donnée. Et son usage évolue et génère de nouvelles problématiques, de confidentialité en particulier, par exemple les données de géolocalisation".
Julien Lepine cite l'exemple de la mutuelle Smatis, qui a changé de modèle. Après avoir utilisé AWS pour son plan de reprise d'activité, l'entreprise s'est rendu compte des potentialité du cloud. Elle a alors créé une plate-forme SaaS sur la base de son logiciel cœur de métier lui permettant de dialoguer avec ses clients. "En se recentrant sur son cœur de métier, Smatis a réussi à générer de la valeur et un vrai avantage concurrentiel", constate Julien Lepine.
Un autre aspect est que la DSI peut redevenir un centre de profit grâce à la donnée. Fabien Gautier cite les exemples de Caterpillar et de La Poste en la matière. Mais pour Patrick Rohrbasser, il est nécessaire de construire sur l'existant et de le protéger.
Comment traiter toutes ces données
Marie-Luce Picard évoque la notion de donnée froide et de donnée chaude. "Mais 80 % des besoins de nos clients restent encore de la BI traditionnelle". Puis elle brosse le portrait du "Data Scientist" idéal, sorte de mouton à cinq pattes impossible à dénicher. Elle rappelle l'enquête évoquée plus haut, qui met notamment en évidence le manque d'experts en données, goulet d'étranglement empêchant l'exploitation de la "data intelligence" dans l'ensemble de l'entreprise. Un problème directement dû à la complexité des technologies utilisées pour les répondants.
Patrick Rohrbasser insiste également sur l'importance des ressources humaines et des compétences en la matière. Il rappelle aussi le caractère fini de ces ressources. De son côté, Julien Lepine estime qu'il faut passer d'un monde d'efficience à un monde d'efficacité. Et de prôner l'agilité et DevOps. Il cite le cas d'Aramis Auto, qui a 300 To de données sur AWS et qui a souhaité développer des fonctions pour une vision en quasi-temps réel des utilisateurs. "Aujourd'hui, 1,5 seconde après la visite d'un utilisateur sur leur site, ils sont capables de tracer cette visite et d'en prévoir la suite, mais aussi d'entreprendre des actions comme des promotions par exemple si l'internaute a quitté le site". Ce développement a été réalisé en cinq jours.
Cet exemple résume à lui seul les nouvelles manières de traiter les nouvelles données qui nous arrivent.
Benoît Herr