"Business Intelligence, Big Data, SmartData : apports des traitements in-memory dans le cloud. Pour quelles entreprises ? Quelles applications ? Quels bénéfices ? À quel prix ?" : à partir de cet intitulé à multiples facettes, une table ronde du salon Cloud Computing World Expo a mis en lumière la complémentarité de ces différentes technologies.
Les traitements massifs en mémoire sont devenus possibles grâce à l'évolution des technologies et la baise des coûts : généralisation des processeurs 64 bits et des multi-cœurs, baisse du prix de la mémoire. "Cela donne la possibilité aux utilisateurs de faire des choses qu'ils ne faisaient pas avant", explique Emmanuel Lartigue, consultant analyste au CXP, qui identifie trois types de solutions :
- les "appliances" qui combinent du logiciel et du matériel permettent d'aller très vite ;
- les solutions purement logicielles ;
- et les applications de type Qlikview qui compilent les données et les traitements et les mettent en mémoire.
C'est du côté des bases de données que les évolutions ont été les plus décisives. En effet, comme les bases de données relationnelles ne sont pas adaptées aux suites décisionnelles, celles-ci s'appuient sur des bases de données organisées par colonnes, qui simplifient les traitements. Mais les données sont souvent représentées des deux manières en mémoire et les requêtes SQL peuvent être faites sur les deux représentations.
Parallèlement, d'autres technologies innovantes arrivent. "Intel a sorti un processeur avec une instruction multi-données, qui s'applique à 30 ou 40 données", signale Philippe Bournhonesque, directeur stratégie software chez IBM France.
Des solutions variées qui bénéficient de la puissance du cloud
"Qlikview a été la première solution BI en mémoire : elle a bouleversé le marché, explique Romain Chaumais, directeur du développement chez Ysance, qui intègre cette solution depuis 9 ans. L'utilisation de la BI in-memory n'a rien à voir avec la BI sur disque. Au lieu d'attendre les résultats pendant plusieurs minutes, l'utilisateur a la main, il pose des questions et reçoit les réponses en un instant : il peut exercer son intelligence sans limite."
"Nous vivons dans un monde hybride, constate Jean-Michel Jurbert, directeur de marché pour les bases de données et technologies chez SAP France. Notre solution de base de données en mémoire HANA est disponible à la fois on-premise et dans le cloud et nous avons des accords avec neuf partenaires technologiques pour les infrastructures à base de composants Intel et de RAM. HANA peut être administré par SAP ou par les utilisateurs. Et nous fournissons aussi des applications prépackagées. Mais tout ne doit pas être en mémoire : la mesure de la criticité des données détermine ce qui doit être en mémoire et ce qui peut rester sur disque."
Mettre la BI et les traitements en mémoire dans le cloud est une solution alléchante : les performances sont les mêmes qu'en on-premise et la mémoire disponible est bien plus importante, ce qui présage d'un avenir prometteur pour cette stratégie en pleine évolution : "la prochaine étape sera la BI dans le cloud en cluster, qui permettra de répartir, par exemple, 4 téraoctets en plusieurs morceaux de 400 gigaoctets sans index et sans données inutiles", prédit Romain Chaumais.
Une révolution dans l'exploitation des données et des usages
L'énorme masse de données disponibles dans le cloud change fondamentalement les usages à la fois commerciaux et personnels. "Tout le monde doit pouvoir tirer parti du cloud et pouvoir être assisté dans sa prise de décision", déclare Jean-Michel Marcastel, PDG de la société suisse Isle Consultants. Les commerçants électroniques, comme Amazon, examinent régulièrement les produits les plus regardés et proposent des achats complémentaires à leurs clients, ce qui génère 30 % de chiffre d'affaires complémentaire. "C'est une industrialisation du commerce et de la consommation", ajoute-t-il.
Ainsi, les réponses instantanées aux recherches sur Internet et les anticipations comme l'auto-complétion des recherches Google sont devenus la norme. "Mais elles ne sont possibles que si le traitement se fait en mémoire, affirme Emmanuel Lartigue. Les entreprises veulent disposer des mêmes services et donc mettre en œuvre une collecte de données très rapide. Grâce au streaming, elles peuvent récupérer les humeurs et les dernières requêtes dans les réseaux sociaux et les forums."
"Le big data ne doit pas être réservé aux grandes entreprises, insiste Jean-Michel Marcastel. Mais elles ne peuvent pas payer le même prix : les 'appliances' ne sont pas pour elles." Pour résoudre ce dilemme, elles peuvent avoir recours à des solutions du cloud, ainsi que le décrit Philippe Bournhonesque : "il faut extraire les données de l'entreprise, les remonter dans le cloud, les traiter puis les mettre à disposition de l'entreprise."
Évolution des pratiques et nouvelles applications
Au-delà de l'effet accélérateur des traitements en mémoire, ceux-ci constituent un tremplin pour l'innovation, ce que SAP a mis en œuvre au travers d'un programme de start-up autour de HANA, qu'elle leur met à disposition dans le cloud : "nous avons un partenariat avec Amazon pour proposer la plate-forme HANA aux start-up partenaires", explique Jean-Michel Jurbert.
L'un des effets de ces nouveaux moyens est de pousser les entreprises à passer du reporting maison à l'analytique : pour cela, elles doivent croiser les données internes avec des données externes, ainsi que le montre Emmanuel Lartigue : "dans cette masse de données, pour effectuer des recherches poussées, comme celles du non-événement, les traitements en mémoire s'imposent car il s'agit de données temporaires. Dans ce but, les entreprises font appel à des infrastructures extérieures."
Des applications existantes deviennent plus performantes et de nouvelles applications voient le jour dans des métiers variés : analyse du comportement des consommateurs, détection de fraudes, recherche de crimes, identification génomique. Toutes bénéficient de facilités de visualisation instantanée.
Les technologies sous-jacentes sont le plus souvent issues du monde Open Source : "dans le Big Data, Hadoop est utilisé à 95 %, assure Romain Chaumais. C'est le Linux du Big Data. S'y ajoutent des outils qui permettent d'accélérer les traitements comme Storm, Impala ou Spark." Mais d'autres technologies existent, comme celles qui permettent de lancer des requêtes http et non pas SQL dans le Web. "Le streaming permet de récupérer et d'analyser des grosses quantités de données à la volée, indique Philippe Bournhonesque. Chez PSA, un véhicule connecté analyse une grande quantité de messages en temps réel, comme celles provenant du GPS, contribuant par exemple à l'analyse du trafic." Ce type d'analyse aide aussi à la prévision des anomalies.
Des tarifs en baisse, qui s'adaptent à la demande
Les services du cloud deviennent de plus en plus abordables. "Chez IBM, le gigaoctet est facturé actuellement 76 centimes d'euro de l'heure", annonce Philippe Bournhonesque. "Chez Amazon, un téraoctet coûte 1000 dollars par an", précise Romain Chaumais. Chaque acteur du cloud propose des tarifs détaillés, adaptés aux besoins de chaque utilisateur. Dans le domaine des applications disponibles dans le cloud, les tarifs ont beaucoup baissé. Par exemple, selon Philippe Bournhonesque, "l'identification génomique est descendue aujourd'hui à 1000 $ et va encore baisser".
Des technologies prometteuses... qui nécessitent un engagement
Les experts affichent un optimisme à toute épreuve dans ces nouvelles opportunités. Emmanuel Lartigue encourage les entreprises à quitter le reporting de base et à tenter l'analytique : "vous apprendrez en marchant", assure-t-il. S'inspirant de Philippe Nieuwbourg, Jean-Michel Jurbert insiste sur la "volonté" d'aller de l'avant, ajoutant un 'v' aux autres 'v' du Big Data (vitesse, variété, volume, visualisation). "Il faut accepter de changer de paradigme", ajoute Philippe Bournhonesque. "Ces nouveaux projets sont disruptifs : les anciens systèmes deviennent historiques" confirme Jean-Michel Marcastel. "Quand on a goûté au Big Data, on ne peut plus s'en passer", conclut Romain Chaumais.
René Beretz