Le rachat de cette entreprise américaine est aujourd'hui digéré et c'est son antenne européenne, plus précisément à Amsterdam, qui assure l'essentiel du développement de Customer Decision Hub, le moteur d'IA de Pegasystems. Forte de quelque 200 personnes, cette entité fait partie des 1 350 personnes (sur plus de 4 600 au total) qui se consacrent au développement. Outre Amsterdam, les équipes de développement sont basées aux États-Unis (Cambridge, MA, Atlanta, GA), au Canada (Toronto) en Pologne (Cracovie) et en Inde (Hyderabad, Bangalore).
Vaincre les freins et les craintes
Selon le baromètre Odoxa de mars 2019 ("Intelligence Artificielle : l'inquiétude monte chez les Français"), "60 % des Français ont peur de l'intelligence artificielle" et "4 Français sur 10 ont peur que leur travail ne soit supplanté par une machine dans les années à venir". Ces chiffres hexagonaux sont confirmés par une étude menée par le cabinet Savanta pour le compte de Pegasystems auprès de 5 000 consommateurs interrogés sur l'impact de l'Intelligence Artificielle (IA) sur la morale, l'éthique et l'empathie à l'échelle internationale. Là encore, la conclusion est sans appel : les consommateurs sont toujours réfractaires à l'intelligence artificielle ; la majorité n'a pas confiance en l'IA et ne comprend pas dans quelle mesure celle-ci améliore la qualité des interactions et ce en dépit du fait qu'elle réponde partiellement à leurs attentes en termes de personnalisation.
Dans le détail, 68 % des personnes interrogées estiment que les entreprises ont une obligation morale vis-à-vis de leurs clients qui va bien au-delà de ce que prescrit la loi. Pourtant, ils sont 65 % à penser que les entreprises ne privilégient pas leurs intérêts et manquent totalement d'empathie vis-à-vis de leurs besoins individuels.
Moins de la moitié (40 %) reconnaissent que l'IA permet d'améliorer le service client et moins d'un tiers (30 %) n'est pas réfractaire à l'idée d'interagir avec une machine. Mais seuls 9 % y sont totalement réceptifs. Parallèlement, un tiers des clients sondés se disent préoccupés par la perspective de voir leurs emplois disparaitre au profit des machines et plus d'un quart (27 %) déclare que "la prolifération des robots et l'asservissement de l'homme" sont source d'inquiétude. Rob Walker, vice président, decisioning and analytics chez Pega, pointe que "les Français sont 40 % à penser que l'IA va s'accaparer le monde là où ils ne sont de 25 % dans les autres pays. Et ils sont un tiers à vouloir qu'une machine leur dise "je t'aime" !

Plus de la moitié (53 %) des personnes sondées estiment que les décisions prises par l'IA sont potentiellement biaisées. 53 % pensent également que les décisions automatisées resteront influencées par les idées et les préjugés de la personne qui a écrit le programme d'où son manque d'impartialité.
70 % des personnes interrogées préfèrent s'adresser à un conseiller et 69 % déclarent se confier avec plus de sincérité à une personne plutôt qu'à un système d'IA. Ce pourcentage passe à 86 % dès lors que l'on aborde des questions d'ordre vital. L'homme reste le contact d'interaction privilégié.
Enfin, seuls 12 % des sondés pensent que l'IA est capable de distinguer entre le bien et le mal et plus de la moitié (56 %) estime qu'il est impossible de développer des machines dotées de "sens moral". Ils sont 12 % à peine à déclarer avoir perçu de l'empathie chez une machine lors d'une interaction.
Pour toutes ces raisons, il est essentiel pour les entreprises, qui sont toujours plus nombreuses à se tourner vers l'IA, de bien comprendre la perception, les préoccupations et les préférences de leurs clients envers cette technologie afin d'obtenir leur adhésion.
Miser sur l'empathie
Pega a, à l'occasion de Pegaworld 2019, il y a quelques semaines, annoncé un produit dans ce domaine, Customer Empathy Advisor, qui est en fait une nouvelle fonctionnalité de Pega Customer Decision Hub (voir Un leader très discret). Peter van der Putten, Global Director, AI & Decisioning Solutions, explique que ce concept est large : "on met un moteur d'IA dans le système et quand on veut être empathique, il faut non seulement faire des recommandations pertinentes parce que le produit est intéressant pour le client, mais aussi qu'il correspond à ce qui lui convient. Ça va au delà de la simple vente de produits".
"L'évolution de l'intelligence artificielle passe par l'adoption de directives intégrant les considérations éthiques au sein du machine learning", précise Rob Walker. "Ainsi, les décisions prises par les systèmes d'IA dans le cadre de l'engagement client intégreraient contextuellement l'éthique et seraient considérées comme tout aussi empathiques que celles prises par un individu. Ce n'est certes pas la panacée, mais en créant une culture de l'empathie dans l'entreprise, l'IA peut être utilisée comme un puissant outil de différenciation dans un environnement très concurrentiel.
Les gens se sentent plus à l'aise pour entamer une discussion avec un conseiller et lui feront plus facilement confiance. Mais ce ne sont pas les seuls critères, ils pensent également être en mesure d'influencer sa décision, alors que ce n'est bien évidemment pas le cas. Aujourd'hui, les systèmes d'IA ne sont pas capables d'aider les entreprises à prendre des décisions basées sur le sens moral ou l'éthique. C'est là tout le problème. Pour reprendre l'exemple du prêt, outre le fait qu'une banque se doit de respecter les processus réglementaires avant de faire une offre, elle devrait aussi avoir la capacité de déterminer si sa décision est éthique et déterminer qu'elle est la meilleure option pour le client, indépendamment des intérêts financiers de la banque".

L'étude révèle aussi que les clients accepteront de placer leur confiance en un système, des applications ou autre gérés par l'IA lorsque ces derniers auront la capacité de reproduire les interactions humaines, y compris l'empathie. C'est pourquoi, il est primordial pour les entreprises de réfléchir à la façon dont elles vont intégrer le sens moral, l'éthique et l'empathie à leurs systèmes d'IA.
C'est dans ce contexte que Pegasystems a lancé il y a quelques semaines des connecteurs temps réel pour son moteur d'IA : de nouvelles API se connectent aux moteurs d'IA de Google (Cloud Machine Learning Engine) et Amazon (SageMaker) pour en ramener le résultat dans Customer Decision Hub. Ces connecteurs offriront de la souplesse aux utilisateurs et viendront complémenter l'IA de Pega avec de nouvelles possibilités de deep learning et de vision machine ainsi que de machine learning et de services NLP (Natural Language Processing).
Ces connecteurs temps réel puisent directement dans l'écosystème mondial des tout derniers algorithmes d'IA d'organisations tierces et s'intègrent de manière transparente avec les moteurs d'IA concernés en initiant un appel à service en parallèle des fonctionnalités IA natives de Pega, ce qui fournit à l'utilisateur toute la puissance des deux services en simultané.
La première vague de ces connecteurs, objets de l'annonce initiale, concernent :
- Le moteur Google Cloud Machine Learning, qui propose un accès à des modèles d'IA de pointe, dont TensorFlow et XGBoost. La disponibilité de cette API est prévue pour la fin du troisième trimestre 2019 ;
- Amazon SageMaker fournit la possibilité de construire et de déployer des modèles de machine learning sous forme de service managé. La disponibilité de cette API est prévue pour la fin du quatrième trimestre 2019 ;
- Google DialogFlow Text Analyzer propose un NLP alternatif pour construire des conversations interactives en mode texte. Elle permet d'utiliser Google NLP pour tirer parti de Pega et d'élaborer des orchestrations de données plus complexes, d'où une plus grande utilité des sessions de chat. Cette API est d'ores et déjà disponible.
Benoît Herr