LinkedIn, filiale de Microsoft Corp, a augmenté ses revenus d'abonnement de 8 % après avoir armé son équipe de vente d'un logiciel d'intelligence artificielle qui non seulement prédit les clients susceptibles d'annuler, mais explique également comment il est arrivé à cette conclusion.

Le système, introduit en juillet dernier et décrit dans un billet de blog de LinkedIn https://engineering.linkedin.com/blog/2022/the-journey-to-build-an-explainable-ai-driven-recommendation-sys mercredi, marque une percée dans la manière d'amener l'IA à "montrer son travail" de manière utile.

Alors que les scientifiques de l'IA n'ont aucun problème à concevoir des systèmes qui font des prédictions précises sur toutes sortes de résultats commerciaux, ils découvrent que pour rendre ces outils plus efficaces pour les opérateurs humains, l'IA peut avoir besoin de s'expliquer à travers un autre algorithme.

Le domaine émergent de l'IA explicable, ou XAI, a suscité d'importants investissements dans la Silicon Valley, où les start-ups et les géants du cloud computing rivalisent pour rendre les logiciels opaques plus compréhensibles, et a alimenté les discussions à Washington et à Bruxelles, où les régulateurs veulent s'assurer que les décisions automatisées sont prises de manière équitable et transparente.

La technologie de l'IA peut perpétuer les préjugés sociétaux tels que ceux liés à la race, au sexe et à la culture. Certains scientifiques de l'IA considèrent les explications comme un élément crucial de l'atténuation de ces résultats problématiques.

Les régulateurs américains de la protection des consommateurs, dont la Federal Trade Commission, ont averti ces deux dernières années que l'IA qui n'est pas explicable pourrait faire l'objet d'une enquête. L'UE pourrait adopter l'année prochaine la loi sur l'intelligence artificielle, un ensemble d'exigences exhaustives prévoyant notamment que les utilisateurs soient en mesure d'interpréter les prédictions automatisées.

Les partisans de l'IA explicable affirment qu'elle a contribué à accroître l'efficacité des applications de l'IA dans des domaines tels que les soins de santé et la vente. Google Cloud vend des services d'IA explicable qui, par exemple, indiquent aux clients qui tentent d'affiner leurs systèmes quels pixels et bientôt quels exemples de formation ont le plus compté pour prédire le sujet d'une photo.

Mais les critiques disent que les explications sur les raisons pour lesquelles l'IA a prédit ce qu'elle a fait sont trop peu fiables parce que la technologie d'IA pour interpréter les machines n'est pas assez bonne.

LinkedIn et les autres développeurs de l'IA explicable reconnaissent que chaque étape du processus - analyser les prédictions, générer des explications, confirmer leur exactitude et les rendre exploitables pour les utilisateurs - peut encore être améliorée.

Mais après deux ans d'essais et d'erreurs dans une application aux enjeux relativement faibles, LinkedIn affirme que sa technologie a apporté une valeur pratique. Sa preuve est l'augmentation de 8 % des réservations de renouvellements au cours de l'année fiscale actuelle par rapport à la croissance normalement prévue. LinkedIn a refusé de préciser le bénéfice en dollars, mais l'a décrit comme étant considérable.

Auparavant, les vendeurs de LinkedIn se fiaient à leur propre intuition et à quelques alertes automatisées ponctuelles sur l'adoption des services par les clients.

Désormais, l'IA se charge rapidement de la recherche et de l'analyse. Baptisée CrystalCandle par LinkedIn, elle signale les tendances passées inaperçues et son raisonnement aide les vendeurs à affiner leurs tactiques pour garder les clients à risque et proposer des mises à niveau aux autres.

LinkedIn affirme que les recommandations basées sur l'explication ont été étendues à plus de 5 000 de ses employés de vente, couvrant les offres de recrutement, de publicité, de marketing et d'éducation.

"Il a aidé les vendeurs expérimentés en les armant d'idées spécifiques pour naviguer dans les conversations avec les prospects. Il a également aidé les nouveaux vendeurs à se lancer immédiatement", a déclaré Parvez Ahammad, directeur de l'apprentissage automatique et responsable de la recherche appliquée en science des données chez LinkedIn.

EXPLIQUER OU NE PAS EXPLIQUER ?

En 2020, LinkedIn avait d'abord fourni des prédictions sans explications. Un score d'une précision d'environ 80 % indique la probabilité qu'un client devant bientôt être renouvelé passe à la vitesse supérieure, reste stable ou annule.

Les vendeurs n'ont pas été entièrement conquis. L'équipe qui vendait le logiciel de recrutement et d'embauche Talent Solutions de LinkedIn ne savait pas trop comment adapter sa stratégie, surtout lorsque les chances qu'un client ne renouvelle pas son contrat n'étaient pas meilleures qu'un tirage au sort.

En juillet dernier, ils ont commencé à voir apparaître un court paragraphe généré automatiquement qui met en évidence les facteurs influençant le score.

Par exemple, l'IA a décidé qu'un client était susceptible de passer à la vitesse supérieure parce qu'il avait augmenté de 240 travailleurs au cours de l'année écoulée et que les candidats étaient devenus 146 % plus réactifs au cours du dernier mois.

En outre, un indice qui mesure le succès global d'un client avec les outils de recrutement de LinkedIn a bondi de 25 % au cours des trois derniers mois.

Lekha Doshi, vice-présidente des opérations mondiales de LinkedIn, a déclaré que, sur la base des explications, les représentants commerciaux orientent désormais les clients vers des formations, une assistance et des services qui améliorent leur expérience et leur permettent de continuer à dépenser.

Mais certains experts en IA se demandent si les explications sont nécessaires. Elles pourraient même faire du tort, en engendrant un faux sentiment de sécurité dans l'IA ou en incitant à des sacrifices de conception qui rendent les prédictions moins précises, selon les chercheurs.

Fei-Fei Li, codirecteur de l'Institute for Human-Centered Artificial Intelligence de l'université de Stanford, a déclaré que les gens utilisent des produits tels que Tylenol et Google Maps dont les rouages internes ne sont pas parfaitement compris. Dans de tels cas, des tests et un suivi rigoureux ont permis de dissiper la plupart des doutes quant à leur efficacité.

De même, les systèmes d'IA dans leur ensemble pourraient être jugés équitables même si les décisions individuelles sont impénétrables, a déclaré Daniel Roy, professeur associé de statistiques à l'Université de Toronto.

LinkedIn affirme que l'intégrité d'un algorithme ne peut être évaluée sans comprendre son raisonnement.

Il soutient également que des outils comme son CrystalCandle pourraient aider les utilisateurs d'IA dans d'autres domaines. Les médecins pourraient apprendre pourquoi l'IA prédit qu'une personne est plus à risque de contracter une maladie, ou les gens pourraient être informés des raisons pour lesquelles l'IA a recommandé de leur refuser une carte de crédit.

L'espoir est que les explications révèlent si un système s'aligne sur les concepts et les valeurs que l'on veut promouvoir, a déclaré Been Kim, chercheur en IA chez Google.

"Je considère l'interprétabilité comme permettant en fin de compte une conversation entre les machines et les humains", a-t-elle déclaré.