Intelligence Artificielle : Ou comment faire jouer à l’humain le rôle d’un «chatbot»

Intelligence Artificielle : Ou comment faire jouer à l’humain le rôle d’un «chatbot»

Dans le domaine de l’intelligence artificielle (IA), les défis techniques sont tels que le recours aux humains pour faire le travail d’un «chatbot» (agent conversationnel), par exemple, est devenu assez courant. C’est la formidable histoire que rapporte le journal britannique The Guardian.

Sous le titre «La montée de la pseudo-IA : comment les entreprises technologiques utilisent tranquillement les humains pour faire le travail des bots», The Guardian explique comment cette pratique, loin d’être marginale, est utilisée aussi bien par des start-up que par des grands noms du Web. «Il est si difficile de construire un service alimenté par l’intelligence artificielle (…) que certaines start-up ont recours, car moins cher, à des humains pour se comporter comme des robots que de faire en sorte que les machines se comportent comme des humains», rapporte l’article. Le «recours à un humain pour faire le travail d’un «chatbot» permet de passer outre un certain nombre de défis techniques», explique Gregory Koberger, P-dg de ReadMe, qui dit avoir beaucoup rencontré cette pratique de «pseudo-IA». «Il s’agit essentiellement de prototyper l’IA avec des êtres humains», a-t-il ajouté. Selon The Guardian, cette pratique a été découverte «dans un article du Wall Street Journal mettant en évidence les centaines de développeurs d’applications tiers auxquels Google permet d’accéder aux boîtes de réception de Gmail». C’est le cas de la société Edison Software, dont les ingénieurs en IA «ont pu passer en revue les e-mails personnels de centaines d’utilisateurs – aux identités affichées – pour améliorer une fonctionnalité de réponses intelligentes». Et c’est loin d’être une première, selon l’article qui rappelle qu’en 2008, «Spinvox, une entreprise qui convertissait les messages vocaux en messages texte, était accusée d’utiliser des humains dans des centres d’appels étrangers plutôt que des machines pour faire son travail». Plus récemment, en 2016, Bloomberg rapportait «le sort des humains qui passent 12 heures par jour à faire semblant d’être des chatbots pour des services de planification de calendrier tels que X.ai et Clara», ajoute The Guardian. «En 2017, l’application de gestion des dépenses d’entreprise Expensify a admis qu’elle utilisait des humains pour transcrire au moins une partie des recettes qu’elle prétendait traiter en utilisant sa «technologie smartscan». Les scans des recettes étaient envoyés à l’outil de main-d’œuvre crowdsourcing Mechanical Turk d’Amazon, où les travailleurs mal payés les lisaient et les transcrivaient», rapporte encore le journal britannique.

L’humain pour «améliorer la précision»

Même Facebook n’échappe pas à cette pratique. La société «qui a beaucoup investi dans l’IA, a fait appel à des humains pour son assistant virtuel pour Messenger, M». Les recours à un «calibrage» humain est souvent utilisé pour «entraîner le système AI et améliorer sa précision». «Une entreprise appelée Scale propose une banque de travailleurs humains pour fournir des données d’entraînement pour les voitures autonomes et d’autres systèmes alimentés par l’IA», rapporte The Guardian. Leur rôle est de «regarder les signaux de la caméra ou du capteur» et «marquer les voitures, les piétons et les cyclistes sur l’écran». «Avec suffisamment de calibrage humain, l’IA apprendra à reconnaître ces objets par elle-même.» Si le recours aux humains est parfois transparent, dans d’autres cas, «les entreprises font semblant de développer une technologie IA évolutive» alors qu’elles se basent «secrètement sur l’intelligence humaine». «Souvent quand il s’agit d’IA, il y a une personne derrière le rideau plutôt qu’un algorithme», affirme Alison Darcy, psychologue et fondatrice de Woebot, un chatbot de soutien en santé mentale, rapporte le journal.

A. Z.