Développement de l’intelligence artificielle Comment faire face à la « singularité » ?

Développement de l’intelligence artificielle Comment faire face à la « singularité » ?

arton78975.jpgA mesure que s’affirment les thèses de la « singularité », la discussion s’anime entre les tenants du règne technologique et les « critiques », qui demandent à voir notamment en matière d’impact sur l’environnement et le bien-être humain.

C’est le nouveau credo des grandes multinationales de la Silicon Valley. L’intelligence artificielle attire beaucoup d’intérêt et d’investissements : elle est « la ruée vers l’or du moment » écrit le site suisse //www.bilan.ch qui consacre un long papier mis en ligne en novembre 2015 dans lequel il se demande : « Faut-il avoir peur de l’intelligence artificielle ? » « Ce domaine connaît effectivement un regain d’intérêt des grandes sociétés technologiques internationales, du genre Google, Facebook, IBM et Microsoft, suivies désormais par des géants comme Toyota », ajoute ce site qui rapporte que « le numéro un mondial de l’automobile vient d’annoncer un investissement de un milliard de dollars sur cinq ans pour son nouveau Toyota Research Institute dans la Silicon Valley.

Il sera entièrement consacré à la robotique et à l’intelligence artificielle qui vont naturellement de pair ». De nombreux exemples de projets conduits par les géants de l’internet sont régulièrement évoqués par la presse spécialisée pour dénoter cet intérêt grandissant pour un nouveau domaine qui semble promettre de belles perspectives de profits tant la maîtrise des données assure une puissance à ces sociétés de l’internet qui ont tissé une véritable toile d’araignée captant toutes les données possibles et imaginables sur les usagers. « Après les semi-conducteurs, le PC, internet, le mobile et les réseaux sociaux, l’intelligence artificielle est vue par les géants de la Silicon Valley comme la nouvelle mégavague.

Parce qu’elle revitalise la robotique tout en permettant d’extraire la valeur du big data », lit-on sur bilan.ch qui voit que cette « course aux armements dans le domaine de l’intelligence artificielle est justifiée par les progrès de cette technologie longtemps demeurée décevante. Avec leurs réseaux de neurones, les technologies dites du deep learning (ConvNets, Dropout, ReLUs, LSTM, DQN, ImageNet) battent à plates coutures les performances des systèmes experts ».

Après avoir développé les différentes applications mises en avant, notamment en matière de « deep learning », le journaliste en arrive à conclure que la véritable question n’est « pas de savoir si l’intelligence artificielle pourrait nous contrôler à la façon de Skynet dans le film Terminator ou de Matrix. On en est technologiquement très loin. Par contre, la question de savoir qui va contrôler l’intelligence artificielle est essentielle. Aussi bien pour des questions de compétitivité que de choix de société ».

Il rejoint de nombreux analystes qui tentent d’apporter une réponse à cette épineuse équation à laquelle de nombreux chercheurs se sont essayés pour tenter de démêler les hypothèses posées de part et d’autre.

Les scientifiques tirent la sonnette d’alarme

Jean-Gabriel Ganascia est un universitaire français spécialiste en informatique. « Son intérêt pour les conséquences éthiques du développement des technologies de l’information et de la communication l’a conduit à publier dans plusieurs revues internationales spécialisées ainsi que dans les actes de conférences de ce domaine », lit-on sur une fiche biographique publiée par ses soins. Interrogé par le site d’information www.atlantico.fr sur certaines craintes formulées par des scientifiques sur la menace de l’intelligence artificielle, il a eu cette réponse : « Durant l’année 2015, des personnalités célèbres du monde industriel, tels Elon Musk, Steve Wozniak ou Bill Gates, et d’autres du monde intellectuel, comme Stephen Hawking ou Noam Chomsky, firent à plusieurs reprises part au public de leurs inquiétudes pour l’avenir. Selon eux, les développements de l’intelligence artificielle font courir un risque imminent à l’humanité, car l’accroissement des performances des ordinateurs conjugué à leurs capacités d’apprentissage les dotera, sous peu, d’une autonomie difficile à maîtriser. »

En écho à un débat organisé au printemps dernier, sur le thème « Faut-il avoir peur de l’intelligence artificielle ? », le site //clesnes.blog.lemonde.fr note : « Le physicien britannique Stephen Hawking, le premier, a estimé l’an dernier que le développement d’une intelligence artificielle complète pourrait mettre fin à l’humanité.

Le fondateur de Tesla et Space X, Elon Musk, l’a jugée potentiellement plus dangereuse que les bombes atomiques. Bill Gates, fin janvier, a estimé, lui aussi, qu’il y avait matière à être inquiet. » Intervenant dans ce débat, l’inventeur de PayPal, Peter Thiel, a été plus modéré, refusant de considérer que les robots seraient une source de nuisance pour l’humanité, estimant plutôt que « les craintes sont un peu exagérées », d’après ce même site. Le patron de la société de financement des start-up Y Combinator, Sam Altman, a été de la partie.

Sa société est une entreprise américaine de financement précoce de start-up, créée en mars 2005. « Y Combinator fournit un capital d’amorçage, des conseils et des mises en relation au cours de deux programmes annuels de trois mois. En échange, Y Combinator prend en moyenne 6% des capitaux de la société », nous apprend l’encyclopédie en ligne Wikipedia. Inventeur de la notion SMI (Superhuman Machine Intelligence), il a plutôt émis le vœu de voir les pouvoirs publics s’impliquer dans le débat pour imaginer des limites réglementaires pour prévenir les mauvais usages et encourager les auteurs des bonnes pratiques.

Dans une intervention à la discussion organisée au festival SxSW d’Austin, le 16 mars 2015, le patron de Google, Eric Schmindt, connu pour ses thèses « transhumanistes », n’a pas caché, quant à lui, tout son optimisme et sa conviction de voir l’intelligence artificielle rejaillir positivement sur l’humanité. Le site cité précédemment lui prête l’idée selon laquelle l’intelligence artificielle « va devenir l’une des plus grandes forces du bien dans l’histoire de l’humanité, tout simplement parce qu’elle rend les gens plus intelligents ».

La machine résoudra tous les problèmes

Abondant dans le même sens, une initiative sous forme d’un manifeste publié en janvier 2015 par le Future Life Institute a été lancée par des scientifiques soucieux de fixer des « priorités de recherches pour une intelligence artificielle robuste et bénéfique ».

Future Life Institute est une organisation associative créée par l’informaticien estonien Jaan Tallinn, cofondateur de Skype, en compagnie du professeur du MIT Max Tegmark. Elle a reçu un chèque généreux de 10 millions de dollars d’Elon Musk pour financer une étude dans ce domaine. « Elon Musk (né le 28 juin 1971 à Pretoria, Afrique du Sud) est un chef d’entreprise, ingénieur et inventeur d’origine sud-africaine naturalisé américain en 2002 et actuellement installé à Los Angeles, Etats-Unis.

Il est le PDG et directeur de la technologie de la société SpaceX, PDG, directeur architecture produit de la société Tesla Motors et président du conseil d’administration de la société SolarCity », apprend-on sur Wikipedia qui précise également qu’il « est le fondateur de SpaceX et cofondateur de Zip, PayPal et Tesla Motors ». « Il a proposé un nouveau mode de transport baptisé Hyperloop, et exposé son souhait de contribuer à la colonisation de Mars. » Cet initiative ne semble pas avoir eu beaucoup d’échos même si elle présente l’originalité d’avoir regroupé des grands noms de la recherche scientifiques avec les grosses pointures des entreprises technologiques mondiales. « Il n’est pourtant pas si courant que les plus grands spécialistes d’un secteur — universitaires et ingénieurs — alertent leurs contemporains sur son potentiel de destruction », souligne //clesnes.blog.lemonde.fr qui cite les propos du « professeur de Berkeley Stuart Russell, directeur du Center for Intelligent Systems et co-auteur du manuel qui fait autorité dans le domaine (Artificial Intelligence : A Modern Approach) », qui voit en cette menace un danger « comparable à celui du nucléaire », d’après la même source.

Le temps de la réflexion

« Il y a beaucoup de domaines dans lesquels on tenait pour acquis qu’on ne réussirait pas de notre vivant, résume Max Tegmark. Maintenant les gens se disent : attention, on va peut-être réussir », avance ce même site qui attire l’attention sur les possibles dangers que pourrait effectivement constituer l’intelligence artificielle qui « a le même potentiel de destruction que le nucléaire dont des décennies plus tard, l’humanité essaie toujours de contenir les dangers », selon les termes du professeur Stuart Russel qui a également indiqué dans un entretien téléphonique : « Comme les physiciens nucléaires et les généticiens avant eux, les chercheurs de l’intelligence artificielle doivent se préparer à l’idée que leurs recherches pourraient aboutir et faire en sorte que les résultats soient bénéfiques à l’espèce humaine. »

En tout et pour tout, l’initiative a pu regrouper quelque 5.000 signatures « dont la plupart des sommités du domaine », précise le site qui fait dire au professeur du MIT Max Tegmark qu’il s’agit là d’un « signe qu’une culture de responsabilité est en train de se développer dans la communauté de l’intelligence artificielle elle-même ».

La liste des signataires comprend une cinquantaine de cadres ingénieurs de chez Google, même si le patron Eric Schmindt y est absent. « Autres signataires : le responsable de la recherche de Microsoft, le directeur de l’intelligence artificielle de facebook, l’équipe du super-ordinateur Watson d’IBM, les trois cofondateurs de DeepMind, le laboratoire d’intelligence artificielle racheté par Google, et Elon Musk », indique //clesnes.blog.lemonde.fr qui relève dans cette liste « même des transhumanistes, ainsi que Vernor Vinge, l’inventeur du mot singularité (le moment où l’intelligence humaine sera dépassée par celle des machines »).

Le site www.usine-digitale.fr a consacré un long développement pour « les industries de la singularité », dans une contribution du consultant en médias numériques Olivier Ezraty, mise en ligne le 15 juin 2015. D’après la thèse de la singularité, écrit-il, « à un moment situé aux alentours des années 2030-40, l’homme aura réussi à créer des machines dotées d’intelligence artificielle supérieure à l’équivalent humain. Il sera même potentiellement dépassé par ses propres créations s’il n’arrive pas à les contrôler. On retrouve la thèse dans divers ouvrages tels que Superintelligence de Nick Bostrom et Creating a mind de Ray Kurzweil.Et c’est très bien vulgarisé ici. Pour les plus hardis, cela signifierait la fin de l’espèce humaine ou, dans le meilleur des cas, celle du travail ». Sans prendre parti dans le débat entre les tenants d’un pouvoir magique de la technologie et les « techno-pessimistes », l’auteur du papier estime que même si « cela relève d’un mélange de prospective, de science et d’économie fiction, il n’en reste pas moins que de nombreux projets de recherche et industriels se situent déjà dans cette trajectoire. Leur impact sera probablement bien plus important sur notre vie et sur l’économie que les actuelles uberisation, nestification ».