21 avril 2018

Le Coin des Tendances du 21 avril 2018

L’intelligence artificielle est-elle intelligente ?

La révolution industrielle a permis à l’homme de démultiplier ses forces physiques. Les machines lui ont permis de soulever des charges de plus en plus lourdes, de se déplacer de plus en plus vite et de réaliser des tâches fastidieuses et répétitives dans un temps plus court et avec moins d’effort. Avec l’informatique, l’homme s’est attaché à effectuer de manière automatique et scientifique des tâches intellectuelles. Avec l’accroissement des puissances de calcul des ordinateurs et leur interconnexion ainsi qu’avec la mise en place d’algorithmes de plus en plus sophistiqués, les capacités de résolution des problèmes se sont accrues de manière exponentielle.

Thème à la mode, depuis quelques temps, l’intelligence artificielle trouve sans nul doute ses origines dans les travaux du philosophe Leibniz qui voulait retranscrire la pensée humaine en ayant recours à des équations et des symboles. Elle prit un tour plus concret durant la Seconde guerre mondiale avec notamment la machine Enigma inventée par l’Allemand Arthur Scherbius sur la base d’un brevet néerlandais de 1919. Si les premiers travaux sur l’ordinateur, en tant que machine de traitement de l’information programmable, commencent dès les années 30, son usage intervient au cours de la guerre notamment pour calculer les trajectoires balistiques (création de l’ENIAC en 1941).

Le concept d’intelligence artificielle naît à l’occasion d’une conférence qui se tient sur le campus de Dartmouth College sur la côte Est américaine. Cette réunion déboucha sur l’engagement de recherches ayant pour objectif de créer en moins une génération une machine aussi intelligente que l’homme. Les fondateurs de cette discipline s’appelaient alors John McCarthy, Claude Shannon, Marvin Minsky et Nathan Rochester. Les initiateurs de cette conférence s’appuient sur le fameux test de Turing. Le mathématicien et cryptologue, Alan Turing (qui a déchiffré les codes de la machine Enigma et changé le cours de la Seconde Guerre mondiale) a établi un test permettant d’évaluer « l’intelligence » d’une machine en fonction de sa capacité à mener une discussion. Les années soixante avec le succès de la science-fiction, avec le programme de conquête de la lune, donnèrent lieu à de nombreux projets qui rapidement ont tourné court. Les aficionados de l’intelligence artificielle furent obligés de reconnaître que le cerveau humain par sa complexité, ne pouvait pas être détrôné par une vulgaire machine.

Dans les années 80, le développement des microprocesseurs redonnent espoirs aux adeptes de l’intelligence artificielle. Cofondateur de la société Intel, Gordon Moore avait déclaré, en 1986, que le nombre de transistors par circuit de même taille allait doubler, à prix constants, tous les ans. Il rectifia par la suite en portant à dix-huit mois le rythme de doublement. Il en déduisit que la puissance des ordinateurs allait croître de manière exponentielle, et cela pour des années. Sa loi s’est révélée exact même si certains considèrent que les marges de manœuvre du fait de la petitesse extrême des microprocesseurs limitent à terme les gains de puissance. Certes, le développement des ordinateurs quantiques pourrait redonner pour plusieurs décennies tout son lustre à la loi Moore. Les smartphones sont aujourd’hui plus puissants que les ordinateurs de guidage du programme Apollo.

Aux Etats-Unis, le centre de recherche Ames de la Nasa héberge un ordinateur quantique prototype, le D-Wave 2X, qui s’est révélé plus de 10 puissance 8 fois plus rapide qu’un ordinateur classique de même facture. Le D-Wave fait en une seconde ce qui prendrait 10 000 ans à un ordinateur conventionnel. Un des premiers ordinateurs, en 1938, réalisait une opération par seconde quand le Taihulight Sunway chinois est capable de traiter 93 millions de milliards d’opérations par seconde. En 80 ans, la puissance de calcul a été multipliée par cent millions de milliards. D’ici trois ans, des machines pourraient mener un milliard de milliards d’opérations à la seconde.

Avant même l’avènement de l’ordinateur quantique, la machine a symboliquement supplanté l’homme. Ainsi, en 1997, l’ordinateur Deep Blue bat Gary Kasparov, alors champion du monde des échecs. Le supercalculateur de Google, AlphaGo, a, en 2016, réussi à battre le grand maître sud-coréen Lee Se-dol par quatre parties. En 2017, il remporta trois victoires face au numéro un mondial Ke Jie âgé de 19 ans. Par rapport aux échecs, le jeu de Go offre un nombre incalculable de configurations possibles et son déroulement obéit à des concepts stratégiques, la créativité et l’intuition étant jugées des éléments clefs de la victoire à ce jeu.

De la révolution Internet au « deep learning »

De 1960 à 2010, l’informatique repose sur des programmes fondés sur des algorithmes permettant de résoudre certains problèmes en jouant sur la vitesse de traitement et la capacité à intégrer des données de même nature. Le développement du réseau Internet permet une homogénéisation des informations, la fameuse digitalisation, et l’interaction des ordinateurs. La capacité à numériser rapidement des données de nature différente et donc à pouvoir effectuer des tris permet à l’informatique de passer un palier. La phase deux de l’intelligence économique, appelée « deep learning », est liée à la capacité croissante des machines à sérier les données et à affiner par apprentissage ou plutôt par accumulation, les résultats. Plus l’ordinateur reçoit de données, plus il s’améliore d’où le terme d’apprentissage. Les détenteurs de bases de données sont les grands gagnants de ce système ; elles leur donnent un avantage comparatif important. Plus le volume de données est important, plus l’ordinateur, dans la limite de sa puissance, est « intelligent ». En 2012, après avoir ingéré des millions de capture d’écran de You Tube, le logiciel Google Brain a su distinguer un chat d’un être humain, sans avoir été programmé pour cela.

Les ordinateurs peuvent désormais rédiger des rapports simples (dépêche sur les résultats électoraux, sur les résultats boursiers). Ils peuvent également réaliser des rapports précis sur des radiographies de patient avec un risque d’erreurs plus faibles qu’un radiologue. De même, la capacité à gérer un nombre exponentiel de données est à la base du développement des voitures autonomes. Mais, en la matière, leurs promoteurs ont communiqué certainement trop rapidement. Les récents accidents soulignent que le passage à une société de voitures sans pilotes ne sera pas facile. En effet, l’ordinateur éprouve des difficultés à répondre à l’imprévu. Par ailleurs, la cohabitation entre voitures autonomes et voitures avec conducteurs est complexe, l’ordinateur devant alors gérer de l’émotionnel. Enfin, la voiture sans pilote devra faire face à des problèmes d’éthique. En cas de problèmes techniques ou de collision incontournable, l’ordinateur pourrait être amené à opter entre, par exemple tuer trois personnes se situant devant la voiture ou sacrifier les passagers. Quels seront les critères retenus et est-ce que les passagers seront mis au courant ?

L’intelligence artificielle de troisième génération devrait permettre à l’ordinateur d’être doté d’une mémoire contextuelle et adaptative ainsi que de transversalité au niveau du raisonnement. Aujourd’hui, les assistants virtuels comme Siri ou Google Home, restent assez frustres. Les scripts sont préconçus et très verticaux. Le propriétaire de l’assistant demande une information ou la réalisation d’une action simple à son assistant. Il a avant tout accès à une banque d’informations importante. Certes, au niveau bancaire, des chabots répondent désormais aux clients en ce qui concerne des requêtes simples, situation de comptes, commandes de chéquiers, etc.

Pour certains chercheurs, cette capacité pourrait être atteinte d’ici 2030. Enfin pour les adeptes de science-fiction, l’intelligence de quatrième génération sera celle de la conscience, de la prise en compte des sentiments et de la compréhension de la portée des raisonnements.

Les enjeux économiques de l’intelligence artificielle

L’intelligence artificielle est un terrain de concurrence entre les entreprises américaines et les entreprises chinoises, d’un côté le GAFAM (Google, Apple, Facebook, Amazon et Microsoft auquel on peut ajouter IBM ; de l’autre BATX (Baidu, Alibaba, Tencent et Xiaomi). En 2017, la Chine a annoncé son intention de consacrer plus de 150 milliards de dollars pour créer une industrie spécialisée dans l’intelligence artificielle d’ici 2030. Cette annonce est intervenue afin de contrer les grandes multinationales américaines qui ont décidé de développer leurs activités de recherche. Le secteur de l’intelligence artificielle est très concentré. Il se caractérise par l’absence de l’Europe. Les flux de données sur le vieux continent sont orientés vers les firmes américaines. Ainsi, en France, 80 % des données sont captées par les grandes plateformes américaines (Etude la Chaire Castex de Cyberstratégie).

Les entreprises européennes éprouvent des difficultés à s’imposer en raison de la petite taille de leur marché domestique. Les barrières des langues constituent un frein tout comme les problèmes d’accès à un financement de taille européenne. Les centres de recherche rencontrent des difficultés pour attirer et conserver des talents.

Les enjeux de l’intelligence artificielle en matière de santé, des transports, d’aménagement du territoire, d’environnement, de sécurité ou de défense sont importants. Déjà, en quelques années, la puissance informatique permet de réaliser des économies importantes. Ainsi, le coût de l’ADN humaine a été divisé par trois millions en dix ans.

En matière de transports, la société Uber, grâce à ses chauffeurs, collecte des données extrêmement précises sur le trafic urbain, sur les temps de transports, sur les problèmes ponctuels ou structurels. Google et Apple multiplie les tests sur les voitures autonomes afin de les préparer à toutes les situations. Des scénarios sont réalisés sur pistes privées afin de permettre à l’ordinateur de les intégrer.

Dans le cadre de l’apprentissage des ordinateurs, les données deviennent des éléments clefs. Les entreprises de taille mondiale dispose d’un avantage comparatif important face à celles qui ne sont présentes que dans un ou quelques pays.

La donnée doit-elle être protégée et rémunérée ?

La Fondation « Génération Libre » de Gaspard Koenig défend l’idée d’un droit de la propriété de la donnée. Elle souligne que les GAFA s’enrichissent de manière indue en collectant une matière première. Gaspard Koenig réclame une monétisation des données. Inspiré par le raisonnement du chercheur américain Jaron Lanier, il demande une plus grande transparence des plateformes. Ces dernières devraient contracter avec les Internautes. Les Internautes devraient avoir le choix entre la cession onéreuse de leurs données avec un accès payant aux plateformes ou la cession gratuite en contrepartie de l’accès libre aux sites. Il estime que ce droit de propriété s’inscrit dans la suite logique du Règlement général sur la protection des données personnelles (RGDP), qui entrera en vigueur le 25 mai 2018. L’opportunité pour l’Europe d’innover et de diffuser son modèle est à saisir.

Le règlement général sur la protection des données est une directive européenne issue des travaux du Parlement et notamment de l’eurodéputé allemand, Jan Philipp Albrecht. Avec ce texte, l’Europe a fait le choix d’un standard élevé de protection des données, auquel devront se plier toutes les entreprises souhaitant traiter les données des Européens ; faute de quoi elles pourraient être soumises à de fortes amendes. L’objectif du RGDP est de réguler l’utilisation des données à caractère personnel. A cette fin, elle encadre les conditions de collecte et de conservation des données à caractère personnel qui peuvent être utilisées par l’intelligence artificielle et fixe des règles pour les droits à l’information, d’opposition, d’accès et de rectification. Par ailleurs, le RGDP affirme le droit à la portabilité des individus sur leurs données. L’article 20 prévoitdispose que « les personnes concernées ont le droit de recevoir les données à caractère personnel les concernant qu’elles ont fournies à un responsable du traitement ». Le texte donne la possibilité pour les personnes d’obtenir, auprès de celui qui en est responsable, des informations sur la logique de fonctionnement de l’algorithme. Enfin, il interdit qu’une machine puisse prendre seule, c’est-à-dire sans supervision humaine, des décisions emportant des conséquences graves pour les personnes, en matière d’octroi de crédit, par exemple.

Protection, certes mais l’ouverture, c’est mieux

Si la protection des données commence à devenir un sujet sensible comme cela a pu être constaté avec les derniers démêlés de Facebook, il n’en demeure pas moins que l’essor de l’intelligence artificielle repose sur des logiques d’ouverture. La donnée brute n’a que peu de valeur, c’est l’agglomération et le traitement qui génèrent de la richesse. Par nature, le créateur ou le collecteur de données n’est pas le mieux à même pour en exploiter tout l’intérêt. De ce fait, seule leur circulation permet de maximiser leur utilité économique et sociale. Les grandes entreprises ont compris tout l’avantage d’ouvrir peu ou prou leur espace de données afin de faciliter l’émergence de nouvelles activités dont elles tirent profit par ricochet. Le système des applications repose sur ce principe. Les Application Programming Interface (API) sont mises à disposition par les plateformes pour permettre à des acteurs tiers d’innover à partir de leurs ressources. Facebook, Netflix, Apple et Google hébergent de nombreuses applications créées par des développeurs. Selon le rapport du mathématicien et député LREM Cédric Villani intitulé « Donner un sens à l’intelligence artificielle », « la domination des plateformes s’explique largement par cette capacité à agréger des écosystèmes autour d’elles et à en occuper le centre ».

 Les entreprises européennes sont moins portées que leurs concurrentes américaines à partager leurs données. Ainsi, selon le même rapport citant une étude de 2017 financée par l’Union européenne, 90 % des entreprises interrogées déclaraient ne pas mutualiser leurs données avec d’autres entreprises. Même à l’intérieur des organisations, en Europe, la tradition est à l’installation de barrières. Malgré tout, la tendance de fond est au partage. Ainsi, les exploitants agricoles français se sont regroupés pour vendre leurs données aux fabricants de matériels ou aux semenciers.

La société Uber a, afin notamment d’améliorer son image, a accepté d’ouvrir et de valoriser ses données auprès des municipalités. Depuis le mois d’octobre 2017, la ville de Paris bénéficie de cette ouverture et exploite les données pour dresser un état des lieux de la fluidité de la circulation en Île-de-France.

Airbnb a également lancé un portail DataVille pour donner accès à certaines statistiques sur l’utilisation de son service permettant aux villes de mieux connaitre les flux touristiques.

Pour la gestion des voitures autonomes, le partage des données sera indispensable afin de prendre en compte en temps réel les modifications de circulation, la fermeture et l’ouverture de nouveaux axes, le changement de signalisation. Les entreprises américaines comme chinoises ont une avance technologique du fait de l’accumulation des données et en raison de la puissance de calcul dont elles disposent.

 Pour une gestion régulée des données

Les données devront faire, selon Cédric Villani d’une régulation accrue de la part des pouvoirs publics « qui met l’accent sur la réciprocité, la collabo­ration et le partage ». Aux Etats-Unis, le bureau des statistiques des transports a imposé aux compagnies aériennes de mutualiser certaines données en vue de l’établissement de stratégies de développement. De grands secteurs pour lesquels l’Europe possède des avantages comparatifs indéniables sont des sources importantes de données. La santé, l’assurance, la banque, la distribution sont tout à la fois des producteurs et des collecteurs de données qui peuvent être à la base de nombreuses applications permettant d’indéniables gains de productivité. En matière de santé, la remontée des données devrait avoir des effets positifs sur les traitements, sur le diagnostic et sur l’orientation au sein du parcours de soin. En ce qui concerne l’environnement, la mutualisation de l’information devrait faciliter la gestion de la consommation énergétique en temps réel. Le recueil de données météorologiques permettra de prévenir la survenue de sinistres et en limiter ainsi les coûts pour les assurés et les assureurs.

L’appel à la puissance publique et à l’Europe ?

En raison du poids de la puissance publique en France, celle-ci devrait ouvrir ses données et jouer le rôle de plateforme d’accueil pour contribuer à l’émergence de nombreuses applications. Cette préconisation du rapport de Cédric Villani bute sur l’étroitesse du marché français et sur l’omniprésence des entreprises américaines. Le député suggère la sélection de quelques axes de recherche, santé, transports, environnement, sécurité, par exemple avec la création d’une « agence d’innovation de rupture » ou de plateformes sectorielles. Il admet que l’émergence d’initiatives européennes est indispensable en particulier dans le domaine de la robotique.

 

Couvrez-moi ce risque que je ne saurais voir

Depuis 2009, l’aversion aux risques constitue le fil rouge de l’économie mondiale. Le principe de précaution est devenu l’alpha et l’oméga de tous les acteurs économiques. Ce phénomène a pour conséquence le transfert du risque sur les maillons les plus faibles de la chaine. Ce principe vaut pour la production et pour la consommation. Le digital permet de déporter très facilement le risque sur les derniers maillons de la chaine. Il en est ainsi avec les chauffeurs de voiture (Uber) ou avec les loueurs de logement (Airbnb). Le risque économique est externalisé pour les plateformes de mise en relation. Le recours à l’intérim et aux CDD est un moyen pour les entreprises de limiter leurs risques en cas de retournement de la conjoncture. La flexibilité s’inscrit également dans cette tendance, surtout quand elle ne s’accompagne pas de sécurisation.

Ce rejet du risque s’exprime également sur le plan financier. Ainsi, la prime de risque sur les actions demeure très élevée et cela malgré le retour de la croissance. Les actions surtout en Europe sont peu valorisées compte tenu de la mise en place d’une politique monétaire très expansionniste. Les rachats massifs d’obligations par les banques centrales et le maintien de taux directeurs historiquement bas auraient dû conduire à une plus forte appréciation du cours des actions.

Cette aversion aux risques se matérialise par le maintien de taux d’intérêt très bas pour les obligations et cela malgré les dernières augmentations décidées par la Banque centrale américaine. Les investisseurs en optant pour les obligations souveraines pèsent sur la remontée des taux. Aux Etats-Unis, le rendement des fonds propres est de 12 % contre un taux d’intérêt pour les obligations d’Etat à 10 ans de moins de 3 %. En Europe, les valeurs respectives sont de 8,5 et 0,6 %.

La hausse de la prime de risque « actions » et la hausse de l’écart entre le ROE (Return On Equity qui correspond au ratio entre le résultat net et les capitaux propres investis) et le taux d’intérêt sans risque documentent bien la hausse de la perception du risque d’entreprise depuis la crise aux Etats-Unis et dans la zone euro. Cette situation conduit à la limitation de la rotation des investisseurs des obligations vers les actions même en période de normalisation des politiques monétaires.

Même si l’investissement est à nouveau en hausse au sein de l’OCDE, son niveau reste en deçà de celui qu’il avait atteint avant la crise de 2008. Le taux d’investissement était de 12,7 % du PIB en 2017 contre 13,3 % en 2007 et 14 % en 2000. Le taux d’autofinancement des entreprises est, toujours au sein de l’OCDE, de 110 %, les entreprises épargnent plus qu’elles n’investissent. Leur épargne représente 175 % du PIB en 2017 contre 115 % en 1990. Les entreprises afin de récompenser leurs actionnaires fidèles procèdent à d’importants rachats d’actions, ce qui entraîne automatiquement la montée des cours. En 2016, les entreprises américaines membres de l’indice S&P500 ont distribué 397 milliards de dollars de bénéfices et procédé à 536 milliards de dollars de rachats d’actions. Entre 2010 et 2016, elles ont racheté pour 3500 milliards de dollars d’actions, soit 15 % de la capitalisation de l’indice. Elles privilégient la valeur financière à la valeur commerciale issue d’une valorisation de la production.

Le principe de précaution est-il la conséquence du vieillissement de la population ou d’une lassitude ? Certes, les GAFA multiplie les innovations mais en s’appuyant sur de formidables rentes de situation. S’il y a eu une prise de risque indéniable au départ, leur situation de quasi-monopole les place désormais en position de rentier du système.