12 septembre 2015

Le coin des tendances du 12 septembre 2015

L’économie circulaire est-elle l’avenir de l’Homme… ?

 

Selon une étude de Mc Kinsey, les investissements en faveur de l’économie circulaire pourraient constituer un vecteur de croissance.

 

La rationalisation de l’utilisation des matières premières générerait en Europe 1 800 milliards d’euros de bénéfice économique net en 2030. En termes de PIB, le gain serait de 7 points.

 

« L’économie européenne est étonnamment gaspilleuse dans sa façon de créer de la valeur, et tout concourt à faire perdurer ce système », constatent les auteurs de l’étude.

 

Pour le moment, seulement 40 % des matériaux utilisés en Europe sont recyclés ou réutilisés. 31 % des denrées alimentaires sont gaspillées le long de la chaîne de valeur. L’étude souligne que les automobiles restent inutilisées 92 % du temps quand les bureaux ne sont en moyenne occupés que de 35 % à 50 % du temps, y compris durant les heures de travail.

 

 

 

 

Toujours selon Mac Kinsey, l’auto-partage permettrait de faire chuter le coût moyen d’une voiture au kilomètre de 75 % d’ici à 2030, tandis que les coûts des intrants et des machines pourraient, chuter dans l’agriculture, dans des proportions similaires si l’agriculture de précision et les techniques de semis direct (sans labour) étaient combinées.

 

Les maisons à énergie passive pourraient contribuer à réduire la consommation d’énergie à hauteur de 90 %.

 

Les investissements à réaliser pour atteindre ces résultats s’élèveraient à 108 milliards d’euros. Il serait intéressant d’étudier le retour sur investissement à court terme et à long terme tout en prenant en compte l’impact environnemental…

 

Vous avez dit big data mais à quoi ça sert ?

 

Le big data est à la mode. Ce serait une source de croissance. Pour autant, certains doutent encore de son impact économique. Le recours aux probabilités, aux échantillons, aux sondages permettent bien souvent d’obtenir à moindres coûts les mêmes résultats. Le problème du big data est l’utilisation concrète des données et des analyses qui sont de plus en plus automatisées. Il y a en outre, une tendance à requalifier de big data des pratiques anciennes.

 

Qu’est-ce que le big data ?

 

La définition du big data est la suivante : « données structurées ou non dont le très grand volume requiert des outils d’analyse adaptés ».

 

Le Big Data s’articule autour de la notion des 3V, voire des 4 ou 5V.

 

Le premier V correspond au Volume. Le big data c’est la capacité de traiter un nombre important de données. Le big data, c’est la capacité de stocker et de traiter des exaoctets (10 puissance 18 octects), voire zettaoctets (10 puissance 21), quand il y a 10 ans on travaillait en mégaoctets (10 puissance 6) stockés sur des disquettes. L’inflation des donnés est impressionnante. 90 % des données récoltées depuis le début de l’humanité ont été produites durant les 2 dernières années.

 

Le deuxième V correspond à la Vitesse. Le traitement et la circulation des données sont de plus en plus rapide.

 

Le troisième V correspond à la Variété. Auparavant, les données se devaient d’être formatées renseignées selon des critères communs qui eux seuls garantissaient la capacité de comparaison et de traitement de l’information.

 

Avec le Big Data apporte, le traitement peut être réalisé à partir de données brutes. Les images, les vidéos, les sons, les données verbales ou statistiques peuvent être traités.

 

Ces 3V ont été complétés par deux autre V avec la prise en compte dans le big data de la Valeur et de la Véracité.

 

Les données doivent être utilisables et générer de la valeur. Elles doivent être fiables pour permettre des analyses qui le sont tout aussi.

 

Qui utilisent les données du big data ?

 

Ce sont les entreprises et les administrations publiques qui exploitent les nouvelles capacités de traitement et d’analyse des données produites à 70 % par les individus.

 

Aux États-Unis, précurseur du Big Data, des sociétés comme Google, Yahoo et Apache jouent un rôle majeur dans le développement de ce nouveau secteur d’activité.

 

Google à travers l’algorithme et ses déclinaisons a fortement contribué à partir du début des années 2000 à l’émergence du big data. En 2003, Google publie un premier papier sur le Google File System, et révèle ainsi les premiers secrets de son succès. En 2004 on découvre le fonctionnement de MapReduce, et l’année suivante, Doug Cutting et Michael Cafarella, à l’époque employés chez Yahoo et inspirés par les travaux de Google, créent Nutch Search Engine, qui deviendra Hadoop. En 2006, Yahoo lègue le projet à Apache, qui reste depuis le cœur névralgique d’Hadoop. A partir du milieu des années 2000, le big data est de plus en plus utilisé tant dans le domaine de la distribution, du marketing ou de la finance.

 

Qui sont les premiers clients du big data ?

 

Les principaux clients restent les pouvoirs publics nord-américains qui demeurent les principaux investisseurs.

 

Le gouvernement fédéral américain est un acteur important du big data grâce à l’implication de Barack Obama qui en avait fait, dès sa première campagne présidentielle, un vecteur important. Des informaticiens issus de Google et de Facebook ont, en 2012, développé des outils de ciblage des électeurs, à partir des données recueillies sur Internet. Le terme « Big Data President » fait alors son apparition dans les médias.

 

Selon l’organisme MeriTalk, le Big Data permettrait à l’État américain de réaliser 14  % d’économies, soit 500 milliards de dollars.

 

Au niveau de l’administration, le recours au big data se généralise dans les domaines de la formation, de la recherche, de la sécurité nationale, dans santé.

 

Le programme ADAMS de l’armée américaine vise à repérer les comportements anormaux et les changements d’attitude chez les soldats ou les citoyens américains. Mind’s Eye, un projet de la DARPA (Defense Advanced Research Projects Agency) a pour objectif d’améliorer les performances de reconnaissance vidéo et d’analyse automatisée. Le projet TCGA, porté par les archives nationales du cancer (The Cancer Imaging Archive), permettra d’analyser les données de séquences génétiques issues de patients atteints.

 

Le secteur de l’assurance recourt de plus en plus au big data pour établir des modèles prédictifs de catastrophes et déterminer avec fiabilité les probabilités sur des risques connus. Les risques concernés peuvent être d’ordre naturel (inondations, sécheresses) ou humains (insécurité routière, vols, dégradations…).

 

 

Comme pour les nouvelles techniques de l’information, les pays émergents rattrapent voire sont en avance sur certains pays anciennement industrialisés. L’Afrique du Sud est en pointe sur le sujet avec plus de 10 data-centers et une présence du Big Data dans 60 % des entreprises. Le Nigéria et le Brésil développent également de nombreux projets.

 

Le Big Data en entreprise aurait représenté un marché de 8,9 milliards de dollars en 2014 et pourrait atteindre près de 25 milliards de dollars d’ici 2016.

 

En France, selon une étude menée par EMC fin 2013, 74 % des entreprises en France sont convaincues de l’intérêt du Big Data pour leur activité, mais 41 % d’entre elles n’ont encore engagé aucune dépense sur la question.

 

Les entreprises pour justifier leur manque d’engagement sur le sujet mettent en avant la faible prévisibilité du retour économique de ces investissements (35 % des décideurs s’interrogent encore sur le retour sur investissement).

 

Les États-Unis diffèrent peu de la France sur ce point. 56 % des entreprises américaines ne savent pas comment tirer profit du Big Data.