Nous entrons dans l’ère des zettabytes… mais nous ne savons pas vraiment nous en servir. Si vous n’avez rien compris à cette phrase, c’est normal. Comprendre le big data, c’est pas donné. Mais on va tout vous expliquer.

Le big data est tout. Le big data est partout.

Les mégadonnées (c’est comme ça qu’on devrait dire en français) s’immiscent dans les présidentielle. Emanuel Macron s’en inspire pour affiner son positionnement et a fait traiter par les algorithmes de la startup parisienne Proxem les 100.000 conversations recueillies par les militants de « En Marche ! ».

Le big data, c’est aussi une denrée de choix pour les hackers. Les données de 500 millions de personnes piratées sur les comptes Yahoo, spotify, AirBnb, Amazon, ebay étaient on ne peut plus appétissantes…

Mais le big data, c’est si compliqué à manier qu’on finit par le transformer en réalité virtuelle pour tenter le de comprendre….

Big Data ? Big problèmes surtout !

Le big data ne se compte plus

On parle de big data. Les chiffres sont là. Ils s’expriment dans des unités encore inconnues du grand publique, pour la plupart d’entre elles, tant les volumes sont considérables : millions, milliards, trillions, quintillions, décillions, exilions, myrillions[i].

Entre exabytes, yotta (qui équivaut à un septillion), nous serions à l’aune de l’ère des zettabytes. Nous voilà perdus. Autant de mots qui décrivent une réalité et un nouveau monde vers lequel nous nous acheminons, et dont les dimensions sont encore méconnues.

Un nouveau champ d’étude s’ouvre alors aux scientifiques. Le simple problème de la quantification, de la mesure et de son expression, deviennent des questions scientifiques en soi. Sans parler des autres questions que le big data introduit.

Le big data interpelle les économistes

Un peu désarmés, sans disposer nécessairement de toutes les mesures et de toutes les données nécessaires, les économistes du monde entier s’attaquent à la question de l’impact du big data.

Le paradoxe est flagrant, le big data et son déluge de données ne fournit pas encore de données sur lui-même. Du moins pas assez pour dégager un consensus autour d’une nouvelle question : longtemps vu comme une source de progrès infini, le digital en général et le big data en particulier, auront-ils des effets positifs ou néfastes sur l’économie ?

Il convient donc d’explorer comment le digital pourrait engendrer des effets économiques plus négatifs que positifs, ou l’inverse, avant d’examiner le rôle que la data jouera dans cette dynamique.

Mais nul à ce jour n’est en mesure d’apporter une réponse claire et surtout chiffrée. Des acteurs comme IDC ou Cisco se hasardent à avancer des chiffres. Mais ces derniers restent trop globaux. Lorsque Cisco annoncent que le trafic mondial sur Internet s’est multiplié par douze en cinq ans, de 2006 à 2011, atteignant les 23,9 exabytes, ou qu’IDC estime qu’il y avait 2,7 zettabytes, ou 2,7 sextillion de bytes de données digitales dans le monde en 2012, nous ne sommes guère plus avancés. Certes le digital constitue un nouveau territoire rempli de promesses de richesses, mais il nous faudrait en savoir davantage. Les explorateurs partis à la découverte des Etats-Unis, ne se contentèrent pas de revenir avec des mesures sur les dimensions de ce nouveau continent à exploiter, mais fournirent de précieuses informations sur la nature du pays, précisant si telle ou telle partie était habitable ou non par l’homme (le désert du Nevada ne l’est pas par exemple), cultivable ou non (les Etats-Unis comptent des zones montagneuses), constructibles ou non (les zones marécageuses ne manquent pas dans certains Etats américains), etc. Il en va de même pour le big data. Les volumes globaux n’informent pas suffisamment sur l’exploitation qui pourrait être faite des données.

Les économistes réveillent Joseph Schumpeter

Le digital et le big data posent plusieurs questions à la théorie économique classique.

Tout d’abord, il nous interroge sur la validité de la théorie de la destruction créatrice de Joseph Schumpeter, selon laquelle le processus de disparition de secteurs, s’accompagne conjointement de la création de nouvelles activités économiques. Si la disparition de l’industrie des fabricants de cire, utilisée pour l’éclairage à la bougie, a été remplacée par celle de l’ampoule électrique, il n’est pas encore avéré que les entorses faites par le digital à certaines industries (comme celles des biens culturels ou des médias…) le soient par une nouvelle industrie plus créatrice de valeur que la précédente.

Le big data se heurte de plein fouet à la théorie économique

La gratuité annoncée de la data, son hyper-disponibilité et la démocratisation des moyens pour la collecter, la traiter et la rendre exploitable, semblent sonner le glas de la monétisation de la donnée.

Comment serait-il possible de vendre ce qui est gratuit ?

De plus, l’accroissement infini du volume des datas disponibles, couplée à l’idée que la data sera source de création de valeur, heurte de plein fouet une loi économique connue de tous : plus un bien est rare, plus sa valeur est accrue. Or si les données se font de moins en moins rares, comment pourraient-elles voire leur valeur augmenter ?

Les mathématiques peuvent-ils encore permettre de quantifier le big data ?

Friands de mathématiques, les économistes aiment les modélisations.

Alors emboîtons leur le pas au sujet du big data avec par exemple cette question basique : quel est le prix unitaire de la data ?

Si les données se veulent être au cœur de l’économie de demain, le pétrole qui alimente le moteur des entreprises et de nos sociétés, il convient de se poser la question.

Nous ne nous hasarderons pas à y répondre, nous efforçant de poser les termes de la question, ce qui s’avère une entreprise déjà ambitieuse en soi.

Pour commencer, il faudrait un système d’équation, certes simple, mais dont la résolution repose sur la détermination de la valeur de cinq inconnues :

a : nombre total de data à un instant t.

b : nombre total de data commercialisables

c : nombre de data commercialisées

d : chiffre d’affaires total de l’industrie de la data

e : prix unitaire de la data

Un système d’équations dont la formulation serait la suivante :

a > b

b > c

d/c = e

c x e = d

Soit un système d’équations à cinq inconnues… inconnues qui risquent de le rester.

Les data échapperaient à la quantification ?

Plus besoin de trillions et encore moins de myrillions ou autres zillions pour quantifier le web, le monde digital et ses data. Tout au contraire. Nul besoin non plus d’une calculatrice pour estimer que le prix unitaire de la data serait un chiffre commençant par 0 et composé de très nombreuses décimales après la virgule.

Mais par-delà cette première conclusion, sans doute hâtive, d’autres questions se bousculent déjà :

  • Quel est le prix moyen d’une data ?
  • Le prix moyens de la data tend-t-il à diminuer ou à augmenter ?
  • Quel est l’écart type entre la plus chère des donnés et la moins chère d’entre elles ?
  • Qu’est qui justifie que la plus chère des données le soit ?
  • Quelle est cette donnée ?
  • Quelle sera-t-elle demain ?
  • A quelles conditions une donnée n’est pas ou n’est plus commercialisable ?
  • Y a-t-il un cours de la donnée comme il y a un cours du pétrole, du blé, du soja, du cuivre… ?

Etc.

Le pétrole de demain n’a pas de prix

Réfléchissons et travaillons scientifiquement en attendant, qui sait, l’équivalent des chocs pétroliers des années 70 qui virent le prix de l’or noir grimper, mais qui cette fois ci seront des Data Chocs rendant l’usage des données plus prohibitifs.

Charge aux entreprises, aux Etats et aux nations d’anticiper les conséquences d’une dépendance croissante de leurs économies à la data, dans un monde où certains acteurs privés, parce qu’ils concentrent et détiennent une part importantes des données utiles, pourraient, inspirés par ce que fit l’OPEP dans le passé, se comporter en cartel de la data.

[i] Selon que l’on se base sur le système de Nicolas Chuquet, la normalisation de Conway et Wheslher, les systèmes d’Archimède, de Gillion, de Myriade ou de Gogol, etc.

Share