Ce billet est un article invité. Il a été rédigé par Océane Mignot sur le blog de Bertrand Jouvenot.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

Avec une exploitation des datas de plus en plus importante, j’ai voulu comprendre si nous avions encore en tant qu’être humain un pouvoir sur nos propres données. La machinerie et les responsabilités de propriété de données sont tellement complexes et floues que nous avons l’impression que tout nous échappe.

Bien que les avantages de l’utilisation des datas dans de nombreux domaines soient démontrer (ex. les soins médicaux), certains voient des risques. Notamment dans les domaines où l’accumulation de données trop importantes est une forme de pouvoir pour les organisations qui la détienne que ce soit des institutions privées ou publiques.

Pour des raisons d’échelle et de complexité, un nombre relativement faible d’instituts disposent des infrastructures et des compétences nécessaires pour acquérir, détenir, traiter et exploiter des données importantes.

– Si la question de savoir à qui appartiennent les données est une question juridique, les conséquences sur l’équilibre des pouvoirs pose question.

– Qui peut accéder aux données ? En principe, n’importe quel chercheur peut accéder sur Twitter via son API, mais… les coûts et les compétences nécessaires constituent des obstacles à l’accès.

– Qui régit l’accès aux données ? Cet accès est-il réellement ouvert de la même manière à tous ? Comment cela est-il documenté ? …

Un monde de « services » : la servicisation

Les dispositifs IdO sont souvent proposés dans le cadre ou en combinaison avec un service logiciel. Ainsi, la vente d’un téléviseur ou d’un réfrigérateur intelligent peut inclure un support logiciel. Les fonctionnalités du produit sont pour la plupart intégrées dans le logiciel qui l’accompagne. Ainsi, la possibilité d’avoir les fonctionnalités intelligentes du réfrigérateur dépend du support logiciel du fabricant. Le fabricant peut décider de cesser d’offrir un support pour les appareils plus anciens, ce qui les rend partiellement ou totalement inutiles. L’« Electronic Frontier Foundation » (ONGI Américaine de protection des libertés sur Internet) a tiré la sonnette d’alarme parce que des consommateurs, qui avaient déboursé des centaines de dollars pour l’achat d’un système domotique intelligent avec logiciel à vie, se sont soudainement retrouvés avec un produit inutile parce que le support avait été supprimé après qu’un concurrent ait repris l’entreprise[1].

Lorsque les produits deviennent dépendants des logiciels contrôlés par le fabricant, cela renforce le contrôle du fabricant et la façon dont il peut les utiliser. En outre, on constate une tendance marquée à ce que les produits eux-mêmes soient offerts en tant que services. C’est ce qu’on appelle la « servicisation ». Ainsi, les consommateurs n’achètent plus d’ampoules, mais de la lumière. Ils n’achètent pas une machine à laver, mais utilisent des services de lavage… Le fabricant est responsable de l’entretien des appareils, les consommateurs n’ont qu’à payer une redevance périodique. Les partisans de ces services prônent la commodité qu’ils offrent. Les opposants voient s’amenuiser le contrôle des consommateurs sur leur propre environnement. Il n’est plus possible, par exemple, de dévisser ou d’ajuster quelque chose soi-même. Le fabricant conserve la propriété et peut décider de changer le produit d’une manière ou d’une autre quand il le souhaite. C’est le cas, par exemple, lorsqu’Amazon a supprimé à distance certaines éditions numériques des livres de George Orwell des appareils Kindle des lecteurs qui les avaient achetés. La raison avancée par Amazon est que les livres avaient été ajoutés au magasin Kindle par une société qui n’en avait pas les droits, en utilisant une fonction de libre-service[2]. Ce qui semble assez invraisemblable est le pouvoir à distance qu’a Amazon sur un produit qui appartient à ses clients. Amazon peut intervenir dessus sans l’accord de ses derniers. Ce qui est extrêmement intrusif.

QUI ÉTABLIT LES NORMES?

En ce qui concerne la technologie persuasive, un utilisateur n’est pas en mesure d’engager une discussion avec une entité technologique comme il le peut avec un interlocuteur humain. Cela crée une relation asymétrique dans la communication. La norme est fixée dans la technologie et l’utilisateur y est unilatéralement exposé. A.Spahn[3] soutient donc qu’il est important que l’utilisateur ait le plus d’influence possible sur la façon dont cette norme est déterminée, et accepte consciemment d’appliquer une technologie persuasive. Si un utilisateur décide d’acheter un appareil de fitness digital, nous pouvons supposer que c’est de son propre chef. Cependant, lorsque la technologie persuasive est utilisée dans le contexte d’un environnement de travail ou en assurance, cette question devient plus problématique[4]. Elle soulève la question de savoir si l’employeur ou l’assureur devrait être autorisé à déterminer les normes relatives au changement de comportement d’un employé ou d’un client, ou s’il s’agit d’une atteinte à son autonomie personnelle. Les autorités néerlandaises chargées de la protection des données se sont récemment prononcées sur l’interdiction des employeurs à utiliser des données personnelles fournies par des vêtements connectés offerts à leurs collaborateurs[5].

CONCURRENCE DÉLOYALE – L’EFFET DE VERROUILLAGE

Selon T.Scholz[6], le succès de certaines plateformes n’est pas seulement dû à l’avancée technologique, mais à l’application de l’illégalité comme méthode utilisée par les entreprises digitales. Cela conduit à une concurrence déloyale entre les entreprises digitales et traditionnelles, parce que les plateformes ne respectent pas (ou ne veulent pas respecter) la réglementation ou les autorisations qui s’appliquent aux entreprises traditionnelles. Airbnb permet aux particuliers de louer des chambres sans aucune autorisation et ne doit pas satisfaire aux mêmes exigences de sécurité et de responsabilité fiscale que les hôtels ordinaires. Les chauffeurs d’UberPop n’ont pas à respecter les temps de conduite et de repos ni les mêmes règles de sécurité que les taxis. Ils n’ont pas à payer la TVA ou les différentes taxes. D’autre part, le conducteur moyen d’UberPop gagne moins que le salaire minimum et la plupart des conducteurs considèrent cela comme un emploi à temps partiel.

K.Frenken[7] pense qu’une politique de tolérance est d’abord logique pour donner de la place aux expériences et en évaluer les effets. Toutefois, il préconise une législation claire, car des plateformes comme Airbnb et Uber se développent si rapidement qu’elles ont un impact perturbateur et inattendu sur les secteurs existants et sur la société dans son ensemble. De telles plateformes peuvent être des concentrations de pouvoir, avec des monopoles générant par conséquent des marges bénéficiaires élevées. Ces monopoles peuvent exister parce que les plateformes bénéficient généralement d’effets de réseau, comme Google (recherche sur Internet), Facebook (réseaux sociaux) et WhatsApp (messagerie mobile). Whatsapp, par exemple, ne fonctionne que s’il y a un grand réseau d’utilisateurs. Une fois qu’une application comme celle-ci acquiert une certaine taille, il est presque impossible de la concurrencer à cause de ce que nous appelons l’« effet boule de neige ». Il est relativement facile pour les entreprises digitales d’élargir leur champ d’action en ajoutant de nouveaux services. Par exemple, comme Uber, qui travaille actuellement sur la livraison de colis, sur les vélos en libre-service, et « Uber Works » (un service de main d’œuvre à la demande), ce qui amène à se demander si ces plateformes ne deviennent pas trop grandes. L’une des conséquences est que les utilisateurs deviennent dépendants d’une telle plateforme, car il est difficile d’utiliser un concurrent avec un réseau trop petit et donc peu intéressant. On constate que l’accumulation de données et de connexions au sein d’une plateforme, enrichie d’une multitude de services associés, rend difficile pour l’utilisateur de changer de plateforme. C’est « l’effet de verrouillage ».

Relations entre les acteurs privés et publics

L’« espace public » sur l’Internet, constitué de réseaux sociaux, est principalement entre les mains d’acteurs privés. Toutes les interactions qui ont lieu dans cet espace pseudo-public sont donc la propriété des plateformes. Les informations ainsi générées peuvent être utilisées ou revendues selon leurs besoins. L’administrateur de la plateforme peut également modifier à volonté les conditions d’interaction et d’utilisation. Il y a eu beaucoup de controverse au sujet des décisions de Facebook de retirer certaines règles et directives de la plateforme[8]. Les critiques soutiennent que la situation actuelle conduit à une forme de féodalisme digital selon D.Helbing[9]. C’est une situation dans laquelle la propriété des gens sur eux-mêmes, c’est-à-dire leur représentation digitale, se perd.

Les gouvernements recueillent également de plus en plus de données sur les citoyens. D.Helbing décrit un scénario d’avenir où les autorités utilisent les données pour orienter le comportement des citoyens. L’exemple le plus frappant est celui du gouvernement chinois. Pour chacun de ses ressortissants, il tient un score citoyen, qui joue un rôle dans la détermination de l’éligibilité d’une personne à un prêt, un visa ou un emploi. La collecte de données gouvernementales entraîne une asymétrie croissante de l’information entre les citoyens et les gouvernements. Les citoyens deviennent plus transparents et les gouvernements deviennent moins transparents pour leurs citoyens.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

Ce billet est un article invité. Il a été rédigé par Océane Mignot sur le blog de Bertrand Jouvenot.

[1] K. Walsh, « Nest reminds customers that ownership isn’t what it used to be », 5 avril 2016, EFF ; https://www.eff.org/deeplinks/2016/04/nest-reminds-customers-ownership-isnt-what-it-used-be.

[2] Brad Stone, « Amazon Erases Orwell books from Kindle », The New York Times, juillet 2009, https://www.nytimes.com/2009/07/18/technology/companies/18amazon.html

[3] A. Spahn, “And lead us (not) into persuasion…? Persuasive technology and the ethics of communication.” ; 2012, Science and Engineering Ethics, 18(4), 1–18.

[4] J.Timmer, L.Kool, , R. van Est, “Ethical issues in emerging applications of persuasive technologies”, 2015, Dans T. MacTavish & S. Basapur (Eds.), Persuasive Technology. PERSUASIVE 2015. Computer Science (Vol. 9072, p. 196–201). Cham : Springer.

[5]http://www.autoriteitpersoonsgegevens.nl/nl/nieuws/ap-verwerking-gezondheidsgegevens-wearables-door-werkgevers-mag-niet.

[6] T.Scholz, « Platform cooperativism. Challenging the corporate sharing economy”, 2016, New York City: Rosa Luxemburg Stiftung.

[7] K.Frenken, T.Meelen, M.Arets, P. Van de Glind, “Smarter regulation for the sharing economy”, 20 mai 2015, The Guardian, https://www.theguardian.com/science/political-science/2015/may/20/smarter-regulation-for-the-sharing-economy.

[8] Jessica Guynn. « These are Facebook’s secret rules for removing posts », 24 avril 2018, https://eu.usatoday.com/story/tech/news/2018/04/24/facebook-discloses-secret-guidelines-policing-content-introduces-appeals/544046002/

[9] D.Helbing, B. S. Frey, G. Gigerenzer, E.Hafen, M.Hagner, Hofstetter, et al. “Digitale demokratie statt datendiktatur. Digital manifest”, 2015, Spektrum der Wissenschaft, 15(12), 50–61.

Summary
Article Name
La Transformation Digitale : Les questions éthiques en termes d’Equilibre des pouvoirs entre l’Homme et la maîtrise de sa Data.
Author
%d blogueurs aiment cette page :