jouvenot.com

La Transformation Digitale et ses enjeux sociaux : Et si nous parlions du paternalisme technologique?

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

L’IdO ne nous offre pas seulement du confort, mais peut aussi tendre vers le paternalisme technologique selon L.M.Hilty[1]. Nous parlons de paternalisme si quelqu’un prétend mieux savoir ce qui est bon pour les autres que ces personnes elles-mêmes. Ainsi, le paternalisme est « délégué » à la technologie. Un réfrigérateur intelligent est techniquement capable de changer la commande de votre fromage préféré pour un fromage à faible teneur en gras parce que le capteur biométrique a mesuré que votre taux de cholestérol est trop élevé. La question est toutefois de savoir si le réfrigérateur et le capteur biométrique devraient être autorisés à prendre une telle décision ensemble. Ce type de paternalisme technologique a de graves implications éthiques pour l’IdO. Ces comportements technologiques peuvent mettre en danger l’autonomie personnelle. De plus, l’IdO peut donc être mis en œuvre comme une technologie persuasive, voire manipulatrice.

Contrôle et manipulation par la technologie

La question éthique la plus importante qui s’impose concernant la technologie persuasive est celle de l’autonomie humaine : dans quelle mesure pouvons-nous influencer les gens et quand pouvons-nous appliquer cette technologie ? Selon J. Smids[2], la technologie persuasive devrait répondre à l’exigence du volontariat pour garantir l’autonomie. Une action n’est volontaire que si l’action est intentionnelle (la personne qui agit n’est pas « sous contrôle ») et qu’elle est exempte d’influences contrôlantes. Par exemple, si quelqu’un ne veut pas porter sa ceinture de sécurité et entend un bip sonore constant, il est soumis à une influence déterminante, en l’occurrence une sorte de coercition. Le conducteur ne peut arrêter le bruit irritant qu’en attachant la ceinture. Outre cette coercition, il existe des exemples de manipulation d’influences de contrôle (comme la rétention d’informations ou la tromperie) et de stimuli excessifs (par exemple, une récompense massive).

Idéalement, la technologie persuasive vise à mettre fin à la tentation et à permettre à l’utilisateur d’afficher de son plein gré le comportement « désiré ». Dans ce cas, la technologie persuasive consiste à former l’utilisateur. Le but de la formation d’une personne est qu’elle puisse fonctionner en autonomie et qu’elle n’ait plus besoin d’être guidée. Contrairement à la formation, la manipulation vise à garder quelqu’un dépendant. Selon A.Spahn[3], la technologie persuasive devrait être de la formation et non de la manipulation. Une condition importante pour cela est que l’utilisateur partage l’objectif de la persuasion voulue. Si un utilisateur veut conduire de façon plus sécurisée, il acceptera toute tentative d’aide pour atteindre son objectif. Si l’utilisateur ne partage pas cet objectif, alors une motivation supplémentaire peut apporter une solution, comme dans l’exemple de la ceinture en soulignant qu’il est financièrement intéressant de conduire en toute sécurité.

Une technologie qui déclenche un comportement par persuasion n’est cependant pas nécessairement indésirable. Premièrement, les gens eux-mêmes peuvent opter pour ces technologies. Certaines personnes sont très satisfaites de l’alerte sonore qu’émet une voiture si elle est trop proche d’un autre véhicule ou d’un autre objet, par exemple lors d’un stationnement. Les gens décident eux-mêmes, en n’éteignant pas ces systèmes, de dépendre de cette technologie. Deuxièmement, des technologies contraignantes pourraient être utilisées si le comportement de l’individu peut entraîner un risque collectif. Certains préconisent des limiteurs de vitesse obligatoires dans les voitures, qui restreignent la liberté individuelle, mais réduisent le risque collectif pour les autres usagers sur la route.

Comme nous l’avons vu, la technologie persuasive peut également être utilisée dans des environnements IdO intelligents. Cela signifie que l’influence fait partie de l’environnement et, dans certains cas, elle est moins consciente. De telles formes de persuasion peuvent constituer une menace à l’autonomie de l’individu, si le comportement est contrôlé sans que l’individu le sache ou en soit conscient. La transparence et la compréhension de l’utilisation de la technologie persuasive sont donc des facteurs importants pour protéger l’autonomie.

Anticiper nos actions ou nous manipuler

Lorsqu’un environnement IdO intelligent anticipe nos besoins et nos désirs, un choix est fait quant à nos préférences supposées. C’est ce que nous constatons lorsque l’on nous suggère une sélection de certains programmes de télévision en fonction du comportement précédemment affiché. Avec ce choix, l’environnement intelligent trie nos options et nous oriente vers certains choix et comportements. La façon, dont de subtils changements dans notre comportement peuvent être réalisés grâce à la technologie, est devenue évidente depuis la révélation de l’étude secrète de Facebook en 2014. L’entreprise a publié les détails d’une vaste expérience. La société a manipulé les utilisateurs par le biais des informations qu’elle affiche sur les pages d’accueil de 689 000 profils. Facebook a découvert que les utilisateurs pourraient se sentir plus positifs ou plus négatifs par le biais d’un processus de « contagion émotionnelle ». L’étude concluait ainsi : « Les émotions exprimées par les “amis”, par les réseaux sociaux en ligne, influencent nos propres humeurs et constituent, à notre connaissance, la première preuve expérimentale d’une contagion émotionnelle à grande échelle par les réseaux sociaux. »[4]

Laisser les robots prendre des décisions complexes à notre place

On a vu apparaître différentes étapes dans le domaine de la robotique. Dans un premier temps, la personne a le contrôle et une permission humaine est requise pour que le système effectue une action. Dans un second temps, la personne prend une décision en fonction de l’information contenue dans le système. Et enfin, nous assistons aujourd’hui à l’étape où une situation d’automatisation complète existe et ainsi, le système prend une décision sans intervention humaine. Cette évolution a été rendue possible, grâce à la quantité croissante d’informations provenant de diverses sources/appareils, qui doivent être intégrées et interprétées pour parvenir à une décision. Les robots peuvent prendre une décision complexe de façon beaucoup plus efficace et rapide que les humains.

Par conséquent, les individus ne prennent plus les décisions eux-mêmes, mais les laissent à la technologie. Il s’agit, par exemple, de systèmes de connaissances qui établissent des diagnostics médicaux à partir d’une grande quantité d’informations. On peut inciter des robots militaires à prendre des décisions de vie ou de mort à partir d’informations provenant de diverses sources. On permet à des systèmes d’aide au conducteur de décider de la vitesse à utiliser pour conduire sur un tronçon particulier de la route. Cela soulève une question essentielle qui est de savoir comment ces systèmes prennent leurs décisions, et si le logiciel du concurrent prendrait les mêmes.

Grâce aux énormes progrès de l’intelligence artificielle, les robots deviennent de plus en plus autonomes. La question cruciale est la suivante : dans quelle mesure est-il éthiquement acceptable de déléguer la responsabilité des décisions morales à des robots ? Il s’agit d’un débat en cours dans le domaine des robots militaires et des voitures autonomes. Selon R.Arkin[5], le robot militaire surpassera les humains lorsqu’il prendra des décisions morales, car les soldats humains subissent un stress énorme sur le champ de bataille et les robots sans stress font moins d’erreurs. Le problème ici, c’est que les robots ne peuvent pas être appelés à rendre des comptes, et pour de nombreux chercheurs, c’est la raison pour laquelle les robots ne devraient jamais être autorisés à prendre des décisions de vie ou de mort. Lorsque le comité international pour la maîtrise des armements robotiques (ICRAC[6]) a organisé en 2010 un atelier d’experts sur la limitation des systèmes robots armés autonomes, la majorité des participants ont signé une déclaration soulignant la nécessité qu’un être humain doive toujours prendre les décisions de vie ou de mort.

Le même problème se pose avec les voitures. Les accidents de la circulation sont inévitables, même avec une voiture autonome. Cette voiture connaîtra des situations qui exigent une décision morale. Dans une telle situation, un conducteur humain agit instinctivement. Il est impossible de s’attendre à ce qu’il fasse en une demi-seconde un choix bien réfléchi entre foncer dans un restaurant ou faucher un enfant sur le trottoir. Pour une voiture autonome, cependant, une demi-seconde est plus que suffisante pour évaluer divers scénarios. La voiture doit-elle choisir celle qui cause le moins de blessures aux occupants de la voiture ou, par exemple, celle qui cause le moins de dommages, en tenant compte également des autres usagers de la route ? La question que nous devons nous poser avant tout est la suivante : laissons-nous cette décision morale à l’automobiliste ou déterminons-nous à l’avance ce que cette voiture doit décider dans les situations où elle ne peut éviter un accident, ou du moins en modifier les conséquences ?

Filtrage et liberté d’expression

Les plateformes en ligne jouent un rôle de plus en plus important dans l’identification de l’information et sa visibilité auprès du public. Un exemple bien connu est la recherche sur Google qui varie en fonction des individus puisqu’elle est basée sur un algorithme de personnalisation qui tient compte d’éléments comme les recherches précédentes. Auparavant, les algorithmes étaient déterministes. Le programmeur déterminait à l’avance une action pour chaque situation. C’est pourquoi il était possible pour quelqu’un de comprendre comment l’algorithme prenait une décision. Grâce à des systèmes comme l’intelligence artificielle, les algorithmes ne suivent pas un ensemble prédéterminé de règles, mais utilisent des techniques statistiques d’autoapprentissage. Par conséquent, les décisions qu’un algorithme prend sont presque insondables et incontrôlables pour les humains[7]. Pour éviter les manipulations, il est donc crucial de comprendre pourquoi ces algorithmes font certains choix, et comment on peut s’assurer d’une certaine transparence.

Les recherches du psychologue Robert Epstein ont montré que les résultats de recherche sur les plateformes peuvent grandement influencer les préférences des électeurs en modifiant l’ordre des résultats dans un moteur de recherche comme Google. Selon R.Epstein, cela représente une menace sérieuse pour la démocratie[8]. Cela soulève des questions sur le rôle directeur des principales plateformes et aussi sur la liberté d’expression. Un exemple récent est celui où Facebook a supprimé la photo emblématique et poignante d’une jeune fille fuyant une attaque au napalm (la « fille au napalm », comme on appellera plus tard cette photo), publiée en 1972 par la World Press Photo. Une ministre norvégienne a voulu poster cette photo et a été surprise que Facebook bloque son « post » en justifiant que la jeune fille sur la photo est nue. Alors que les Norvégiens ont voulu illustrer une situation humanitaire alarmante, Facebook y a vu de la pédopornographie. D’autres plateformes comme Google et Twitter (sans oublier Facebook) ont été critiquées pour avoir facilité la diffusion de « fausses nouvelles (Fake news) »[9]. Cela a conduit à un débat sur le rôle et les responsabilités des plateformes en matière de liberté d’expression et de filtrage des informations. Au lendemain des élections présidentielles américaines de 2016, ce débat a suscité de nombreuses controverses. Les plateformes examinent les mesures qu’elles peuvent prendre contre les fake news[10].

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

 

[1] L. M. Hilty, “Ethical issues in ubiquitous computing: Three technology assessment studies revisited”, 2015,  In K. Kinder-Kurlanda & C. Ehrwein Nihan (Eds.), “Ubiquitous computing in the workplace. Advances in Intelligent Systems and Computing”, (volume 333) (p. 45–60). Cham : Springer.

[2] J. Smids, « The voluntariness of persuasive technology », 2012, dans M. Bang & E. L. Ragnemalm (Eds.), « Persuasive technology. Design for health and safety». PERSUASIVE 2012, Computer Science (Vol. 7284, p. 123–132). Berlin : Springer.

[3] A. Spahn, “And lead us (not) into persuasion…? Persuasive technology and the ethics of communication”, 2012, Science and Engineering Ethics, 18(4), 1–18.

[4] R.Booth, « Facebook reveals news feed experiment to control emotions », The Gardian, https://www.theguardian.com/technology/2014/jun/29/facebook-users-emotions-news-feeds

[5] R. Arkin, “The case for ethical autonomy in unmanned systems”, 2010, Journal of Military Ethics, 9(4), 332–341.

[6] ICRAC est International Committee for Robot Arms Control.

[7] L. H Scholz, “Algorithmic contracts”, 2017, Stanford Technology Law Review.

[8] Robert Epstein « How Google Could Rig the 2016 Election », article paru dans PoliticoMagazine.
http://www.politico.com/magazine/story/2015/08/how-google-could-rig-the-2016-election-121548.

[9] Philip N.Howard « Commentary: Facebook and Twitter’s real sin goes beyond spreading fake news » article paru en 2016 dans REUTERS. http://www.reuters.com/article/us-twitter-facebook-commentary-idUSKBN13W1WO.

[10] Nick WingfieldMike Isaac and Katie Benner « Google and Facebook Take Aim at Fake News Sites» paru dans le New York Times, 2016. http://www.nytimes.com/2016/11/15/technology/google-will-ban-websites-that-host-fake-news-from-using-its-ad-service.html?_r=1.

 

Ce billet est un article invité. Il a été rédigé par Océane Mignot