Ce billet est un article invité. Il a été rédigé par Océane Mignot sur le blog de Bertrand Jouvenot.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

Le manque de confiance des consommateurs dans la confidentialité des informations a été identifié comme un problème majeur entravant la croissance du commerce électronique. C’est pourquoi, il me semblait nécessaire de traiter le sujet de la vie privé. Je vous laisse découvrir certains items qui posent questions actuellement.

Maison intelligente

Grâce à l’IdO (Internet des Objets), de plus en plus d’informations sur nous-mêmes sont échangées, sans que nous le sachions vraiment ou que nous en ayons le contrôle. La politique de confidentialité de Samsung qui tient dans un document de 46 pages livré avec son téléviseur intelligent, vous indique que Samsung sait où, quand, comment et à quelle heure votre téléviseur est allumé. Le téléviseur dispose également d’une caméra pour la reconnaissance faciale et d’un microphone pour la reconnaissance vocale. Le manuel de Samsung vous avertit de faire attention à ce que vous dites à proximité du téléviseur. Ainsi, nous pouvons lire sur la notice : « Sachez que si vos paroles contiennent des informations personnelles ou sensibles, ces informations feront partie des données saisies et transmises à un tiers. »

L’exemple montre que l’autorisation d’utiliser certaines données est acceptée involontairement, parce que les gens ne sont pas en mesure de comprendre l’ensemble du manuel. De plus, ils souffrent d’une lassitude du consentement en raison du grand nombre d’autorisations qu’ils doivent accorder continuellement sur l’utilisation des données. Cela soulève la question de savoir où se situe la responsabilité dans ce processus : faut-il s’attendre à ce que l’utilisateur passe au crible les conditions pour chaque dispositif ? Ou bien les fabricants de tous ces appareils portent-ils également une part de responsabilité ? Ne devraient-ils pas assurer une certaine attente raisonnable en matière de protection de la vie privée ?

Grâce à l’IdO, nous pouvons en fait être suivis partout, ce qui peut conduire à une énorme transparence au détriment de notre vie privée. Dans la plupart des cas, les données recueillies par les brosses à dents intelligentes, les thermostats, les téléviseurs, les réfrigérateurs et les machines à laver sont la propriété du fabricant et non de l’utilisateur. La maison, que nous considérons comme notre domaine privé, devient ainsi transparente. Les appareils IdO, que nous faisons rentrer chez nous pour augmenter notre confort quotidien, sont des espions qui communiquent sans relâche avec leurs fabricants. La distinction entre notre intérieur et le monde extérieur s’estompe, car les murs et les rideaux ne protègent plus la maison des regards indiscrets. C’est pourquoi Koops et Prinsen[1] plaident en faveur de la protection des citoyens contre l’espionnage digitale. L’objectif est d’assurer une vie privée digitale. Cela devrait assurer une protection contre l’observation de l’extérieur à l’aide d’objets connectés, de sorte que les citoyens disposent d’un endroit où ils peuvent être eux-mêmes en toute intimité.

Surveillance omniprésente

Tout comme l’IdO, les robots contribuent à accroître les possibilités de collecte de données dans des situations où il n’y avait auparavant aucune collecte de données digitales. Les technologies robotisées peuvent être déployées de diverses façons pour surveiller certaines situations, comme le bien-être d’un patient, l’état d’esprit d’un conducteur de voiture ou la sécurité dans la rue. En conséquence directes, les technologies robotisées peuvent envahir notre vie privée de toutes sortes de façons. Les robots et la domotique, par exemple, peuvent surveiller les gens, enregistrer et transmettre des détails sur leur condition physique, et même permettre à une personne malade d’être surveillée 24 heures par jour. Comme ces données génèrent beaucoup d’information sur les hauts et les bas quotidiens des bénéficiaires de soins, elles soulèvent des questions sur leur vie privée. Les bénéficiaires de soins ne souhaiteront pas, par exemple, être enregistrées continuellement dans leur intimité. Cette question est plus complexe lorsqu’il s’agit de personnes âgées atteintes de démence : dans quelle mesure peuvent-elles être conscientes de la présence d’une telle intrusion ?

L’amélioration de la protection de la vie privée, mais à quel prix ?

En ce qui concerne la protection de la vie privée, la technologie biométrique est une arme à double tranchant. Elle peut être utilisée pour protéger la vie privée, quand seule une quantité minimale d’informations est nécessaire pour déterminer si une personne a le droit, par exemple, d’entrer dans un bâtiment ou d’acheter de l’alcool. D’autre part, comme la biométrie permet de recueillir des informations sensibles, il peut être difficile de contrôler ce qui est fait de ces informations, surtout maintenant que cette technologie a atteint le stade de l’application dans de nombreux autres dispositifs et situations.

Illustrons nos propos avec l’exemple des e-Gates. La biométrie est mise en œuvre de telle sorte que la vie privée est garantie. L’identité de l’utilisateur n’est pas divulguée, seule l’authentification a lieu : le visage devant la caméra est-il le même que dans le passeport ? La vérification peut également être effectuée en comparant les caractéristiques biométriques d’une personne avec les informations déjà stockées à son sujet. Par exemple, si les cavistes utilisent un système biométrique d’empreintes digitales pour vérifier qu’une personne est âgée de plus de dix-huit ans, tout ce qu’ils ont besoin de savoir, c’est que l’information contenue dans l’empreinte digitale appartient à une personne de plus de dix-huit ans. Le nom du client n’est pas important. La biométrie peut donc être un bon moyen de prouver la légitimité tout en préservant la vie privée. Mais comment être sûre que l’application s’arrêtera là ?

D’autres applications de la biométrie visent particulièrement l’identification et la reconnaissance. Par exemple, le profil facial d’une personne est comparé à une base de données pour voir si la personne numérisée apparaît dans cette base de données. Cette technique est appliquée dans les enquêtes policières ou pour l’exploitation des caméras de sécurité dans les espaces publics. Cette utilisation est réglementée par la loi. Il est important que ces informations hautement sensibles soient stockées de manière sûre et sécurisée. Les données biométriques peuvent notamment contenir des informations sur la santé et l’origine ethnique des personnes. Il pourrait être indésirable, par exemple, qu’une compagnie d’assurance ou un employeur obtienne ces informations. Ce problème est aggravé par le fait que les méthodes modernes d’identification biométrique peuvent également donner des indications sur les risques sanitaires d’une personne. Une scintigraphie de l’iris peut, par exemple, détecter le diabète ou l’hypertension artérielle. Des irrégularités dans les empreintes digitales peuvent indiquer une leucémie ou un cancer du sein.

Ces dernières années, la biométrie a fait d’énormes progrès. La présence de grandes bases de données avec photos, leur accessibilité par des logiciels et l’omniprésence des caméras dans les téléphones intelligents assurent l’adoption de la technologie de reconnaissance faciale dans un éventail toujours plus large de situations. Les scientifiques américains ont montré qu’en utilisant la technologie de reconnaissance faciale et les données publiques dans les profils Facebook, ils pouvaient identifier un tiers des étudiants sur un campus universitaire[2] et ceci en 2014. Vous pouvez imaginer ce qui pourrait être identifié aujourd’hui. On craint que la technologie de reconnaissance faciale accessible n’aboutisse à une situation où il ne serait plus possible de marcher dans la rue de façon anonyme. L’application FindFace[3], lancée en Russie en 2016, permet aux utilisateurs de comparer une photo, qu’ils ont prise d’une personne dans la rue, avec des photos de profil sur Vkontakte — l’équivalent russe de Facebook — afin de découvrir son identité. « Si vous voyez quelqu’un que vous aimez, vous pouvez le photographier, découvrir son identité, puis lui envoyer une demande d’ami », selon l’un des créateurs de l’application[4]. Il est intéressant de voir que le service que peuvent fournir ces applications est toujours illustré très positivement. Dans ce même exemple, on peut facilement imaginer ce que peut faire un gouvernement totalitaire ou une personne malveillante avec ce genre de technologie.

La prochaine génération de biométrie ne donne pas seulement un aperçu de « qui vous êtes », mais se concentre aussi sur la question « comment vous vous sentez »[5]. La technologie de reconnaissance des émotions, par exemple, donne un aperçu de l’état d’esprit des gens. Elle peut même être utilisée pour exposer les émotions que les gens essaient de cacher, en examinant les commentaires non verbaux identifiés par des tics involontaires des individus[6]. Il s’agit d’une intrusion d’un nouveau genre de la vie privée, à savoir la « vie privée mentale ». Nous parlons du droit et de la capacité des gens à garder secret ce qu’ils pensent et ressentent. En plus des expressions faciales, d’autres formes de comportement peuvent être analysées. Certaines façons de marcher, les grimaces et autres expressions faciales peuvent révéler quelque chose sur une personne et son comportement. Les quantités d’informations, que les individus fournissent inconsciemment, semblent sans limites. Ainsi, la collecte de ces informations peut se faire à distance et secrètement, par exemple en insérant une technologie de reconnaissance faciale dans les mannequins de magasins[7], à l’insu de la personne observée. C’est le cas des mannequins EyeSee, fabriqués par une société italienne. Les mannequins sont équipés d’un logiciel de reconnaissance faciale qui suit l’âge, le sexe et la race des clients qui entre dans les magasins de détail. Ces données permettent aux magasins ou à aux marques d’ajuster leur stratégie de vente.

« Little Brother » et le mauvais usage des avatars virtuels

Un développement très controversé dans le domaine de la Réalité Augmentée (RA) est Google Glass. Lancé en 2013, cet ordinateur portable conçu en forme de paire de lunettes projette l’information sur un petit écran devant vous. Début 2015, Google a cessé de fabriquer Google Glass en tant que produit de consommation afin de se concentrer sur les applications commerciales. Je vous conseille de lire l’article de The Guardian[8] sur le sujet. L’une des raisons pour lesquelles le lancement public de Google Glass s’est effondré est due à un scandale public concernant la possibilité de filmer les conversations privées et les interactions sociales (non sollicitées) avec ces lunettes. Le développement de la RA suscite des inquiétudes au sujet d’un scénario dit du « Little Brother ». Au lieu d’un gouvernement qui espionne tout le monde, ce sont les citoyens et les entreprises qui s’espionnent continuellement les uns les autres. Les lunettes ou lentilles intelligentes sont idéales pour suivre les gens et les espionner sans qu’ils s’en rendent compte. Surtout si ces lunettes ou lentilles AR sont équipées d’une application de reconnaissance faciale, l’utilisateur obtient des informations en temps réel sur la personne qui est devant lui. Les lunettes permettent ainsi à l’utilisateur d’enregistrer toutes sortes d’informations sans que d’autres voient que l’enregistrement a lieu. Le fait que cela soit contraire à la loi ne gênera probablement pas les agresseurs, car il est presque impossible de les retrouver.

De plus, les lunettes ou lentilles intelligentes soulèvent une autre question : à qui appartiennent les images que les lunettes enregistrent ? En d’autres termes : le porteur de lunettes ou de verres intelligents a-t-il des droits exclusifs sur ses propres observations ? Google a déposé et obtenu un brevet pour la technologie qui permet à l’entreprise, en suivant les mouvements des yeux, de voir ce que la personne qui porte Google Glass regarde. De cette façon, l’entreprise dispose non seulement de l’image que le porteur de lunettes voit, mais elle obtient également des informations sur le moment précis et ce que le porteur regarde. D’autres entreprises qui enregistrent des images peuvent faire un très bon usage de ces données pour le profilage et ainsi les intégrer dans leur modèle économique. Ce sont des informations monnayables et les entreprises l’ont bien compris. La data est devenue un produit précieux.

La question de la vie privée dans la Réalité Virtuelle (VR) concerne le suivi des nouveaux comportements des individus dans les espaces virtuels. Les fabricants de jeux comme Knack[9] démontrent que la manière dont quelqu’un joue à un jeu dans le monde virtuel nous apprend énormément sur sa personnalité, comment il interagit avec les autres et comment il résout ses problèmes[10]. Plus l’interaction sociale se déplace vers les réseaux sociaux dans la RV (c’est l’objectif de Facebook), plus l’impact sur la vie privée est important. En outre, la surveillance continue peut conduire au conformisme social, à une authenticité réduite et à l’autocensure selon O’Brolchain[11].

Aperçu de toutes les interactions au sein des plateformes

La question de la protection de la vie privée s’applique également aux plateformes digitales. L’administrateur de la plateforme peut suivre toutes les transactions et interactions qui ont lieu au sein de sa plateforme. Un bon nombre de ces transactions contiennent des informations sensibles. Les plateformes peuvent facilement suivre leurs utilisateurs à l’aide d’outils simples. En particulier, la façon dont Uber (employés) a traité la vie privée non seulement de ses chauffeurs, mais aussi de ses clients a suscité beaucoup d’intérêt selon B.Rogers[12]. Il a été rapporté qu’Uber utilisait son système de suivi en temps réel « God View » sur les clients et les chauffeurs. Le blog d’un employé d’Uber, qui a d’ailleurs été supprimé, s’est vanté que, sur la base des données recueillies, Uber est capable d’évaluer lequel de ses clients a eu une aventure d’un soir. Ils peuvent tirer cette conclusion lorsque deux clients différents sont déposés le soir à une même adresse où aucun d’eux ne vit, et qu’ils sont pris en charge le matin et conduits chacun à leur propre adresse[13]. Après avoir payé une amende de 20 000 dollars au ministère de la Justice à New York City, Uber a renforcé sa politique de confidentialité. « God View » a depuis été rendu anonyme et le nombre d’employés qui peuvent accéder aux renseignements personnels des conducteurs a été réduit. En outre, les données de localisation des pilotes et des clients Uber sont cryptées[14]. Ces données peuvent toutefois être consultées avec un mot de passe connu d’Uber. Une surveillance stricte des lignes directrices en matière de protection de la vie privée pour les plateformes qui ont tendance à se soustraire à la réglementation semble grandement nécessaire. De cette manière, il est possible de savoir quelles données sont collectées, comment sont-elles collectées et utilisées et comment sont-elles revendues ?

Surveillance de masse

Les experts craignent également que l’IA puisse être utilisée pour la surveillance de masse.

En Chine, cette peur semble devenir une réalité. Dans diverses municipalités chinoises, la combinaison de la technologie de reconnaissance faciale et de l’IA est utilisée au profit des autorités pour réprimer la criminalité[15].

La superpuissance mondiale est connue pour son autoritarisme social, le culte de la personnalité du défunt président Mao Zedong étant encore très répandu dans tout le pays, quatre décennies après sa mort. Et les critiques disent que la poussée de la nation vers une surveillance totale n’est rien de moins qu’un cauchemar vers un état totalitarisme.

La Chine abrite actuellement environ 200 millions de caméras de surveillance, selon un rapport du New York Times publié en juin 2018. C’est aussi le seul pays au monde qui déploie un « système de crédit social ». Connu sous le nom anodin de « crédit social », ce système est conçu pour atteindre tous les aspects de l’existence, en ligne et hors ligne. Il surveille le comportement de chaque individu, sa conduite sur les réseaux sociaux et les infractions réelles telles que des contraventions pour excès de vitesse ou des querelles avec les voisins. Ensuite, il les intègre dans un seul score de « sincérité » déterminé par un algorithme. Chaque citoyen chinois reçoit un score digital de sa fiabilité et de sa vertu. Ce score ouvre l’accès ou non à tous les services du pays, du vol d’avions à l’inscription à un site de rencontre. En principe, dans tous les cas, ce numéro déterminera les possibilités offertes aux citoyens, les libertés dont ils jouissent et les privilèges qui leur sont accordés.

La Chine, qui se bat pour devenir le leader mondial de l’IA d’ici 2030, veut porter la valeur de son secteur de l’IA à 1 000 milliards de yuans (146,6 milliards de dollars). Le pays verse des milliards de dollars dans le secteur pour aider à faire avancer ce projet ambitieux.

SenseTime (https://www.sensetime.com/) est l’une des sociétés qui dirigent la fusion de l’IA et de la technologie de reconnaissance faciale. Considéré comme la start-up d’IA la plus précieuse au monde, avec une évaluation de 4,5 milliards de dollars, SenseTime soutenu par Alibaba fournit aux autorités de Guangzhou et de la province du Yunnan une identification faciale alimentée par l’IA.

SenseTime indique sur son site Web que le bureau de la sécurité publique de Guangzhou a identifié plus de 2 000 suspects depuis 2017 avec l’aide de la technologie.

Toby Walsh[16], professeur en intelligence artificielle à l’Université de Nouvelle-Galles-du-Sud (Australie) a déclaré que la surveillance figurait en haut de sa liste des ramifications effrayantes découlant de l’IA.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.


[1] Koops, E. J., & Prinsen, M. M. “Glazen woning, transparant lichaam: Een toekomstblik op huisrecht en lichamelijke integriteit”, 2005, Nederlands Juristenblad, 80(12), 624–630.

[2] Acquisti, A., Gross, R., & Stutzman, F, “Face recognition and privacy in the age of augmented reality”, 2014,  Journal of Privacy and Confidentiality, 6(2), 1–20.

[3] https://findface.pro/en/

[4] Walker, S, “Face recognition app taking Russia by storm may bring end to public anonymity”, 17 mi 2016, The Guardian; https://theguardian.com/technology/2016/may/17/findface-face-recognition-app-end-public-anonymity-vkontakte.

[5] Mordini, E., Tzovaras, D., & Ashton, H, “Second generation biometrics: The ethical, legal and social context”, 2012, The International Library of Ethics, Law and Technology (volume 11) (p. 1–19). Dordrecht: Springer.

[6] Dwoskin, E., & Rusli, E. M, « The technology that unmasks your hidden emotions », 28 janvier 2015, Wall Street Journal ; https://wsj.com/articles/startups-see-your-face-unmask-your-emotions-1422472398#:bLk8dH_DkLSJvA.

[7] https://www.wired.co.uk/article/mannequin-spies-on-customers

[8] http://www.theguardian.com/technology/2015/jul/31/google-glass-wearable-computer-businesses.

[9] Knack produit ce qu’on appelle des jeux d’évaluation, des jeux informatiques conçus pour tester les performances des personnes dans une situation de travail.

[10] D.Peck, “They’re watching you at work”, Décembre 2013, The Atlantic; http://www.theatlantic.com/magazine/archive/2013/12/theyre-watching-you-at-work/354681/.

[11] F. O’Brolchain, , T. Jacquemard, , D. Monaghan, , N.O’Connor, P.Novitzky, B. Gordijn. “The convergence of virtual reality and social networks: Threats to privacy and autonomy”, 2016, Science and Engineering Ethics, 22(1), 1–29.

[12] B. Rogers, “The social costs of Uber”, 2015, The University of Chicago Law Review Dialogue, 82, 85–102.

[13] http://www.whosdrivingyou.org/blog/ubers-deleted-rides-of-glory-blog-post.

[14] http://www.buzzfeed.com/johanabhuiyan/uber-settles-godview#.yvb4dKlNR.

[15] John Harris, « The Tyranny of algorithmes is part of our lives : soon they could rate everything we do », Mars 2018, https://www.theguardian.com/commentisfree/2018/mar/05/algorithms-rate-credit-scores-finances-data

[16] Toby Walsh, « 2062 : The world that AI Made », 2018, éditeur : LA TROBE University Press

Summary
Article Name
La Transformation Digitale et ses enjeux sociaux : Et si nous parlions de votre vie privée ?
Author