L’intelligence artificielle apporte son lot de bienfaits et de méfaits. Mais quel est son vrai visage ? Une étude approfondie des algorithmes les plus en vue, de Google à Uber en passant par Watson, Siri, Alexa (Amazon) ou Google Assistant, dresserait sans-doute un état des lieux alarmant. L’heure est grave! Il convient de reprendre la main avant qu’il ne soit trop tard. La construction d’une matrice, destinée à échafauder le meilleur scénario de collaboration entre l’homme et la machine, reste à inventer. Pour l’heure, en voici une première ébauche.

 

L’homme doit désormais apprendre à collaborer avec la machine

L’intelligence artificielle est désormais partout. Elle envahit nos vies. Inutile de résister. Il est préférable de faire alliance avec la machine pour tirer le meilleur de notre future collaboration avec elle. Rappelons que les premiers enseignements tirés permettent déjà de dégager quelques conclusions encourageantes : l’homme peut progresser au contact d’une intelligence artificielle, l’homme et la machine pourraient s’avérer très complémentaires, nous ne sommes que dans l’enfance de l’intelligence artificielle, les machines devraient pouvoir de plus en plus s’adapter à nous, etc… Cependant, l’intelligence artificielle charrie également son lot de désastres : destruction d’emplois, ingérence dans nos vies, non-respect de la vie privée, interférence dans la vie politique, amplifications de fake news, création de richesse au détriment de la prospérité, nouvelles formes d’insécurité, extension de la criminalité…

 

La Matrice de la collaboration homme-machine

Puisqu’il est entendu que nous devrons tôt ou tard, bon gré mal gré, coopérer de plus en plus avec des robots (nous entendons par robots tout ce qui a trait à l’intelligence artificielle, aux algorithmes, aux avatars, aux assistants vocaux, aux bornes intelligentes, à la robotique…), il est temps de tracer à grands traits les bases d’une nouvelle matrice à même de nous guider, de nous éclairer et de nous permettre de garder le contrôle de cette future collaboration.

Deux axes clés

Si l’homme et la machine doivent collaborer en vue de mettre en synergie leurs forces, leurs capacités et leurs atouts respectifs, deux axes peuvent être tracés :

Figure 1

En abscisse, un axe représentant le niveau de collaboration de l’homme avec la machine. Plus la collaboration est élevée, plus l’algorithme étudié sera positionné à droite.

En ordonnée, un axe représentant le niveau de collaboration de la machine avec l’homme. Plus la collaboration est élevée, plus l’algorithme sera positionné vers le haut.

Quatre configurations possibles

Il en ressort quatre scénarios possibles.

Dans le carré A, situé en haut à gauche (de la figure ci-dessous), la collaboration n’est pas optimale puisque la collaboration de l’humain n’est pas totale, qu’il en soit d’ailleurs responsable ou non. Il en ressort une combinaison asymétrique dans laquelle la machine tire un avantage au détriment de l’homme.

Figure 2

Dans le carré B, situé en haut à droite (de la figure ci-dessous), la collaboration est optimale puisque l’humain et la machine collaborent l’un et l’autre pleinement, en synergie. Il en ressort un résultat maximisé.

Figure 3

Dans le carré C, situé en bas à gauche (de la figure ci-dessous), la collaboration n’est pas optimale puisque la machine ne collabore pas réellement. Il en ressort une combinaison asymétrique dans laquelle l’homme tire un avantage au détriment de la machine.

Figure 4

Dans le carré D, situé en bas à droite (de la figure ci-dessous), la collaboration n’est pas optimale puisque ni la machine ni l’homme ne collaborent pleinement. Il en ressort un résultat minimisé qui pénalise les deux protagonistes.

Figure 5
Un scénario idéal

Le scénario idéal est naturellement celui où l’homme et la machine sont en synergie, pour le plus grand bénéfice de l’un et de l’autre, au point de parvenir ensemble, non seulement à produire un résultat qui n’aurait pas pu être obtenu autrement, mais également un résultat qui n’avait pas été envisagé préalablement.

Figure 6

 

La nécessaire détermination de la nature de la collaboration

Ceci étant posé, il convient à présent de définir la collaboration de l’homme vis à vis de la machine, puis de la machine vis-à-vis de l’humain et enfin, leur effort mutuel.

L’effort de collaboration de l’homme avec la machine

Douze critères peuvent permettre d’évaluer la collaboration de l’homme vis-à-vis de la machine au sein de cette relation homme-machine :

Figure 7

Ainsi, l’humain :

  1.  Se comporte comme un maître donnant des instructions à un serviteur, tout en écoutant, malgré tout, ses remarques d’expert.

2. Considère l’algorithme comme un travailleur et se comporte lui-même comme un manager (précisant les objectifs, recueillant des feedbacks, prenant des décisions…).

3. Fournit des instructions claires et non ambiguës.

4. S’efforce de comprendre la propre logique de l’algorithme ainsi que ses progrès spécifiques.

5. Utilise au moins 25% des capacités de l’algorithme.

6. Admet qu’il n’est pas capable d’envisager toutes les contingences possibles.

7. Utilise un système d’alertes pour réguler l’équilibre du pouvoir entre l’homme et la machine.

8. Appréhende l’algorithme avec un esprit ouvert, sans agenda caché, sans peur ni préjugé.

9. Se manage lui-même (stress, fatigue, doute, échecs, épuisement…).

10. Se benchmark lui-même avec d’autres humains vivant la même expérience.

11. Evite d’entrer en compétition avec l’algorithme.

12. Revoit constamment ses hypothèses au sujet du comportement de l’algorithme.

L’effort de collaboration de la machine avec l’humain

Dix critères peuvent permettre de mesurer le degré de collaboration de l’algorithme vis-à-vis de la machine, au sein de cette relation homme-machine :

Figure 8

Ainsi, la machine :

  1. Suit scrupuleusement les trois règles de la cybernétique :

a/ un robot ne peut porter atteinte à un être humain, ni, en restant passif, permettre qu’un être humain soit exposé au danger ;

b/ un robot doit obéir aux ordres qui lui sont donnés par un être humain, sauf si de tels ordres entrent en conflit avec la première loi ;

c/ un robot doit protéger son existence tant que cette protection n’entre pas en conflit avec la première ou la deuxième loi.

Le mot « atteinte » n’est pas ici limité à une acception étroite qui n’évoquerait que d’éventuelles atteintes physiques, mais à une signification englobant également des possibles atteintes physiques (déstabilisation, harcèlement, burn out…).

2. Dispose d’un ensemble de règles de fonctionnement connues, actualisées, claires et compréhensibles par quiconque.

3. Fournit des données claires, en temps réel, au sujet des progrès de l’homme, de ses propres progrès et de leurs progrès communs.

4. S’adapte à l’homme.

5. Respecte la spécificité de l’utilisateur (prédispositions, niveau, préférences intellectuelles, traits psychologiques majeurs…).

6. Fournit régulièrement des propositions, ou contre-propositions, au sujet du travail effectué en commun, en expliquant pourquoi.

7. S’adapte au rythme de l’utilisateur dans le temps.

8. Prend en compte le fait que les données sur lesquelles il s’appuie peuvent être biaisées.

9. Gère, en toute transparence, l’équilibre entre unsupervised learningsupervised learning et reinforced learning.

10. Effectue des ajustements en continu pour  produire le résultat visé.

 

L’effort de collaboration mutuelle de l’homme et de la machine

En complément, douze critères peuvent permettre de mesurer le degré de collaboration relevant autant de l’homme que de l’algorithme dans cette relation homme-machine :

Figure 9

Ainsi, l’homme et la machine :

  1. Sont d’accord pour réaliser ensemble des sessions de feedback afin d’apprendre ensemble.

2. Partagent une compréhension commune du résultat visé.

3. Mesurent et déterminent en temps réel si le résultat est en cours de réalisation.

4. Réalisent périodiquement des analyses plus approfondies pour évaluer si l’algorithme se comporte conformément aux attentes.

5. Comparent leur propre collaboration avec d’autres binômes hommes-machines.

6. S’efforcent de comprendre en profondeur leurs préférences, leurs modes d’apprentissages, leurs modes de travail, leurs forces et leurs faiblesses respectives.

7. Font preuve d’assertivité.

8. Ont des attentes réalistes et raisonnables vis-à-vis l’un de l’autre.

9. Ne cherchent pas à être meilleur que l’autre dans un domaine où l’autre est précisément le meilleur.

10. Déterminent ensemble le meilleur compromis entre les données nécessaires à l’algorithme pour opérer et les besoins de confidentialité ou de respect de la vie privée de l’homme.

11. Planifient une rééducation de l’algorithme en cas de divergence, de déviance, d’écart entre les attentes et les résultats.

12. Visent une asymétrie de l’information proche de zéro.

 

Le besoin d’une méthode simple mais robuste

Une fois posés, les critères permettant l’évaluer le niveau de collaboration entre l’homme et une, ou plusieurs, intelligences artificielles, peuvent faire l’objet d’une mesure rigoureuse par un système de notation simple, sur une échelle allant de un à dix (un étant le niveau le plus bas de satisfaction du critère et dix son niveau le plus élevé).

 

Figure 10

 

 

Figure 11
Figure 12

La notation, quant à elle, pourra s’effectuer selon différentes modalités :

  • L’auto-évaluation : la notation est effectuée par l’homme impliqué dans cette relation homme-machine.
  • L’évaluation : la notation est effectuée par une autre personne externe et objective (évaluation).
  • L’évaluation automatisée : la notation est effectuée par la machine uniquement.
  • L’évaluation symbiotique : la notation est faite par l’homme et la machine (au cours de leurs séances d’évaluations respectives notamment (cf. critères 3 et 4 de la rubrique « La nécessaire collaboration mutuelle » ci-avant).
  • L’évaluation statistique : la notation provient d’une comparaison avec des relations hommes-machines similaires.

Nous ne nous prononçons pas davantage sur les forces et les faiblesses de ces différentes options, préférant laisser à d’autres experts plus aguerris sur ce point méthodologique précis, le soin de s’exprimer à son sujet.

 

Cinq cas d’écoles à l’épreuve de la matrice

A présent, poursuivons et trempons notre matrice dans la réalité, en l’utilisant pour étudier cinq algorithmes. Trois d’entre eux sont célèbres tandis que les deux autres sont un peu plus confidentiels.

 

Une conception très ambiguë de l’égalité selon Google

La mission de Google consiste à « organiser les informations à l’échelle mondiale pour les rendre accessibles et utiles à tous » (source : Google.fr). Ainsi, Google laisse volontiers croire à chacun que nous serions désormais tous égaux face à l’information. D’ailleurs, son algorithme y travaille sans conteste. Mais pourtant, rien n’est moins évident.

En effet, prenons deux individus : Benoît et Nathalie. Benoît est né dans les beaux quartiers et vient d’entrer à l’université de Harvard après un brillant cursus d’ingénieur. Nathalie, quant à elle, vient d’un milieu plus modeste et, à force de courage, elle fait la fierté de ses parents qui n’ont pas le bac, en ayant été admise à l’IUT d’informatique de la plus grand ville de la région avoisinant le petit village où elle est née. Et l’anglais n’est pas son fort.

Benoît et Nathalie se passionnent l’un comme l’autre pour l’intelligence artificielle. Lorsqu’ils effectuent une recherche à ce sujet dans Google, ils s’y prennent différemment. Benoît tape « Artificial Intelligence » (en anglais) sachant bien que les labs des universités américaines comme le MIT ou Stanford sont à la pointe sur le sujet. Il cliquera d’ailleurs uniquement sur des liens l’orientant vers des sites, en anglais, de centres de recherches prestigieux qu’il connaît. L’algorithme de Google le comprendra et continuera par la suite à lui pousser toujours plus de sites de qualité et en anglais, à chacune de ses nouvelles recherches. De son côté, Nathalie a vaguement entendu parler du MIT et de son Media Lab, mais effectue la requête « Intelligence artificielle » (en français) puis clique sur des liens la conduisant sur des sites en français. Ce faisant, elle invite Google à ne pas lui proposer des sites en anglais (qui pour certains fournissent pourtant des articles sur l’intelligence artificielle lisibles, même par un français allergique à l’anglais).

Certes l’algorithme de Google se montre obéissant, mais est loin de respecter plusieurs des critères mentionnés antérieurement. A titre d’exemple, il ne prend pas en compte le fait que les données sur lesquelles il s’appuie peuvent être biaisées (critère 8). Or ici, Nathalie met l’algorithme de Google sur un mauvais chemin en l’orientant vers le français. Par ailleurs, si Google tient compte des requêtes similaires des autres utilisateurs, il ne donne pas clairement à Benoît l’occasion de comparer sa collaboration avec Google avec d’autres binômes hommes-machines (critère 5). Plus fondamentalement encore, nous sommes loin de viser une asymétrie de l’information proche de zéro (critère 12).

Google occupera donc une place dans le carré A de la matrice.

 

Une asymétrie de l’information flagrante chez Uber

Uber est un autre cas d’école intéressant. Son algorithme n’est délibérément pas équitable et privilégie les utilisateurs au détriment des chauffeurs. Ces derniers se voient par exemple informés, en trop grand nombre, qu’un passager potentiel est non loin d’eux, de sorte que l’utilisateur d’Uber a forcément une voiture rapidement. Les chauffeurs qui n’ont pas eu la chance de prendre ce passager ont perdu du temps, gaspillé de l’essence, etc.

Aux Etats-Unis, bon nombre de chauffeurs qui travaillent à la fois pour Uber et pour Lift, ont abandonné le premier et continuent à travailler pour le second, dont l’algorithme est cette fois-ci davantage orienté vers l’intérêt du chauffeur. Des entreprises comme Sidecar ou SherpaShare tentent d’ailleurs d’uberiser Uber en prenant délibérément le parti des chauffeurs, avec des enchères inversées permettant au chauffeur le mieux positionné, généralement le plus proche, de remporter la course, évitant par là-même à ses confrères de se déplacer pour rien.

Dans ce cas, l’asymétrie d’information est complète et nombreux critères mentionnés ci-avant ne sont pas respectés.

Uber occupera donc une place dans le carré A de la matrice.

 

Un voyeurisme impudique chez  Alexa (Amazon)

Alexa est le nom de l’intelligence artificielle développée par Amazon. Logée à l’intérieur d’une borne, que l’on pose chez soi et à laquelle on parle, cette borne est pire encore que celle proposée par Google pour au moins deux raisons :

Tout d’abord, la borne de Google oblige l’utilisateur à employer le mot Google, lorsqu’il demande quelque chose : « Bonjour Google, peux-tu me dire quelle est la capitale de l’Inde ? », « Bonjour Google, connais-tu le cours du Bitcoin ? », « Salut Google, peux-tu me dire le temps qu’il fera demain à Paris ? » En revanche, la borne d’Amazon, en exigeant que les utilisateurs prononcent le nom d’Alexa pour obtenir des réponses, tente de leur faire oublier qu’ils communiquent avec Amazon, un site pour le moins mercantile.

Ensuite, la borne de Google nécessite une intervention physique de l’homme pour être utilisée : appuyer sur un bouton « Marche / Arrêt ». Cela peut paraître anodin, jusqu’au moment où l’on comprend que la borne d’Amazon est, quant à elle, constamment allumée, en permanence à l’écoute, avec comme arrière-pensée la volonté de déceler des informations qui permettront ensuite au géant du e-commerce d’effectuer des propositions commerciales pertinentes. Des pleurs de bébé lui feront comprendre qu’il y a un petit enfant à la maison et lui permettront de suggérer à ses parents l’achat de couches culottes. La toux de Monsieur encouragera Amazon à mettre en avant des produits parapharmaceutiques. Le bruit d’une assiette qui tombe accompagné par les cris de madame : « Et voilà, encore une assiette cassée » permettront à l’intelligence artificielle d’Amazon de proposer un nouveau service de table.

Inutile de préciser que bon nombre des critères mentionnés précédemment sont bafoués. Cependant, si l’on s’astreint à une évaluation purement rationnelle, il faut admettre que ce que propose ici Amazon est parfaitement efficient, avec la réserve que l’utilisateur peut ne pas nécessairement réaliser que la borne est constamment à l’écoute, peut l’oublier au fil du temps, voire sous-estimer la capacité de l’intelligence artificielle qui s’y cache à œuvrer de manière si puissante, si intrusive et si tentaculaire.

Alexa mérite donc une place en bas à droite du carré A.

 

Une certaine patience chez SaneBox

SaneBox est une solution de gestion de votre boîte e-mail. Elle propose de faire le tri, le ménage et du rangement dans vos e-mails à votre place.

Si vous téléchargez SaneBox, très vite, le site vous expliquera qu’il va, si vous êtes d’accord, créer des dossiers à l’intérieur de votre boîte de courriers entrants : un dossier dans lequel son algorithme placera les e-mails qu’il suppose devant être lus dans l’heure, un autre pour ceux méritant d’être lus une fois par semaine, un autre pour ceux méritant d’être consultés une fois par mois, un dossier pour les spams, un dossier pour des e-mail appelant une réponse, etc. SaneBox sera transparent sur la logique qu’il suit mais surtout se proposera d’apprendre avec vous en se positionnant comme un assistant diligent et obéissant. Chaque fois que vous déplacerez un e-mail d’un dossier à l’autre, pour corriger une mauvaise attribution faite par SaneBox, ce dernier apprendra et ne reproduira plus l’erreur. Exemple, une personne reçoit une facture mensuelle de son opérateur télécom. SaneBox placera l’e-mail dans le dossier « A lire ce mois-ci ». Mais, si cela ne convient pas à l’utilisateur, ce dernier déplacera l’email dans un dossier qu’il a créé et intitulé « Factures à pointer ». Le mois suivant, SaneBoxe l’aura intégré et archivera bien sagement les nouvelles factures mensuelles dans ce même dossier.

SaneBox mérite de figurer dans le carré B de la matrice.

 

Une approche toute en harmonie pour Focus@Will

Focus@Will est un service incroyable. Partant du constat que la musique nous influence en nous donnant envie de danser, en nous aidant à faire du sport, en favorisant notre endormissement, en nous stimulant, en nous faisant rêver, en nous excitant, etc. ses fondateurs ont mis au point une technologie visant à permettre à un salarié d’augmenter sa productivité, justement grâce à la musique.

L’expérience commence par le choix de genres musicaux par l’utilisateur qui retient alors des morceaux qu’il aime et connaît déjà ou teste des musiques qui lui sont proposées. La personne est alors invitée à permettre à Focus@Will de mesurer le temps mis pour réaliser un travail spécifique (exemples : la rédaction d’une proposition commerciale,  la production d’un tableau de suivi des ventes, etc.). Chaque fois qu’un travail est terminé, l’algorithme propose de nouvelles musiques afin de déterminer, par itérations successives, avec le concours actif et consentant de l’utilisateur, les morceaux de musique qui amélioreront encore davantage sa productivité.

La solution Focus@Will mérite sa place dans le carré b de la matrice.

 

 

Usages possibles

Par-delà l’analyse ponctuelle de quelques algorithmes, il convient d’identifier les utilisations possibles de cette matrice à plus long terme. Voici donc une première série d’usages envisageables :

Dans le cadre du développement informatique, les codeurs sont de plus en plus confrontés à une intelligence artificielle ou à des algorithmes qu’ils développent, enrichissent, maintiennent, étudient, utilisent, subissent.

Dans des environnements industriels ou logistiques, dans lesquels les hommes ne sont plus des OS2 depuis longtemps et travaillent de plus en plus avec des robots toujours plus intelligents.

Dans le secteur du digital, naturellement, au sein duquel le service proposé par de nombreuses start-up repose largement sur des algorithmes que les salariés de l’entreprise managent et traitent finalement comme des travailleurs, des collaborateurs,  une nouvelle génération de collègues, en somme.

Pour les ressources humaines et les managers soucieux de production, de productivité, de bien-être au travail, de marque employeur et qui voient de plus en plus leurs équipes ou collaborateurs interagir directement ou indirectement avec des algorithmes (cachés derrière les applications qu’ils utilisent, par exemple).

Pour les politiques confrontés à des phénomènes inédits comme Google (qui touche à la connaissance) ou Airbnb et consort (qui uberisent des secteurs réglementés), ou d’autres, qui influent sur la cybersécurité, ou la cyberdélinquance…

Pour le législateur devant déterminer la responsabilité des uns ou des autres, par exemple, dans le cadre d’un accident causé par une voiture autonome, conduite par un algorithme, qui sont les responsables? Le chauffeur à bord qui n’a pas utilisé le mode manuel, le constructeur du véhicule, le développeur de son algorithme, etc. ?

Dans le domaine de la santé, où les patients laissent de plus en plus des machines collecter des données sur eux, face à un corps médical dont le métier est littéralement colonisé par les nouvelles technologies…

Dans l’éducation, où l’on sait qu’une partie du succès revient au travail personnel de celui qui reçoit un enseignement, dans un monde où chaque élève recourt de plus en plus à Wikipedia, Google et consorts pour se documenter.

Etc.

 

Précautions

L’utilisation de cette matrice devra néanmoins être assortie de précautions. Elles auront tantôt des origines scientifiques, méthodologiques ou pratiques. Parmi les principales, nous pouvons déjà mentionner celles qui figurent ci-dessous :

Le caractère mouvant et hyper évolutif dans lequel fonctionnent les algorithmes (le digital) rendent toute conclusion à leur sujet susceptible d’être frappée d’obsolescence ou même tout simplement invalidée.

La plus ou moins grande perméabilité des individus face aux machines est un élément à prendre en compte. Il est clair qu’un critère comme la génération de l’individu influencera sur la collaboration homme-machine, celui de la nationalité également (les français sont particulièrement sensibles aux questions relatives à la vie privée, à la confidentialité des données, etc. là où les chinois le sont beaucoup moins).

La jeunesse des algorithmes étudiés est aussi à prendre en considération. Rappelons qu’ils ont été développés vite, dans des environnements eux-mêmes nouveaux, avec des technologies émergentes. Il serait donc malvenus de tirer des conclusions trop sévères ou trop hâtives à leur endroit.

L’opacité des entreprises qui éditent ces algorithmes, souvent entourés de beaucoup de secret, est un facteur déterminant dans la véracité de l’analyse.

Les biais liés à la qualité et la fiabilité des données utilisées par l’algorithme sont un élément crucial qui influence nécessairement leur efficience.

La propension de l’homme à demander aux algorithmes de lui ressembler en produisant une intelligence (artificielle) ressemblant par certains aspects à la sienne propre, plutôt qu’à lui être différente, voire étrangère. Rappelons que c’est lorsqu’il a cessé de copier la nature, et notamment les oiseaux, que l’homme a trouvé la solution pour faire voler des avions, qui n’ont aujourd’hui plus rien à voir avec un quelconque animal volant.

La maturité des algorithmes, qui sont encore dans leur propre enfance, sachant qu’ils grandiront peut-être trop vite du fait de leur capacité d’auto-apprentissage hyper rapide, est aussi à garder en tête.

 

Prochaines étapes

La fécondité de cette première réflexion est établie. Vous l’aurez compris, la démarche est spéculative, ouverte, en cours et ressemble à de la peinture fraîche. Rien de définitif ici, puisque nous sommes dans le monde digital, où l’open innovation est désormais une réalité, la collaboration transverse, une possibilité et la mise à jour, une nécessité perpétuelle.

Place à présent au crowdsourcing avec vos contributions et vos commentaires que nous attendons. Si des machines se sentent capables d’apporter leur pierre à l’édifice, elles sont plus que les bienvenues.

Les témoignages, les réactions, les enrichissements intellectuels, les dons ou la mise à disposition de ressources (machines, cerveaux, labs, etc.) sont également bienvenus.

 

 

Remerciements

Nous tenons à remercier ici quelques auteurs dont les ouvrages ont largement favorisé l’élaboration de cette matrice : Tim O’Reilly, Kevin Kelly, Simon Head, Erik Brynjolfsson,‎ Andrew Mcafee, Salim Ismail, Michael Malone, Peter Thiel, Black Masters, Scott Galloway…

 

Bertrand Jouvenot | Consultant | Auteur | Speaker | Enseignant | Blogueur

 

Share