Ce billet est un article invité. Il a été rédigé par Océane Mignot sur le blog de Bertrand Jouvenot.

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

Il semble y avoir un consensus sur les avantages positifs que l’IA peut apporter à la société. En même temps, il y a aussi une crainte sous-jacente fondée sur la croyance que les systèmes d’IA dépasseraient un jour l’intelligence et les capacités humaines, une ligne de pensée qui mène à de nombreux scénarios apocalyptiques. Stephen Hawking, Bill Gates, Elon Musk et d’autres ont tous exprimé de sérieuses inquiétudes au sujet du développement incontrôlé des applications d’IA, déclarant à plusieurs reprises que l’IA pourrait représenter la plus grande menace existentielle pour l’humanité. Il me semblait donc intéressant de s’attarder sur deux domaines sensibles tels la Défense nationale et la médecine en parlant de l’éthique IA associées à ces domaines.

La Défense nationale :

L’avènement de ce qu’on appelle les « robots tueurs » et d’autres utilisations de l’IA dans les applications militaires a fait craindre que la technologie ne finisse par déboucher sur une guerre.

Le chef de la direction de Tesla, Elon Musk, connu pour son point de vue ouvert sur l’IA a averti l’an dernier que la technologie pourrait entraîner la troisième guerre mondiale.

Bien que connu pour son hyperbole, le commentaire de E.Musk a mis l’accent sur une crainte très réelle pour les experts. Certains analystes et militants soutiennent que le développement d’armes autonomes meurtrières et l’utilisation de l’IA dans la prise de décision militaire créent une multitude de dilemmes éthiques, et ouvrent la possibilité de guerres renforcées par l’IA, ou dirigées par l’IA.

Il y a même un groupe d’ONG (organisations non gouvernementales) qui se consacre à l’interdiction de ces machines. La campagne pour arrêter les robots tueurs, mise en place en 2013, appelle les gouvernements à empêcher le développement de drones et d’autres véhicules à pilotage IA[1].

Frank van Harmelen, chercheur en intelligence artificielle à l’Université Libre d’Amsterdam, a déclaré que même s’il ne croyait pas que l’utilisation du mot « effrayant » pour décrire l’intelligence artificielle était tout à fait exacte, l’utilisation de ces armes devrait effrayer tout le monde.

« Le seul domaine où je pense vraiment que le mot “effrayant” s’applique est celui des systèmes d’armes autonomes… des systèmes qui peuvent ou non ressemblé à un robot », « Tout système informatique, AI ou non, qui décide automatiquement de la vie et de la mort — par exemple, en lançant un missile — est une idée vraiment effrayante. » a dit M. Harmelen.

Cette année, le think tank de défense américaine Rand Corporation a averti dans une étude que l’utilisation de l’IA dans des applications militaires pourrait donné lieu à une guerre nucléaire d’ici 2040[2].

Le raisonnement derrière cette prévision audacieuse était basé sur le risque qu’un système militaire d’IA commette une erreur dans l’analyse d’une situation, amenant les pays à prendre des décisions irréfléchies et potentiellement catastrophiques.

Ces inquiétudes découlent d’un incident tristement célèbre survenu en 1983, lorsque l’ancien officier militaire soviétique Stanislav Petrov a remarqué que les ordinateurs russes avaient incorrectement lancé un avertissement selon lequel les États-Unis avaient lancé des missiles nucléaires, évitant ainsi une guerre nucléaire.

Médecins robots :

Les experts s’entendent pour la plupart sur les avantages que l’IA procurera aux médecins, comme le diagnostic précoce des maladies et l’accélération de l’efficacité globale des soins de santé. Néanmoins, certains médecins et universitaires se méfient du fait que nous pourrions nous diriger trop rapidement vers des pratiques médicales fondées sur les données.

L’une des craintes des universitaires est que les gens attendent trop de l’intelligence artificielle, en supposant qu’elle peut aboutir au genre d’intelligence générale que les humains possèdent pour résoudre un large éventail de tâches.

« Toutes les applications réussies de l’IA à ce jour sont incroyablement réussies, mais dans un domaine d’application très étroit », a déclaré Alan Bundy, professeur à l’Université d’Édimbourg.

Selon Alan Bundy, ces attentes pourraient avoir des conséquences désastreuses pour une industrie comme celle des soins de santé. « Une application de diagnostic médical, qui est excellente pour les problèmes cardiaques, pourrait diagnostiquer un patient atteint d’un cancer avec une forme rare de problème cardiaque, avec des résultats potentiellement mortels », a-t-il dit[3].

Dans un article de juillet 2018[4] de Casey Ross et Ike Swetlitz, une publication axée sur la santé, on cite des documents internes d’IBM montrant que le superordinateur Watson du géant de la technologie avait fait de multiples recommandations « dangereuses et incorrectes » sur le traitement du cancer. Selon l’article, le logiciel n’a été formé que pour traiter un petit nombre de cas et de scénarios hypothétiques plutôt que des données réelles sur les patients.

« Nous avons créé Watson Health il y a trois ans pour relever certains des plus grands défis en matière de soins de santé, et nous sommes heureux des progrès que nous réalisons », a déclaré un porte-parole d’IBM.

Le porte-parole a ajouté : « En même temps, nous avons appris et amélioré Watson Health sur la base de retour continue des clients, de nouvelles preuves scientifiques et de nouveaux cancers et traitements alternatifs. Cela comprend 11 versions de logiciels pour une fonctionnalité encore meilleure au cours de l’année écoulée, y compris des lignes directrices nationales pour les cancers allant du côlon au cancer du foie ».

Une autre préoccupation importante est l’éthique sur la vie privée des patients. En effet, le volume de données absorbé par les ordinateurs, ainsi que les algorithmes pilotés par les données qui automatisent les applications sont-ils suffisamment sécurisés ? On constate, malheureusement, trop souvent que la sécurité n’est pas sans failles comme en témoigne la dernière affaire avec Facebook. De plus, les données sont brassées par des entreprises privées qui savent très bien que la vente de ses données est très lucrative. Comment s’assurer qu’elles restent confidentielles ?

Le marché du Big Data, maintenant une industrie de plusieurs milliards de dollars couvrant tout secteur, du commerce à l’hôtellerie, montre que la quantité de renseignements personnels qui peuvent être recueillis par des machines a atteint une taille insondable. Aujourd’hui, la préoccupation première concerne la quantité de données stockées et l’endroit où elles sont partagées.

Prenez DeepMind, par exemple. La société d’IA détenue par Google a signé un accord avec le National Health Service du Royaume-Uni en 2015, lui donnant accès aux données sur la santé de 1,6 million de patients britanniques[5]. Grâce à ce système, les patients ont remis leurs données à l’entreprise afin d’améliorer la capacité de ses programmes à détecter les maladies. Elle a mené à la création d’une application appelée Streams[6], qui vise à surveiller les patients atteints de maladies rénales et à alerter les cliniciens lorsque l’état d’un patient se détériore.

Mais en 2017, le Bureau du Commissaire à l’information (appelé aussi ICO) du Royaume-Uni a statué que le contrat entre le National Health Service et DeepMind « ne respectait pas la loi sur la protection des données ». L’ICO a déclaré que le Royal Free Hospital de Londres, qui a travaillé avec DeepMind dans le cadre de l’accord, n’était pas transparent quant à la manière dont les données des patients seraient utilisées[7].

Extrait de l’ouvrage : « La Transformation Digitale des entreprises : Principes, exemples, Mise en œuvre, impact social », Edition Maxima, Océane Mignot, Février 2019.

[1] https://www.tdg.ch/geneve/geneve-internationale/Les-ONG-en-guerre-contre-les-robots-tueurs/story/11626933

[2] Edward Geist, Andrew J.Lohn, «  How Might artificial intelligence affect the risk of Nuclear war », https://www.rand.org/pubs/perspectives/PE296.html

[3] A. Bundy, « Review of Preparing for the Future of Artificial Intelligence », Mai 2017,  AI and Society. 32, 2, p. 285-287 4 p

[4] https://www.statnews.com/2018/07/25/ibm-watson-recommended-unsafe-incorrect-treatments/

[5] Ben Quinn, « Google given access to healthcare data of up to 1.6 million patients », mai 2016, https://www.theguardian.com/technology/2016/may/04/google-deepmind-access-healthcare-data-patients

[6] https://deepmind.com/applied/deepmind-health/working-partners/how-were-helping-today/

[7] Julia Powles, Hal Hodson, « Google DeepMind and healthcare in an age of algorithms », Mars 2017.

Summary
Article Name
La Transformation Digitale et ses enjeux sociaux : Et si nous parlions de l’éthique de l’IA dans les domaines de la Défense national et de la médecine?
Description
Il semble y avoir un consensus sur les avantages positifs que l'IA peut apporter à la société. En même temps, il y a aussi une crainte sous-jacente fondée sur la croyance que les systèmes d'IA dépasseraient un jour l'intelligence et les capacités humaines, une ligne de pensée qui mène à de nombreux scénarios apocalyptiques. Stephen Hawking, Bill Gates, Elon Musk et d'autres ont tous exprimé de sérieuses inquiétudes au sujet du développement incontrôlé des applications d'IA, déclarant à plusieurs reprises que l'IA pourrait représenter la plus grande menace existentielle pour l'humanité. Il me semblait donc intéressant de s’attarder sur deux domaines sensibles tels la Défense nationale et la médecine en parlant de l’éthique IA associées à ces domaines.
Author
%d bloggers like this: