Ethique de l'interaction humain-machineune

AAC – Pour une éthique de l’interaction humain-machine

Print Friendly, PDF & Email

Par Giada Pistilli et Julien de Sanctis

Introduction

L’interaction humain-machine (IHM) est aujourd’hui au cœur des recherches appliquées en intelligence artificielle et en robotique. Cet intérêt grandissant s’explique en partie par la multiplication des artefacts conçus pour simuler quelque chose comme une intériorité (qu’on la nomme conscience, sentience, intelligence ou encore subjectivité) et, ce faisant, d’engager des interactions imitant celles que nous avons entre humains ou avec certains animaux. Contrairement aux interfaces classiques – claviers, écrans, logiciels etc. – dont la raison d’être est de phénoménaliser la “matière calculée” qu’est le numérique pour interagir avec elle[1], ces entités se présentent comme les destinataires de nos interactions. Autrement dit, ils ne sont pas uniquement ce par quoi on interagit, mais toujours aussi ceux avec qui on interagit. Tout semble donc fait pour qu’ils nous apparaissent comme des interlocuteurs et non simplement comme des interfaces. Beaucoup d’entre nous possèdent au moins un de ces artefacts dans leur téléphone, qu’il se nomme Siri, Cortana ou encore Google Assistant. Si l’essor de ces technologies place les IHM à la croisée d’importants enjeux techniques, économiques, scientifiques et sociaux, il soulève également d’essentielles questions philosophiques, à commencer, très simplement, par le double problème de leur “pourquoi” et de leur “pour quoi/qui”. La réponse est loin d’être évidente tant l’utilité de ces artefacts – régime normatif que nous employons généralement par défaut pour évaluer et, bien souvent, définir les technologies – s’avère plus qu’incertaine. Dès lors, est-ce la valeur de l’interaction elle-même qui justifie l’existence des diverses “machines interactionnelles” ou l’inverse ? Que produisent concrètement ces interactions pour faire aujourd’hui l’objet de telles recherches et de tels développements ?

Cet appel à contribution évoquera les IHM à travers deux de ses figures majeures : le chatbot, d’une part, et le robot social, d’autre part. Les réponses des futurs contributeurs et contributrices pourront, toutefois, évoquer d’autres technologies interactives. En outre, si la pensée des techniques s’est longtemps déployée au travers de philosophies unitaires alliant réflexions ontologiques, anthropologiques et évaluatives[2], notre dossier thématique souhaite mettre l’accent sur cette dernière dimension en explorant, dans une optique interventionniste de recherche-action, ce que pourrait être une éthique des IHM. Autrement dit, nous entendons faire honneur à la question des conditions de désirabilité de l’interaction humain-machine. Notons, là encore, que le dossier n’est pas pour autant fermé aux contributions plus spéculatives.

I. Définition des objets de recherche

A. Intelligence artificielle

L’un des principaux liens entre les différentes technologies interactives qui existent aujourd’hui n’est autre que l’intelligence artificielle (IA). L’IA désigne un ensemble de théories et de techniques visant à décomposer et à simuler informatiquement la cognition humaine. Le domaine a donc pour postulat de départ l’idée que nos facultés cognitives (perception, raisonnement, mémoire, calcul, émotions etc.) sont reproductibles sur ordinateur[3]. Toutefois, force est de constater qu’il est encore impossible de reproduire avec précision tous les mécanismes et processus mentaux qui caractérisent l’être humain. En effet, l’état des connaissances scientifiques sur la conscience ou la mémoire, pour ne citer qu’elles, ne permettent pas de les traduire en langage informatique[4]. Un point que les sciences cognitives soulignent et renforcent : il ne s’agit pas uniquement de reproduire ce que la pensée fait, mais aussi de le reproduire exactement de la même manière qu’elle. Au contraire, selon Stuart J. Russell et Peter Norvig, l’intelligence artificielle désigne un domaine scientifique qui a pour objectif de construire des systèmes intelligents[5], mais la question de savoir si l’objectif est de reproduire des systèmes qui pensent comme les humains ou des systèmes qui pensent de façon rationnelle reste incertaine. Afin de se rapprocher le plus possible des capacités cognitives humaines, un champ d’étude particulier de l’IA fait débat depuis quelques années : l’apprentissage automatique (Machine Learning). Sous forme de réseaux de neurones artificiels[6], l’apprentissage automatique permet aux machines d’apprendre à partir de données structurées (apprentissage supervisé) ou non structurées (apprentissage non-supervisé). Cela n’en fait pas des entités pensantes pour autant. Si la question posée par Alan Turing en 1950 « les machines peuvent-elles penser ?[7] » a, pour le moment, trouvé une réponse négative, elles peuvent cependant être remplies d’une quantité de données suffisante pour identifier des liens possibles entre elles : c’est là le cœur de l’apprentissage automatique.

B. Chatbot

Le chatbot est un logiciel conçu pour engager une conversation avec un individu en simulant le comportement humain[8]. Ces logiciels sont parfois qualifiés de « conversationnels » du fait de leur capacité à interpréter puis à répondre aux utilisateurs à l’écrit ou à l’oral. Aujourd’hui, un nombre croissant de chatbots utilise des systèmes d’intelligence artificielle dits de « traitement du langage naturel » (Natural Language Processing, NLP) pour fonctionner. À travers une analyse lexicale, grammaticale, syntaxique et sémantique, ce processus de traitement automatique est une des technologies disponibles pour générer des IHM. L’algorithme du chatbot peut, d’une part, apprendre de manière autonome (grâce à l’analyse des interactions) et, d’autre part, analyser les données qu’il recueille en fonction des fins définies par ses développeurs. L’un des premiers exemples historiques de chatbot est celui d’ELIZA, développé entre 1964 et 1966 par Joseph Weizenbaum, professeur au MIT. Le chatbot visait à simuler par écrit les échanges avec un psychologue rogérien dont la méthode psychothérapeutique consiste à reformuler sous formes de questions les affirmations des patients. Représentant la première génération d’agents conversationnels, ELIZA fonctionnait par reconnaissance de mots-clés, c’est-à-dire sans IA. Au contraire, la dernière génération de chatbot est développée de manière plus sophistiquée en intégrant des technologies d’intelligence artificielle. Le BlenderBot de Facebook[9], par exemple, est un chatbot doté d’une mémoire à long terme capable d’effectuer des recherches sur Internet en temps réel et de prédire un mot en fonction de la séquence terminologique qui le précède. Ceci étant dit, comment les bases de données qui constituent le périmètre de connaissance des agents conversationnels sont-elles construites et entraînées ? Comment faire confiance à la génération de réponses d’un modèle d’IA calibré sur des données trop volumineuses ? De nombreuses études récentes[10] mettent en lumière les risques, tant techniques que moraux, de modèles linguistiques trop importants au profit de modèles plus petits afin d’en garantir un meilleur contrôle.

C. Robots sociaux

La robotique sociale ou sociobotique[11], est un champ de recherche et de développements visant à concevoir des robots capables d’interagir socialement avec l’humain à des fins ludiques, thérapeutiques ou servicielles. Contrairement à leurs « aînés » industriels, la valeur des robots sociaux n’est pas à chercher du côté de la production, mais de l’interaction. On distingue généralement les sociobots des robots dits de services ou « robots sociétaux » (societal robots)[12]. Un robot sociétal est un artefact qui réalise sa fonction en société (contrairement aux robots industriels, confinés dans des usines interdites au public) et ce indépendamment de toute interaction avec l’humain. Les robots de désinfection aux rayons UV ou les robots aspirateurs comme le célèbre Roomba sont de bons exemples de robots sociétaux. Le sociobot, quant à lui, est un robot dont la fonction se confond avec l’interaction ou s’accomplit à travers elle. Le bébé phoque interactif Paro est peut-être le représentant le plus connu du premier cas de figure. Pensé pour servir de compagnon aux personnes âgées atteintes de troubles neurodégénératifs et/ou en manque de socialisation, il se contente de répondre aux caresses qu’il reçoit par divers mouvements et/ou petits cris. On peut alors dire que la fonction de Paro est intrinsèque à l’interaction (FII) en ceci que l’interaction produit ses effets en tant que telle et est ainsi visée pour elle-même. À l’inverse, Pepper, de SoftBank Robotics, peut illustrer le second cas de figure. En effet, l’humanoïde se voit généralement confier des tâches d’accueil et d’information dans les magasins, les gares et autres lieux publics. La fonction est donc ici extrinsèque à l’interaction (FEI) et pourrait se réaliser par d’autres moyens.

Cette distinction fonctionnelle est au cœur des préoccupations en sociobotique et, plus particulièrement, des difficultés que le secteur rencontre sur le marché. En effet, l’état actuel des technologies d’IHM n’offre que peu voire pas de valeur ajoutée aux sociobots pour prendre en charge des FEI. D’autres dispositifs moins coûteux s’en chargent de façon bien plus satisfaisante. À cette heure, l’intérêt de recourir à un sociobot pour s’acquitter de FEI est donc principalement communicationnel. Dès lors, la valeur ajoutée réelle de ces artefacts, quoiqu’encore très potentielle, semble provenir des FII. De façon générale, les roboticiens sont confrontés au défi de la « ré-intéraction » au sens où leurs artefacts doivent être en mesure de pérenniser leurs interactions avec l’humain, qu’elles soient utiles ou non. A cet égard, l’expérience nous apprend que ce sont souvent les sociobots les moins ambitieux techniquement qui réussissent le mieux.

Notons, pour finir, que les robots sociaux ne sont pas uniquement des produits commerciaux, mais aussi voire surtout des « instruments scientifiques[13] » utilisés en recherche pour mieux comprendre la socialité humaine. Ainsi, même si la solitude entraînée par le Covid19 a déclenché une hausse des ventes de robots de compagnie au Japon[14], il est encore assez rare de croiser l’un de ces artefacts « en société », en dehors de l’archipel nippon. A l’heure actuelle, les sorties de laboratoires les plus concluantes pour les sociobots concernent les FII d’accompagnement à la (re)socialisation. Outre le cas des personnes âgées atteintes de troubles neurodégénératifs, les sociobots sont également utilisés auprès des jeunes présentant des troubles du spectre autistique, sous forme de “prothèse communicationnelle”[15] – les adolescents utilisent le robot pour communiquer avec autrui –  ou de compagnon[16].   

II. Vers une éthique des interactions humain-machine ?

Le concept d’interaction a ceci d’intéressant qu’il permet de penser à la fois l’”endroit” et l’”envers” des artefacts en question, c’est-à-dire qu’il offre une prise conceptuelle pour penser les machines elles-mêmes, mais aussi le contexte social dans lequel elles voient le jour. En d’autres termes, prendre l’IHM pour objet de pensée philosophique et, plus précisément, éthique permet de restituer l’analyse des artefacts au sein d’un continuum allant de la conception à l’utilisation. Dès lors, à quelles interactions concrètes ces entités donnent-elle naissance ? Quels effets ont-elles sur la façon dont nous percevons et interprétons leur statut ontologique et moral ? Comment ces interactions sont-elles conçues par les designers et pourquoi ? Comment échappent-elles à leur “scripts[17]” ? Avec quels effets ?

Nous proposons ici d’aborder ce continuum à travers deux pistes de réflexions pouvant, bien sûr, être complétées : un premier axe consacré à la valeur de ces interactions et des artefacts qui les co-constituent (endroit) ; puis un second axe centré sur l’utilisation qui est faite de ces interactions, notamment en termes de récoltes de données (envers).

Premier axe de réflexion : quelle valeur pour les IHM ?

Interagir avec des robots sociaux comme Pepper et Lovot, ou avec un agent conversationnel comme Replika invite à “vivre avec le trouble” (staying with the trouble), selon l’expression de Donna Haraway[18], c’est-à-dire à tisser des liens avec des artefacts dont le statut ontologique et moral est plus qu’incertain. Que penser de ces interactions et des entités qui les co-constituent ? Comme nous l’avons vu avec les robots sociaux, nombre de machines interactives ne présentent aucun autre intérêt que l’attachement qu’elles peuvent susciter. Cet attachement, et plus largement les émotions que certains artefacts sont capables de susciter en nous ont engagé d’intéressants débats sur la scène philosophique internationale. Globalement, deux grandes positions ontologiques et morales peuvent être distinguées. La première analyse les robots et autres « artefacts relationnels[19] » sur la base de critères ontologiques a priori. C’est le cas, notamment, de Sherry Turkle qui considère ces machines comme fondamentalement trompeuses car incapables d’émotions authentiques et donc de réciprocité[20]. Dans cette perspective, les IHM sont jugées, au mieux, amorales et, au pire, immorales, indépendamment de leurs effets concrets. La seconde position rejette cette assignation ontologique a priori au motif qu’il existe une grande diversité d’IHM et que toutes ne peuvent faire l’objet d’une même critique absolutiste. Partant, cette approche cherche à clarifier les intentions qui président à la conception des machines et à étudier finement leurs contextes de déploiement ainsi que leurs effets. Pour les philosophes Paul Dumouchel et Luisa Damiano, par exemple, « [c]réer des robots anthropomorphes qui assistent les jeunes autistes dans le développement de compétences sociales ne revient pas à essayer de les aider en créant l’illusion d’une relation réciproque[21] ».

Second axe de réflexion : IHM et économie des données

Qu’elles prennent la forme d’interactions avec des logiciels ou avec des robots, les IHM ont de plus en plus recours aux données pour se concrétiser. En effet, elles sont indispensables pour le fonctionnement, l’amélioration et l’ajustement des systèmes d’IA et de robotique dans leurs interactions avec l’humain; or, pour ce faire, les entreprises récoltent des données personnelles de manière systématique, parfois sans le consentement préalable de la part de leurs utilisateurs[22]. De quelle manière les données personnelles sont-elles traitées lors des interactions avec des machines ? Sont-elles exploitées pour rendre un meilleur service ou font elles l’objet d’un profit caché des entreprises ? Où sont-elles stockées et comment sont-elles protégées ? À qui ces données appartiennent-elles ? Les travaux d’Antonio Casilli[23] montrent comment les entreprises qui développent ces nouvelles technologies cachent un système obscur de collecte de données au détriment du droit à la privacy de leurs utilisateurs.

De plus, ces systèmes semblent structurellement conçus sur une mécanique d’exploitation humaine qui soulèvent d’importants enjeux de justice sociale : les “travailleurs du clic”[24], à savoir ceux qui se cachent derrière les systèmes d’intelligence artificielle et qui garantissent leur bon fonctionnement – par exemple en annotant les données ou en modérant manuellement des contenus -, sont sous-payés et sont de facto confrontés à des « micro-tâches dont les finalités ultimes leur échappent[25] ». Un exemple est donné par la filiale d’Amazon Mechanical Turk[26] qui propose des services adaptés pour ajuster et améliorer les bases de données et de connaissances des systèmes d’IA, Machine Learning, tout en entraînant ces derniers pour permettre leur automatisation. Or, qui profite de cette société numérique présentées comme automatisée voire autonome mais qui, en réalité, ne fait que sous-traiter les tâches et micro tâches de leur apprentissage à des micro travailleurs sous-payés ? Les données que nous produisons servent-elles à améliorer le service que nous utilisons ou, au contraire, dissimulent-elles un besoin systémique fondamental pour l’existence même de ces services ? Et, de façon plus générale, ces artefacts ne sont-ils pas considérablement plus utiles au système économique en place qu’aux utilisateurs eux-mêmes ?

Informations pratiques

Les propositions de contributions doivent être envoyées aux adresses suivantes avant le 1er décembre 2021 :

julien.de-sanctis@utc.fr et giada.pistilli@paris-sorbonne.fr

Les propositions ne devront pas dépasser 750 mots et préciseront le titre, l’axe dans lequel elles s’inscrivent et cinq mots-clés. Elles doivent être envoyées dans un document PDF anonymisé, pour une évaluation en double aveugle. Merci d’indiquer (uniquement dans le corps du mail) : le nom et prénom de l’auteur, le titre de sa proposition, son affiliation institutionnelle ainsi qu’une adresse mail de contact.

Les articles rédigés ne devront pas dépasser 40 000 caractères espaces compris. Ils devront respecter les normes de présentation de la revue, disponibles sur la page suivante : http://www.implications-philosophiques.org/soumettre-un-article/

Les propositions de contribution et les articles pourront être rédigés en français ou en anglais, à condition que le niveau de langue soit irréprochable.

Calendrier

Date limite d’envoi des résumés : 1er décembre 2021

Réponses aux auteurs : 15 décembre 2021

Envoi de l’article entièrement rédigé : 20 février 2022

Premier retour aux auteurs :  juin 2022

Envoi de la version finale de l’article : septembre 2022

Publication prévue :  hiver 2022


[1] Stéphane Vial, L’être et l’écran. Comment le numérique change la perception, PUF, 2013.

[2] Jean-Yves Goffi, Philosophie de la technique, Paris, Puf, coll. « Que sais-je ? », 1988.

[3] Jean-Gabriel Ganascia, L’intelligence artificielle : vers une domination programmée ?, éditions du Cavalier Bleu, 2017.

[4] Codes, formules mathématiques, algorithmes…

[5] Stuart J. Russell, Peter Norvig, Artificial Intelligence : A modern approach, 3ème éd., New York, Pearson, 2010.

[6] Systèmes informatiques inspirés des réseaux neuronaux biologiques qui constituent le cerveau des animaux.

[7] Alan Turing, Computing Machinery and Intelligence, in Mind, 59, 1950, p. 433.

[8] Le mot  « chatbot » vient de l’association entre l’anglais « chat » qui signifie « discuter » et « bot », contraction couramment admise de « robot ».

[9]https://ai.facebook.com/blog/blender-bot-2-an-open-source-chatbot-that-builds-long-term-memory-and-searches-the-internet/

[10] Emily M. Bender, et. al., “On the Dangers of Stochastic Parrots: Can Language Models Be Too Big?” in FAccT ‘21, mars 3-10, Canada, 2021.  

[11] Ici, nous proposons ce néologisme à des fins principalement stylistiques.

[12] B. Duffy, C. Rooney, G. O’Hare, R. O’Donoghue (1999). “What is a Social Robot?”, 10th Irish Conference on Artificial Intelligence & Cognitive Science, University College Cork, Ireland.

[13] Paul Dumouchel & Luisa Damiano, ibid., p.62 et suivantes.

[14]https://www.francetvinfo.fr/replay-radio/un-monde-d-avance/au-japon-le-succes-des-robots-de-compagnie-renforce-par-le-contexte-d-epidemie-de-covid-19_4293889.html

[15] Voir, par exemple, Sophie Sakka, Renald Gaboriau et al (2016), “Rob’autism: how to change autistic social skills in 20 weeks”, in 5th International Workshop on Medical and Service Robots.

[16] Voir, parmi tant d’autres, Kathleen Richardson, Marc Coeckelbergh et al (2018), Robot enhanced therapy for children with autism (DREAM): A social model of autism, IEEE Technology and Society Magazine, 37 (1), pp. 30-39.

[17] Madeleine Akrich, « Comment décrire les objets techniques ? », Techniques & Culture, 54-55, p.205-219, 2010.

[18] Donna Haraway, Vivre avec le trouble, Les Editions du monde à faire, 2020.

[19] Ce concept, proposé par Sherry Turkle, désigne les artefacts qui, simulant des états mentaux (mental states), ont vocation à nous engager des dans relations en créant l’illusion de la réciprocité. Voir, par exemple, Sherry Turkle, Seuls ensemble. De plus en plus de technologies, de moins en moins de relations humaines, l’Échappée, 2015.

[20] Voir ibid ou Sherry Turkle, “Authenticity in the age of digital companions”, Interaction Studies, 8(3), pp.501–517, 2007.

[21] Luisa Damiano, Paul Dumouchel (2018), “Anthropomorphism in Human-Robot Co-evolution”, in Frontiers in Psychology, Vol.9, Article 468, p.7 (notre traduction).

[22] Anouk Helft, « Apple admet écouter certaines conversations privées via Siri », Les Echos, 30 juillet 2019, disponible à l’adresse : https://www.lesechos.fr/tech-medias/hightech/apple-admet-ecouter-certaines-conversations-privees-via-siri-1041502

[23] Antonio Casilli, En attendant les robots : enquête sur le travail du clic, Le Seuil, Paris, 2019, 400 p.

[24] Ibid.

[25] op. cit., p. 138. 

[26] https://www.mturk.com

Leave a reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Next Article:

0 %