Que faisons-nous et où allons-nous ?

Print Friendly

L’Utilitarisme moral dans le laboratoire :

Que faisons-nous et où allons-nous ?

Bastien Trémolière – Département de Psychologie Université du Québec à Trois-Rivières

Résumé / Abstract

Résumé : Que faisons-nous—lorsque nous étudions l’utilitarisme moral dans le laboratoire—et où allons-nous? Le présent article soulève quelques axes de réflexions vis-à-vis de ces questionnements, des apports permis par l’étude en laboratoire du jugement moral à ses difficultés et faiblesses persistantes; enfin, il esquisse certaines directions futures que l’étude de l’utilitarisme moral empruntera certainement dans les années à venir.

Abstract : What are we doing—when studying moral utilitarianism in the lab—and where are we going ? The present paper raises some avenues of thought with respect to these questionings, from the contributions made it possible by lab studies of moral judgment to its difficulties and persistent weaknesses; finally, it sketches some future directions that the study of moral utilitarianism will certainly take in the coming years.

L’étude du jugement moral connaît une phase de croissance sans précédent depuis le dernier demi-siècle, chez les philosophes tout autant que chez les psychologues. En particulier, tout un pan de recherche en psychologie expérimentale se donne pour but d’explorer la manière dont nous formons nos jugements moraux. Ces expériences de laboratoire sont particulièrement importantes en ce qu’elles permettent non seulement de mettre à jour les connaissances théoriques, mais également d’expliquer des phénomènes réels, auxquels tout un chacun peut être confronté. Le présent article discute l’apport des données expérimentales dans la compréhension actuelle de notre morale et de l’éthique. En particulier, il se focalise sur l’étude de l’utilitarisme moral (bien que ce dernier ne représente qu’une certaine catégorie de nos jugements moraux) et fait une rapide synthèse des connaissances actuelles mises à jour par l’étude expérimentale. Dans un deuxième temps, cet article met en avant certaines faiblesses méthodologiques importantes et récurrentes, qui illustrent possiblement une tension entre le jeune âge de l’approche expérimentale et la quantité surprenante d’études menées pendant ce cours laps de temps. Enfin, il propose de nouvelles directions de recherche pour l’étude expérimentale de l’utilitarisme moral dans les années à venir, étroitement liées aux progrès scientifiques et technologiques.

1. Etablir des modèles théoriques grâce à l’expérimentation

Doit-on dédier des ressources médicales à une personne en état de mort cérébrale plutôt que de les allouer à d’autres patients ? Doit-on détruire un avion détourné avec des civils à l’intérieur ? Dans un autre registre, ne devrions-nous jamais mentir, même s’il s’agit de préserver des individus ? Ces questionnements, aussi différents soient-ils, ont tous en commun de faire écho au jugement moral, plus particulièrement à l’utilitarisme moral. C’est précisément à partir des années 1960 et de la révolution cognitive que le jugement moral a été étudié de manière expérimentale. A partir de manipulations de laboratoire, il devenait possible d’inférer la manière dont les individus forment leurs jugements moraux et prennent les décisions subséquentes. La démarche était inédite pour l’étude du jugement moral : il était désormais possible de tester les intuitions des philosophes, sur des phénomènes si importants qu’ils faisaient déjà l’objet de débats dans la Grèce antique.

Ces cinquante dernières années—et les avancées scientifiques et technologiques les accompagnant—ont ainsi vu se succéder différents modèles théoriques du jugement moral. Chacun de ces modèles a pu s’édifier à travers la collecte de données expérimentales, pour finalement s’affaiblir et laisser la place à un modèle successeur. Si dans un premier modèle psychologique (qui a constitué le paradigme du jugement moral pendant près de 30 ans) les jugements moraux étaient considérés comme le produit de raisonnements élaborés[1], ils ont par la suite été considérés comme strictement liés aux émotions, où le raisonnement n’interviendrait seulement que post-hoc afin de justifier ces jugements intuitifs[2].

Le modèle actuellement dominant, connu sous le nom de modèle dual-process du jugement moral (nous parlerons dorénavant de modèle à deux vitesses du jugement moral) et proposé par Joshua Greene, intègre les deux perspectives précédentes, en suggérant que les émotions et le raisonnement interagissent étroitement dans la formation de nos jugements moraux[3]. Ce modèle est notamment célèbre pour sa tentative d’explication des mécanismes sous-jacents à l’utilitarisme moral (l’idée maîtresse de l’utilitarisme étant que la moralité d’une action n’est déterminée que par sa tendance à maximiser le bien-être général—à opposer au déontologisme de Kant, qui suggère que la moralité est directement liée aux droits et devoirs qu’un individu peut ou non endosser/outrepasser). Le fondement de ce modèle à deux vitesses se base sur la distinction de deux processus impliqués dans les décisions morales, largement influencés par les caractéristiques intrinsèques aux problèmes moraux. La démonstration fonctionne particulièrement bien sur le célèbre dilemme du Wagon (de l’anglais Trolley dilemma)[4]. Dans une première version du dilemme (Observateur), un wagon hors de contrôle roule à vive allure et menace de tuer cinq personnes (travaillant sur la voie) si rien n’est fait. Il est toutefois possible d’actionner un levier qui fera changer le wagon de voie, sauvant les cinq personnes mais tuant une personne travaillant sur la deuxième voie. Dans une seconde version du dilemme (Pont), la seule façon d’éviter que le wagon ne tue les cinq personnes est de pousser une grosse personne du haut d’un pont traversant la voie, ce qui arrêtera le wagon mais tuera cette personne. Greene et ses collaborateurs ont observé qu’environ 80% des personnes interrogées trouvaient qu’il était acceptable d’actionner le levier (version Observateur). Toutefois, la quasi-totalité des personnes refusait de pousser l’homme du pont (version Pont).

source : Pixabay

source : Pixabay

source : Pixabay

source : Pixabay

Les chercheurs ont suggéré que certaines réponses sont étroitement liées à l’émotion provoquée par le scénario, et seraient sous-tendues par des processus intuitifs. Ces réponses reflètent traditionnellement le déontologisme. A l’inverse, les auteurs proposent que d’autres réponses, froides (libérées de tout affect), prennent leurs bases sur des processus raisonnés et nécessitent la mobilisation de ressources attentionnelles (ces ressources limitées sont nécessaires dans toutes nos activités mentales de haut niveau). Ces réponses raisonnées reflètent des considérations utilitaristes, selon lesquelles les actions doivent aboutir au plus grand bien pour la société[5]). Dans certains cas, comme dans la version du Pont, le dilemme moral déclenche une forte réponse émotionnelle. Dans cet exemple, la réponse émotionnelle confirmerait le jugement qu’il n’est pas moralement acceptable de pousser un individu du haut d’un pont (la réponse déontologiste). Dans d’autres cas, comme dans l’exemple de l’Observateur, le dilemme déclenche peu d’émotion, laissant toute la place à une réponse délibérée, raisonnée. Ici, cette réponse confirmerait le jugement qu’il est moralement acceptable d’actionner un levier pour sauver plusieurs personnes (la réponse utilitariste).

Cette suggestion tout autant que l’édification du modèle à deux vitesses du jugement moral prennent leur appui sur les possibilités offertes par les méthodes d’imagerie cérébrale. Grâce à un protocole utilisant l’imagerie par résonance magnétique (IRMf), Greene et ses collaborateurs ont observé que différentes aires cérébrales étaient impliquées dans la formation du jugement moral, en lien avec les deux types de réponses présentés précédemment. Ainsi, le système limbique semble impliqué lors de la considération de dilemmes suscitant principalement des réponses déontologiques (tel que le dilemme du Pont). Au contraire, les régions frontales, impliquées dans le contrôle cognitif en lien avec la mémoire de travail, sont plus fortement activées dans le cas des dilemmes suscitant principalement des réponses utilitaristes. Ce modèle est également confirmé par de nombreuses données comportementales suggérant que les réponses déontologistes et utilitaristes sont sous-tendues par des processus psychologiques distincts. Il a par exemple été montré que l’ajout d’une charge cognitive (dont le but est d’empêcher un participant de mobiliser ses ressources attentionnelles vers un problème) augmentait le temps de réaction des participants uniquement pour les réponses utilitaristes[6]. De récents résultats confirment également la théorie en montrant qu’une très grande charge cognitive diminue les réponses utilitaristes, tout en suggérant en parallèle que le calcul des réponses utilitaristes ne requiert finalement que peu de ressources attentionnelles[7]. Aussi, les capacités en mémoire de travail semblent prédire le type de jugement : les individus disposés à mobiliser leurs habiletés réflectives font plus de jugements utilitaristes que les autres[8].

Si ces données confirment bien l’idée que les réponses utilitaristes nécessitent de mobiliser des ressources attentionnelles (à l’inverse des réponses déontologistes qui sont intuitives et automatiques), de récents résultats questionnent la fiabilité de ce modèle. Tout comme les deux précédents modèles du jugement moral l’ont fait à un certain moment, le modèle à deux vitesses du jugement moral tel qu’il est conceptualisé ci-dessus entre dans une phase d’affaiblissement et laissera certainement sa place à un nouveau modèle plus proche de la réalité. Ceci ne signifie pas pour autant qu’il soit totalement incorrect ou inutile ; il a permis d’apporter de nouvelles connaissances, qui ont constitué les pierres nécessaires à l’édification d’un potentiel futur modèle qui s’efforcera de s’approcher encore plus de la réalité.

Dans une tentative de mise à jour du modèle, Kahane et ses collaborateurs ont suggéré que les réponses utilitaristes ne nécessitaient pas systématiquement de mobiliser des ressources attentionnelles[9]. Une première objection importante faite par les auteurs au modèle à deux vitesses de Greene est qu’il confond les réponses déontologistes et utilitaristes avec les réponses intuitives et contre-intuitives, respectivement. Dans la majorité des scénarios crées, la réponse déontologiste est la réponse intuitive (par exemple : ne pas tuer), alors que la réponse utilitariste est contre-intuitive (par exemple : tuer quelqu’un pour sauver plus de personnes). Les auteurs ont rapporté des données comportementales et de neuroimagerie suggérant que les réponses utilitaristes peuvent être intuitives lorsqu’elles impliquent une transgression mineure (par exemple : mentir pour sauver quelqu’un). Ainsi, selon Kahane et ses collaborateurs, la dichotomie intuitif/contre-intuitif serait plus pertinente pour distinguer les réponses automatiques (émotionnelles) et les réponses délibérées que la dichotomie déontologiste/utilitariste faite jusqu’alors.

Toutefois, cette mise à jour du modèle théorique présente elle-même certaines faiblesses. Trémolière et Bonnefon ont notamment mis en avant un effet du ratio tuer/sauver (de l’anglais kill-save ratio) dans les processus sous-tendant nos réponses morales[10]. Les auteurs ont remarqué qu’alors que les réponses utilitaristes sont relativement coûteuses en ressources attentionnelles face à des dilemmes présentant une ‘faible’ utilité (par exemple : tuer 1 pour sauver 5), ce coût cognitif diminuait lorsque l’utilité augmentait (par exemple : tuer 1 pour sauver 5000). Plus le nombre de personnes fictives à sauver augmentait, plus les participants devenaient utilitaristes ; mais surtout, moins cette réponse utilitariste était coûteuse en ressources attentionnelles, pour finalement devenir imperméable aux manipulations visant à priver la mobilisation de ces ressources. Ce résultat pose problème pour la version originelle du modèle à deux vitesses du jugement moral proposée par Greene, tout autant que pour la mise à jour de Kahane. La première version du modèle ne prédirait pas un tel effet : peu importe le nombre de personnes sauvées, l’action de tuer reste la réponse utilitariste (coûteuse en ressources) alors que celle de ne pas tuer reste la réponse déontologiste (intuitive et automatique). La mise à jour proposant de s’éloigner de la dichotomie utilitariste/déontologiste pour privilégier celle d’intuitif/contre-intuitif n’explique pas plus ces résultats : selon Kahane, si les actions de mentir ou de briser une promesse pour sauver quelqu’un constituent bien des transgressions mineures qui peuvent être intuitives, l’action de tuer constitue une transgression majeure qui reste contre-intuitive.

2. Les difficultés et faiblesses de l’étude expérimentale du jugement moral

 

L’observation de phénomènes empiriques, permise notamment par les études de laboratoire, permet de mettre continuellement à jour nos connaissances sur la formation de nos jugements moraux. Cette notion de mise à jour est certainement plus importante dans le domaine du jugement moral que dans aucun autre, ce qui est notamment dû à l’incroyable accroissement des études et données récoltées ; et ce succès vient avec ses limites. Les difficultés rencontrées dans l’étude empirique du jugement moral concernent en particulier la fiabilité méthodologique des protocoles expérimentaux. Sur ce plan, les faiblesses sont nombreuses. Nous allons à présent en discuter un petit nombre.

Une première faiblesse est déjà observable au niveau de la mesure effectuée dans ces études : quelles questions devons-nous poser aux participants ? Ce problème est pris très au sérieux étant donné que la majorité des études portant sur le jugement moral ne s’intéresse qu’à la réponse comportementale, explicite, du participant. Dans un article pointant certaines faiblesses méthodologiques de l’investigation empirique du jugement moral, Kahane et Schackel s’interrogent en particulier sur les propriétés des différents termes employés dans les questions posées aux participants[11]. Traditionnellement, les chercheurs demandent aux participants si une action (par exemple : tuer quelqu’un pour sauver d’autres personnes) est appropriée (de l’anglais appropriate). Cependant, ce concept est ambigu et peut référer aussi bien à la permission, à l’obligation, ou encore à l’interdiction. Les actes interdits ne sont ni permis, ni obligatoires. Les actes obligatoires sont permis et ne sont pas interdits. Le manque de clarté concerne en particulier le concept de permission, qui renvoie à des actes qui ne sont pas interdits et pas nécessairement obligatoires pour autant. Ainsi, les actes permis peuvent renvoyer à une notion de neutralité, au contraire des actes interdits et obligatoires qui renvoient chacun à des conceptions diamétralement opposées. Cette notion de neutralité n’est toutefois pas prise en compte à travers le concept approprié. Dès lors, dire d’une réponse qu’elle est appropriée parce qu’elle nous semble permise ne renseigne pas plus le chercheur sur la conception qu’a le participant de la réponse alternative : théoriquement, cette réponse alternative peut être évaluée comme étant permise également. Au final, juger du caractère approprié d’une action—si ce concept est interprété comme référant à la permission—peut être compatible avec différentes réponses a priori diamétralement opposées (par exemple : les réponses utilitaristes sont traditionnellement opposées aux réponses déontologistes) et diminue par conséquent la capacité discriminatoire de la mesure. L’emploi d’autres formulations n’aide pas nécessairement plus. Certains chercheurs demandent aux participants si ces derniers feraient une action. Ce choix semble toutefois perdre encore plus en précision : il s’agit cette fois-ci de faire une prédiction, et le choix ne nous renseigne sur le jugement moral de l’individu que si l’on stipule arbitrairement que l’individu fait ce qu’il pense être moral. Comme le remarquent Kahane et son collaborateur, un individu peut se sentir incapable de faire une telle action tout en pensant que c’est néanmoins la bonne chose à faire. Finalement, l’interprétation de la réponse dépasse le cadre du jugement moral. Supposons par exemple un dilemme mettant en scène un agent fictif ayant l’intention de tuer des centaines d’innocents. Il ne serait pas surprenant qu’une majorité de personnes partage l’idée qu’elle devrait tuer cette personne, permettant de sauver un plus grand nombre au final[12]. Toutefois, en serions-nous capable ? La réponse n’est pas évidente, et ne réfère cette fois-ci plus au seul phénomène moral. Au total, ce sont finalement une dizaine de formulations qui coexistent et sont régulièrement comparées directement sans plus de précaution.

Une autre faiblesse méthodologique porte sur la nature du compromis impliqué dans les dilemmes moraux. Les recherches expérimentales portant sur le jugement moral utilisent traditionnellement des scénarios (fictifs) impliquant de blesser ou de tuer un individu pour en sauver un plus grand nombre. Ces scénarios sont souvent utilisés conjointement dans une même étude, alors qu’ils impliquent différents degrés de blessures. Cette utilisation conjointe de degrés différents de blessure suit—peut-être à tort—les principes de la philosophie Kantienne, qui stipule que les individus ne doivent ni mentir, ni blesser, ni tuer, quelle qu’en soit l’utilité (la conséquence). Nous pensons cependant que ce choix arbitraire est à considérer plus prudemment lorsque nous adoptons la démarche expérimentale, dans le but d’isoler les variables d’intérêt (la fameuse clause ceteris paribus—toute chose égale par ailleurs). Trémolière et De Neys ont directement testé les effets de la variation du trade-off en manipulant différents degrés de blessure (par exemple : couper le doigt d’un individu pour éviter que cinq individus se fassent couper le doigt, couper la main d’un individu pour éviter que cinq individus se fassent couper la main, couper le bras d’un individu pour éviter que cinq individus se fassent couper le bras). Les auteurs ont observé que la fréquence des réponses utilitaristes évoluait en fonction du type de blessure : plus la blessure à infliger était grave, moins les participants choisissaient la réponse utilitariste[13]. Une explication potentielle de ce phénomène considèrerait que ces différences reflètent un respect du principe de scalarité (i.e. tuer est pire que blesser gravement qui est lui-même pire que blesser légèrement). Les auteurs proposent ainsi de conceptualiser les différents degrés de blessure infligée comme appartenant à un continuum entre des réponses totalement acceptables et des réponses totalement inacceptables. Aussi, l’action de tuer pourrait directement violer la propriété sacrée du concept de vie[14]. Une application des résultats à ce continuum proposé par les auteurs placerait l’action de tuer à son extrême position (totalement inacceptable) : plus l’action requise s’éloignerait de cette position extrême, plus les individus seraient flexibles vis-à-vis de l’action à effectuer, augmentant la probabilité d’une réponse utilitariste.

Une troisième faiblesse importante intrinsèque aux dilemmes moraux concerne ce que les chercheurs appellent le biais d’omission (de l’anglais omission bias). Le biais d’omission reflète la tendance des individus à juger les actions comme étant moralement moins acceptables que les omissions, alors que la conséquence est maintenue constante. Plaçons-nous par exemple dans le dilemme du Pont. L’action de pousser un individu d’un pont sera jugée moins morale que celle de ne pas rattraper un individu qui tombe du pont, la conséquence étant strictement identique (la personne du pont sera tuée et les cinq personnes travaillant sur la voie seront sauvées). Le défaut des dilemmes moraux utilisés dans l’étude du jugement moral est que la réponse utilitariste est systématiquement confondue avec l’action (ou commission), alors que la réponse déontologiste est, elle, systématiquement confondue avec l’omission. La difficulté consiste désormais à créer des dilemmes moraux dans lesquels la réponse utilitariste renvoie à l’omission ; le problème est plus complexe qu’il n’y paraît. Reprenons par exemple la base du dilemme du Pont. Confondre la réponse utilitariste et l’omission consisterait à demander s’il est moralement acceptable de pousser cinq individus du pont (supposons qu’ils sont attachés entre eux pour une quelconque raison) dans le but de sauver une personne travaillant sur la voie. Dans ce cas-ci, ne pas pousser les cinq individus est bien une réponse utilitariste basée sur l’omission. Toutefois, ce scénario ne présente plus de tension entre les deux réponses (pousser l’homme vs. ne pas pousser l’homme) et tous les individus répondraient probablement qu’il n’est pas moralement acceptable de pousser ces cinq individus. Cette réponse est à la fois la réponse déontologiste et la réponse utilitariste : il ne s’agit plus d’un dilemme moral. Il est néanmoins possible de pallier à ce problème. Modifions la base du dilemme du Pont, et supposons dorénavant que l’individu présent sur le pont est en train de tomber. Ne pas le rattraper correspond bien, cette fois-ci, à une omission utilitariste. Voici certainement un avantage de l’étude expérimentale du jugement moral : la création de dilemmes moraux utilisés en laboratoire n’est finalement limitée qu’à l’imagination des chercheurs.

Finalement, les quelques faiblesses soulevées ici[15] peuvent paraître bien anodines en comparaison des nombreuses avancées qu’ont permises ces études. Il est cependant surprenant que ces faiblesses, aussi facilement surmontables soient-elles, ne fassent l’objet de considérations sérieuses que si tard, et que tout un pan de recherche ait évolué sur des bases méthodologiques manquant parfois de rigueur.

3. Nouvelles avenues pour l’étude de l’utilitarisme moral

Où les recherches portant sur l’étude du jugement moral et tout particulièrement sur l’utilitarisme moral se dirigent-elles ? Différentes routes semblent se dessiner. Deux semblent tout particulièrement prometteuses. Nous y consacrons quelques lignes ci-après.

Nous évoquions précédemment certaines faiblesses dans l’étude expérimentale du jugement moral. Nous avons fait l’économie de mentionner la grande faiblesse inhérente à l’étude expérimentale du jugement moral, à savoir sa validité écologique nulle : même si les participants répondent à des scénarios mettant en avant des problématiques de vie ou de mort, ces dilemmes restent purement fictifs. Ces limitations peuvent biaiser de manière systématique les hypothèses et interprétations faites des phénomènes observés. Bien entendu, il ne sera jamais question de requérir d’un participant qu’il tue ou même qu’il blesse d’autres individus. Au-delà de la stricte interprétation des données, les dilemmes moraux tels qu’ils sont utilisés actuellement suscitent régulièrement différentes réactions qui ne peuvent finalement qu’impacter sur la qualité et l’interprétation des résultats. Bauman et ses collaborateurs suggèrent en ce sens que les situations présentées sont souvent amusantes, et qu’il est probable que cet amusement donne lieu à un désengagement des participants[16]. Aussi, ces situations sont particulièrement irréalistes et ne reflètent en rien des problématiques crédibles. Peu d’individus auront un jour à prendre des décisions hâtives dans des environnements et contextes si particuliers, tel que celui présenté dans le dilemme du Pont. Les auteurs suggèrent que les dilemmes moraux utilisés devraient refléter des situations moins exotiques, pour se rapprocher de situations bien plus réelles (par exemple : des ingénieurs évaluant le coût et la qualité de ceintures équipant nos voitures). Les progrès technologiques offrent des solutions intéressantes au problème de la validité écologique. Une des nouvelles routes ouverte par les progrès technologiques concerne l’utilisation de la réalité virtuelle pour l’étude du jugement moral ; et il a été montré que les individus face à des dispositifs de réalité virtuelle donnaient des réponses tout à fait comparables à des situations écologiques (ceci a été vérifié notamment sur l’expérience de Milgram[17]). Des chercheurs ont tout récemment créé des scénarios virtuels présentés sur ordinateur, modélisant les dilemmes moraux et présentant toutes les caractéristiques des dilemmes typiques utilisés dans les protocoles papier/crayon. Une possibilité avantageuse offerte par ce type de dispositif est qu’il permet d’observer des décisions prises en temps réel, là où les participants avaient jusqu’alors tout le temps de répondre, ou était sous une pression temporelle externe au dilemme moral (par exemple en accordant aux participants un temps limité). Les résultats montraient que, alors que les participants sont peu utilitaristes face à des dilemmes moraux traditionnels présentés sur papier, ils le sont beaucoup plus lorsque les scénarios sont présentés sous le format virtuel[18]. Les chercheurs concluent que des situations morales proches de la réalité peuvent donner lieu à des décisions morales éloignées de nos convictions éthiques. Ces récents résultats nous alertent une fois de plus sur la qualité des données recueillies jusqu’alors : ces données ne sont-elles valables qu’en laboratoire ?

Une seconde voie prometteuse porte sur le caractère prédictif des traits de personnalité vis-à-vis des jugements moraux[19]. Plutôt que de considérer un modèle prototypique d’un individu moral, ces études s’intéressent, au contraire, aux déterminants singuliers à mêmes d’expliquer les différences de jugements moraux. Cette approche prend à contre-pied les modèles psychologiques modernes qui tendent à déterminer des constantes à un niveau suffisamment élevé pour perdre en précision d’analyse. Dans cette nouvelle approche, l’individu n’est plus étudié dans une démarche froide. Ces études portent en particulier sur certains traits de personnalités aversifs qui capturent régulièrement des déficits émotionnels, similaires à ceux que l’on observe dans certaines pathologies et qui sont mis en lumière par les techniques d’imagerie cérébrale. Ces déficits émotionnels sont régulièrement associés à des problèmes d’empathie (i.e. la capacité à comprendre l’état émotionnel d’un autre individu et à ressentir cet état). De récentes recherches se sont notamment centrées sur l’étude de la Triade Noire (de l’anglais Dark Triad)[20], une mesure qui capture les degrés de narcissisme, de Machiavélisme et de psychopathie au niveau subclinique (i.e. chez l’individu typique). En particulier, il a été montré que le trait de psychopathie prédisait particulièrement bien la propension à être utilitariste : les individus qui montrent de hauts scores sur l’échelle de psychopathie sont généralement ceux qui font le plus de jugements utilitaristes face à des dilemmes similaires à celui du Pont[21]. Les différents travaux menés sur le sujet changent notamment la conception que les chercheurs ont de l’utilitarisme. Alors que la réponse utilitariste était jusqu’à présent considérée comme la réponse normative appropriée (la réponse déontologiste provenant à l’inverse d’un biais émotionnel), ces résultats affaiblissent ce discours : les individus utilitaristes sont finalement ceux qui présentent des caractéristiques psychologiques prototypiquement immorales.

4. Conclusion

L’étude de la morale en laboratoire est-elle utile aux débats philosophiques ? Nous pensons indéniablement que oui. En particulier, l’étude expérimentale des phénomènes moraux permet de dépasser les seules intuitions des philosophes, en mettant notamment celles-ci à l’épreuve des individus (les participants), totalement néophytes sur le sujet et certainement libres de positions théoriques fortes desquelles il est difficile de s’extraire. La recherche expérimentale se suffit-elle à elle-même dans cette exploration ? Nous pensons que non. Comme nous l’avons pointé dans cet article, les données expérimentales s’accumulent à une vitesse sans précédent, sans toutefois être assez robustes pour s’accorder sur un modèle théorique fiable et stable. Maintenant, la conciliation entre l’approche théorique et l’approche empirique et expérimentale ne semble pas hors de portée. Pour preuve, de plus en plus de philosophes se revendiquent d’un courant de philosophie expérimentale, mettant leurs intuitions à l’épreuve des tests empiriques et expérimentaux ; et cette démarche s’appuie sur les méthodes avancées d’imagerie cérébrale. L’étude expérimentale du jugement moral connaît cependant de nombreuses limites, dont certaines ont été évoquées précédemment. Il ne fait aucun doute que certaines de ces limites seront dépassées, alors que d’autres ne seront jamais franchissables (faiblesses au niveau de la validité écologique)… pour des raisons éthiques et morales.


[1]  L. Kohlberg, Stage and Sequence: The Cognitive-Developmental Approach to Socialization, in D. A. Goslin (éd.), Handbook of Socialization Theory and Research, Chicago, Rand McNally, 1969, pp. 347-480.

[2] J. Haidt, The Emotional Dog and its Rational Tail, Psychological Review, vol. 108, 2001, pp. 814-834.

[3] J. D. Greene, R. B. Sommerville, L. E. Nystrom, J. M. Darley, & J. D. Cohen, An fMRI Investigation of Emotional Engagement in Moral Judgment, Science, vol. 293, 2001, pp. 2105-2108.

[4] P. Foot, The Problem of Abortion and the Doctrine of the Double Effect, Oxford Review, vol. 5, 1967, pp. 5-15.

[5] J. S. Mill, Utilitarianism, New York, Oxford University Press, 1861/1998.

[6] J. D. Greene, S. A. Morelli, K. Lowenberg, L. E. Nystrom, & J. D. Cohen, Cognitive Load Selectively Interferes with Utilitarian Moral Judgment, Cognition, vol. 107, 2008, pp. 1144-1154.

[7] B. Trémolière, W. De Neys, & J. F. Bonnefon, Mortality Salience and Morality: Mortality Salience Makes People less Utilitarian, Cognition, vol. 124, 2012, pp. 379-384.

[8] J. M. Paxton, L. Ungar, & J. D. Greene, Reflection and Reasoning in Moral Judgment, Cognitive Science, vol. 36, 2012, pp. 163-177.

[9] G. Kahane, K. Wiech, N. Shackel, M. Farias, J. Savulescu, & I. Tracey, The Neural Basis of Intuitive and Counterintuitive Moral Judgment, Social Cognitive and Affective Neuroscience, vol. 7, n°4, 2012, pp. 393-402.

[10] B. Trémolière & J. F. Bonnefon, Efficient Kill-Save Ratios Ease up the Cognitive Demands on Counterintuitive Moral Utilitarianism, Personality and Social Psychology Bulletin, vol. 40, 2014, pp. 923-930.

[11] G. Kahane & N. Shackel, Methodological Issues in the Neuroscience of Moral Judgement, Mind & Language, vol. 25, 2010, pp. 561-582.

[12] Cette version est particulièrement forte puisque nous avons cette fois-ci des éléments sur l’intention (négative) de l’individu, ce qui n’est pas le cas de l’individu que nous poussons dans le dilemme du Pont.

[13] B. Trémolière & W. De Neys, Methodological Concerns in Moral Judgement Research: Severity of Harm Shapes Moral Decisions, Journal of Cognitive Psychology, vol. 25, 2013, pp. 989-993.

[14] J. Baron & M. Spranca, Protected Values, Organizational Behavior and Human Decision Processes, vol. 70, 1997, pp. 1-16.

[15] La section n’est pas exhaustive, mais présente seulement certains éléments affaiblissant les données récoltées, et qui sont régulièrement présents dans les études expérimentales portant sur le jugement moral.

[16] C. W. Bauman, A. P. McGraw, D. M. Bartels, & C. Warren, Revisiting External Validity: Concerns about Trolley Problems and Other Sacrificial Dilemmas in Moral Psychology, Social and Personality Psychology Compass, vol. 8, 2014, pp. 536-554.

[17] M. Slater, A. Antley, A. Davison, D. Swapp, C. Guger, C. Barker, N. Pistrang, & M. V Sanchez-Vives, A Virtual Reprise of the Stanley Milgram Obedience Experiments, PloS One, vol. 1, n° 1, 2006, e39.

[18] I. Patil, C. Cogoni, N. Zangrando, L. Chittaro, & G. Silani, Affective Basis of Judgment-Behavior Discrepancy in Virtual Experiences of Moral Dilemmas, Social Neuroscience, vol. 9, 2014, pp. 94-107.

[19] Si nous nous concentrons dans cet article sur l’utilitarisme moral, il est à noter que ce nouveau courant s’intéresse aux activités de jugement moral au sens large, qui dépassent le simple cadre de l’utilitarisme moral.

[20] D. L. Paulhus & K. M. Williams, The Dark Triad of Personality: Narcissism, Machiavellianism, and Psychopathy, Journal of Research in Personality, vol. 36, 2002, pp. 556-563.

[21] D. M. Bartels & D. A. Pizarro, The Mismeasure of Morals: Antisocial Personality Traits Predict Utilitarian Responses to Moral Dilemmas, Cognition, vol. 121, 2011, pp. 154-161.

Commenter

Suivez-nous :
ISSN 2105-0864 - Copyright © 2009-2015 Implications philosophiques CopyrightFrance.com