Une théorie morale peut-elle être cognitivement trop exigeante ?

Print Friendly

 

Nicolas Delon New York University, Environmental Studies – Animal Studies Initiative

Résumé / Abstract

Résumé : A partir du cas typique de l’utilitarisme, je distingue trois façons dont une théorie morale pourrait être jugée (trop) exigeante : pratique, épistémique et cognitive. La spécificité de cette dernière – qui fait l’objet de cet article – a été négligée. Je soutiens, en prenant l’exemple de l’éthique animale, que la connaissance de la cognition humaine est essentielle à la formulation de théories morales (et de leurs implications) qui soient accessibles à, et acceptables par, le plus grand nombre d’agents possible. En d’autres termes : comment mieux connaître notre machine cognitive pour mieux jouer avec elle. Cette recommandation méta-théorique se distingue cependant d’une objection classique tirée de l’intuition selon laquelle une théorie exigerait trop de nous.

Abstract : Starting from the typical case of utilitarianism, I distinguish three ways a moral theory may be deemed (over-)demanding: practical, epistemic, and cognitive. I focus on the latter, whose specific nature has been overlooked. Taking animal ethics as a case study, I argue that knowledge of human cognition is critical to spelling out moral theories (including their implications) that are accessible and acceptable to the greatest number of agents. In a nutshell: knowing more about our cognitive apparatus with a view to play better with it. This meta-theoretical suggestion, however, differs from a classical objection drawn from the intuition that a given theory demands too much.

L’utilitarisme est la théorie selon laquelle une action est juste si, et seulement si, ses conséquences maximisent une certaine valeur morale (utilité, plaisir, bonheur). On lui objecte — ou, plus généralement, on objecte au conséquentialisme — d’être excessivement ou déraisonnablement exigeant (demanding). Tout d’abord, l’utilitarisme peut exiger des agents qu’ils sacrifient leur propre bien-être, celui de leurs proches, ou encore celui d’innocents pour celui du plus grand nombre. Or, demander à l’agent de sacrifier ses propres intérêts non triviaux, ce serait trop exiger de lui : par exemple, nos obligations de charité peuvent exiger de nous que nous donnions une portion beaucoup plus significative de nos revenus à des associations de lutte contre la pauvreté extrême que nous ne le présumons[1]. L’utilitarisme exigerait de nous des sacrifices considérables, au détriment de nos projets, valeurs, relations et intérêts propres, considérant chacun comme un simple véhicule de la maximisation. L’utilitarisme serait ainsi, selon l’un de ses plus importants critiques, essentiellement « aliénant » pour l’intégrité de la personne[2].

L’utilitarisme est aussi exigeant au sens où il exige des agents qu’ils prennent en compte toutes les conséquences possibles des différentes actions qui leur sont ouvertes et, plus précisément, déterminent leur décision en fonction de l’utilité espérée de chacune des options possibles. Nous aurions ainsi l’obligation non seulement de maximiser le bien mais aussi, pour ce faire, d’acquérir les informations nécessaires à notre prise de décision. Notre responsabilité pratique implique une responsabilité épistémique. L’utilité espérée, produit de la valeur du bien envisagé et de la probabilité de son occurrence, est fonction de notre connaissance – si l’on entend ici probabilité au sens subjectif. Je peux ainsi commettre une faute morale en ne m’informant pas des conséquences probables d’une action A, si l’information pertinente m’était aisément accessible, ou accessible sans sacrifice significatif à un agent aux capacités intellectuelles moyennes. Toutefois, mes obligations épistémiques n’affectent pas directement la moralité de A elle-même, qui n’est fonction que de ses conséquences prévisibles[3]. Il est utile enfin de distinguer les obligations elles-mêmes des reproches justifiés en telles ou telles circonstances : savoir si A est juste (si le monde promu par A est meilleur) est une question distincte de savoir si je mérite d’être loué ou blâmé pour avoir ou n’avoir pas accompli A, avec telles intentions, pour telles raisons et dans tel contexte. Il se pourrait que les implications d’une théorie soient objectivement exigeantes mais que les agents ne méritent pas toujours d’être jugés fautifs de n’avoir pas agi en conséquence[4]. Comme l’écrivent Peter Singer et Katarzyna de Lazari-Radek : « Dire que la nature de notre psychologie est telle qu’il nous serait difficile de satisfaire les exigences de la moralité est une chose ; dire que la moralité n’a pas envers nous de telles exigences est une tout autre chose[5]. »

On s’aperçoit alors que l’utilitarisme, s’il entend réellement promouvoir la maximisation du bien, ne saurait se contenter d’agents moyens mais doit également promouvoir l’existence d’agents tendant vers l’agent idéal par leurs connaissances et motivations. La responsabilité épistémique implique alors la responsabilité des agents non idéaux que nous sommes d’améliorer leurs capacités intellectuelles en vue de la maximisation ultime du bien. Nous devons nous efforcer d’agir conformément à nos obligations objectives même quand on ne peut nous reprocher de ne pas les avoir accomplies. Dans les circonstances non idéales l’utilitarisme est exigeant au sens épistémique pour des agents incapables de mesurer en permanence et avec fiabilité les conséquences de leurs actions. C’est notamment une des raisons motivant l’utilitarisme de la règle, qui exige simplement de formuler et mettre en œuvre des règles dont les conséquences, si ces règles sont régulièrement suivies par une majorité des agents tels qu’ils sont, maximisent le bien[6], et des règles dont l’internalisation n’est pas psychologiquement coûteuse au point de les rendre inacceptables[7]. Mais l’utilitarisme est aussi exigeant cognitivement s’il exige des agents de faire ce qu’ils ne peuvent même pas se représenter comme moralement juste. L’exigence épistémique de l’utilitarisme exprime la difficulté d’apprécier les conséquences de nos actions ou les moyens à mettre en œuvre pour atteindre les fins souhaitées, même quand ces fins et ces moyens sont acceptés comme justes ; l’exigence cognitive consiste en un certain nombre d’implications, relatives aux moyens comme aux fins, dont il est (psychologiquement) difficile d’admettre qu’elles soient vraies[8].

On peut ainsi dégager trois formes d’exigence de l’utilitarisme et plus généralement de toute théorie morale[9] : pratique ; épistémique ; cognitive. Je m’intéresserai ici principalement à la troisième forme, et ce dans le contexte de l’éthique animale. L’objection de l’exigence peut se formuler ainsi : (P1) L’utilitarisme a des implications cognitivement exigeantes (au sens précisé ci-dessus) ; or, (P2) si une théorie a des implications exigeantes, elle doit être rejetée ; donc (C) l’utilitarisme doit être rejeté. Je commencerai par illustrer (P1) dans le cas de l’éthique animale. J’envisagerai ensuite, pour évaluer (P2), si nous pouvons faire découler nos principes moraux de nos intuitions[10], étant donné que l’objection de l’exigence repose le plus souvent sur nos intuitions[11]. Après avoir rejeté l’interprétation « intuitive » de (P2), je suggérerai enfin que, quoique nous ayons des raisons de nous méfier de nos intuitions (du point de vue normatif), la théorie morale doit néanmoins être informée par la compréhension de ce qui rend l’utilitarisme apparemment exigeant[12]. L’objection « intuitive » de l’exigence sera ainsi désamorcée, mais je soutiendrai qu’une théorie peut, à profit, devenir cognitivement moins exigeante en usant de la connaissance de notre psychologie.

1)    L’exigence en éthique animale

L’utilitarisme d’un Peter Singer inclut dans la communauté morale tous les êtres sensibles affectés par nos actions et nous enjoint à prendre en compte impartialement leurs intérêts. Puisque nous devons prendre en compte d’autant plus de conséquences possibles que nous incluons d’êtres, une telle inclusion implique une explosion du nombre des conséquences dont nous devons tenir compte. La maximisation du bien des êtres sensibles consiste à minimiser leurs souffrances et à maximiser leurs expériences plaisantes, ou, plus précisément selon Singer, à maximiser la somme nette de préférences satisfaites. On pourrait considérer exigeant de recommander de devenir végétarien ou végane et de mettre fin à la recherche scientifique invasive sur les animaux mais cela ne requiert pas nécessairement de considérables (ou excessifs) sacrifices personnels ou collectifs[13] et ce n’est pas propre à l’utilitarisme[14].

L’utilitarisme peut en revanche devenir très exigeant, à la mesure de son impartialité, en ce qu’il implique de prendre en compte les intérêts de tous les êtres sensibles, ce qui n’inclut pas seulement les animaux domestiques ou captifs qui sont sous notre contrôle et dépendance mais aussi ceux, sauvages, dont les souffrances ne sont pas toutes causées par nous. Ce dernier facteur n’est en effet pas pertinent pour l’utilitariste, qui se préoccupe des conséquences des actions et non de leurs auteurs ou des intentions de ceux-ci. Par conséquent, en théorie, l’utilitarisme implique la minimisation de la souffrance sauvage, par exemple par le sauvetage d’animaux blessés, malades ou menacés, victimes aussi bien du fonctionnement de leur écosystème que des catastrophes et accidents naturels. Un monde sans prédation, s’il avait un bilan comptable en termes de souffrance et jouissance supérieur à celui du monde actuel, serait en effet meilleur du point de vue impartial. Divers facteurs font que nous, agents imparfaits, n’avons pas aujourd’hui l’obligation d’éradiquer la prédation, ou du moins que si nous l’avons nous ne sommes pas fautifs de ne pas promouvoir le monde meilleur que serait un monde sans prédation. Néanmoins, si nous le pouvions, nous devrions le faire[15] – étant supposé que cela ne produirait pas plus de souffrances que cela n’en préviendrait. Peter Singer évite l’implication – que beaucoup ont tenue un peu hâtivement pour une reductio ad absurdum de toute défense des « droits des animaux » au sens large – en soulignant que nous risquerions simplement de causer plus de mal que de bien en intervenant dans la nature étant donné nos connaissances limitées et faillibles et notre passif en matière d’ingérence dans la nature[16]. Mais ce que cela implique indirectement, c’est que nous fassions en sorte de devenir capables d’intervenir sans créer plus de mal que de bien, notamment en améliorant nos connaissances en bien-être animal, en écologie et en ingénierie environnementale[17]. Une théorie d’éthique animale peut ainsi avoir des implications particulièrement exigeantes aux niveaux pratique (comment faire ?) et épistémique (que savons-nous et que devons-nous savoir ?)[18].

Source : pixabay

Source : pixabay

Il me semble que l’exigence cognitive a quant à elle été quelque peu négligée. Par exemple, l’impartialité de l’utilitarisme, dans sa version dite « totale », implique la prise en

compte des intérêts des êtres non seulement existants mais aussi possibles. L’ensemble des êtres susceptibles d’être affectés (y compris non humains) par nos choix devient alors astronomique et l’on peut légitimement se demander si nos capacités morales sont en mesure de traiter l’information requise pour bien choisir. Pour revenir à l’exemple précédent, il se pourrait en outre que notre système cognitif ne soit pas apte à percevoir la souffrance sauvage comme analogue aux souffrances individualisables – même statistiquement – que nous pouvons prévenir ou nous abstenir de causer.

L’exemple de l’éthique animale peut être généralisé à d’autres domaines de l’éthique (charité ou prévention des risques catastrophiques, par exemple). Dans la mesure où les théories morales s’adressent à des agents, leur applicabilité pratique mais aussi et en retour l’acceptabilité théorique de leurs propositions sont des considérations à prendre en compte et qui dépendent directement des agents que nous sommes. Même si l’utilitarisme impliquait que nous tentions de devenir des agents idéaux, la mesure dans laquelle nous pouvons raisonnablement espérer le devenir est limitée par certaines de nos capacités cognitives. Je n’entends pas par là que celles-ci seraient nécessairement et irrémédiablement limitées, mais que même une défense de l’augmentation morale et cognitive de nos capacités reste tributaire des capacités réelles des agents contemporains. On aura reconnu là une variation sur la règle métanormative « devoir implique pouvoir » (à l’impossible nul n’est tenu). A propos de la cognition morale, Adam Arico écrit par exemple que « les théories philosophiques traitant de la manière dont nous devons former nos jugements moraux sont contraintes par ce que notre système cognitif est capable de faire[19]. »

L’idée que nos théories morales doivent être sensibles à notre psychologie n’est pas neuve et j’ai suggéré qu’elle s’appliquait en particulier à l’utilitarisme appliqué à l’éthique animale[20]. J’en tire ici les conséquences pour délimiter la portée de l’objection avec laquelle nous avons commencé : qu’une théorie (cognitivement) trop exigeante ne serait pas acceptable.

2)    Faut-il faire confiance à nos intuitions ?

Peut-on tirer des objections à une théorie donnée à partir de l’étude de nos intuitions ou des limites de notre psychologie ? Ou du fait qu’il nous est impossible cognitivement de nous représenter clairement ce qu’elle exige de nous ? Considérons une théorie morale T. Supposons que T est inacceptable pour la plupart des agents, par exemple parce qu’elle requiert qu’ils sacrifient tous leurs projets et leurs proches, qu’ils accordent la même valeur aux colonies d’autres galaxies qu’à leurs contemporains sur Terre ou qu’ils commettent des meurtres pour maximiser le bien. On pourrait penser que ceci plaide contre T, et c’est une objection qu’on adresse parfois à l’utilitarisme. Un tel raisonnement n’impressionnera pourtant pas l’utilitariste, qui rétorquera que notre résistance à accepter les implications de sa théorie pourrait n’être qu’un « biais » cognitif non pertinent. Nous avons tendance à accorder plus de poids à notre propre bien qu’à celui d’autrui, au bien de nos proches ou de notre groupe qu’à celui d’étrangers, ou au présent qu’au futur, mais ces tendances ne sont pas justifiables du point de vue impartial.

Nous attendons des jugements moraux qu’ils soient sensibles à des critères pertinents plutôt qu’à des facteurs arbitraires. Par exemple, on considère généralement que le statut moral d’un animal doit reposer sur des critères tels que la sensibilité ou la conscience plutôt que sur son aspect physique, son éloignement, sa valeur économique, nos goûts culinaires ou les circonstances politiques. Plutôt que de tailler notre cercle moral à la mesure de la proximité des autres êtres, l’éthicien recommandera d’éliminer les critères non pertinents et d’élargir par cohérence le cercle selon les critères retenus. La métaphore d’un « cercle en expansion[21] » suggère, à la lumière de la connaissance des bases biologiques de nos préférences pour nos cercles proches (soi, famille, amis, patrie, sexe, ethnie, espèce), que ce ne sont pas des tendances moralement pertinentes. Nos intuitions et biais n’ont pas de lien essentiel avec la vérité mais ont plutôt été sélectionnés au cours de l’évolution pour leur valeur sélective inclusive. La réflexion rationnelle nous oriente quant à elle, selon Singer, vers un critère plus pertinent (la sensibilité), et vers une moralité de plus en plus impartiale, étrangère aux propriétés extrinsèques telles que l’espèce, la distance, le groupe, etc.

Un biais cognitif, même inflexible, est précisément ce qu’il faut chercher à contourner, d’après l’utilitariste. Les intuitions déontologistes prohibant l’utilisation d’une personne comme simple moyen pour en sauver cinq autres, ou distinguant torts intentionnels et torts simplement prévisibles (« Doctrine » dite « du Double Effet »), ou encore faire du mal (tuer) et laisser du mal arriver (laisser mourir), ne seraient que le produit de tels biais, hérités de nos ancêtres lorsqu’ils vivaient en petites communautés et où les principaux torts moraux étaient directs (impliquant un contact physique). Les principes censés sous-tendre ou traduire ces intuitions ne seraient que l’expression philosophique de tels biais. Se décharger d’obligations exigeantes de charité (vis-à-vis des plus pauvres) au prétexte de la distance ou d’une omission moralement bénigne, c’est indirectement percevoir la moralité au travers de ces biais ancestraux.

Les travaux de Joshua Greene et ses collègues prétendent ainsi démontrer l’appartenance de nos jugements déontologistes à un système cognitif primitif et émotionnel (système 1) tandis que nos jugements utilitaristes seraient principalement le produit d’un système intellectuel rationnel (système 2)[22]. Une telle opposition repose sur la distinction de deux systèmes cognitifs et de deux types de processus correspondants. Le premier système est typiquement rapide, automatique et inconscient, et son efficacité se paie au prix d’une relative inflexibilité et d’une tendance à commettre des erreurs. Le second système est typiquement lent, réfléchi et conscient, et sa moindre efficacité et les efforts qu’il requiert sont compensés par sa plus grande précision et par sa rationalité[23]. Joshua Greene compare ces deux systèmes à deux modes d’utilisation d’un appareil photo : automatique (ou « point-and-shoot ») (réactions émotionnelles spontanées, efficaces mais inflexibles) et manuel (capacité générale de raisonnement pratique, inefficace mais flexible)[24]. « Les réglages automatiques », écrit Greene, « sont des heuristiques – des algorithmes efficaces obtenant les “bonnes” réponses la plupart du temps mais pas toujours[25]. » Mais même ces « “bonnes” réponses » peuvent n’être que le reflet d’impératifs biologiques, raison pour laquelle nous ferions mieux de « faire le ménage » avant (ou plutôt que) « d’organiser nos intuitions », « d’essayer d’abord d’abandonner toutes nos intuitions biaisées » à l’aide de « la connaissance de nous-mêmes que nous offrent les sciences ». On pourrait ainsi inférer la fiabilité de jugements moraux du système qui les produit, à la lumière des neurosciences et de la psychologie, si l’on admet que le système 2 reflète mieux certains réquisits méta-normatifs (impartialité et rationalité notamment).

Prenons un dernier exemple. Petrinovich, O’Neill et Jorgenson ont montré que, face à diverses variations du dilemme du trolley mettant en jeu des animaux, l’immense majorité des gens, et dans diverses régions du monde, choisissent de sauver les humains plutôt que les animaux, même quand ceux-ci sont plus nombreux. Qu’il s’agisse de détourner le tramway vers un homme de 25 ans pour sauver les cinq derniers gorilles de la planète ou de le détourner vers son propre chien pour sauver un inconnu, ce sont systématiquement les humains qui sont sauvés ou que l’on refuse de tuer[26]. Marc Hauser rapporte même que la réticence des gens à pousser un individu (un gros homme) d’un pont pour arrêter un tramway et sauver cinq personnes disparait quand les individus impliqués sont des chimpanzés (jeter un grand chimpanzé devant le tramway pour sauver cinq chimpanzés)[27]. Bien que ce spécisme soit apparemment ancré dans notre psychologie, il ne  s’ensuit pas que ces réponses soient correctes. Singer, comme Greene, pense que la « réponse rationnelle » est « la bonne », à savoir que « la mort d’une personne est une moindre tragédie que la mort de cinq personnes[28]. » Et suivant le même principe impartial, la mort d’un animal est aussi tragique que celle d’un humain aux capacités cognitives comparables. Le principal intérêt moral de la psychologie empirique serait alors négatif et devrait nous décourager de recourir aux intuitions pour construire nos théories morales. Pour reprendre la métaphore de Greene, quand des intuitions (intra- et interpersonnelles et interculturelles) divergent ou sont suspectes il faut passer en mode manuel (ce que font nos cerveaux quand ils ne sont pas trop paresseux).

J’ai tenté de montrer dans cette section que même les plus systématiques parmi nos biais ne sont pas pour autant justes (tout comme on peut comprendre qu’une illusion d’optique insurmontable n’est qu’une apparence). On ne peut sans doute pas inférer de nos émotions, intuitions et autres mécanismes psychologiques irrépressibles un jugement moral ni, par conséquent, la fausseté d’une théorie. Une théorie peut être vraie même si certaines de ses implications sont psychologiquement très difficiles à accepter. Néanmoins, il apparaîtrait excessif d’en conclure que l’éthique normative doit ignorer certains mécanismes fondamentaux (inhibition de la violence, rôle de l’empathie dans la formation du jugement moral[29], canalisation des attributions de statut moral par la perception d’esprits) et nous obliger à être ce que nous ne pouvons pas être[30]. Je voudrais maintenant suggérer que les jugements moraux (aussi bien d’obligation que de faute), et les principes moraux qu’ils expriment ou permettent de construire, doivent être ajustés en fonction de ces mécanismes pour respecter l’exigence méta-normative de ne pas trop exiger cognitivement des agents.

3)    Ne pas croire ni ignorer mais comprendre nos intuitions

Je n’entends pas défendre la pertinence des intuitions contre les implications de telle ou telle théorie. Je voudrais cependant montrer que la connaissance de notre « machine cognitive » est nécessaire pour pouvoir mieux jouer avec elle. Ce qu’une théorie exige de nous doit être intelligible par la machine. L’inclusion de tel ou tel groupe d’êtres dans la communauté morale ne doit pas varier en fonction de nos capacités, mais les critères de cette inclusion sont inévitablement tributaires des mécanismes humains d’attribution de la considérabilité morale. Les théories morales sont, dans une certaine mesure, le reflet même de ces mécanismes et de leurs limites[31]. Que peuvent nous apprendre les études empiriques et comment peuvent-elles nous être utiles pour ajuster théorie morale et machine cognitive ? J’ai déjà écarté la possibilité que nos intuitions en tant que telles puissent confirmer ou infirmer nos théories, quand bien même la philosophie expérimentale confirmerait dans certains cas leur « robustesse ».

Un autre type de résultat peut en revanche nous aider. La psychologie morale a récemment révélé comment différentes populations attribuaient à des membres d’autres groupes humains ou d’autres espèces des propriétés mentales particulières selon les contextes d’interaction avec ces individus. Or, comme notre considération morale dépend de la reconnaissance chez les autres entités de propriétés mentales[32], les facteurs influençant cette reconnaissance affectent directement nos relations morales. De nombreuses études soulignent les effets négatifs du contexte pratique dans « l’attribution d’esprit motivée ». Par exemple, Brock Bastian et ses collègues ont montré que les personnes aimant la viande ou mises dans une situation où elles s’apprêtent à en manger, mais qui sont pourtant réticentes à l’idée de causer du tort à des entités douées d’esprit, ont tendance à réduire leur dissonance cognitive en déniant un esprit aux animaux qu’ils mangent[33]. Quand cela satisfait nos intérêts (domestiquer), nous attribuons volontiers un esprit[34], mais l’inverse est aussi vrai quand il va à l’encontre de nos intérêts qu’un animal ait un esprit. Ainsi, une culture qui juge approprié de manger du chien ou du dauphin prête à ces animaux une valeur morale inférieure, ce qui est probablement rendu possible par le blocage de l’attribution d’esprit[35]. De même, en l’absence d’un besoin de connexion ou de similarité à soi, on sera moins motivé à en attribuer[36], ou on manifestera moins de sympathie en réponse aux autres esprits[37].

Les études des phénomènes de déshumanisation et des phénomènes associés (génocide, discrimination) montrent que les intérêts pratiques, les préjugés socio-culturels, les hiérarchies, et les relations endo/exo-groupe (religieux, ethnique) motivent des tendances à conférer ou retirer l’humanité et les propriétés qui lui sont associées aux êtres trop dissemblables[38]. L’animalité sert ainsi de repoussoir limitant l’extension de notre considération morale égale à d’autres humains, compromettant dans ces contextes l’extension impartiale du cercle au-delà des frontières arbitraires intra-humaines et interspécifiques. On sait cependant que ces tendances ne relèvent pas de ce que Greene et d’autres considèrent comme la partie rationnelle de notre cognition (système 2). Mais on sait aussi que les gens agissent la plupart du temps en faisant confiance à leur système 1, parce qu’il est rapide et efficace (quoiqu’inflexible), alors que le système 2 est « paresseux »[39]. L’éthique normative doit donc tenir compte de ces résultats pour d’autant mieux faciliter l’action précise et flexible du système 2 sur le système 1.

Pourquoi ces résultats nous intéressent-ils ? Premièrement, ils peuvent permettre à l’utilitarisme d’expliquer d’où vient l’intuition qu’il est trop exigeant et pourquoi plus généralement nos intuitions anti-utilitaristes ne sont pas fondées. Deuxièmement, la connaissance de ces résultats permet de formuler une théorie d’une façon qui paraisse moins exigeante étant données ces limites. Le cadrage conceptuel et linguistique des implications d’une théorie[40] peut ainsi affecter son exigence cognitive. Les facteurs affectant nos perceptions, nos décisions et nos actions ne sont pas généralement reconnus comme moralement pertinents : similarité à soi, motivation à établir des différences pour exclure et marquer des hiérarchies, goûts, habitudes et traditions sont autant de facteurs explicatifs mais non justificatifs des différences morales que nous établissons entre groupes et espèces. Or, comprendre précisément ce qui nous pousse ainsi à discriminer sans fondement pertinent peut se révéler crucial pour une théorie morale complète articulant facteurs effectifs et facteurs légitimes d’attribution du statut moral. En aval de cette formulation, ces résultats empiriques s’avèrent riches en leçons pragmatiques du point de vue éducatif, politique ou militant. Insister sur la similarité des animaux aux humains a un effet inclusif alors que, nous l’avons vu, assimiler des humains à des animaux a l’effet inverse. Ce n’est pas à dire que ce sont nos caractéristiques qui comptent mais qu’il est plus bénéfique de présenter les caractéristiques des autres animaux à la lumière de leur relation pertinente avec nos caractéristiques pertinentes : exploiter les biais de notre machine cognitive pour jouer plus impartialement avec elle.

Pour répondre au problème de l’exigence cognitive, j’ai suggéré des usages possibles des études empiriques pour l’éthique tout en écartant un certain usage des intuitions. J’ai suggéré qu’au niveau méta-normatif les théories pouvaient être cognitivement trop exigeantes. Pour devenir de meilleurs agents, il faut comprendre pourquoi nous sommes de si mauvais agents, et non seulement le regretter. Une intégration de la psychologie à la théorie morale, par un processus de va-et-vient, offre ainsi une réponse au problème de l’exigence cognitive. L’exigence peut être un obstacle certes, mais un obstacle que l’on peut surmonter en intégrant les limites cognitives, propres aux individus ou inhérentes à la psychologie humaine, à la formulation des théories[41].


[1] P. Singer, Famine, Affluence, and Morality, Philosophy & Public Affairs, vol. 1, n° 3, 1972, pp. 229–243 ; P. Unger, Living High and Letting Die: Our Illusion of Innocence, New York, Oxford University Press, 1996.

[2] Sur l’objection dite de l’intégrité, voir B. Williams, La fortune morale, trad. J. Lelaidier, Paris, PUF, 1994 [1981]. Sur les exigences de l’utilitarisme, la littérature est abondante. Voir notamment S. Scheffler, The Rejection of Consequentialism, 2de édition, Oxford, Clarendon Press, 1994 [1982], M. Slote, Common-Sense Morality and Consequentialism, New York, Routledge, 1985, L. Murphy, Moral Demands in Nonideal Theory, Oxford, Oxford University Press, 2000, ou encore, de la part d’un utilitariste de la règle, B. Hooker, Ideal Code, Real World, Oxford, Clarendon Press, 2002. Pour une défense de ces exigences, outre Singer et Unger, voir S. Kagan, The Limits of Morality, Oxford, Oxford University Press, 1989 ; pour une défense d’exigences modérées, voir T. Mulgan, The Demands of Consequentialism, Oxford, Oxford University Press, 2001.

[3] Merci à François Jaquet de m’avoir encouragé à clarifier ce point.

[4] Voir les analyses fines de T. M. Scanlon, Moral Dimensions, Cambridge, MA, The Belknap Press of Harvard University Press, 2008, sur la distinction entre jugements de « permissibilité » et jugements de faute (blameworthiness). Voir aussi D. Parfit, Reasons and Persons, Oxford, Clarendon Press, 1984, p. 32, sur les cas d’actions injustes sans faute (blameless wrongdoing).

[5] P. Singer & K. de Lazari-Radek , The Point of View of the Universe: Sidgwick and Contemporary Ethics, Oxford, Oxford University Press, 2014, p. 330.

[6] Voir d’une part la distinction entre utilitarismes direct (ou de l’acte) et indirect (ou de la règle) faite par J. S. Mill dans De l’utilitarisme, trad. C. Audard et P. Thierry, Paris, PUF, 1998 ; d’autre part la distinction de R. M. Hare entre niveaux intuitif et critique du raisonnement moral dans Moral Thinking : Its Levels, Method, and Point, Oxford, Oxford University Press, 1981.

[7] Voir B. Hooker, Ideal Code, Real World, op. cit.,

[8] Merci à Florian Cova et François Jaquet de m’avoir suggéré cette formulation concise.

[9] On peut considérer certaines positions déontologistes comme plus exigeantes parfois que l’utilitarisme, par exemple la défense kantienne d’un devoir de ne jamais mentir, ou les implications non moins exigeantes du contractualisme de Scanlon (E. Ashford, The Demandingness of Scanlon’s Contractualism, Ethics, vol. 113, n° 2, 2003, pp. 273-302) — Williams reléguait dos-à-dos conséquentialisme et déontologie kantienne. Il faudrait toutefois distinguer exigence et rigorisme. La déontologie est rigoureuse car ses devoirs sont absolus, indépendamment de leur exigence intrinsèque ; le conséquentialisme est au contraire essentiellement contextuel, et très exigeant, mais son réquisit universel de maximiser le bien est également rigoureux.

[10] Par intuitions, j’entends ici, en un sens général, l’ensemble des jugements, perceptions et réponses initialement non inférentielles quoiqu’elles puissent ensuite être approuvées à l’issue d’un processus délibératif. Je me réfère principalement à elles par commodité mais mes remarques valent pour d’autres mécanismes psychologiques non inférentiels (émotions, biais cognitifs et perceptifs, etc.).

[11] Frances M. Kamm est l’une des figures majeures de l’éthique normative fondée sur les intuitions, et un exemple de non-utilitarisme. Voir Intricate Ethics: Rights, Responsibilities, and Permissible Harm, Oxford, Oxford University Press, 2007, qui contient notamment une défense de l’usage des intuitions et des critiques de Singer et Unger.

[12] Le procédé suggéré ici diffère de la méthode rawlsienne de l’équilibre réfléchi en ce qu’il propose un critère méta-normatif de l’exigence d’une théorie plutôt qu’un critère normatif de premier ordre. Il ne vise pas à organiser et justifier principes et intuitions mais propose une méthode appropriée de cadrage des théories.

[13] Voir P. Singer, La libération animale, ch. 6, trad. L. Rousselle, revue par D. Olivier, Paris, Payot, 2012 [1975, nouvelle édition 1990].

[14] Voir T. Regan, Les droits des animaux, trad. E. Utria, Paris, Hermann, 2013 [1983].

[15] Voir J. McMahan, The Meat Eaters, The New York Times, 19 septembre 2010.

[16] P. Singer, La liberation animale, op. cit. chapitre 6.

[17] Voir par exemple Y.-K. Ng, Towards Welfare Biology: Evolutionary Economics of Animal Consciousness and Suffering, Biology and Philosophy, vol. 10, n° 3, 1995, pp. 255-285 ; O. Horta, Debunking the Idyllic View of Natural Processes: Population Dynamics and Suffering in the Wild, Télos, vol. 17, 2010, pp. 73-88.

[18] Voir par exemple A. Hills, Utilitarianism, contractualism, and demandingness, The Philosophical Quarterly, vol. 60, n° 239, 2010, pp. 225-242 sur le caractère très exigeant de ces implications.

[19] A. Arico, Breaking out of Moral Typecasting, Review of Philosophy & Psychology, vol. 3, n° 3, 2012, p. 437.

[20] Voir O. Flanagan, Varieties of Moral Personality: Ethics and Psychological Realism, Cambridge, MA, Harvard University Press ; V. Nurock, La naturalisation de la morale est-elle un devoir moral ?, Revue philosophique, n° 4, 2009, pp. 457-470. Voir aussi ma thèse de doctorat, Une théorie contextuelle du statut moral des animaux, dir. Sandra Laugier, Université Paris 1 Panthéon-Sorbonne, Philosophie, 2014, chapitre 2, section 1.4.

[21] P. Singer, The Expanding Circle: Ethics, Evolution, and Moral Progress, nouvelle édition, Princeton, Princeton University Press, 2011 [1981].

[22] J. Greene, R. B. Sommerville, L. E. Nystrom, J. M. Darley, & J. D. Cohen, An fMRI Investigation of Emotional Engagement in Moral Judgment, Science, vol. 293, 2001, pp. 2105-8 ; J. Greene, The Secret Joke of Kant’s Soul, in W. Sinnott-Armstrong (dir.), Moral Psychology, Vol. 3, Cambridge, MA, The MIT Press, 2008, pp. 35-79.

[23] Voir par exemple D. Kahneman, Thinking, Fast and Slow, New York, Farrar, Strauss and Giroux, 2011.

[24] J. Greene, Moral Tribes: Emotion, Reason, and the Gap between Us and Them, New York, Penguin Books, 2013.

[25] Ibid., p. 328.

[26] L. Petrinovich, P. O’Neill & M. Jorgenson, An Empirical Study of Moral Intuitions: Toward an Evolutionary Ethics, Journal of Personality and Social Psychology, vol. 64, n° 3, 1993, pp. 467-478.

[27] M. Hauser, Moral Minds, New York, Harper Collins, 2006, pp. 307-309.

[28] P. Singer, Ethics and Intuitions, Journal of Ethics, vol. 9, n° 3-4, 2005, p. 350.

[29] Voir A. I. Jack, P. Robbins, J. P. Friedman & C. D. Meyers, More than a Feeling: Counterintuitive Effects of Compassion on Moral Judgment, in J. Sytsma (dir.), Advances in Experimental Philosophy of Mind, London-New York, 2014, pp. 125-180, qui remet en cause la théorie des processus duels de Greene et l’opposition raison/émotion dans la cognition morale.

[30] Dans leur récente défense de l’utilitarisme sidgwickien, Singer et Lazari-Radek acceptent « que nos capacités naturelles doivent entrer en ligne de compte pour décider ce que les gens doivent faire dans une situation particulière » mais ils refusent cependant « la reddition de l’éthique aux limites de ces capacités. » (The Point of View of the Universe, op. cit., pp. 330-1).

[31] Voir par exemple J. Sytsma & E. Machery, The two Sources of Moral Standing, Review of Philosophy and Psychology, vol. 3, n° 3, 2012, pp. 303-324.

[32] K. Gray, L. Young, & A. Waytz, Mind Perception is the Essence of Morality, Psychological Inquiry, vol. 23, n° 2, 2012, pp. 101-124.

[33] B. Bastian, S. Loughnan, N. Haslam, & H. R. M. Radke, Don’t Mind Meat? The Denial of Mind to Animals Used for Human Consumption, Personality and Social Psychology Bulletin, vol. 38, n° 2, 2012, pp. 247-256. D’autres, pour réduire la dissonance, s’abstiennent au contraire de consommer les animaux qu’ils jugent capables de souffrir.

[34] N. Epley, A. Waytz, S. Akalis, & J. T. Cacioppo, When We Need a Human: Motivational Determinants of Anthropomorphism, Social Cognition, vol. 26, n° 2, 2008, pp. 143-155.

[35] B. Bastian et al., Don’t Mind Meat?, op. cit.

[36] A. Waytz, K. Gray, N. Epley, & D. M. Wegner, Causes and Consequences of Mind Perception, Trends in Cognitive Science, vol. 14, n° 8, 2010, pp. 383-388.

[37] N. Epley et al., When We Need a Human, op. cit.

[38] B. Bastian, K. Costello, S. Loughnan, & G. Hodson, When Closing the Human-Animal Divide Expands Moral Concern: The Importance of Framing, Social Psychological and Personality Science, vol. 3, n° 4, 2012, pp. 421-429 ; N. Haslam, Y. Kashima, S. Loughnan, J. Shi, & C. Suitner, Subhuman, Inhuman, and Superhuman: Contrasting Humans and Nonhumans in three Cultures, Social Cognition, vol. 26, n° 2, 2008, pp. 248-258 ; S. Loughnan, N. Haslam, T. Murnane, J. Vaes, C. Reynolds, & C. Suitner, Objectification Leads to Depersonalization: The Denial of Mind and Moral Concern to Objectified Others, European Journal of Social Psychology, vol. 40, n° 5, 2010, pp. 709-717.

[39] Comme le répète à de nombreuses reprises D. Kahneman, Thinking, Fast and Slow, op. cit.

[40] Voir B. Bastian et al., When Closing the Human-Animal Divide Expands Moral Concern, op. cit.

[41] Je remercie mes relecteurs de leurs précieuses remarques et de m’avoir aidé à clarifier mon argumentation. Les idées défendues ici sont également redevables de discussions avec Mihailis Diamantis et Jeff Sebo lors du congrès Minding Animals 3 à New Delhi en janvier 2015. Merci enfin à Florian Cova et François Jaquet pour leur soutien.

Commenter

Suivez-nous :
ISSN 2105-0864 - Copyright © 2009-2015 Implications philosophiques CopyrightFrance.com