La morale, une histoire de coût d’opportunité ? – morale 5

202 lectures. Publié le 25 November 2019 par dans la catégorie Psychologie évolutionnaire

La morale, une histoire de coût d’opportunité ? – morale 5

Aujourd’hui je vous explique la théorie de la morale sur laquelle j’ai bossé pendant ma thèse.

Voilà la vidéo, et ci-dessous une transcription de la vidéo :

On démarre avec un ptit coup de machine à remonter le temps. Imaginez un instant être
revenu·e·s 50 000 ans en arrière, dans la peau d’un chasseur-cueilleur. De ce qu’on sait de la
vie de ces humains-là, une grande partie de la journée est passée à coopérer [1–3] : coopérer
pour chasser, coopérer pour faire de la cueillette, coopérer pour se protéger des prédateurs,
coopérer pour construire des abris, coopérer pour cuisiner, coopérer pour mettre sa cagoule en
peau de mammouth, etc… En biologie, il existe une définition assez précise de ce que ça veut
dire coopérer, mais pour cette vidéo on va prendre la définition du langage courant, qui est
grosso modo d’agir ensemble dans un but commun, de faire des trucs ensemble de façon non
conflictuelle. Et, vous l’avez peut-être remarqué, mais ce qui est formidable quand on fait des
trucs ensemble, c’est qu’on peut faire des choses qu’on ne peut pas faire tout seul [4]. Si vous décidez d’aller cueillir des cerises tout seul, vous allez pouvoir ramasser toutes les cerises qui se trouvent sur les branches basses, et remplir un panier. Mais si vous décidez d’aller cueillir des cerises avec quelqu’un d’autre qui peut vous faire la courte échelle pour monter dans l’arbre, vous allez ramasser beaucoup plus qu’un panier, beaucoup plus que deux paniers, vous allez avoir accès à toutes les cerises dans l’arbre. Si vous décidez d’aller chasser à plusieurs, et que certaines personnes peuvent jouer les rabatteurs, vous allez attraper beaucoup plus de gibier que si vous chassez tout seul et faites fuir le gibier devant vous.

C’est pas qu’un truc de chasseur-cueilleur d’ailleurs, aujourd’hui la coopération est toujours
omniprésente et bénéfique dans nos sociétés. La division du travail peut être vue comme un
exemple de coopération à large échelle. Si en ce moment je peux me permettre d’avoir le cul
posé sur une chaise pour vous faire des vidéos plutôt que d’aller chasser, c’est parce que je
sais que je fais partie d’une entreprise de coopération avec d’autres humains qui vont produire
de la nourriture à ma place et qui me garantissent que mon frigo ne sera pas vide à la fin de
la journée. Poussée à son extrême, c’est la coopération à l’échelle planétaire qui nous permet
de réaliser des prouesses scientifiques comme obtenir des images d’un trou noir qui se trouve
à des millions d’années-lumière, une performance équivalente à réussir à lire une épitaphe du
Père-Lachaise depuis un bistrot de New-York [5].

Ce que j’essaie de vous faire sentir avec ces exemples, c’est que la coopération a ce qu’on
appelle un effet synergique [6, 7], c’est à dire qu’en matière de coopération, 1+1 n’est pas égal
à deux. 1+1 est égal à 3, mais peut aussi etre égal à 10, à 20 ou à 100 dans certaines situations.

Les effets bénéfiques des actions individuelles ne font pas que s’additionner, ils peuvent être
multipliés.

Jusqu’ici, rien de révolutionnaire. La capacité de coopérer de l’être humain est régulièrement
citée, avec la culture cumulative, comme une des capacités ayant permis à notre espèce
de se répandre sur la planète et de s’adapter à des environnements variés et souvent hostiles [8].

Ce qui est moins remarqué par contre, c’est que l’omniprésence de la coopération chez l’humain,
et le fait qu’elle soit porteuse de tant de bénéfices, peut avoir des implications sur notre psychologie.

Les implications, c’est qu’il est possible que la sélection naturelle ait façonné d’une
façon ou d’une autre les cerveaux des humains pour les aider à prendre les bonnes décisions en
matière de coopération. Et en particulier, une décision ultra-importante à prendre en matière
de coopération c’est de choisir avec qui vous allez coopérer. Comment bien choisir avec qui
coopérer ?

Une des façons de choisir, c’est d’essayer de faire en sorte que ce que vous gagnez quand
vous coopérez soit supérieur à ce qu’on appelle vos coûts d’opportunité. Un coût d’opportunité,
ça désigne, dans une situation où vous devez faire un choix, la valeur de la meilleure option
que vous n’avez pas choisie… Prenons un exemple. Imaginez que vous voulez aller cueillir des
pommes avec quelqu’un, et que vous pouvez choisir entre trois personnes, que des parents peu
inspirés auront nommé A, B, ou C. Si vous allez cueillir avec A, vous savez que vous reviendrez
avec un panier rempli de pommes. Si vous allez cueillir avec B, vous en aurez deux, et si vous
allez avec C vous en aurez trois. Si vous choisissez d’aller avec A, votre coût d’opportunité
est de 3 paniers de pommes, car c’est la valeur de la meilleure option que vous n’avez pas
choisie. Si vous choisissez d’aller avec B, votre coût d’opportunité sera aussi de trois paniers.
Et si vous choisissez d’aller avec C, votre coût d’opportunité sera de deux paniers. Avec cette
définition des coûts d’opportunité, il est très facile de voir pourquoi dans une perspective de
maximisation de bénéfices, il est important non seulement de choisir quelqu’un qui va vous faire
gagner plus que 0, mais aussi et surtout quelqu’un qui va vous faire gagner plus que votre coût
d’opportunité. Dans ce cas précis, ça veut dire bien sûr coopérer avec C.

On peut aussi reformuler ça en terme d’investissement. Quand vous êtes en train de choisir
avec qui coopérer, vous êtes en quelque sorte en train de faire un investissement. Vous êtes en
train de décider comment utiliser votre temps, comment vous allez investir ces quelques unités
de temps que vous avez devant vous. Et un bon investissement de temps, c’est une dépense
de temps qui vous permettra de gagner au moins autant que ce que vous auriez pu gagner en
investissant ce temps ailleurs. Autrement dit, un bon investissement doit permettre de gagner
au moins autant que votre coût d’opportunité.

Si vous avez l’impression que je suis en train de parler d’économie et pas de biologie c’est
normal, c’est parce que le concept de coût d’opportunité a été beaucoup étudié en économie,
mais c’est un concept qui est en fait beaucoup plus large et qu’on trouve beaucoup en biologie.
Ce concept est par exemple à la base d’un théorème qu’on appelle théorème de la valeur
marginale [9] qui nous permet d’expliquer les stratégies d’acquisition de resources chez les
animaux et végétaux et dont Medhi et Léo vous ont parlé dans cette vidéo.

Pour résumer, en économie comme en biologie, ce qui est optimal c’est d’investir dans une
activité dont le retour sur investissement est supérieur à son coût, coût qui inclut le coût
d’opportunité, qui est la valeur de la meilleure option alternative.

Et appliqué au cas précis de la coopération, voilà ce que donne ce concept de coûts d’opportunité.

Si vous choisissez de coopérer avec C et que C ne vous en donne au final qu’un panier de pommes,
une fois que tout le boulot a été fait, alors ça veut dire que C ne vous rembourse pas le coût
d’opportunité que vous avez payé en coopérant avec lui, coût d’opportunité qui était de deux.
Ça veut dire qu’en décidant de coopérer avec C, on peut dire, a posteriori, que vous avez fait
un mauvais investissement. Vous n’avez pas maximisé les bénéfices que vous pouviez tirer de
cette opportunité de cueillette de pommes.

Voilà pourquoi bien choisir ses partenaires de coopération est ultra-important. Mais il y a
un deuxième problème évolutionnaire très important, c’est de ne pas acquérir une réputation
de mauvais coopérateur. Quand on est dans la position qu’occupe C, c’est vrai que ça peut
être tentant de ne donner qu’un panier de pommes au final, parce que ça va permettre de
garder plus de pommes pour soi. Sauf que ça marchera une fois, mais probablement pas deux,
parce qu’en faisant ça C obtiendra la réputation d’être un mauvais investissement. Ce qui veut
dire que les prochaines fois, plus personne ne voudra coopérer avec lui. Si vous voulez pouvoir
attirer beaucoup de partenaires avec qui coopérer pour pouvoir récolter tous les bénéfices de la
coopération, vous avez tout intérêt à rembourser correctement les personnes qui acceptent de
coopérer avec vous, à rembourser non seulement le temps qu’elles passent avec vous mais aussi
le coût d’opportunité qu’elles payent.

Voilà, ça c’est le principe de base, qui n’est pas très dur à comprendre je pense. L’importance
de la coopération dans la vie humaine pose des problèmes de choix de partenaire et des
problèmes de gestion de réputation qui peuvent s’analyser en termes de gestion de coûts
d’opportunités. Mais que vient faire la morale dans tout ça ? Hé bien si vous acceptez ces
prémisses, que la gestion de coûts d’opportunité a été et est toujours ultra-importante dans
l’espèce humaine, alors vous pouvez vous demander s’il n’y aurait pas quelque part dans le
cerveau humain un mécanisme qui aurait précisément pour but de nous aider à faire ça, nous
aider à prendre les bonnes décisions en matière de coûts d’opportunité. Si cette pression de
sélection comme on appelle ça en biologie a été si importante, on pourrait supposer qu’un mécanisme psychologique nous aidant à résoudre ce problème aurait été favorisé par la sélection
naturelle. Un mécanisme qui, étant donné l’extrême importance de la coopération dans la vie
humaine, devrait être omniprésent dans notre vie mentale. Un mécanisme qui, étant donné la
diversité des situations dans lesquelles des coûts d’opportunité interviennent, s’activerait dans
des situations aussi variées que la répartition des richesses, le droit des animaux, la nourriture, la sexualité… Un mécanisme qui, étant donné la gravité de ne pas être remboursé de son coût d’opportunité, nous rendrait fous de rage lorsqu’il détecterait une situation qui ne lui plaît pas.

Et quel pourrait bien être ce mystérieux mécanisme dans notre tête, il n’y a pas tant de
candidats que ça ? Mmmh, suspense. Vous voyez où je veux en venir, l’hypothèse que je veux
vous suggérer aujourd’hui, c’est que ce mécanisme de gestion des coûts d’opportunité, c’est la
morale. Ce truc bizarre qu’on a dans la tête, qui s’active dans des situations variées et qui est
omniprésent dans notre vie mentale, ne remplirait qu’un but : calculer des coûts d’opportunités.
Le sens moral serait un algorithme cognitif évolué qui vise d’une part à rembourser les coûts
d’opportunités qu’on fait payer aux autres, afin de les inciter à coopérer à nouveau avec nous
dans le futur, et d’autre part à nous faire éviter les personnes qui ne nous remboursent pas nos
propres coûts.

Avant de continuer, je vais refaire une petite séance de déminage psychologique parce que
je suis sûr qu’il y en a qui sont en train de mal interpréter ce que je suis en train de dire. Je
ne suis pas en train de dire que la morale consiste à considérer les autres humains comme des
investissements. Je ne dis pas que c’est ce qu’il faut faire, ce serait du normatif alors que je
ne fais que du descriptif, et je ne dis même pas que c’est ce qui se passe dans notre tête. Si
vous pensez que j’ai dit ça, c’est probablement que vous n’avez pas compris la distinction ô
combien importante entre motivations proximales et motivations ultimes, que j’explique dans la
dernière vidéo. Il FAUT absolument que vous ayez compris cette distinction avant de continuer,
sinon vous êtes condamnés à patauger pour l’éternité dans les marécages de l’incompréhension
biologique. Pour vous le rexpliquer en deux mots, rappelez-vous ma métaphore du sens du goût
: on peut très bien dire que le sens du goût a été sélectionné au niveau évolutionnaire pour
nous faire manger des aliments riches en énergie et non toxiques, c’est l’explication ultime, sans pour autant en conclure que quand on mange un aliment gras et sucré on le fait en pensant à
tous ces bénéfices que ça va nous apporter pour notre survie. On le fait parce qu’on aime ça,
que ça nous procure du plaisir, ce qui est l’explication proximale.

C’est pareil pour le sens moral. Quand je dis qu’on peut voir les autres comme des investissements, je ne suis pas en train de décrire les calculs qui se passent dans notre tête. Je suis en train de dire que d’un point de vue évolutionnaire, dans une perspective de maximisation de la valeur sélective, ça a du sens de considérer les autres comme des investissements.

Ça a du sens de penser que la sélection naturelle nous a façonné entre guillemets pour essayer
de tirer le maximum de nos interactions coopératives. Si vous étiez un chasseur-cueilleur en
l’an -57360 et que vous aviez réussi à ne pas mourir de faim, ne pas mourir de soif, et ne pas
mourir bouffé par un prédateur, probablement une des choses les plus importantes que vous
pouviez faire ensuite pour augmenter vos chances de survie c’est, d’éviter de coopérer avec des
gens qui ne vous remboursent pas vos coûts d’opportunité, et de montrer aux autres que vous
êtes vous-même un bon investissement en leur remboursant leurs coûts d’opportunité.

Et l’hypothèse serait que le sens moral peut aider à faire ça. Mais comment on peut essayer
d’apporter un peu plus de crédit à cette hypothèse ? Très bonne question, et question qui va
nous permettre de réfléchir un peu à la façon dont la science prouve ses théories. Beaucoup de
gens, quand ils entendent une théorie, demandent des preuves, dans le sens de prédictions que
fait la théorie et qui peuvent être testées. On peut faire des prédictions avec cette théorie, et on va y venir, mais il y a d’autres façons de donner du crédit à une théorie scientifique. Je vous en ai déjà donné deux d’ailleurs. La première, c’est de vous avoir montré comment cette théorie est rattachée à l’édifice de la science, comment cette théorie ne sort pas de nul part mais est rattachée à ce qui se fait en biologie de l’évolution et en théorie des jeux. C’est pas une théorie sortie de la tête d’un type qui s’est réveillé un matin en se disant, tiens je vais vous dire ce que c’est la morale.

Un deuxième point positif en faveur d’une théorie scientifique, c’est sa simplicité. La simplicité d’une théorie, ou sa parcimonie, est généralement considérée comme une qualité surtout
quand elle permet d’expliquer autant de choses que d’autres théories plus compliquées.
Et justement, en parlant d’expliquer des choses, une troisième façon de donner du crédit à
une théorie scientifique et qui ne passe pas directement par la confirmation de nouvelles prédictions c’est de montrer en quoi elle permet d’expliquer un ensemble de phénomènes qu’on ne
comprenait pas bien jusqu’à présent, ou qu’on considérait comme des anomalies. Les exemples
classiques en philo des sciences c’est Copernic, qui arrive à expliquer pourquoi les planètes ont
l’air de faire machine arrière parfois quand on les observe depuis la Terre, et pourquoi Mercure
ou Vénus contrairement aux autres planètes ne s’éloignent jamais du soleil. On peut aussi
penser à Kepler qui montre qu’il suffit de supposer que les orbites des planètes sont des ellipses et pas des cercles pour pouvoir se passer de tout un tas de complications qu’on avait rajouté à
nos théories pour expliquer le mouvement des astres. Ce sont des façons d’apporter du crédit
qui ne sont pas basées sur la production de nouvelles données, mais sur la réinterprétation
parcimonieuse de données existantes.

Et ce que je vais faire maintenant c’est exactement ça, vous donner un aperçu du caractère
unificateur de cette théorie de la morale, c’est à dire que que je vais essayer de vous montrer
comment différentes situations morales qui n’ont pas l’air d’avoir grand-chose en commun a
priori peuvent être ré-interprétées de façon intéressante à la lumière de cette théorie.
Et on commence tout de suite avec une des expériences de philosophie morale les plus
connues, l’expérience du trolley, ou du tramway, ou du train fou, ou du petit train qui fait
tchou tchou [10, 11]. L’expérience, c’est d’imaginer qu’un train fou sans conducteur va écraser
5 personnes qui sont ligotées sur la voie, sauf si vous tirez sur un levier qui va permettre de
dévier le train sur une voie secondaire où se trouve une seule personne. La question pour vous
est de savoir ce que vous feriez dans cette situation, est-ce que vous choisiriez de tirer sur le
levier pour sauver les cinq personnes ? Cette expérience a été faite des dizaines de fois [12, 13], et en général les gens disent qu’ils tireraient sur le levier pour sauver les cinq personnes. C’est pas qu’ils trouvent ça forcément moral, mais en tout cas que c’est la solution la plus acceptable.

Mais là où ça devient intéressant, c’est que si on propose aux gens non plus de tirer sur un
levier pour dévier le train sur une autre voie, mais de pousser une personne sur la voie pour
arrêter le train, personne qui se trouvait là à côté par hasard, alors les gens maintenant ne sont plus d’accord pour dire qu’il faut sauver les 5 personnes. Du point de vue du nombre de vies
sauvées, les deux situations sont pourtant identiques : dans les deux cas il s’agit de sacrifier
une personne pour en sauver cinq. Et pourtant, les gens ont des intuitions très différentes dans
ces deux situations.

Alors comment on peut expliquer que les intuitions des gens puissent se retourner comme
ça, plus facilement que des tartines beurrées au ptit déj. L’interprétation la plus classique de
cette expérience c’est qu’elle reflèterait un principe qui est au coeur de la morale, et qu’on
appelle le principe du double effet. Vous en avez sûrement déjà entendu parler sans le savoir,
c’est le principe qui dit qu’on aurait le droit de tuer une personne pour en sauver plusieurs si et
seulement si cette personne n’est pas utilisée comme un moyen pour sauver d’autres personnes,
mais si sa mort représente un dommage collatéral. Et c’est vrai que c’est le cas dans le dilemme
du trolley, quand on doit tirer sur un levier la personne seule sur la voie devient une victime
collatérale de l’action de sauver cinq personnes, tandis que dans le cas où on doit pousser une
personne sur la voie pour arrêter le train cette personne est utilisée comme un moyen.
Mais il y a une autre interprétation, et c’est une interprétation en termes de coûts d’opportunités.

Cette interprétation fait remarquer que quand on tue une personne en la poussant sur la voie,
on lui fait subir un coût d’opportunité plus grand que quand on la tue alors qu’elle est déjà
sur la voie. Pourquoi ? Parce qu’une personne en sécurité à côté de la voie a des meilleures
options alternatives qu’une personne déjà sur la voie, elle est en quelque sorte plus loin de la
mort si vous voulez. Donc si on tue cette personne, on lui fait payer des coûts d’opportunités
plus grands, ce qui expliquerait pourquoi notre cerveau, ou tout du moins le cerveau d’une
majorité de gens, fait la différence entre ces deux situations, alors qu’elle sont identiques sur le plan comptable du nombre de vies sauvées.

D’une façon générale, on peut remarquer que les coûts d’opportunité sont toujours plus
grands quand on se sert d’une personne comme d’un moyen plutôt que quand cette personne
est tuée comme dommage collatéral. Parce qu’une personne qui subit un dommage collatéral
est en général déjà dans une situation dangereuse, par définition presque puisque sinon elle
n’aurait pas été victime d’un dommage collatéral. Donc le principe du double effet qui a été
étudié et remarqué par des philosophes depuis des siècles, serait une bonne description de la
morale, mais c’est une description de haut niveau si vous voulez, qui pourrait être réécrite selon nous à un niveau plus élémentaire comme une histoire de coûts d’opportunité.

Un autre principe important en philosophie morale c’est la différence entre l’omission et
l’action. Ça désigne le fait que l’on juge généralement plus sévèrement quelqu’un qui tue
activement une autre personne plutôt que quelqu’un qui ne sauve pas une autre personne [14,
15]. Par exemple si vous maintenez la tête de quelqu’un sous l’eau pour le noyer, on vous jugera
généralement plus sévèrement que si vous vous êtes abstenu de sauver quelqu’un qui était en
train de se noyer. On juge les actions plus sévèrement que les omissions. Et encore une fois, c’est une propriété de la morale qui peut paraître bizarre, parce que dans les deux cas le résultat est le même : on a une personne qui meurt. Mais adopter une perspective de coûts d’opportunités
permet d’éclairer cette bizarrerie, en analysant les coûts d’opportunité du meurtrier. Il se
trouve que très souvent, il est plus difficile de sauver quelqu’un que de s’empêcher de le tuer.
Sauter dans l’eau, nager, et mettre sa vie en danger pour sauver quelqu’un de la noyade est
plus coûteux que simplement s’empêcher de tenir la tête de quelqu’un sous l’eau. Nos cerveaux
semblent prendre en compte à quel point une action est difficile à éviter pour produire un
jugement moral : or, calculer à quel point une action est dure à éviter, c’est calculer la valeur
des options alternatives, et c’est donc précisément faire un calcul de coûts d’opportunités.
Autre pierre angulaire de la morale c’est l’intentionnalité, le fait qu’on juge plus sévèrement
un homicide si le meurtrier a tué avec intention de tuer plutôt que sans intention de tuer –
alors que le résultat est le même dans les deux cas, la mort. Une fois de plus, il se pourrait
que l’intentionnalité ne soit pas en soi un grand principe moral, mais qu’elle soit une régularité qui nous informe sur les coûts d’opportunité qui sont en jeu. Comme dans le cas de
l’action/omission, quand un homicide est volontaire on peut penser qu’il était facile de s’en
empêcher. Il suffisait de ne pas appuyer sur la gâchette. Par contre, quand un homicide est
involontaire ça veut généralement dire que pour éviter la mort il aurait fallu prendre beaucoup
plus de précautions. Si je jette un pot de fleur sur quelqu’un avec intention de le tuer, j’aurais
très facilement pu m’en empêcher. Mais si je tue quelqu’un parce que le pot de fleur sur le
bord de ma fenêtre est tombé parce que je lui ai donné un coup de coude en passant, j’aurais
dû pour éviter ce meurtre m’empêcher d’avoir des fleurs, ou m’empêcher de les mettre sur la
fenêtre, ou ne pas m’approcher de la fenêtre, etc… Ce qui constitue des augmentations de coûts
d’opportunités, et ce qui explique, au moins selon notre théorie, pourquoi on juge les homicides
involontaires moins sévèrement.

Prenons un exemple de morale complètement différent maintenant, une situation d’aide.
Dans les situations d’aide aussi, l’empreinte des coûts d’opportunités est très présente. Si vous
êtes très fort en informatique, on va considérer ça normal que vous aidiez votre voisin à régler
son problème d’imprimante qui marche plus, parce que ça va vous prendre 1 minute pour le
faire [16] : 1 minute ça fait des coûts d’opportunités minimes. Mais si demain tout le quartier
commence à défiler chez vous pour vous demander de l’aide, on ne dira plus que vous avez le
devoir d’aider tout le quartier, parce que vos coûts d’opportunité seraient alors énormes. C’est
aussi un peu ce qu’il se passe dans le cas du don du sang, ou du don d’organe. Beaucoup de
gens considèrent que c’est un devoir de donner son sang, parce ça se fait rapidement, que notre
corps régénère le sang donné en quelques heures et que ça peut sauver des vies. Mais les gens
en général ne pensent pas que c’est un devoir d’accepter qu’on nous prélève un oeil, un rein,
un poumon [15] : le coût d’opportunité serait trop grand.

Si la morale c’est une histoire de calculs de coûts d’opportunités, on comprend aussi pourquoi
le principe de proportionnalité, qui est que plus quelqu’un fournit d’effort ou travaille longtemps, plus il doit être récompensé, est un principe extrêmement intuitif : plus quelqu’un travaille longtemps, plus son coût d’opportunité augmente, puisque plus il aurait pu travailler sur un autre projet, et donc plus il doit être rémunéré. On comprend aussi facilement pourquoi nos institutions judiciaires passent autant de temps à calculer des compensations pour les victimes, allant même jusqu’à faire rembourser les frais d’avocats : elles font du remboursement de coûts d’opportunités.

Dernier exemple pour la route. Dans une vidéo qui s’intitule “7 expériences de pensée
morales”, Monsieur Phi teste à quel point Lê est utilitariste, c’est à dire qu’il présente à Lê
plusieurs scénarios où il faut décider soit d’allouer cinq machines de l’hôpital à cinq patients
différents, pour tous les sauver, soit de les allouer toutes a un seul patient, que l’on appelle
patient 0. Dans cette version de base, presque tout le monde est d’accord pour dire qu’il faut
sauver les cinq patients. Tout le monde est, ou a l’air d’être utilitariste. Et puis Monsieur Phi
essaie de changer le jugement moral de Lê, et c’est intéressant de voir quelle stratégie il emploie pour ça. Voilà le deuxième scénario qu’il propose. [voir vidéo]

Dans cette deuxième version, le patient 0 est arrivé en premier, et l’ordre a été donné de
brancher les machines sur lui. Cette information, qui suffit à changer le jugement de certaines
personnes, est selon moi à interpréter comme une augmentation du coût d’opportunité de ce
patient 0 : en prenant la décision de le brancher, ses chances de survie ont été virtuellement
améliorées, et donc sa meilleure option alternative a été augmentée si on le tue, et donc c’est
plus dur de choisir de réorienter les machines sur les autres patients dans ce cas-là.
Dans les scénarios suivants, voilà les modifications qui interviennent : le patient 0 est effectivement branché à une machine, puis il est branché à cinq machines, puis il est effectivement sauvé sans le savoir… À chaque nouveau scénario, les coûts d’opportunités augmentent pour
le patient 0 : plus le patient 0 est proche d’être soigné, plus il subirait un coût d’opportunité
important si on le laissait finalement mourir. Et de façon remarquable, les jugements moraux
des gens évoluent au fil de ces changements de coûts d’opportunité.
Dans une autre vidéo, Lê et Thibaud débattent de savoir, à supposer qu’il soit acceptable
de tuer des humains pour leur prendre leurs organes et soigner d’autres gens, est-ce qu’il est
préférable, 1/ de faire grandir ces humains en captivité dans une ferme à humains ou 2/ de leur
laisser vivre une vie normale jusqu’à leur assassinat. Et voilà leurs dernières réflexions.

[voir vidéo, extrait axiome]

Les trucs intéressants à faire, selon moi en tout cas, c’est d’analyser cet effet de la situation
de référence comme ils appellent ça en termes de coûts d’opportunités. Ce que font Thibaud
et Lê en direct dans cette vidéo, c’est, selon moi, mettre le doigt sur le fait que les coûts
d’opportunités sont effectivement un paramètre extrêmement important pour notre morale
intuitive, morale intuitive qui, qui on est d’accord, n’a pas vraiment l’air d’être utilitariste,
mais ça on aura l’occasion d’en reparler.

Bien, on va s’arrêter là pour les exemples. Je rappelle que ce que j’ai voulu faire avec cette
accumulation d’exemples, c’est montrer comment une interprétation de la morale en termes de
coûts d’opportunités permet d’unifier un ensemble de résultats en philosophie et psychologie
morale, résultats qui pour certains pouvaient passer pour des anomalies.

Maintenant, pour prouver cette théorie on peut aussi essayer de faire de la science plus
classique entre guillemets en essayant de tester ses prédictions, en essayant de la confirmer ou
de la falsifier. Et c’est une grande partie du boulot des psychologues qui bossent sur le sujet
aujourd’hui. Le Graal, ce serait, à partir de cette théorie des coûts d’opportunité, d’arriver
à prédire les jugements moraux des gens. De dire, dans telle situation, étant donné que telle
et telle personne subissent tel et tel coût d’opportunité, leur jugement moral devrait être ça.
Ça ça serait vraiment cool. Mais malheureusement c’est pas si simple que ça, parce qu’il est
très dur de savoir comment nos cerveaux calculent les coûts d’opportunités. Pour reprendre
mon petit schéma, pour arriver à prédire les jugements moraux, il faut non seulement avoir une
théorie de la morale, une théorie des calculs que fait le sens moral, ce que l’on a maintenant,
mais il faut également avoir connaissance de l’ensemble des entrées qui nourrissent ce sens
moral. Et ça, c’est une tâche incroyablement dure. J’aurais besoin de télécharger l’intégralité
des croyances et des informations sur le monde d’une personne avant de pouvoir prédire ses
jugements moraux. Que ce fichier pèse 100 Giga ou quelques octets pour certaines personnes,
je ne suis pas sûr de voir cette prouesse réalisée avant ma mort. Ce que font les psychologues
pour essayer de contourner ce problème, c’est de tester les intuitions morales des gens dans
des scénarios très simples. C’est un des intérêts du dilemme du trolley d’ailleurs, où on a
une situation relativement simple. Mais même dans ce cas, on ne maîtrise pas tout. Les
gens peuvent continuer à se poser des questions, par exemple qu’est-ce que faisaient ces cinq
neuneus sur la voie ferrée, et en fonction des réponses qu’ils donnent à ces questions leur calcul
des coûts d’opportunité sera différent. Même dans des situations contrôlées en laboratoire,
les gens arrivent avec tout un tas de croyances sur le monde qui compliquent énormément la
prédiction de leurs jugements moraux. Et c’est aussi pourquoi je pense que même si un jour
on arrive à avoir une théorie de la morale parfaitement ficelée, on continuera à avoir plein de
débats moraux, et notamment plein de débats moraux en matière de politique, parce que on
sera toujours en train de se chamailler sur comment calculer les coûts d’opportunité, quelle
personne subit quel coût d’opportunité, etc.

Un autre point fort un peu informel de cette théorie des coûts d’opportunités c’est qu’elle
semble être un bon compromis entre conséquentialisme et déontologisme, pour ceux qui ne sont
totalement convaincus par aucun des deux. Pour résumer rapidement, et ceux qui n’aiment
pas la vitesse iront voir ces vidéos de Monsieur Phi, le conséquentialisme c’est la théorie qui
postule que nos actions sont à juger bonnes ou mauvaises en fonction de leurs conséquences.
L’utilitarisme en particulier postule que l’action bonne est l’action qui maximise le bonheur du
plus grand nombre. D’un autre côté, les déontologistes pensent que l’action bonne n’a rien à
voir avec un calcul de conséquences, qu’il existe certaines actions, comme mentir ou tuer par
exemple, qui sont intrinsèquement mauvaises quelles que soient leurs conséquences.
Et vous avez peut-être remarqué que chacune de ces théories a l’air d’avoir des défauts qui
font qu’on a du mal à y adhérer complètement. On reproche au déontologisme d’être trop
rigide et que ces grands principes comme “tu ne dois pas mentir” sont bien mignons mais si
ça veut dire devoir dénoncer les personnes que l’on cachait chez soi, ça paraît aller un peu
trop loin. L’utilitarisme n’a pas ce problème de respect des grands principes puisque tout
est affaire de calcul des conséquences, par contre l’utilitarisme semble aussi aller trop loin
quand il postule qu’on aurait le droit de tuer une personne dans la rue pour lui prélever ses
organes si ça permettait de sauver cinq personnes – c’est exactement ce que montrait la vidéo
de Monsieur Phi. Bref, utilitarisme et déontologisme ont tous les deux des conséquences très
contre-intuitives.
À noter que c’est pas complètement justifié de reprocher au déontologisme et à l’utilitarisme
d’être des théories contre-intuitives, parce que ces théories n’ont pas été créées pour être intuitives.
Elles n’ont pas été créées pour décrire la morale, elles ont été créées pour prescrire
la morale. Mais c’est généralement considéré un bon point pour une théorie prescriptive de la
morale d’être intuitive [17], et c’est sur leur caractère intuitif que beaucoup d’entre vous vont les
juger. Donc ce que je veux dire, c’est que si vous trouvez que déontologisme et utilitarisme sont
contre-intuitifs, c’est probablement que si on les considérait comme des théories descriptives,
ce qu’elles ne sont pas à la base on est bien d’accord, elles ne seraient pas satisfaisantes.
Et la théorie des coûts d’opportunité semble pouvoir résoudre les problèmes du déontologisme
et de l’utilitarisme. La théorie des coûts d’opportunité n’est pas obligée de suivre
aveuglément des grands principes, puisque comme l’utililitarisme, elle fait appel à un calcul qui
prend en compte les particularités de chaque situation. Mais la théorie des coûts d’opportunité
fait des calculs différents de l’utilitarisme, elle ne fait pas de la maximisation du bonheur mais
du remboursement de coûts d’opportunités.

Les grands principes moraux, comme “tu ne tueras point”, “tu ne mentiras point”, ou les
grands droits, comme “le droit à la vie”, “le droit de propriété”, “le droit d’étudier la géologie”,
sont vus par cette théorie comme des régularités morales, mais des régularités qui acceptent
des exceptions. Quand on demande à des gens si c’est un principe moral universel que mentir
c’est mal, ou que le meurtre c’est mal, ils vont sûrement répondre oui, parce que c’est vrai dans
99% des cas. Mais quand on leur demande de réfléchir en situation concrète, par exemple dans
le cas où on cache quelqu’un chez soi, on se rend compte qu’il y a des cas où ils vont trouver le
mensonge acceptable.

Même chose pour le droit à la vie. Si vous arrêtez quelqu’un dans la rue et que vous lui
demandez comme ça à brûle pourpoint s’il existe une telle chose que le droit à la vie, ils vont
sûrement répondre oui. Mais ensuite si vous faites réfléchir cette personne à des situations
concrètes, comme la légitime défense, on se rend compte que beaucoup de gens vont faire des
exceptions à ce droit à la vie. Un autre exemple est celui de l’avortement, pour lequel beaucoup
de personnes acceptent de faire un compromis entre le droit à la vie et d’autres droits comme le
droit à disposer de son corps. La philosophe qui a beaucoup réfléchi à ça s’appelle Judith Jarvis
Thomson, et le visionnage de cette vidéo de Monsieur Phi vous en dira plus sur ces réflexions
qui font partie des réflexions les plus importantes pour moi en philosophie morale.
Pour clarifier ma vision des grands principes moraux, prenons une métaphore de la bouffe,
puisque y’a que comme ça que vous comprenez. Si vous me dites “les gâteaux c’est bon”, “les
bonbons c’est bon”, “les glaces c’est bon”, je vais vous dire certes, mais 1/ c’est seulement une
régularité qui n’est pas vraie 100% du temps, il y a des gâteaux qui sont dégueulasses, il suffit
pour s’en convaincre d’aller faire un tour dans le Nord / Pas de calais, et surtout, 2/ il y a un
point primordial que l’on rate quand on dit que les gâteaux c’est bon, les glaces c’est bon, les
bonbons c’est bon, c’est qu’on peut résumer toutes ces affirmations par une seule, en disant, le
sucre, c’est bon.

Donc si je reprends mon petit schéma de la morale vue comme un algorithme, pour moi
les grands principes moraux sont des régularités que l’on retrouve ici, en sortie de l’algorithme.

Mais le fait que ces principes moraux acceptent des exceptions montre selon moi que ces
principes ne sont pas codés en dur au sein-même de l’algorithme, qui lui continue à faire
des calculs de coûts d’opportunité.

Alors quelles critiques on peut faire à cette théorie de la morale. On peut en faire plein,
mais je ne vais pas trop vous mâcher le travail, on va parler juste de deux. La première critique
qu’on peut faire c’est que si notre théorie c’est juste une histoire de ne pas faire payer de
coûts, c’est un truc trivial remarqué depuis longtemps qui est de dire que la morale c’est de
ne pas faire de mal aux autres, ne pas leur faire de tort. C’est une théorie qui était d’ailleurs
assez à la mode en psychologie dans les années 70-80 et qui a été remise en question quand
on a commencé à diversifier un peu les sources de données et lire les anthropologues [18]. On
s’est aperçu qu’il y avait plein de situations que les humains moralisent alors même qu’elles
ont l’air de ne s’accompagner d’aucun tort causé à autrui. Typiquement, la sexualité est très
souvent moralisée, des personnes vont condamner certaines pratiques sexuelles alors qu’elles
sont effectuées en privé et entre adultes consentants [18]. Le respect de la patrie peut être vu
comme un autre exemple, certaines personnes trouvent immoral de brûler le drapeau de leur
pays même si c’est fait en privé et qu’aucun tort n’est causé à personne. Je ne suis pas en train
de dire que les gens qui ont ces jugements ont raison d’avoir ces jugements, mais en tout cas
ils les ont, et si vous voulez vraiment aller au bout de votre démarche descriptive de la morale
vous devez essayer de comprendre pourquoi certains cerveaux produisent ces jugements.
Et justement, ce qui est intéressant avec la théorie des coûts d’opportunité c’est qu’elle donne
des pistes pour expliquer ce genre de jugements moraux qui s’expriment dans des situations où
aucun tort n’est causé. Et elle donne des pistes précisément parce qu’elle insiste non pas sur les
coûts tout court mais sur les coûts d’opportunité. Un coût d’opportunité, c’est différent d’un
coût tout court, c’est un coût qui est très souvent invisible. Si on reprend mon exemple à la con
des paniers de pomme, si C vous donne un panier de pommes alors qu’il vous en avait promis
trois, vous allez pas trouver ça normal, et pourtant vous êtes plus riche que vous ne l’étiez au
départ. Au départ vous aviez 0 paniers, maintenant vous en avez un, donc si on se contente
d’une analyse de coûts classique on peut très bien en conclure que tout va très bien et qu’aucun
coût n’a été payé, et donc qu’il n’y a pas lieu de se plaindre. Pourtant, une analyse en terme
de coûts d’opportunité nous montre qu’il y a bien eu une perte quelque part. L’invisibilité
des coûts d’opportunité donne donc des pistes pour comprendre pourquoi certaines personnes
moralisent des situations où on dirait qu’aucun tort n’est causé. Quant à savoir où se trouvent
exactement les coûts d’opportunité derrière les pratiques sexuelles faites en privé… et bien je
vous laisse ça comme devoir à la maison.

La deuxième critique qu’on peut faire à notre théorie c’est qu’elle n’est pas très précise,
que dire que la morale c’est une affaire de coûts d’opportunités c’est bien mais tant qu’on
n’a pas précisé quels sont les coûts d’opportunités, payés par qui, dans quelles conditions, on
n’est pas beaucoup plus avancés. On pourrait dire que la notion de coûts d’opportunités est
tellement vague qu’on peut en trouver a posteriori dans n’importe quelle situation et donc
ré-interpréter n’importe quel jugement en terme de coûts d’opportunités. C’est une critique
qui je pense est assez valide à l’heure actuelle, et c’est d’ailleurs ce que je vous disais tout à
l’heure, que tant qu’on ne contrôlera pas l’intégralité des entrées du sens moral on aura du
mal à prédire finement les jugements. Mais il faut se rappeler de deux choses. D’abord c’est
pas une théorie plus vague que les théories compétitrices comme l’utilitarisme par exemple,
qui cherche à “maximiser le bonheur du plus grand nombre”. Mais surtout, il faut s’attendre
à ce que s’il existe une telle chose qu’une morale universelle, la description de ses calculs soit
suffisamment vague pour pouvoir rendre compte de l’énorme variabilité des jugements moraux
et de la variabilité des situations dans lesquelles ils s’expriment. Si vous faites une théorie avec
des contenus trop précis, vous risquez d’être confronté à un moment donné à un jugement moral
que vous ne pourrez pas expliquer.

Sachez, si ce n’était pas clair, que je fais pas du tout cette vidéo pour vous convaincre que
cette théorie est vraie. Ça c’est un truc qu’on ne saura pas avant quelques dizaines d’années.
Telle que je vous l’ai présentée, elle est d’ailleurs très probablement fausse au moins en partie,
mais c’est pas très important. Je fais cette vidéo avant tout pour vous montrer une théorie
descriptive de la morale un peu plus en détail et vous montrer à quoi ressemble la construction
d’une telle théorie, quels genres de preuves on peut avancer. Même si vous n’êtes pas convaincu
·e, essayez d’interpréter la prochaine situation immorale que vous vivrez en termes de coûts
d’opportunité, vous verrez que ça devrait vous aider à comprendre certaines choses.
Et on va terminer cette vidéo avec un peu de philosophie et de pensée bisounour en faveur
de la complémentarité des sciences. Les philosophes ont eu et ont toujours à mon sens une
démarche assez similaire à celle des biologistes, dans le sens où ils essaient d’aller gratter
derrière la variabilité de la morale pour dégager des grands principes moraux, ou des règles
générales de calcul moral. La grosse différence avec la biologie c’est que comme je vous le disais tout à l’heure, les philosophes se sont souvent inscrits dans une démarche normative plus que
descriptive. Mais la démarche de ne pas se satisfaire de ce qui est immédiatement observable
et d’essayer de chercher des lois générales me semble être la même. C’est donc intéressant de
regarder comment notre théorie de la morale peut être reliée à ce qui se fait en philosophie.
Je vous ai déjà parlé dans la 2e vidéo de la série de comment la conception biologique de la
morale se rapproche de la conception qu’en avaient les philosophes écossais du XVIIIe siècle,
les philosophes du sens moral comme on les appelle [19, 20]. Mais s’il y a des philosophes de la
morale parmi vous, les histoires de remboursement de coûts d’opportunité vous ont peut-être
fait penser à d’autres philosophes, et notamment les contractualistes Rawls et Gauthier [21].
Ça serait complètement normal puisque la théorie que je vous présente est fortement inspirée
du contractualisme en ce qui concerne la description de la logique de la morale. Pour ceux
qui ne connaissent pas, le contractualisme c’est une théorie philosophique qui avance qu’une
bonne métaphore pour décrire la logique de la morale, c’est la métaphore du contrat. Selon
cette philosophie, quand les gens agissent de façon morale, ils agissent comme s’ils avaient passé un contrat les uns avec les autres, un contrat qui respecte les intérêts de chacun.

L’exemple de contrat le plus connu c’est le voile d’ignorance de Rawls, un philosophe qui a énormément
contribué à revigorer les débats sur la morale en philosophie au 20e siècle [17]. Rawls nous dit
que quand ils agissent de façon morale, les gens agissent comme s’ils avaient passé un contrat
les uns avec les autres derrière un voile d’ignorance, c’est à dire sans connaître la place qu’ils occuperaient dans la société. Imaginez qu’avant votre naissance, dans un monde imaginaire,
vous ayez eu à vous accorder sur une distribution des ressources de la société, mais sans savoir si vous alliez naître dans une famille riche ou pauvre, sans savoir si vous alliez naître handicapé ou bien portant, et sans savoir si vous alliez naître sain d’esprit ou avec une attirance particulière pour la géologie.

Et bien ce que nous dit Rawls, c’est que dans une telle situation, parce que les gens ne savent
pas quelle position ils auront dans la société, ils vont se mettre d’accord sur une distribution
des richesses qui ne lèse personne, une distribution qui soit avantageuse pour tout le monde, et
une distribution qui compense les handicaps afin que même ceux qui naissent avec un handicap,
qu’il soit physique ou social, puissent mener une vie normale.

Les philosophes contractualistes nous font remarquer que les gens se comportent comme s’ils
avaient signé un contrat derrière un tel voile d’ignorance. Et c’est vrai que cette description du contrat a l’air pertinente. Mais à ce qu’on sache, aucun contrat n’a été réellement signé, que
ce soit avant notre naissance ou après. D’où peut bien donc venir ce contrat ?
Adopter une perspective évolutionnaire résout ce problème immédiatement. Ce contrat a
pu être signé pour nous par la sélection naturelle, si vous me permettez d’utiliser du langage
finaliste. De la même façon que la sélection naturelle nous a permis d’acquérir un sens du goût
qui nous fait préférer les aliments gras et sucrés, sans nous demander notre avis et parce que
cela nous a aidé dans le passé à survivre, la sélection naturelle nous a permis d’acquérir un sens moral qui nous fait nous comporter comme si on avait passé un contrat avec les autres, parce
cela nous a aidé à survivre dans le passé.

Et la perspective évolutionnaire permet aussi de nous éclairer sur la nature de ce contrat, en
nous donnant des informations sur les problèmes évolutionnaires les plus importants auxquels
ont été confrontés nos ancêtres, un de ces problèmes ayant été, comme j’ai essayé de vous
l’expliquer aujourd’hui, de rembourser les de coûts d’opportunités aux autres.

J’espère que vous commencez à apercevoir tout l’intérêt d’une perspective évolutionnaire
pour étudier le comportement humain, et l’intérêt de faire des passerelles, des ponts ou des
viaducs entre biologie et sciences humaines, ou entre biologie et philosophie, parce que ces
disciplines se renforcent les unes les autres et que les points faibles d’une discipline peuvent
être effacés par les points forts d’une autre. Les biologistes négligent parfois l’étude de la
logique même de la morale parce qu’ils sont trop concentrés sur la question de ses origines.
Les philosophes peuvent venir combler cette lacune, en montrant par exemple que la morale
suit une logique contractualiste. Les philosophes contractualistes auront par contre du mal
à expliquer d’où peut venir ce contrat. Les biologistes peuvent les aider sur ces questions.
D’ailleurs, je tiens à préciser que Nicolas Baumard, un de mes deux directeurs de thèse et qui
a posé les bases de cette théorie, a fait des études de philosophie et sciences sociales avant de
s’intéresser à la biologie. La théorie que je vous présente n’est donc pas du tout l’oeuvre de
biologistes qui viennent expliquer la morale aux philosophes ou sociologues, mais au contraire
l’oeuvre de quelqu’un issu des sciences humaines qui s’est rendu compte de ce qu’on pouvait
faire en mariant les différentes approches. J’en profite pour recommander à nouveau son livre
pour ceux qui voudraient approfondir, vous vous apercevrez en le lisant à quel point mes vidéos
sont un plagiat de son travail.

Et voilà, vidéo terminée. On commence tout doucement à arriver à la fin de cette série sur
la morale, mais il y a un sujet dont j’aimerais encore vous parler en détail, c’est l’utilitarisme.

L’utilitarisme, en philosophie morale, c’est un peu l’équivalent du big boss qui arrive à la fin
du jeu. Si vous avez battu l’utilitarisme vous avez fini le jeu, parce que c’est la théorie qui a
tenu le devant de la scène pendant très longtemps. En plus de ça, y’a deux youtubeurs qui en
ont déjà pas mal parlé et c’est une théorie qui a l’air de redevenir assez populaire à cause du
développement de mouvements comme l’altruisme efficace. Je profiterai donc de la prochaine
vidéo pour vous présenter le sujet plus en détail, et de la place que je lui donne humblement
dans ma petite vie. À la prochaine.

References

1. Hill, K. Altruistic cooperation during foraging by the Ache, and the evolved human predisposition
to cooperate. Human Nature 13, 105–128. issn: 1045-6767 (2002).
2. Kaplan, H. & Gurven, M. in Moral sentiments and material interests: The foundations of
cooperation in economic life (eds H. Gintis, S. Bowles, R. B. & Fehrs, E.) 75–113 (MIT
Press, 2005).
3. Kaplan, H. S., Hooper, P. L. & Gurven, M. The evolutionary and ecological roots of human
social organization. Philosophical transactions of the Royal Society B. 364, 3289–99. issn:
1471-2970 (Nov. 2009).
4. Bruel, P. Alors regarde 1989.
5. Vahé Ter Minassian. Voici la toute première image d’un trou noir. CNRS Le journal, 1–5
(2019).
6. Maynard Smith, J. & Szathmary, E. The Major Transitions in Evolution 87–119 (1995).
7. André, J.-b. Contingency in the evolutionary emergence of reciprocal cooperation. The
American Naturalist 185. issn: 00030147 (2015).
8. Boyd, R. & Richerson, P. J. Culture and the evolution of human cooperation. Philosophical
transactions of the Royal Society of London. Series B, Biological sciences 364, 3281–8.
issn: 1471-2970 (Nov. 2009).
9. Mayhew. Discovering evolutionary ecology (2006).
10. Foot, P. The Problem of Abortion and the Doctrine of the Double Effect. Oxford Review
(1967).
11. Thomson, J. J. The Trolley Problem. Yale Law Journal 94, 1395. issn: 00440094 (1985).
12. Greene, J. D. An fMRI Investigation of Emotional Engagement in Moral Judgment. Science
293, 2101–2105. issn: 00368075 (2001).
13. Hauser, M., Cushman, F., Young, L., Kang-Xing Jin, R. & Mikhail, J. A dissociation
between moral judgments and justifications. Mind and Language 22, 1–21. issn: 02681064
(2007).
14. Haidt, J. & Baron, J. Social roles and the moral judgement of acts and omissions. European
Journal of Social Psychology 26, 201–218 (1996).
15. Baron, J. & Miller, J. G. Limiting the Scope of Moral Obligations to Help: A Cross-
Cultural Investigation. Journal of Cross-Cultural Psychology 31, 703–725. issn: 0022-0221
(Nov. 2000).
16. Kumar, R. Defending the Moral Moderate: Contractualism and Common Sense. Philosophy
and Public Affairs 28, 275–309. issn: 0048-3915 (1999).
17. Kymlicka, W. Contemporary Political Philosophy – an introduction 3, 276–277. isbn:
0198782748 (2012).
18. Haidt, J. The Righteous Mind: Why Good People Are Divided by Politics and Religion
(2012).
19. Shaftesbury. Characteristicks of men, manners, opinions, times isbn: 9780765807397
(2015).
20. Smith, A. The Theory of Moral Sentiments 177180. isbn: 9780470948293. arXiv: arXiv:
1011.1669v3 (1759).
21. Rawls. A theory of justice isbn: 0674000773 (1971).

Tags: , ,

Réagissez !

Commentez, critiquez, ajoutez vos idées... Et n'oubliez pas d'inclure les liens vers vos sources quand elles sont disponibles !

Si vous ne voulez pas être représenté par une stupide icône aléatoire, réservez votre gravatar.