Problèmes pratiques

Print Friendly

Par Olivier Sarre

Si l’on peut maintenant comprendre les raisons techniques et philosophiques qui conduisent à tenter d’établir une charte du droit des robots, il faut tenter d’évaluer la manière dont ce projet tend à se réaliser. Il s’agit donc de soulever un certain nombre de problèmes, sans toutefois y répondre puisqu’une telle entreprise n’est pas l’objectif de la présente étude.

Tout d’abord, si la tentative d’établir une charte du droit des robots participe d’un processus de sécularisation où l’homme se comprend comme autonome, un point apparaît comme problématique. Il est possible de comprendre l’autonomie de l’homme en ces termes : l’homme existe, du fait de sa nature il a des droits inaliénables, mais du fait de son autonomie c’est à lui de les déterminer. Par ailleurs la technique moderne s’est développée jusqu’au point de créer des êtres autonomes et sur bien des plans plus intelligents que les hommes. Dès lors, il serait logique de les laisser eux-mêmes déterminer leurs propres droits, leur propre valeur. On voit là l’homme se faire Dieu pour s’imposer comme transcendance face à sa création. C’est donc affirmer que pour être déterminé, un étant doit être précédé par une transcendance qui va lui imposer une certaine nature[1]. Mais un tel mouvement ne devrait-il pas nécessairement conduire l’homme à reconnaître la nécessité qu’il y a pour tout étant, lui y compris, d’être précédé par une transcendance stricte pour l’établissement de sa dignité et de ses impératifs moraux ? N’est-ce pas implicitement reconnaître la nécessité d’un Dieu ?

D’autre part, nous avons vu que l’un des objectifs, sans doute inconscient, pour donner des droits aux robots, est de réhabiliter la science moderne et de rassurer les individus quant au pouvoir de celle-ci. Il est évident qu’en imposant aux robots un protocole pour réguler ses interactions avec l’espèce humaine, les dangers pour celle-ci diminuent. Mais au cœur du projet se trouve également l’idée que le robot ne doit pas pouvoir être l’objet de maltraitances de la part des humains. La liberté d’action des hommes se trouve donc juridiquement limitée. Ainsi, ce qui d’une part vise à rassurer les hommes, devient aussi, à son encontre, une puissance coercitive. La volonté de ne pas laisser la technique dans une indépendance des valeurs humaines conduit dans le cas présent à l’effet inverse, à la rendre légitime par elle-même et non plus seulement comme produit de l’activité humaine. Aussi, pourquoi ne pas s’en tenir, à la manière d’Asimov, à des lois de la robotique et laisser le reste régulé par le droit de la propriété ?

De plus, il s’agit aussi, par cette charte de droits, de protéger l’humanité. Mais dans l’esprit commun, l’idée de droit est très fortement liée à celle de dignité. Aussi, à terme, on risque d’être dans l’impossibilité morale d’agir contre les robots – notre propre création ! – parce que nous les avons établis comme égaux à nous-mêmes, parce que détenteur d’une dignité intrinsèque.

On peut encore s’interroger sur la légitimité d’un gouvernement particulier à établir une telle charte. En effet, la technique est présente dans la vie de toute l’humanité, non pas seulement des citoyens d’un pays. Or l’essor de la robotique apparaît déjà comme un phénomène mondial et non pas seulement régional. Ainsi quelle légitimité peut avoir un gouvernement à établir le protocole régulant les interactions entre les hommes et les robots intelligents et autonomes ? Une telle réflexion doit intégrer des représentants de l’humanité entière, et pas seulement de l’élite d’un pays déterminé. De plus, si la Corée du Sud, ou tout autre Etat, élabore une telle charte et l’applique dans le développement des robots futurs, et qu’un autre Etat fasse de même pour les robots issus de ses propres usines, l’humanité risque de se trouver dans l’impossibilité pratique de réguler véritablement et de manière globale ses rapports avec les robots. Autrement dit l’objectif de base du projet en question aura échoué. Si au contraire tous les Etats du monde acceptent la charte établie par un gouvernement particulier, ce serait donner à celui-ci le monopole de la gestion de ce qui sera sans doute l’un des développements techniques les plus importants dans le futur. Une telle puissance serait très inquiétante pour deux raisons : d’une part parce que les robots et les Intelligences Artificielles permettent un accroissement considérable des savoirs, et ceux-ci sont déjà un enjeu politique majeur et bien souvent synonymes de pouvoir, et d’autre part, parce que si un tel protocole se voit appliquer à toutes les I.A., il le sera donc aussi à des armes autonomes et intelligentes…

Lire la suite :

Intelligences et organismes artificiels

Droit des robots et modernité

Droit des robots et hypermodernité

Problèmes pratiques

Conclusion et bibliographie

Annexe : Éléments historiques


[1] On pourrait opposer à cela l’idée que les animaux ont des droits propres, mais ce serait oublier que ce sont les hommes qui les ont fondés…


Suivez-nous :
ISSN 2105-0864 - Copyright © 2009-2015 Implications philosophiques CopyrightFrance.com