Atelier Philosophie et numériqueÉthique et politiquePerceptionPolitiqueSociété et politiqueTechnique et technoscienceune

Réflexions sur les dispositifs algorithmiques et la perception

Print Friendly, PDF & Email

Pascale Devette, professeure adjointe à l’Université de Montréal.

Dimitri M’bama, doctorant à l’Université de Montréal.

Résumé :

Nous avançons l’idée qu’Internet constitue une forme de régime de pouvoir et de vérité à la manière de Michel Foucault dans son analyse de l’évolution des sociétés libérales. La gouvernementalité algorithmique réforme le pouvoir en donnant l’impression à l’utilisateur de faire l’expérience d’une vérité immédiate et neutre, camouflant ainsi un ensemble de médiations contribuant à la concentration et à la captation des perceptions, des attentions ainsi que des conduites individuelles. Pour terminer, nous nous pencherons sur la notion de lecture, réfléchie par Foucault, mais aussi avant lui par Simone Weil, considérant qu’il y a peut-être, dans l’ascétique de la lecture, une voie possible de réappropriation de soi, voire d’émancipation.

Mots clés : Foucault – Weil – algorithme – pouvoir – lecture – perception

Abstract:

We argue that the Internet constitutes a form of regime of power and truth as developed by Michel Foucault in his analysis of the evolution of liberal societies. Algorithmic governmentality reshapes power by giving the user the impression of experiencing an immediate and neutral truth, masking a set of mediations that contribute to the concentration and capture of perceptions, attentions and individual behaviours. Lastly, we examine the notion of reading, as developed by Foucault, but also by Simone Weil before him, considering that, in the ascetic of reading, there may be a possible way of re-appropriating the self, or even a way for emancipation.

Keywords:

Foucault – Weil – Algorithm – power – reading – perception

 

Introduction

La notion de fake news circule de plus en plus depuis l’élection américaine de 2016. Elle a notamment été mobilisée pour expliquer la victoire inattendue de Donald Trump face à Hillary Clinton, quitte à faire l’impasse sur des explications davantage politiques et économiques[1]. De façon peut-être plus inquiétante encore, cette désinformation est en partie automatisée, puisque les algorithmes permettent de trier, de traiter, de classer, d’associer et de proposer des masses de données à grande vitesse. En effet, les algorithmes ont été un outil d’influence sur la perception des électeurs et, donc, sur le déroulement politique des évènements[2]. Sans nier les nouveautés inhérentes au développement du Web, dans leurs possibilités positives comme dans leurs versants plus négatifs, nous voudrions montrer la continuité des techniques de pouvoir présentes dans la « société de l’information en réseau » avec un ensemble de tactiques de domination plus traditionnelles. Sur cette base, nous aimerions proposer l’idée qu’Internet constitue une forme de régime de pouvoir et de vérité tel que l’a popularisé Foucault dans son analyse de l’évolution des sociétés libérales. Le Web constitue le siège d’une gouvernementalité améliorée, renforcée et qui s’appuie en grande partie sur un soft power d’autant plus efficace qu’il peut se rendre à la fois invisible et agréable sur le plan cognitif. La gouvernementalité algorithmique contribue à conduire des conduites. Ses effets sont difficilement percevables pour l’individu, car il est logé au cœur de sa propre attention. Il y a, pour ainsi dire, une intimité entre l’algorithme et l’utilisateur. Ainsi, il se crée tout un réseau « d’économie de l’attention » qui fonctionne grâce à la captation de l’attention, laquelle est affectée et orientée par les procédés algorithmiques. Cette captation attentionnelle se déploie plus souvent qu’autrement sans que la personne en ait pleinement conscience. Réaliser cela demande ainsi un temps d’arrêt sur soi, parfois douloureux et difficile, pour saisir les forces sociales et politiques qui nous orientent vers certains objets plutôt que d’autres. En reprenant la pensée de Simone Weil[3], nous avancerons aussi l’idée que l’algorithme influence la manière dont nous lisons le monde.

Nous aborderons ainsi les effets de la gouvernementalité algorithmique, qui réforme en quelque sorte le pouvoir en donnant l’impression à l’utilisateur de faire l’expérience d’une vérité immédiate et neutre, camouflant un ensemble de médiations contribuant à la concentration et à la captation des perceptions, des attentions ainsi que des conduites individuelles. Pour terminer, nous proposons de retourner à la notion de lecture, telle que réfléchie par Foucault, mais aussi avant lui par Simone Weil. Il y a peut-être, dans l’ascétique de la lecture, encore davantage que l’écriture, une voie possible d’appropriation et d’espace de liberté individuelle. Ainsi, il s’agira d’abord de prendre pleinement en compte les effets du pouvoir sur le sujet, plus précisément la manière dont l’algorithme influence les perceptions subjectives, pour ensuite réfléchir au type de travail sur soi – travail de lecture – qui pourrait accompagner de nouvelles formes de résistance.

I. Gouvernementalité et algorithme

Prise au sens large, la notion de gouvernementalité signifie une manière de conduire les conduites[4]. Dans la pensée libérale et néolibérale, elle prend notamment la forme de l’économie qui devient un moyen d’action privilégié sur les populations[5]. En soi, la gouvernementalité comporte en effet l’idée que la liberté n’est pas opposée au pouvoir : elle est au contraire un « instrument produit et utilisé par le pouvoir »[6]. Dans le dernier versant de sa pensée, Foucault affirme que le pouvoir se diffuse dans la société de manière immanente sans qu’on puisse en localiser précisément la source. « Le pouvoir est partout ; ce n’est pas qu’il englobe tout, c’est qu’il vient de partout »[7]. Sur le plan théorique, la gouvernementalité opère donc comme une souveraineté éclatée et atomisée, une logique qui joue beaucoup plus « activement sur l’espace de liberté laissé aux individus pour qu’ils en viennent eux-mêmes à se conformer à certaines normes » que sur la simple alternative « consentement ou coercition »[8]. L’une des raisons de la longévité du libéralisme tient peut-être à cette utilisation constante de la liberté comme technique de régulation sociale, empêchant a priori d’y penser comme le pôle opposé de la répression[9]. Selon Foucault, toute la problématique libérale devient donc à partir du XVIIIe siècle d’améliorer la qualité de vie des populations tout en ménageant une forme de gouvernement de soi par soi[10]. « Le but n’est plus [seulement] de limiter, fixer, enfermer (…) mais de permettre, de garantir, d’assurer des circulations » pour aboutir à une sorte d’auto-contrôle[11]. Cela signifie aussi que la gouvernementalité constitue une modalité d’exercice du pouvoir relativement souple autour de laquelle il devient possible d’élaborer des contre-pouvoirs et des résistances variées. « J’appelle gouvernementalité », ajoutera plus tard Foucault, « la rencontre entre les techniques de domination exercées sur les autres et les techniques de soi »[12]. Autrement dit, il y a la règle et la manière d’interpréter cette règle, le donné de base et ce qu’en fait l’individu ; bref, il y a la morale dominante et l’éthique. « Il arrive que les règles […] soient formulées en une doctrine cohérente », mais elles peuvent aussi apparaître sous la forme d’un « jeu complexe d’éléments qui se composent, s’annulent, se corrigent sur certains points, permettant ainsi compromis et échappatoires »[13]. Comme le résume bien Le Texier, ce nouvel art de gouverner consiste donc en un « pouvoir qui prend la liberté pour appui ; un pouvoir producteur et consommateur de liberté »[14].

Avant de dire que l’algorithme constitue sans doute un instrument actuel majeur de cet auto-contrôle, il convient de rappeler que celui-ci a émergé au cours de la modernité sous une forme essentielle : celle de la norme.  Pour Foucault, « le pouvoir, quand il s’exerce dans ses mécanismes fins, ne peut pas le faire sans la formation, l’organisation et la mise en circulation d’un savoir, ou plutôt, d’appareils de savoirs »[15]. Les sciences de l’observation et les sciences humaines constituent ainsi des champs d’études « qui s’organise[nt] autour de la norme », un pouvoir « s’arrogeant le droit d’établir le vrai par un certain nombre de techniques réglées »[16]. Ainsi, le discours psychiatrique permet la correction des fous et le discours juridique celui des criminels[17]. Mais ces savoirs ne sont pas de simples outils au service des gouvernants. Voyons-les plutôt comme des discours « vrais » qui orientent et déterminent l’action individuelle. Sous l’apparence de l’objectivité, le régime de vérité fonctionne donc comme un redoutable complément à la violence en invitant l’individu à ne pas dévier d’un certain comportement sous peine d’être marginalisé. « Une société normalisatrice est l’effet historique d’une technologie de pouvoir centrée sur la vie »[18]. Dans la perspective de la gouvernementalité, le régime de vérité permet donc d’obtenir le maximum d’ordre avec le minimum de moyens possibles. Cela implique que toute instance socialement crédible s’attribue de fait un remarquable pouvoir normatif. À travers cette analyse, Foucault développe donc l’intuition nietzschéenne selon laquelle la vérité n’existe pas, mais qu’elle fait l’objet d’une « volonté de puissance » qui se nomme plutôt chez lui « volonté de savoir ». C’est sur cette base que nous proposons de parler de « gouvernementalité algorithmique », soit une forme d’auto-contrôle high-tech, économique et personnalisée dont l’algorithme constituerait à la fois la norme et la possibilité de détourner – voire de contourner – cette norme. En effet, quelle instance peut aujourd’hui le plus prétendre à la vérité, si ce n’est le moteur de recherche Google ou l’intelligence artificielle Siri ?

II. L’apparence d’immédiateté et de neutralité comme outils du pouvoir

Favorisée par l’émergence des big data, la puissance sociale des algorithmes réside dans l’illusion de vérité immédiate qu’ils renvoient. Leur immatérialité et leur caractère instantané et automatique donnent l’impression à l’utilisateur d’avoir accès à un savoir pur et coupé de tout processus de construction. En réalité, la mise au point d’un algorithme nécessite un long travail de tri et d’affinement des informations opérées par « les ouvriers du clic ». Souvent situées dans les pays du sud, ces « usines » hébergent une nouvelle catégorie de travailleurs invisibilisés et précaires dont la tâche constitue principalement à entraîner l’algorithme. La répétition, la fragmentation et la simplicité de ces tâches rappellent certains aspects de l’usine taylorienne. Les souffrances y sont cependant davantage d’ordre mental que physique. Ainsi, avant qu’un algorithme soit capable de bloquer des images violentes et traumatisantes, ce sont d’abord des travailleurs invisibles, à l’autre bout de la planète, qui s’en chargent. Or, en plus de la distance physique, la croyance en une forme d’intelligence et d’autonomie de l’algorithme vient camoufler le travail humain du web[19].

Par l’effet de cette technique, dont la crédibilité est liée à sa réitération permanente, « le concept de vérité se trouve[rait] de plus en plus replié sur celui de la réalité ou de l’actualité pure », culminant dans l’impression que les choses semblent parler pour elles-mêmes[20]. Rouvroy et Stiegler insistent à ce propos sur le tri invisible et continu opéré par les « data scientists » qui purgent les données de « tout ce qui fait leur contexte » en renforçant l’impression d’avoir affaire à « des émanations spontanées de la nature »[21]. Davantage qu’un pur instrument de savoir, l’algorithme entrerait donc plutôt dans la définition agambenienne du dispositif : « tout ce qui a d’une manière ou d’une autre la capacité de capturer, d’orienter, de déterminer, d’intercepter, de modeler […] et d’assurer les gestes, les conduites, les opinions et les discours des êtres vivants »[22]. Par-là, il faut comprendre que le pouvoir de l’algorithme n’est pas seulement virtuel, mais proprement hyper-réel et ancré au sein même des systèmes de représentations. Exemple bien connu, les alertes de recherche, de publicité, d’achat et de pronostics qui font état d’une « gouvernance par les nombres » où le potentiel réflexif individuel est subsumé par la normativité algorithmique, ce qui peut de fait apparaître comme une aide bienvenue dans un monde perçu comme de plus en plus complexe. C’est en ce sens que Jean Lassègue évoque une véritable crise du jugement qui se manifeste notamment dans le processus de digitalisation du droit, puisque la « délégation aux machines […] semble priver les humains de leur capacité à produire un jugement autonome »[23]. Franck Pasquale, de son côté, utilise un vocabulaire très proche en évoquant l’émergence de la « Black Box Society », société régie par des techniques « dont les valeurs et les prérogatives » resteraient à la discrétion d’un petit nombre d’experts[24]. Aujourd’hui, il y a des chances pour que ce petit nombre d’experts soit de plus en plus composé d’informaticiens[25]. En établissant littéralement le « code » de la vérité, ces derniers conçoivent la norme technologique vis-à-vis de laquelle l’utilisateur modèle ses actions et son comportement, ce qui implique pour la liberté individuelle une sorte de « fracture » entre ceux qui la maîtrisent et ceux qui ne la maîtrisent pas[26]. Ces analyses pointent donc vers une première définition paradoxale de l’algorithme comme ce que nous ne serions pas censés bien connaître et qui structurerait pourtant doublement la société de la communication : d’abord sur le plan matériel et technique, ensuite sur le plan idéologique à travers un ensemble de formations discursives qui présentent celui-ci comme l’instrument d’une rationalité supérieure. Les deux plans, matériel et idéologique, se rejoignent dans la définition foucaldienne du régime de pouvoir et de vérité aperçu plus haut : « Il n’y a pas d’exercice du pouvoir sans une certaine économie des discours de vérité fonctionnant dans, à partir de et à travers ce pouvoir »[27]. Ainsi, qu’il s’agisse de l’une ou l’autre de ces dimensions, les algorithmes mettent en place un ordre de choses objectif qui dissimule – au sens propre du terme – un ensemble de rapports de force préexistants, lesquels sont pourtant nécessaires à l’émergence des algorithmes. Le principe de neutralité du net est particulièrement révélateur sur ce point, dans la mesure où il pose d’emblée « l’exclusion de toute discrimination en fonction de la source, de la destination ou du contenu des données transmises » tout en étant traversé par des logiques commerciales parfois comparées à une forme de monopole[28]/[29]. Bref, la neutralité technologique est idéologique, car elle masque le fait que la technique est inséparable d’un certain usage.

Au-delà de son immédiateté et de sa prétendue neutralité, l’algorithme opère une reconfiguration du système cognitif. Les interactions incessantes entre cerveaux humains et super-ordinateurs mènent à une vie mentale elle aussi de plus en plus comprise sous le registre « algorithmique »[30]. Via le concept de learning brain, Ben Williamson tente par exemple de saisir les effets de l’algorithme sur le processus de formation de la connaissance qui n’est pas sans présenter plusieurs parallèles avec celui de la smart city : vendu sous forme de kit « d’apprentissage intelligent » aux universités, l’algorithme prend ainsi la forme d’un véritable appendice cognitif nécessaire pour s’orienter dans l’océan informationnel constitué par les Big data[31]. En effet, « le[ur] seuil de vélocité, de rapidité et de quantité de données » ne semble plus tout à fait pouvoir être saisi par la « rationalité moderne qui consistait à expliquer les phénomènes en les liant à leurs causes », favorisant la possibilité d’émergence d’une « rationalité postmoderne purement inductive qui renonce la recherche des causes à ces phénomènes et vise tout simplement à plus ou moins prévenir leur survenue »[32]. Sorte de corps-à-corps inédit entre l’instance de vérité – l’algorithme – et l’utilisateur, on tient peut-être dans la gouvernementalité algorithmique une forme d’auto-contrôle relativement originale qui fait écho à certains pressentiments de Foucault : « un pouvoir qui a pour tâche de prendre la vie en charge aura besoin de mécanismes continus, régulateurs et correctifs [afin de] distribuer le vivant dans un domaine de valeur et d’utilité »[33]. Concrètement, le learning brain représente l’un de ces mécanismes, puisqu’il propose ni plus ni moins de prendre en charge la vie mentale des individus. Aussi, à travers ce processus de co-construction du choix ou de la volonté, l’algorithme semble bouleverser la notion d’autonomie et d’individualité. Le développement des transactions automatiques incite par exemple Karen Yeung à parler de manipulation et de tromperie pour désigner l’architecture de l’hypernudge qui « cherche délibérément à […] créer des comportements attendus » par une stratégie permanente du « coup de pouce », à savoir ce pouvoir discret qui oriente l’action de l’utilisateur à partir d’un profil et de préférences préétablies[34]. Rouvroy et Stiegler proposent quant à eux directement l’hypothèse de la mort du sujet dont on ne sollicite plus directement la subjectivité ou les capacités d’entendement pour être gouverné : « Ce n’est pas seulement qu’il n’y a plus de subjectivité, c’est que la notion de sujet est complètement évacuée grâce à cette collecte de données infra-individuelle, recomposée à un niveau supra-individuel sous forme de profil »[35].

Il y a donc là quelque chose comme un prolongement ou dépassement du thème foucaldien de la subjectivation, tant le fonctionnement de l’algorithme paraît rendre la dialectique sujet/objet obsolète[36]. Tout se passe en fait comme s’il constituait l’aboutissement d’un long processus d’invisibilisation du pouvoir qui aurait fini par établir son nid dans les « molles fibres du cerveau »[37]. Avant tout, la gouvernementalité algorithmique mettrait donc un point final à toutes les conceptions de l’individu issues des Lumières, et pour être plus précis encore au mythe de la raison comme substance hermétique aux influences extérieures. « C’est-à-dire », pourrait à la limite conclure Foucault, « que l’individu n’est pas le vis-à-vis du pouvoir [algorithmique], il en est […] l’un des effets premiers »[38]. Julie Paquette tente d’ailleurs d’englober dans le concept de « société algorithmique » cette tendance à abandonner soi-même son autonomie au nom de revendications comme le confort ou la sécurité, moment où les vieilles cloisons des sociétés d’enfermement réapparaissent sur le mode de l’isolement cognitif[39]. L’algorithme engage donc quelque chose comme une redéfinition anthropologique qui n’est pas non plus sans rappeler le post-scriptum de Deleuze sur les sociétés de contrôle : « l’homme des disciplines était un producteur discontinu d’énergie, mais l’homme du contrôle est plutôt ondulatoire, mis en orbite, sur faisceau continu »[40]. En tant que rationalité, l’algorithme peut représenter cet instrument d’auto-contrôle qui s’adapte aux exigences de la société ouverte en faisant du traçage et de la surveillance les conditions d’intelligibilité d’un monde transformé en data.

Il y a en effet fort à parier que l’efficacité stratégique de l’Internet comme mode d’administration, ou plutôt d’auto-administration fondée sur un dispositif technologique branché en permanence sur l’individu, repose sur cette capacité à fournir une certaine dose de confort ou de plaisir. La rationalité et la compréhension des causes peut être sacrifiée au profit de ces deux éléments qui se combinent avec des impératifs de rapidité et d’efficacité. Pensons, par exemple, à la connivence entre le modèle de plus-value de Google et la part de consentement cette fois bien volontaire d’une partie des usagers ou, encore, au digital labour où la production de contenus et d’informations se vit sous le double signe du ludique et de la non-rémunération. Si « la logique algorithmique, le code, le contenu externe […] les données d’utilisateur et la publicité ciblée » répondent tous un à un à la logique d’accumulation capitaliste, il reste difficile de comprendre exactement la raison pour laquelle les utilisateurs continuent à « jouer les règles du jeu »[41]. Astrid Mager propose via son concept d’idéologie une vision plus « horizontale » de la gouvernementalité algorithmique qui empêche de percevoir l’utilisateur comme une simple victime innocente face à des forces qui le dépassent. D’une façon ou d’une autre, l’utilisateur joue un rôle dans sa propre servitude. Le concept d’hégémonie peut être dans ce cas pertinent pour décrire le consensus qui naît de la double satisfaction de l’entreprise et de l’usager, la première mettant sur pied un mode d’exploitation tandis que le second peut profiter à loisir des nombreux services qu’elle lui offre.  A partir de cet instant, il y a une prise de conscience que « les intérêts des dominants sont devenus ceux des groupes subordonnés »[42]. Cette grille de lecture correspond parfaitement à l’explication de Gramsci selon laquelle la domination n’est pas le fait d’un groupe unique mais qu’elle traverse plutôt toutes les strates du social, comme un faisceau diffus de relations exercées par tout le monde à chaque instant. Si on prend aussi en compte la part de liberté laissée aux utilisateurs dans la création de contenu, la rationalité algorithmique répond aux canons de la régulation dans le sens où elle n’interdit pas le désir mais lui permet au contraire de s’exprimer dans un environnement pensé pour lui : le désir a été, d’une certaine façon, discipliné à s’exprimer de la manière la plus prévisible possible.

Cette nouvelle prise en charge du désir, qui symbolise le glissement des sociétés disciplinaires vers les sociétés permissives, transparaît dans l’effet « bulle de filtre », qui mêle dans une même dynamique algorithmes, exploitation de données, confort et plaisir pour fournir une expérience hautement personnalisée à l’utilisateur. On pourrait résumer la bulle de filtre selon la formule suivante : « le futur de l’internaute est prédit par le passé de ceux qui lui ressemblent »[43]. Sur la base des préférences et des habitudes de navigation ainsi que de son réseau social, la bulle de filtre s’adapte à l’usager tout comme elle l’enferme dans les prédictions calculées. Son choix est déjà formaté avant même d’apparaître. Cela s’applique notamment à l’information qui devient, à ce titre, une information privatisée culminant en ce qu’on regroupe de plus en plus sous le terme de « chambre d’écho », à savoir une répétition à l’infini des mêmes messages, des mêmes interactions et en définitive de la même représentation aseptisée du social, c’est-à-dire à une hypertrophie de la sphère privée sur la sphère publique. Cet isolement extrême, qui peut paradoxalement être vécu comme une agréable confirmation de nos croyances, questionne par ailleurs la pertinence du monde commun « qui prend fin lorsqu’on on le voit que sous un seul aspect, lorsqu’il n’a le droit de se présenter que dans une seule perspective »[44].

III. Distance et perspective dans la lecture de soi et du monde

Il demeure que chez Foucault, le pouvoir n’est jamais unilatéral : il s’agit au contraire d’une « situation stratégique complexe dans une société donnée »[45]. Dès lors, la gouvernementalité algorithmique n’a pas vocation à s’appliquer à des esclaves, mais bien à des sujets libres capables de développer des résistances, des « contre-conduites » ou des illégalismes contemporains. Autrement dit, une « ascèse », à savoir une pratique de vérité. Dans ses derniers travaux, Foucault définit encore plus précisément celle-ci comme une « manière de lier le sujet à la vérité »[46]. Là, il ne s’agit plus seulement d’oppression ou de domination. À partir du Gouvernement des Vivants, Foucault présente en effet la possibilité pour l’individu de s’auto-constituer à l’aide de ce qu’il appelle des « techniques de soi ». De manière très importante, celles-ci prennent donc place sous le signe d’un tout nouveau rapport à la vérité :

Il s’agit de tracer un pointillé (…) pour une histoire de la vérité qui ne serait pas faite du point de vue des relations d’objectivité, ou des structures d’objectivité (…) il s’agirait d’esquisser une histoire de la vérité qui prendrait pour point de vue les actes de subjectivité, ou encore les rapports du sujet à lui-même, entendus non pas seulement comme rapports de connaissance de soi, mais comme exercice de soi sur soi, élaboration de soi sur soi, transformation de soi par soi, c’est-à-dire les rapports entre la vérité et ce qu’on appelle la spiritualité, ou encore : acte de vérité et ascèse.[47]

Ce revirement marque une étape importante dans la pensée foucaldienne. Il signe le passage du thème de l’assujettissement à celui de la subjectivation. L’obsession pour le contrôle prend dès lors une dimension plus positive. Cela passe en grande partie par une réévaluation globale du rôle de la vérité, que Foucault ne voit donc plus seulement comme un régime destiné à assurer la soumission des individus, mais aussi comme l’instrument d’une certaine souveraineté.

À l’époque du net, cette souveraineté appartient peut-être au hacker. Toute l’histoire de l’Internet est traversée de schèmes subversifs qui ont très tôt pris les traits du hacker ou de zone d’autonomie temporaire[48]. La question urgente devient donc de savoir quels moyens éthiques ou pratiques déployer pour infléchir le rapport de forces entre l’individu et une certaine automatisation des conduites. En tant que code, il parait tout d’abord nécessaire d’apprendre à lire l’algorithme : pas forcément la mathématique de l’algorithme (qui s’autonomise et se transforme par ailleurs au gré de l’expérience), mais la réalité qui se déploie et qui est confirmée à la fois par l’algorithme et par l’attention que nous lui portons. On pourrait bien évidemment parler également d’écriture du web comme vecteur d’autonomisation de soi, mais l’écriture d’une page exige, pour apparaître pleinement, davantage de médiations (et de rapports de force) que la lecture, laquelle peut, suivant une certaine ascèse, se déployer dans la solitude. Comme le montrent les travaux de Dominique Cardon, la réseautique du web organise des flux attentionnels vers certaines pages Web, créant ainsi une concentration de ce qui est vu[49]. Ainsi, 1% des contenus Web attire 90% de l’attention – 30 % des contenus Web sont vus occasionnellement et 70% de ce qui est sur le Web n’est jamais perçu. Cette concentration attentionnelle, qui s’arrime également au marketing algorithmique d’individualisation des goûts, encourage les biais cognitifs en proposant aux usagers ce qu’ils souhaitent voir. Il se crée une compétitivité attentionnelle.

En ce sens, ce n’est pas seulement l’algorithme en soi qui pose problème, mais le type de régime auquel il contribue, qu’on pourrait d’ailleurs rapprocher d’une économie de l’attention. L’algorithme contribue à capter l’attention des internautes sur certains éléments aux détriments de d’autres. En effet, considérant que l’attention est une ressource limitée, s’ensuit un postulat de rivalité : l’attention manifestée envers quelqu’un ou quelque chose réduit celle portée à d’autres phénomènes ; c’est un jeu à somme nulle. Plus encore, la compétitivité attentionnelle est accentuée par la contradiction propre au cyberspace. En effet, le contenu web a une possibilité de création infinie, tandis que la capacité physique et émotionnelle à s’y concentrer, elle, est finie. Ainsi que l’exprime Franco Berardi :

(…) le rendement de la sémioproduction est en train de dépasser infiniment le marché de l’attention, ce qui signifie que le phénomène de crise cyclique, que Marx a décrit comme un effet de la surproduction dans la sphère du capitalisme industriel, n’est plus cyclique, mais permanent.[50]

Or, comme l’a montré Simone Weil dans ses réflexions sur le machinisme et l’algèbre, dépassé un certain niveau de complexité, il devient fort difficile de décrypter la signification et les différentes relations constituant un savoir[51]. C’est d’ailleurs toute la question de la rationalisation : il s’agit de faire coordonner les choses par l’extérieur (les processus autonomes, les machines, la finance, l’algèbre, les algorithmes) plutôt que par la pensée. Pour reprendre les réflexions de Robert Chenavier : 

les systèmes de domination actuels ont compris que l’apprentissage des lectures multiples du réel pouvait être remplacé par une forme unique d’opacification du rapport des individus au monde[.] Penser, c’est lire ; dominer c’est imposer une lecture ; opprimer, plus subtilement, c’est s’efforcer d’empêcher les dominés de s’éveiller à des lectures autonomes et multiples.[52]

De fait, la vitesse et la complexité des automatismes sociaux-techniques peuvent s’amplifier sans que l’individu ait à réfléchir à ce qu’il fait, puisqu’on lui impose de l’extérieur des motifs à ses actions. Par son aspect réflexif et l’attention qu’elle développe, la lecture chez Weil intègre une dimension ascétique permettant un véritable retour sur soi-même. Il faut, pour Weil, « lire, et lire en même temps sa propre lecture »[53]. Cette vision de Weil rejoint les propos de Joëlle Zask, qui distingue l’attitude consistant à « lire l’écriture » de l’activité de « lire la lecture »[54]. La première renvoie à une vision plutôt classique de la lecture par laquelle le lecteur s’approprie un savoir. Dans cette transmission, le livre révèle un pouvoir de signification que le lecteur, plus passivement, reçoit et intègre. La lecture, alors, permet de diffuser des significations et de les partager. Cette possibilité peut être tout à fait positive ou, au contraire, dangereuse, dépendamment des idées véhiculées. La capacité de « lire la lecture », quant à elle, relève d’une technique de transformation du rapport au texte, qu’il faut saisir non seulement comme écriture, mais également comme lecture. Ainsi, il s’agit « [d’]une méthode telle que ce qui est écrit ne m’apparaît pas figé et désincarné, mais témoigne de ce que l’auteur a lu, voire vécu, et ce quelles que soient ses prétentions à « posséder » la vérité, si tel est le cas. Je retrouve le discours d’une individualité à travers les signes typographiques. Réciproquement, ce que je lis, je le perçois comme une proposition en attente d’ajouts dont l’apport dépend de moi ». L’objectif et l’importance liée à la capacité de lire sa propre lecture relève d’une prise de distance avec ce qui paraît pour immédiatement valide de manière à percevoir notre propre manière de percevoir. Une manière de se réapproprier le « code », en somme, que le hacking représente bien aujourd’hui.

Lire la lecture implique également, selon Weil, un haut niveau d’attention. Pour elle, cette aptitude relève bien sûr de la perception, mais elle est également la base d’une relation authentique au réel qui englobe des dimensions spirituelles, sociales, éthiques, politiques et cognitives. En fait, il y a deux espèces d’attention chez Simone Weil, l’une exigeant un contrôle de soi, l’autre dépossédant de soi. La première est liée à la volonté et à effort de concentration. Il s’agit du genre d’attention telle qu’elle est communément comprise. La seconde s’appuie d’abord sur la première mais vise à termes son dépassement à force d’habitude. Cette attention est, pour le temps de sa durée, donc toujours momentanée, libérée des effets du pouvoir, elle ne se laisse plus capter aussi aisément par les dispositifs. Weil nomme ce second type « l’attention créative »[55]. Afin d’atteindre ce type d’attention, il faut « suspendre sa pensée, à la laisser disponible, vide et pénétrable à l’objet, à maintenir en soi-même à proximité de la pensée, mais à un niveau inférieur et sans contact avec elle, les diverses connaissances acquises qu’on est forcé d’utiliser »[56]. Ainsi la pensée effectue un exercice sans attente, elle n’impose plus significations préconçues sur les choses et les êtres afin de les recevoir le plus authentiquement possible. Cela implique de faire une lecture du réel libérée, dans la mesure du possible, de ce que les prestiges et le pouvoir a déposé en soi, notamment dans la manière de percevoir et de signifier le réel. Cette décentration de la perception par la lecture est un exercice critique visant à la fois à déconstruire le caractère naturalisant du pouvoir et sa capacité à capter les cadres cognitifs. Bien entendu, Weil n’est pas naïve, elle sait qu’il ne suffit pas de lire pour être transfiguré, car la lecture attentive exige des conditions matérielles, à commencer par ne pas être totalement soumis à une temporalité rapide et incessante. La lenteur que requiert la double lecture (lire et se lire) présente aussi bien une opposition frontale avec la rapidité et l’efficacité de l’infrastructure technique qu’avec des phénomènes directement reliés comme la « dissonance cognitive » ou le « multitasking ». Contre le réalisme immédiat de la « vérité » algorithmique, la lecture pourrait donc prendre le rôle de cet « examen de conscience » qui doit avoir la forme « d’un filtrage permanent des représentations » ainsi que d’une « attitude constante qu’il faut prendre à l’égard de soi-même »[57].

Dans le même ordre d’idées, le lancement de l’institut de Recherche et de l’innovation en 2008 sous l’impulsion du philosophe Bernard Stiegler a vocation à favoriser la transition vers des technologies du Web 3.0 conçues comme dispositifs collaboratifs de production ainsi que d’espaces et d’outils critiques, ce qui confirme  l’intuition de Foucault selon laquelle cette « culture du soi » n’est pas un exercice de solitude mais plutôt une véritable pratique sociale qui pourrait dans une certaine mesure protéger de l’isolement (cognitif). Plus important, la lecture nécessite pour Foucault, comme pour Weil, des temps d’arrêts et de ruptures, à contre-courant de la surabondance de données que fournissent continuellement les algorithmes : « à passer sans cesse de livre en livre, sans s’arrêter jamais » dit Foucault, « on s’expose […] à ne rien retenir, à se disperser à travers des pensées différentes et à s’oublier soi-même »[58]. La déconnexion, à savoir la prise de distance temporaire – ou permanente – vis-à-vis de la technologie, pourrait donc s’inscrire comme une tactique politique tout à fait valable à l’ère du techno-pouvoir. En s’arrachant un instant aux réactions cognitives suscitées par la connectivité, l’ascèse d’une lecture à dimension critique est à la fois porteuse d’une réappropriation de la capacité à orienter son attention par soi-même, à agir plutôt qu’à réagir, à être impré-visible plutôt que pré-visible.

Conclusion

Pour conclure, il semble que l’algorithme nous laisse face à deux interprétations. La première, qu’on pourrait qualifier de « technophobe », reconnaîtrait un lien intime entre domination et technologie, comme l’ont pensé très tôt plusieurs auteurs de tradition marxiste[59]. Nous tiendrons un modèle de réification où l’ensemble des valeurs dominantes se trouveraient regroupées et cristallisées dans le langage à priori objectif de l’« Informatique ». Là, le constat serait sans appel : la technologie ne dépendrait pas – selon une opinion instrumentale plutôt répandue – de l’utilisation qu’on en fait : au contraire, sa configuration même favoriserait le statu quo social et la reproduction structurelle. Plusieurs éléments comme le « gap technologique » (inégalités ou disparités dans le développement technologique) ou la généralisation du télétravail, qui se présente de plus en plus comme une économisation du privé, vont clairement dans le sens d’une perpétuation voire d’un renforcement des grands principes capitalistes[60]. Ce seraient dès lors nos subjectivités qui dépendraient intégralement de la technologie, pas l’inverse. Seconde interprétation, qu’on pourrait qualifier de « foucaldienne » : le Pouvoir n’a pas d’essence. Ses déterminations sont multiples. L’algorithme, comme tant d’autres instruments et outils, ne demanderait ainsi qu’à être récupéré et utilisé dans des tactiques et stratégies de contre-pouvoirs. Car, ne cesse-t-il de rappeler, « Le pouvoir n’est pas quelque chose qui s’acquiert, s’arrache ou se partage, quelque chose qu’on garde ou qu’on laisse échapper ; le pouvoir s’exerce à partir de points innombrables, et dans le jeu de relations inégalitaires et mobiles »[61]. Laissant par conséquent ouvert, derrière la neutralité trompeuse de nos écrans et autres interfaces personnalisées, le grand combat des forces répressives face aux potentialités révolutionnaires.

 

[1]  Florian Sauvageau, Simon Thibault et Pierre Trudel, Les fausses nouvelles : nouveaux visages, nouveaux défis, Presses Universitaires de Laval, Laval, 2017.

[2] Kathleen Hall Jamieson (2018).Cyber-War: How Russians Hackers and Trolls Helped Elect a President, Oxford, Oxford University Press.

[3] Bien qu’elle ait été formée dans les meilleures institutions, qu’elle détenait un bagage académique solide et une compétence philosophique rare, Simone Weil (1909-1943) a choisi à de nombreuses reprises de partager les duretés de son temps (en travaillant en usine, en combattant avec les anarchistes en Espagne et dans la résistance à Londres) plutôt que d’enseigner la philosophie. Comme nous le verrons, la pensée de Weil est toujours ancrée dans la cité, refuse les systèmes et cherche à « comprendre sans cesser de percevoir » (Leçons de philosophie, 1959, p. 199). Morte à 34 ans, ses nombreux travaux sont repris actuellement dans plusieurs domaines de recherches, notamment en philosophie du travail ainsi qu’en philosophie politique et morale.

[4] Michel Foucault, Naissance de la Biopolitique. Cours au Collège de France 1978-1979, Paris, Gallimard/Seuil, 2004, p. 192.

[5] Thibault Le Texier, « Foucault, le pouvoir et l’entreprise : pour une théorie de la gouvernementalité managériale », Revue de philosophie économique, 2011/2 (Vol. 12), p. 53-85. DOI : 10.3917/rpec.122.0053. URL : https://www.cairn.info/revue-de-philosophie-economique-2011-2-page-53.htm

[6] Michel Foucault, Sécurité, Territoire et Population, Paris, Seuil, Coll. « Hautes Études », 2004, p. 65.

[7] Michel Foucault, Anthologie, Paris, Gallimard, coll. « Folio Essais », p. 617.

[8] Pierre Dardot et Christian Laval, La Nouvelle Raison du Monde. Essai sur la société néolibérale, Paris, La Découverte, 2009, p. 15.

[9] Bien que la répression coexiste en réalité avec le laisser-faire économique.

[10]Barbara Stiegler, Il Faut s’adapter. Sur un nouvel impératif politique, Paris, Gallimard, coll. « NRF » Essais, 2019, p.  63

[11] Michel Foucault, Sécurité, Territoire, Population. Cours au Collège de France 1977-1978, Paris, Gallimard/Seuil, 2004, p. 31.

[12] Michel Foucault, Dits et Écrits, t.II : 1976-1988, Paris, Gallimard, coll. « Quarto », p. 1604.

[13] Michel Foucault, Histoire de la Sexualité II. L’Usage des plaisirs, Paris, Gallimard, 1997, p. 25.

[14] Thibault Le Texier, ibid, p. 65.

[15] Michel Foucault, Il faut défendre la société, Cours au Collège de France 1975-1976, Paris, Gallimard/Seuil, p. 27.

[16] Michel Foucault, Surveiller et Punir, Paris, Gallimard, coll. « Bibliothèque des Histoires », 1975, p. 227.

[17] Michel Foucault, Dits et Écrits, t.II, op.cit, p. 1463.

[18] Michel Foucault, Anthologie, op.cit, p. 634.

[19] Voir à ce sujet Antonio A. Casilli, En attendant les robots. Enquête sur le travail du clic, Paris, Seuil, 2019.

[20] Antoinette de Rouvroy et Bernard Stiegler, « Le régime de vérité numérique », Socio [En ligne], 4 | 2015, URL : http://journals.openedition.org/socio/1251 ; DOI : 10.4000/socio.125.

[21] Rouvroy et Stiegler, ibid, p. 116.

[22] Giorgio Agamben, Qu’est-ce qu’un dispositif, Paris, Bibliothèque Payot, coll. « Rivages », 2014.

[23] Jean Lassègue, « Ambivalence du calculable et crise du jugement », Archive de Philosophie (Tome 82), p.  255.

[24]Franck Pasquale, The Black Box Society: The secret algorithms that control money and information. Cambridge, Massachusetts : Harvard University Press, 2015, p. 8. Jean Lassègue propose aussi l’idée d’une analphabétisation croissante d’individus incapables de lire les codes et donc d’avoir une emprise sur la connaissance témoignant en creux d’une inversion du rapport de force entre l’humain et la machine. Voir à ce propos Jean Lassègue, Justice digitale, Révolution graphique et rupture anthropologique, Paris, PUF, 2018.

[25] La popularité de l’informaticien dans la culture populaire doit nous alerter sur ce fait. Voir notamment Matrix des frères Wachowski ou Mister Robot de Sam Esmail.

[26]  Ce à quoi tente notamment de répondre la discipline émergente de la littératie numérique.

[27] Michel Foucault, Dits et écrits, t.III : 1976-1979, Paris, Gallimard, coll. « Bibliothèque de la philosophie », 1994, texte n. 194.

[28] Rapport de la Quadrature du Net sur la neutralité du net, URL : https://www.laquadrature.net/files/LQDN-20100412-RapportNN.pdf

[29] Marie-Anne Dujarier, « Nick Srnicek, Le capitalisme de plateforme. L’hégémonie de l’économie numérique, Montréal, Lux, 2018, 154 p. », La nouvelle revue du travail [En ligne], 15 | 2019, URL : http://journals.openedition.org/nrt/6408.

[30] David Gareth Beer (2016) « The social power of algorithms », in Information, Communication and Society, 201-13

[31] Ben Williamson (2017) Computing brains: learning algorithms and neurocomputation in the smart city, Information, Communication & Society, 20:1, 81-99, DOI: 10.1080/1369118X.2016.1181194

[32] Rouvroy et Stiegler, ibid, p. 116.

[33] Michel Foucault, Anthologie, op. cit, p. 634.

[34] Karen Yeung, (2016), “Big Data as a Mode of Regulation by Design”, in Information, Communication and Society, 20(1): 1-19 URL: https://www.researchgate.net/publication/303479231_’Hypernudge’_Big_Data_as_a_mode_of_regulation_by_design

[35] Rouvroy et Stiegler, ibid, p. 121.

[36] Michel Foucault, Dits et Écrits, t. IV, Paris, Gallimard, coll. « Bibliothèque des Sciences Humaines », 1994, p.  1046.

[37] Michel Foucault, reprenant le Discours sur l’administration de la Justice Criminelle de J M-A Servan, Surveiller et Punir, op.cit., p. 122.

[38] Michel Foucault, Il faut défendre la société, op.cit., p. 24.

[39] Julie Paquette, « De la société disciplinaire à la société algorithmique : considérations éthiques autour de l’enjeu du Big data », French Journal For Media Research, [En ligne], p. 8. URL : https://frenchjournalformediaresearch.com:443/lodel-1.0/main/index.php?id=1439.

[40] Gilles Deleuze, « Post-Scriptum sur les sociétés de contrôle », l’Autre Journal [En ligne], 1990, URL: http://1libertaire.free.fr/DeleuzePostScriptum.html

[41] Astrid Mager (2014), « Defining Algorythm Ideology : Using Ideology Critique To Scrutinize Corporate Search Engines », inTriple C, 12(1) : 28-39.. La traduction est faite par nos soins.

[42]  Gramsci, Antonio, Selections from the Prison Notebooks. New York, International Publishers, 2012.

[43] Dominique Cardon, A quoi rêvent les algorithmes ? Nos vies à l’heure du Big Data, Paris, Seuil, 2015, p. 34.

[44] Hannah Arendt, La Condition de l’Homme moderne, Paris, Agora, 2002, p. 97.

[45] Michel Foucault, Philosophie : Anthologie, Paris, Gallimard, coll. « Folio Essais », 2004, p. 617.

[46] Michel Foucault, L’Herméneutique du sujet. Cours au Collège de France, 1982-1983. Paris, Gallimard-EHESS-Seuil, 2001, p. 302.

[47] Michel Foucault, Du Gouvernement des Vivants. Cours au Collège de France, 1980-1981, Paris, Gallimard-EHESS-Seuil, p.111

[48] Pekka Himanen, L’éthique Hacker et l’Esprit de l’ère de l’information, Paris, Exils, 2001 ; Hakim Bey, Taz : zone autonome temporaire, Paris, L’Eclat, 1991.

[49] Dominique Cardon, Culture Numérique, Paris, Presses de Sciences Po, 2019.

[50] Franco Berardi, « Attention et expérience à l’âge du neurototalitarisme », traduction Charlotte Brenguier, Alexandre Perraud, dans Yves Citton, L’économie de l’attention, Paris, La découverte, 2014, p. 149.

[51] Voir Simone Weil, Réflexions sur les causes de la liberté et de l’oppression sociale, Paris, Gallimard, 1980.

[52] Robert Chenavier, « Quand agir c’est lire. La lecture créatrice selon Simone Weil », Esprit, 2012, août/septembre, p. 121.

[53] Simone Weil, Œuvres complètes, t. VI, vol. 1 : Cahiers (1933-septembre 41), Paris, Gallimard, 1994, p. 318.

[54] Joëlle Zask, « Les livres et leurs marges », dans Katharina Raabe, Frank Wegner et Amélie Petit (dir), Pourquoi lire. 13 bonnes raisons (au moins), Paris, Premier Parallèle, 2021, p. 207.

[55] Parfois, elle la nomme également « attention intuitive ». Intuitive ou créative, dans les deux cas, il s’agit d’une forme d’attention différente de l’attention rationnelle à laquelle nous faisons habituellement référence, dont le regard capte au-delà de ce que les mots peuvent saisir et décrire.

[56] Simone Weil, « Réflexion sur le bon usage des études scolaires », Attente de Dieu, Paris, Fayard, 1966, p. 92-93.

[57] Michel Foucault, ibid, p. 765.

[58] Michel Foucault, ibid, p. 829.

[59] Voir notamment les travaux de Gunther Anders, Jacques Ellul, ou encore Ivan Illich.

[60] Pour une définition de l’économisation, voir l’article de Koray Çalışkan & Michel Callon (2009) « Economization, part 1: shifting attention from the economy towards processes of economization » in Economy and Society, 38(3), 369-398. DOI:10.1080/03085140903020580

[61] Michel Foucault, Philosophie : Anthologie.  Paris, Gallimard, coll. « Folio Essais », 2004, p. 618.

Leave a reply

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *

Next Article:

0 %