L’affaire Cambridge Analytica et les limites de l’humain

à plusieurs reprises, lors d’élections ou de référendums démocratiques (Brexit, élections à Trinidad et Tobago, élection présidentielle états-unienne de 2014), l’entreprise Cambridge Analytica a mis en place des campagnes de relation publique consistant à placer sous influence les utilisateurs de Facebook grâce au modus operandi suivant :

– se donner un accès à un nombre significatif de profils Facebook

– soumettre cette cohorte à une analyse fine pour déterminer les électeurs indécis.

– cibler ces électeurs pour les inciter à voter ou au contraire à s’abstenir de voter.

Nous vivons à l’intérieur d’un monde qui a défini l’humain comme un être capable de se déterminer librement à agir. C’est ce choix délibéré qui constitue la pierre de touche de tout notre système démocratique.

Or ce système démocratique actuel est aussi un système social de plus en plus dépendant de ses progrès technologiques, et dans lequel la nature est toujours plus manipulable, prévisible, réductible en équations. Une immense bureaucratie techno-scientifique ne cesse d’avancer dans la maîtrise des paramètres relatifs à la gestion des ressources, à la croissance des plantes, à la conduite des opérations chirurgicales.

Mais, comme la pierre au milieu de la rivière qui s’écoule de part et d’autre sans la faire bouger d’un pouce, notre nature d’être libre, capable de délibération, capable d’une décision qui lui est propre, reste l’alpha et l’oméga de notre système politique.

Or l’affaire Cambridge Analytica montre une toute autre manière d’aborder la vie politique. Elle consiste à ne pas voir les citoyens comme des « êtres à part entière » mais comme des éléments paramétrables à partir du moment où on s’est donné la peine de trouver l’input, le canal d’entrée, et l’algorithme permettant, une fois ce canal branché, le paramétrage effectif de l’électeur.

Cette idée n’est pas apparue brutalement avec l’affaire Cambridge Analytica. Cela fait en réalité bien longtemps que le paramétrage de l’humain s’est déployé dans nos systèmes, à travers la publicité. Mais cette forme de la propagande ne nous a jusqu’ici posé qu’un problème mineur, parce que nous avions notre ilot, l’ilot politique.

Enfin je dis nous, je devrais dire l’Europe Occidentale, car il y a belle lurette que les États Unis ont laissé rouler la pierre dans le flux du courant : à partir du moment où les personnes morales (les grandes entreprises) peuvent participer aux campagnes electorales en déversant des centaines de millions de dollars sur les candidats, le mythe de l’électeur autonome n’avait plus grand-chose de réel.

Donc lorsqu’on décrit l’affaire Cambridge Analytica comme une sorte de grand Hacking inoui de la population Ouest Américaine, de quoi parle-t-on ? Qu’y a-t-il de nouveau ? Les techniques s’améliorent, sans doute, mais cela fait belle lurette qu’un certain nombre d’acteurs économiques et sociaux ont cessé de voir les électeurs comme des électrons libres.

En fait l’affaire Cambridge Analytica montre les immenses progrès qui ont été fait dans la méthodologie basée sur la considération de l’humain comme une machine paramétrable plutôt que comme un être doué de liberté. Et ces progrès ont été rendus possibles parce qu’une des digues les plus essentielles et les moins bien connues qui préservait la dignité de l’être humain comme acteur politique autonome a sauté. Et, nous allons le voir, ce n’est pas tant une question d’input, de ce qui entre en nous, que d’output, ce qui sort de nous.

Jusqu’ici, le principe de la démocratie, c’est d’attendre la donnée. La donnée viendra au bout du processus, la donnée est récoltée (to harvest) dans les urnes, au moment du vote. Dans le processus démocratique, l’output, ce qui sort de nous, intervient au moment crucial et sacré où glissons un bulletin dans l’urne. L’output, c’est le vote, c’est à la fois le paroxysme et le fondement de tout notre système politique. Or la méthodologie Cambridge Analytica c’est de récolter les données (to harvest datas) bien en amont du processus électoral. La donnée est récolté en amont du choix. En l’occurrence, il s’agissait d’un questionnaire de personnalité à remplir, en échange d’un accès à vos données, et à celles de vos ‘amis’ (The one click personality test, Cogan). Bien avant que tu ne sortes de l’isoloir, sont sorties de toi les informations qui font de ta présence dans cette petite cabine le minuscule rouage d’un processus de paramétrage à distance. Dès lors, l’individu humain n’est plus une personne sur le point d’agir spontanément, il est désormais considéré comme un ensemble de données à traiter. Et plus le nombre et la qualité des données récoltées sont importants, plus l’obstacle que représentait notre spontanéité sacrée disparaît, parce qu’une fois ces données traitées (output), il devient possible de paramétrer son choix futur (input).

L’une des grandes injonctions inaugurales de la philosophie est « connais-toi toi-même ». Le principe est repris par l’ingénierie des réseaux sociaux : plus nous connaîtrons nos utilisateurs, plus nous comblerons notre retard sur leur processus interne de choix et de décision. Et sur ce chemin, nous devons devenir peu à peu capables de devancer ce processus interne de choix et de décision et ainsi non seulement de l’influencer, mais de l’orienter, non seulement de l’orienter, mais de le déterminer.

La conscience et « l’awareness » (comment traduire, la ‘qualité de conscience ?’ la ‘perspicacité’?) ne sont donc plus des absolus à respecter, ils deviennent des paramètres à maîtriser. La personne n’est plus l’essentiel de ce que nous sommes. Car, grâce au cheval de Troie de l’accès « gratuit » aux réseaux sociaux, nous existons, sans le savoir, de moins en moins comme des personnes autonomes, et de plus en plus comme des « profils » paramétrables. Le processus décrit par Heidegger de l’arraisonnement de la nature se trouve donc ici étendu à l’humain. Le processus « démocratique » est peu à peu dévoré de l’intérieur par un processus de paramétrage technologique.

En voici l’exemple développé par Facebook pour des raisons commerciales, et détourné par Cambridge Analytica pour des raisons politiques :

FACEBOOK propose du contenu « recommanded for you ». = cela permet

1) après avoir analysé les « profils » et identifié les démocrates et républicains indécis

2) de les bombarder d’informations soit pour les dissuader soit pour les pousser à aller votre « to trigger ». « targetted messaging ». L’anglais est ici très parlant. Dissuader et pousser s’expriment dans une langue mécaniste : « trigger », « targetted ». L’humain est un mécanisme, et le déclencher à loisir devient possible à condition d’avoir suffisamment d’informations pour savoir où appuyer.

3) Le but final, c’est la maitrise du choix définitif ? Non, cela n’est pas nécessaire. L’aboutissement, le voilà : « untill they saw the world we wanted them to ». l’enjeu fondamental n’est pas la maîtrise de l’acte final. L’enjeu fondamental, c’est la maîtrise de la Weltanschaaung, la vision du monde de l’électeur.

Une solution serait tout à fait simple : la déconnexion. Un certain nombre des concepteurs des réseaux, comme Jaron Lagnier, ou des cadres exécutifs haut placé de la Silicon Valley, ont fait cela : ils n’ont plus de réseaux sociaux sur leurs appareils. L’idée est ainsi que l’une des limites de l’humain tel que nous aimons à le définir (responsable, autonome, etc.) est qu’il a besoin d’un certain écosystème. Lorsque cet écosystème se détériore, sa nature se corrompt. Or, derechef, une des digues principales qui préservait cet écosystème est en train de sauter, l’un des paramètres essentiels de l’écosystème démocratique propice à l’épanouissement de l’autonomie et de la responsabilité humaine. Il s’agit de la privauté (privacy).

L’humain autonome et responsable ne peut plus continuer d’être défini seulement comme « être raisonnable », être qui cultive sa faculté de penser. Jusqu’ici, c’était cette qualité centrale et rayonnante qui était mise en avant par les philosophes, alors même que peu d’êtres humains, en réalité, poussent très loin cette activité. Un philosophe comme Spinoza, pourtant peu suspect d’idéaliser le genre humain, met au centre de toute vie humaine « sa faculté de faire de sa raison un libre usage et de juger de toutes choses ».

Pourquoi alors tant de confiance ? Du fait, tout simplement de la nature des choses, du fait de l’ordre même du réel : bien des dictateurs voudraient qu’il en soit autrement, dit Spinoza, mais il est bien plus difficile de commander aux esprits qu’aux langues. « Il ne peut se faire que l’âme d’un homme appartienne entièrement à un autre. Personne en effet ne peut transférer à un autre, ni être contraint d’abandonner son droit naturel ou sa faculté de faire de sa raison un libre usage et de juger de toutes choses. » (Traité Théologico Politique, chapitre XX)

C’est pour cela que, très intelligent ou bête comme ses pieds, joyau de tolérance ou bouché à l’émeri, tout être humain ne peut qu’être considéré comme un citoyens suffisamment raisonnable, autonome et responsable : quoiqu’il en soit, il pense, et c’est lui qui pense, à l’intérieur de sa tête, il n’y a que lui ! Effectivement, mais cette situation repose sur un paramètre, si essentiel et pourtant si longtemps ignoré : la privauté.

Ce terme, qui l’a utilisé dans sa vie ? Nous connaissions l’intimité, mais ce n’est pas de l’intimité qu’il s’agit. Personne, en cliquant sur les conditions d’utilisation, et en sachant que ses données seront aspirées, ne s’attend pourtant à être blessé dans son intimité. Sur Facebook, Whatsapp, Instagram, l’intimité a été et est préservée par les plateformes, puisque c’est à chacun de décider de son degré d’exposition au public. L’aspiration des données par les réseaux ne détruit donc pas l’intimité, ce qui serait visible et douloureux. Elle réduit à néant la privauté, ce qui est invisible et indolore, mais constitue un cheval de Troie redoutable dans cette Citadelle jusqu’ici imprenable qu’on appelait « le libre arbitre ».

Il est plus difficile de commander aux Esprits qu’aux langues, disait Spinoza, de sorte que l’être humain ne peut et ne pourra jamais être considéré comme une machine. Il semblerait que cette pensée soit en passe de devenir obsolète. Non pas parce qu’elle est fausse, mais parce que l’approche qui consiste, quoiqu’il en soit effectivement, à prendre l’être humain pour une machine montre chaque jour un peu plus son efficacité, à cause non pas d’abord de l’input, mais de l’output. Nous avons, en un clic, fait sauter le verrou immémorial qui factuellement faisait de notre pensée un empire dans un empire.

Les commentaires sont fermés.