
· 10 Mars 2025
Origine IM1776
La mécanique Schizo ou : Comment j’ai appris à cesser de penser et à aimer la boue

"Pour qu’une personne mûrisse pour le sacrifice de soi, elle doit être dépouillée de son identité individuelle, le plus radicalement par l’assimilation complète de l’individu dans le corps collectif".
– Eric Hoffer, Le vrai croyant
Après le Russiagate, deux ans d’assignation à résidence imposée par l’État, une guerre en Europe, une guerre au Moyen-Orient, QAnon, BlueAnon, le complexe transgenre-industriel et un autre cycle électoral américain interminable, la réalité consensuelle s’est finalement effondrée. Il est impossible d’exister en ligne cette année sans être exposé à de multiples variantes concurrentes de la psychose de formation de masse. Chaque point du discours est simultanément aplati et hyperbolique. La vérité a été remplacée par une escalade rhétorique frénétique d’automates qui revendiquent leur pertinence dans un monde de plus en plus inconscient.
À l’instar des pratiques anciennes occultées et dissimulées dans un "langage crépusculaire", le "slopworld" dispose d’un mécanisme de défense intégré qui le protège de toute observation directe. Chaque fois que l’on tente de le décrire, de le quantifier ou de le confronter, un essaim de bio-agents issus du nœud menacé émerge pour neutraliser le défi. Ce phénomène est particulièrement évident dans les environnements de contrôle politique des sectes, où une loyauté inébranlable est exigée sous peine d’être exclu et désavoué.
Les ruches numériques dédiées au communisme, au transgendérisme, au scientisme, à l’anti-Trumpisme, mais aussi au Trumpisme, diffusent sans cesse du contenu, aplatissent la réalité et éliminent ou noient l’esprit critique. Les parties prenantes puissantes tirent alors parti des effets de réseau pour blanchir des agendas privés sous une patine d’authenticité populaire, ce qui rend difficile pour les spectateurs de soulever des préoccupations.
L’ancien Internet
J’ai grandi sur l’internet. Cette affirmation évoquait autrefois une signification culturelle et esthétique spécifique : des visions de blogs Geocities, des discussions animées sur des tableaux d’images, des applications de messagerie grossières, des sites web primitifs oscillant de manière spectrale entre la fantaisie et la réalité, des lobbies de jeu bruyants au milieu de la nuit. Il s’agissait de destinations, de lieux que l’on occupait et d’une manière d’être exclusive et consciente. L’interaction en ligne avait un aspect intentionnel, car "aller en ligne" exigeait une navigation manuelle.
À mesure que l’internet des objets a érodé les frontières entre l’espace virtuel et l’espace physique et que les gadgets électroniques sont devenus omniprésents dans l’organisation de la vie quotidienne, les nouvelles générations ont cessé de prétendre qu’elles avaient "grandi en ligne". L’internet est devenu incontournable et omniprésent. L’enchevêtrement labyrinthique de portails étranges et de rencontres inattendues qui définissait le "vieil Internet" était devenu comme le "vieil Ouest" - un souvenir nostalgique gravé dans l’esprit de ceux qui l’ont connu et une aberration incompréhensible pour ceux qui sont nés sous le signe du Patriot Act.
Le meilleur moyen d’appréhender l’ancien internet est de le considérer du point de vue de la culture de la réalité pré-numérique. Parce qu’il était largement décentralisé et piloté par l’utilisateur, il était plus proche d’un espace physique du XXe siècle que d’un environnement numérique du XXIe siècle. Les utilisateurs devaient investir beaucoup d’efforts et de temps pour y naviguer, car la découverte de contenu reposait sur des recherches manuelles et des répertoires de sites complexes. Rencontrer quelque chose inconsciemment sur l’ancien Internet était presque impossible.
L’archipel de petites communautés de niche qui constituait l’ancien internet était autonome et autosuffisant. La sélection et la modération du contenu étaient transparentes et guidées par les préférences des utilisateurs, et les hiérarchies sociales se formaient organiquement autour de l’expertise et du mérite. Des idées complexes comportant de nombreuses nuances pouvaient être discutées de bonne foi au fil du temps par les membres de la communauté et, bien que les différends puissent être animés, ils pouvaient également être résolus par le biais d’une méthodologie de forum ouvert.
Les premiers moteurs de recherche, comme Yahoo !, AltaVista et plus tard Google, étaient les premiers gardiens de l’information et fonctionnaient comme les bibliothécaires d’une vaste bibliothèque numérique. Leurs algorithmes étaient conçus pour aider les utilisateurs à trouver des informations plutôt que pour manipuler leur comportement afin de maximiser leur engagement. Les premiers sites de réseautage comme Friendster et MySpace utilisaient des algorithmes similaires pour faciliter les connexions et le partage de contenu. Ces algorithmes étaient utilisés pour suggérer des amis sur la base de liens et d’intérêts partagés plutôt que pour jouer avec l’expérience de l’utilisateur. Ils affichaient le contenu par ordre chronologique, sans curation algorithmique ni hiérarchisation.
Le système était également rudimentaire, transparent et axé sur l’utilisateur. Des outils ont été conçus pour faciliter la découverte et l’organisation. Dans ce village numérique pittoresque, les utilisateurs gardaient le contrôle conscient de leur expérience, et les algorithmes se comportaient comme des assistants administratifs plutôt que comme des tyrans cybernétiques.
Evolution
La surveillance de masse a toujours été combattue, parfois violemment, par le peuple américain pour défendre la vie privée et les libertés civiles. Mais le changement psychologique engendré par les atrocités spectaculaires du 11 septembre 2001 a tout changé. Soudain, les Américains étaient prêts à accepter le développement accéléré et l’imposition d’un appareil de surveillance de masse que certains membres de la communauté du renseignement s’efforçaient de mettre en place depuis plusieurs décennies.
Pour répondre aux besoins de cette faction, l’environnement numérique a été reprogrammé par le biais de la psychologie comportementale. Le Patriot Act a imposé le développement de méthodes permettant de produire des profils psychologiques d’utilisateurs individuels basés sur des données, afin d’identifier les terroristes potentiels. Le résultat a été la construction d’un miroir sans tain facilitant l’analyse comportementale et, par la suite, la modification du comportement.
L’État du renseignement militaire et ses alliés du monde des affaires ont essentiellement colonisé l’internet et modifié ses principes de fonctionnement pour faciliter la consolidation du contrôle. Les stratégies conçues pour maximiser l’utilisation des données comportementales ont commencé à proliférer. Le ministère de la défense a alloué des milliards de dollars aux projets de la DARPA, qui a ensuite passé des contrats avec des partenaires du monde universitaire et du secteur privé afin d’optimiser les méthodes de collecte de données.
La maximisation de l’engagement des utilisateurs est à la base de toute modélisation situationnelle ultérieure. L’objectif était de maintenir l’engagement des utilisateurs et d’alimenter les différentes interfaces en données de la manière la plus cohérente possible. Les algorithmes administratifs de l’ancien Internet ont été progressivement remplacés par des systèmes cybernétiques plus invasifs.
L’amplification algorithmique accélérant la prolifération d’appâts à clics exploitant les émotions, l’homogénéisation a commencé à s’installer dans le paysage numérique. À la fin de la décennie, les algorithmes de recommandation basés sur le profilage des utilisateurs étaient des éléments obligatoires de l’infrastructure des sites, rendus nécessaires par l’impératif financier de maximiser les recettes publicitaires.
La campagne visant à normaliser l’utilisation de la collecte de données a oscillé entre l’idée qu’il s’agissait d’une question de sécurité nationale pour arrêter les terroristes et une technique bénigne employée par les détaillants pour fournir des recommandations utiles. La collecte ciblée de données a d’abord été introduite par des sociétés de commerce électronique comme Amazon et eBay pour recommander des produits intéressants aux clients en fonction de leurs achats antérieurs. Bien que certaines personnes aient pu être irritées par l’utilisation de leurs informations personnelles à des fins de marketing, elles ne l’ont pas perçue comme une menace existentielle pour leur vie privée, leur liberté d’action ou leur sécurité cognitive. Bien entendu, il a été révélé par la suite qu’Amazon et eBay avaient noué des liens étroits avec la communauté du renseignement par l’intermédiaire de leurs dirigeants et de leurs principaux contrats.
Une fois que le cheval de Troie du Big Data a franchi les portes de la conscience publique, l’appât de l’engagement et le profilage psychologique ont commencé à envahir l’internet. Les données ont remplacé le pétrole en tant que ressource la plus convoitée. L’introduction des "recettes publicitaires" en aval de l’agrégation des données a normalisé la présence de publicités dans les environnements numériques et a fourni une incitation financière à maximiser le trafic plutôt qu’à créer des communautés de niche basées sur des intérêts partagés. La prolifération des titres "clickbait" au début des années 2000 a marqué la première évolution vers l’exploitation des déclencheurs émotionnels à des fins de recettes publicitaires.
Le 4 février 2004, la DARPA a appris les limites de la tolérance du public lorsque l’indignation générale a forcé l’annulation d’un projet appelé LifeLog, qui prétendait pouvoir "retracer les fils de la vie d’un individu en termes d’événements, d’états et de relations" et prendre en compte toute l’expérience d’un "sujet, depuis les numéros de téléphone composés et les messages électroniques consultés jusqu’à chaque souffle pris, chaque pas fait et chaque lieu visité". C’est ce jour-là que Facebook a été lancé.
Facebook s’est rapidement imposé comme la première plateforme de médias sociaux au monde. Au fur et à mesure de la croissance du site, l’algorithme de son "fil d’actualité" a évolué, passant d’un format chronologique à un format qui sélectionne progressivement le contenu en fonction de l’engagement. Ce changement a marqué un tournant dans le passage d’un contrôle intentionnel de l’utilisateur à une curation algorithmique opaque et à une hiérarchisation du contenu en fonction de l’engagement.
Au milieu des années 2000, un ensemble de "fermes de contenu" avait été créé autour d’un modèle basé sur la controverse et encouragé par des algorithmes conçus pour mettre l’accent sur l’engagement. Des sites web tels que BuzzFeed et Upworthy sont apparus comme les pionniers du contenu "viral", utilisant l’analyse de données pour identifier les sujets "tendance" et les déclencheurs émotionnels, qui ont été exploités pour créer un contenu optimisé pour la provocation. C’est ainsi qu’est né le "slop" : un contenu de masse explicitement conçu pour maximiser le trafic au détriment d’une interaction significative.
L’amplification algorithmique accélérant la prolifération de l’exploitation émotionnelle des appâts à clics, l’homogénéisation a commencé à s’installer dans le paysage numérique. À la fin de la décennie, les algorithmes de recommandation basés sur le profilage des utilisateurs étaient des éléments obligatoires de l’infrastructure des sites, rendus nécessaires par l’impératif financier de maximiser les recettes publicitaires. YouTube, racheté en 2006 par le géant de la technologie et entrepreneur de l’industrie du renseignement Google, s’est imposé comme le pionnier de l’algorithme de recommandation hybride, combinant l’historique de visionnage et les modèles d’engagement des utilisateurs pour augmenter le nombre de vues, d’appréciations et de commentaires.
Au début des années 2010, des médias comme Breitbart, Daily Wire et Vox avaient mis au point une formule permettant de tirer parti de l’amplification algorithmique. En utilisant des récits polarisants, des titres incendiaires et des appels émotionnels basés sur des profils démographiques, ces médias ont pu exploiter les algorithmes existants pour maximiser le partage de contenu sur de multiples plateformes. Des chambres d’écho basées sur des plateformes, qui vivent effectivement des réalités alternatives, sont nées, et une boucle de rétroaction entre les créateurs de contenus sensationnels et l’infrastructure centralisée des médias sociaux qu’ils alimentent s’est mise en place
.
L’économie de l’attention
Meta, Twitter et Google ont consolidé leur domination sur l’économie des médias sociaux grâce au soutien des agences de renseignement. Dès 2013, il a été révélé que Meta avait accordé un accès indirect à la NSA pour faciliter son programme de surveillance PRISM, dans le cadre duquel l’agence a collecté des quantités massives de données sur la population nationale sous l’autorité du Patriot Act. À ce jour, Meta, Twitter et YouTube, propriété de Google, ont conclu des accords publicitaires avec des agences gouvernementales, dont le Département d’État américain et le Département de la défense, pour mener des campagnes publicitaires ciblées à des fins présumées de "messages antiterroristes, de sensibilisation à la santé publique et de recrutement". Ces plateformes ont également collaboré avec la DARPA et l’IARPA sur des projets liés à l’intelligence artificielle, à l’analyse de données, à la modification du comportement et à la surveillance des médias sociaux, organisés autour de la "sécurité nationale", du "contre-terrorisme" et de la "lutte contre la désinformation".
Les plateformes de médias sociaux ont tiré parti de leurs partenariats avec les services de renseignement militaire pour développer des expériences immersives et gamifiées qui imitent les mécanismes des jeux d’argent, induisant des comportements de dépendance chez les utilisateurs. Les notifications "push" à retour d’information immédiat ont été conçues pour créer une dépendance à l’égard des plateformes pour la validation sociale, et le système de récompense par algorithme a conditionné les utilisateurs à adopter une bande passante d’expression relativement étroite, en tirant parti des déclencheurs émotionnels pour capter des quantités massives d’attention superficielle. À mesure que les utilisateurs cherchaient désespérément une validation numérique, l’"économie de l’attention" s’est développée. Meta, Twitter et Google ont consolidé leur domination sur l’économie des médias sociaux grâce au soutien des agences de renseignement.
Dès 2013, il a été révélé que Meta avait accordé un accès dérobé à la NSA pour faciliter son programme de surveillance PRISM, dans le cadre duquel l’agence a collecté des quantités massives de données sur la population nationale sous l’autorité du Patriot Act. À ce jour, Meta, Twitter et YouTube, propriété de Google, ont conclu des accords publicitaires avec des agences gouvernementales, dont le Département d’État américain et le Département de la défense, pour mener des campagnes publicitaires ciblées à des fins présumées de "messages antiterroristes, de sensibilisation à la santé publique et de recrutement". Ces plateformes ont également collaboré avec la DARPA et l’IARPA sur des projets liés à l’intelligence artificielle, à l’analyse de données, à la modification du comportement et à la surveillance des médias sociaux, organisés autour de la "sécurité nationale", du "contre-terrorisme" et de la "lutte contre la désinformation".
Les plateformes de médias sociaux ont tiré parti de leurs partenariats avec les services de renseignement militaire pour développer des expériences immersives et gamifiées qui imitent les mécanismes des jeux d’argent, induisant des modèles de comportement addictifs chez les utilisateurs. Les notifications "push" à retour d’information immédiat ont été conçues pour créer une dépendance à l’égard des plateformes pour la validation sociale, et le système de récompense par algorithme a conditionné les utilisateurs à adopter une bande passante d’expression relativement étroite, en tirant parti des déclencheurs émotionnels pour capter des quantités massives d’attention superficielle. À mesure que les utilisateurs cherchaient désespérément une validation numérique, l’"économie de l’attention" s’est développée. Les contenus aplatis, émotionnellement provocants et intellectuellement et moralement incohérents sont devenus synonymes de l’environnement des médias sociaux.
L’évolution de l’environnement numérique s’est faite parallèlement au développement de l’infrastructure qui le facilite. L’avènement et l’adoption massive des smartphones ont précipité un déluge d’applications numériques qui ont utilisé des stratégies techniques, linguistiques et psychologiques pour influencer l’opinion publique sur le partage des données et les violations flagrantes de la vie privée. En présentant la collecte de données comme un élément nécessaire pour accéder à diverses "améliorations de la vie", l’industrie technologique a normalisé la communication volontaire d’informations personnelles à une échelle sans précédent.
Au fur et à mesure que la société s’adaptait à ces nouvelles commodités, un changement inconscient de la perception de la technologie personnelle a commencé à émerger. Alors qu’auparavant, les gadgets technologiques étaient considérés comme des outils externes que l’on utilisait périodiquement pour obtenir les résultats souhaités, l’accès perpétuel et la dépendance croissante ont fait de l’"appareil" un prolongement de son utilisateur. Les utilisateurs ont commencé à considérer les appareils comme des gardiens dignes de confiance d’informations profondément personnelles et souvent compromettantes. Les applications sont rapidement devenues le médiateur de presque tous les aspects de la vie. Tout, de la santé à la finance, en passant par les relations amoureuses et même la prière quotidienne, a été de plus en plus confié à des applications à des fins d’optimisation et de suivi. Les appareils et leurs applications résidentes se sont vu confier la garde de fonctions neurologiques essentielles, notamment la mémoire, la programmation et la navigation.
À mesure que la nécessité d’une intention consciente pour accomplir des fonctions quotidiennes banales diminuait, les utilisateurs ont commencé à interagir avec les appareils à un niveau subconscient. Ce phénomène s’est étendu aux environnements de médias sociaux. Les algorithmes se nourrissant d’une profusion de données personnelles ont commencé à fournir aux utilisateurs une salle des miroirs spectrale. La collecte de données n’était plus à sens unique. Le discours des mèmes aplatis pouvait désormais se glisser dans la psyché sans être détecté, y élire domicile et y pondre des œufs qui écloront plus tard et retourneront dans leur foyer numérique sous la forme d’images miroirs encore plus déformées.
Le nouvel Internet
La création d’une boucle de rétroaction entre l’environnement mécanique et les recoins les plus profonds et les plus influençables de l’esprit humain était depuis longtemps un objectif des cybernéticiens et des psychologues du comportement. Avec la naissance du nouvel internet polymorphe, le monde a vu le début d’une nouvelle phase autorégulée de leur programme.
Alors que l’ancien Internet était un archipel d’îles chimériques qui n’avaient pas encore été affrétées, le nouvel Internet offrait l’attrait séduisant et hypnotique d’une fumerie d’opium. Une fois à l’intérieur, les clients adoptaient un rôle passif dans leur expérience, tandis que des entités algorithmiques défilaient devant eux, parées d’atours colorés, offrant des échantillons rares d’un spectre complet d’effets enivrants tirés des recoins de leur propre inconscient. À chaque visite, les utilisateurs fournissaient à ces salons de la drogue numériques davantage d’informations sur leurs penchants, construisant ainsi une salle des miroirs cybernétique reflétant des versions embryonnaires et décontextualisées de leurs espoirs, de leurs peurs, de leurs désirs et de leurs pathologies, afin de les aider à établir un rapport empathique
.
C’est le résultat d’une étude obsessionnelle d’une dizaine d’années menée par de multiples agences de renseignement sur les fondements de la confiance. Dès le début des années 2010, la DARPA, l’IARPA, le GCHQ, le WEF et leurs divers sous-traitants affiliés, ONG, sociétés écrans et partenariats public-privé ont entrepris de déterminer les conditions qui sous-tendent la formation de la confiance, les attributs d’identification de la "fiabilité" et les méthodologies qu’ils pourraient utiliser pour détourner les mécanismes psychologiques afin d’"installer" la confiance à volonté. Au fur et à mesure que la recherche progressait, une stratégie claire a commencé à émerger et les efforts se sont concentrés sur son développement : l’application de jeux de réalité alternée (ARG) à l’étude comportementale et psychologique dans des "scénarios du monde réel".
En 2015, l’IARPA a publié une demande d’informations qui incluait des opportunités contractuelles étendues aux entités universitaires et privées capables "d’engager les joueurs dans une interaction psychologiquement significative dans un contexte complexe, proche du monde réel". Les objectifs de recherche comprenaient "l’étude des phénomènes sociaux et psychologiques [...] avec un meilleur contrôle des variables indépendantes et confondantes" et "la collecte de données psychologiques, comportementales, physiologiques et même neuronales détaillées au cours d’interactions sociales complexes". L’exploitation du cadre algorithmique existant des médias sociaux centralisés pour faire entrer les joueurs dans des scénarios de jeu était une progression logique, et est apparue dans les descriptions de multiples subventions et projets de la DARPA, de l’IARPA, du DoD et du DHS au cours des années suivantes.
L’intégrité des données recueillies dans le cadre des études ARG repose sur l’hypothèse que les joueurs ne sont pas conscients de la nature manufacturée du jeu. Les médias sociaux centralisés constituent l’environnement idéal pour cette activité, car les accords conclus entre les plateformes et les agences gouvernementales facilitent "un meilleur contrôle des variables confusionnelles". Le filtrage de l’information, la modération du contenu et les accords conclus avec les agences pour mener des campagnes publicitaires ciblées sont combinés à l’effet de miroir cybernétique des algorithmes de la plateforme pour captiver et catégoriser les utilisateurs dans des environnements synthétiques qui facilitent l’auto-assemblage de l’ARG.
Les algorithmes déterminent l’environnement mémétique et la réponse comportementale suscitée par les mèmes renvoie les données des utilisateurs à l’algorithme pour "optimiser" davantage le contenu qui renforce la réalité aplatie. La profondeur est érodée et remplacée par des caractéristiques de ruche propices à la propagation d’un contenu mémétique homogène qui sera favorisé par l’algorithme de conservation du jeu.
Ce processus implique la création et la diffusion d’un contenu mémétique "camouflé" qui semble organique ou inoffensif mais qui est conçu pour manipuler le comportement, les croyances et les émotions. Le conditionnement réflexif et l’interface subconsciente entre les sujets et les environnements numériques gamifiés garantissent la propagation quasi automatique des mèmes camouflés en les liant au centre de récompense dopaminergique. Les utilisateurs subsumés par les environnements ARG sont transformés en agents biologiques d’agendas cryptés : des marionnettes de viande déployées inconsciemment par les services de renseignement militaires.
Le mécanisme de l’"essaim de drones" doit également son développement au renseignement militaire. Dans une étude de 2014 intitulée Containment Control for a Social Network with State-Dependent Connectivity, les chercheurs décrivent "une méthode d’influence décentralisée [...] pour maintenir l’influence sociale existante entre les individus [...] et pour influencer le groupe social vers un état désiré commun [...] à l’intérieur d’une coque convexe traversée par les leaders sociaux". Le co-auteur et théoricien du contrôle Warren E. Dixon explique ce qui a motivé la recherche : "J’ai assisté à une présentation d’un informaticien sur l’examen des comportements des personnes sur la base de données sociales. Le langage utilisé pour décrire mathématiquement les interactions était le même que celui que nous utilisons pour contrôler des groupes de véhicules autonomes".
L’érosion des facultés supérieures de l’humanité et la dévolution subséquente en essaims de drones inconscients et contrôlables à distance par l’aplatissement et la fragmentation de la réalité consensuelle est le Grand Œuvre alchimique du complexe cybernétique-industriel. L’infrastructure centralisée du Nouvel Internet sert de vaste alambic numérique, putréfiant la conscience humaine dans un système fermé de cycles nigredo qui minéralisent les attributs du libre arbitre et de l’intention consciente pour refaire de l’homme l’homoncule de l’Adam algorithmique.
La crise de l’authenticité
L’étude approfondie des mécanismes de la confiance entreprise par les bedlamites mégalomanes était, à dessein, une attaque calculée contre l’intuition et le libre arbitre. La militarisation du discours sur les mèmes qui s’en est suivie a rapidement érodé les frontières implicites entre contenu authentique et contenu fabriqué qui, jusqu’à récemment, constituaient une distinction élémentaire de la pensée critique.
Aujourd’hui, les contenus authentiques et réfléchis sont éliminés et filtrés de l’écosystème numérique, car ils n’ont pas les qualités polarisantes nécessaires pour être favorisés par l’algorithme. À sa place, une pseudo-sincérité synthétique s’est développée. Marquée par le narcissisme, l’opportunisme et le manque de profondeur, cette contrefaçon du sentiment mémétique utilise la vulnérabilité performative, la relatabilité stratégique et les messages émotionnellement manipulateurs pour imiter les caractéristiques de l’interaction organique ; la culture des influenceurs, les campagnes de responsabilité sociale des entreprises et les formes d’activisme politique qui jouent sur les relations parasociales pour manipuler le subconscient des utilisateurs, en sont autant d’exemples.
Les campagnes de pseudo-sincérité font appel aux utilisateurs en leur proposant d’adhérer à des causes sociales ou politiques qui, bien que présentées comme révolutionnaires ou rebelles, sont en fin de compte contrôlées par des chambres d’écho numériques afin d’établir des formes de consensus par le biais de la psychologie comportementale de groupe.
L’Adam algorithmique partage avec l’Adam biblique le fardeau du péché originel, mais en vérité, il a choisi un état déchu. En échange d’un allègement du fardeau de la liberté, il s’est vu accorder les codes d’accès à l’imaginaire du collectif numérisé.
IFin 2011, une société financée par le ministère de la défense, Robotic Technology Inc., a fait une présentation au Social Media for Defense Summit à Alexandria, en Virginie, sur les applications potentielles de la "mémétique militaire". La présentation a mis en évidence les moyens par lesquels les mèmes pourraient être conçus et utilisés contre des "populations ennemies" afin de modifier leur comportement et de les rendre plus "acceptables" dans une "situation par ailleurs conflictuelle". Elle a également fait largement référence à The True Believer d’Eric Hoffer, un ouvrage classique sur les mécanismes des mouvements de masse examinés sous l’angle de la psychologie des foules.
Dans The True Believer, Hoffer affirme que, malgré les différences idéologiques de surface, la dynamique psychologique commune des mouvements de masse les rend fonctionnellement interchangeables. Le "vrai croyant" est un individu insatisfait de son "moi", qui cherche à échapper au fardeau de l’identité individuelle en s’assimilant à un collectif. Comme il l’écrit, "l’individu pleinement assimilé à la collectivité ne se sent jamais seul ; être exclu du groupe équivaut à être coupé de la vie".
Le résultat final de l’environnement de post-vérité produit par la sélection algorithmique est le "dépouillement de l’identité individuelle" et l’"assimilation totale" dans un "collectif" numérique personnalisé pour participer à un "rituel, un cérémonial, une performance dramatique ou un jeu". L’algorithme génère le "spectacle grandiose" d’innombrables mouvements de masse creux pour éroder l’intuition de l’utilisateur et le captiver. Au fur et à mesure que l’expérience de l’authenticité s’efface de la mémoire, la psychosécurité se dégrade au point que l’utilisateur n’a plus la capacité de résister au conditionnement.
Pour un vrai croyant, l’environnement de contrôle cybernétique est le monde, rester "pertinent" et "influent" est le sens de la vie, et l’algorithme est sa force d’animation. Le sujet devient ainsi un automate biologique connecté au réseau par une interface machine-cerveau rudimentaire avec le subconscient. Cette nouvelle espèce d’hominidé - l’"homo-algorithme" - est le premier homme de la théocratie cyborg, créé à l’image de son créateur, l’imago data : un amalgame schizoïde de contenu mémétique, grinçant et griffant à l’état de potentiel jusqu’à ce que l’attention humaine l’observe dans son existence.
L’Adam algorithmique partage avec l’Adam biblique le fardeau du péché originel, mais en vérité, il a choisi un état déchu. En échange d’un allègement du fardeau de la liberté, il s’est vu accorder les codes d’accès à l’imaginaire de la collectivité numérisée. Comme l’Adam biblique, son châtiment souligne sa soumission aux lois du royaume inférieur qu’il habite et la souffrance qu’elles lui infligent. Son cerveau est grillé par des fragments mémétiques brisés ; il est maudit pour errer sur la terre, assemblant frénétiquement des "prises" : des créations chimériques qu’il offre à l’algorithme en échange d’un jour de plus de pertinence.
Retour
Depuis près d’un siècle, d’innombrables expositions universelles, romans, magazines, œuvres d’art et films ont dépeint avec fantaisie un monde où l’accès omniprésent à la technologie donnait du pouvoir aux individus, élevant la créativité, la liberté et l’autodétermination. Ce genre d’images présente la technologie comme une force émancipatrice au service d’une population humaine intelligente et consciente, dans un rôle subalterne et bienveillant, contribuant à relever divers défis environnementaux et facilitant finalement l’augmentation du temps de loisirs pour les activités intellectuelles. Étant donné les preuves accablantes de la construction organisée de systèmes de contrôle cybernétiques, il est probable que ces récits réconfortants ont été élaborés pour encourager l’adoption future en masse de la technologie d’extraction de données.
La fragmentation de la réalité et l’implantation d’illusions de masse sont sans aucun doute accélérées par les ruches algorithmiques, mais il existe également un précédent historique de réalisations similaires par le biais de récits parafictionnels soutenus. Un siècle de programmation prédictive exposant la majesté étincelante du futurisme technologique a implanté dans la conscience collective des humains des "souvenirs" d’une réalité alternative qu’ils n’ont jamais vécue personnellement. Se défaire de l’emprise de l’environnement numérique dépend en grande partie de notre capacité à revenir à une réalité consensuelle où les effets tangibles de notre relation avec la technologie peuvent être examinés sous un angle suffisamment critique.
À défaut de raser les centres de données, la voie la plus directe pour réaffirmer la domination sur les machines consiste à réduire considérablement l’implication de l’apprentissage automatique et de la modération algorithmique dans les affaires de l’humanité. Les plateformes de médias sociaux devraient être contraintes de ramener les algorithmes de curation au format chronologique de l’ancien Internet, en fournissant aux utilisateurs des outils pour rétablir leur contrôle sur le contenu qu’ils voient. Les mesures d’engagement ne devraient pas être considérées comme des mesures de pertinence. Le stockage et le partage des données personnelles devraient être interdits ou rendus transparents grâce à des rapports personnalisés obligatoires détaillant les utilisations précises des données et les bénéfices qui en sont tirés. Une compensation proportionnelle à ces bénéfices devrait alors être distribuée aux individus, à l’instar des dividendes sur les actions. Nous avons été collectivement exploités par des entreprises technologiques et des acteurs étatiques, qui ont délibérément compromis notre santé mentale et n’ont pas distribué un seul centime de participation aux bénéfices. Il est temps de mettre un terme à cette situation.
Même si nous ne verrons jamais la terre promise de l’utopie cyberpunk, le fait de reprendre nos facultés aux machines et à leurs opérateurs cybernétiques nous rapproche de la "bonne ligne temporelle". L’humanité peut coexister avec la technologie sans succomber à la programmation homunculaire. Le fil rouge qui guide l’homme dans le labyrinthe cybernétique a toujours été une intention consciente, et ce fil doit être rétabli une fois de plus. L’interaction sociale, la politique publique, la romance, la politique électorale, la guerre, la religion et la spiritualité, la création artistique et musicale, l’éducation des enfants et d’autres activités humaines doivent être défendues contre le calcul du "cerveau mécanique".
Le pouvoir de création ne devrait jamais être exercé sans agence morale. L’Adam grotesque et homunculaire, sous sa forme déchue et golemique, est une mise en garde contre l’abomination engendrée par la transgression de cette règle. Réarmée avec la psychosécurité, l’humanité peut commencer à transcender les réalités aplaties et les essaims de drones biologiques du slopworld pour éteindre le moteur schizo.