Daily Shaarli
February 5, 2024
Un appel à démanteler l’intelligence artificielle
Romain Couillet le 22 juillet 2022
Professeur en informatique et chercheur jusqu’à récemment en mathématiques appliquées pour l’intelligence artificielle, j’ai été récemment sollicité comme membre du jury de soutenance du projet de fin d’études d’un étudiant en master d’informatique de l’Université Grenoble-Alpes.
L’étudiant motivait son projet par la nécessité de répondre à la double problématique suivante : l’entreprise chez qui il effectuait son stage ne parviendrait d’une part plus à recruter d’expert·es en design de circuits électroniques et, par ailleurs, la pénurie de métaux impose des contraintes croissantes sur la dimension (et donc la quantité de matière sollicitée) de ces mêmes circuits électroniques.
Face à ces enjeux, l’entreprise a proposé de développer un algorithme d’intelligence artificielle capable de combler l’expertise perdue (et de faire potentiellement mieux).
Sans aller dans les détails conceptuels de l’étude menée par l’étudiant, il apparaissait assez rapidement au cours de la présentation que l’approche proposée ne pouvait pas fonctionner et qu’en réalité il était fort présomptueux d’imaginer qu’un algorithme puisse effectuer la tâche souhaitée.
Le bilan des quatre premiers mois de stage n’était donc pas surprenant : en l’état, du point de vue de l’étudiant, la méthode développée ne fonctionnait pas encore mais les travaux étaient prometteurs. Situation somme toute classique que je rencontre de plus en plus fréquemment ces dernières années. Mais le point saillant de cette anecdote est ailleurs : au cours de la séance de questions du jury, j’ai demandé à l’étudiant si, à l’issue de ces quatre premiers mois clairement infructueux quoi qu’il en dise, il envisageait comme hypothèse la possibilité que l’intelligence artificielle puisse ne pas être en mesure de résoudre son problème.
En dépit du caractère éminemment rhétorique de la question, sa réponse sera extrêmement révélatrice : “non, je suis sûr que ça fonctionnera”. Tout est là. À elle seule, cette affirmation met selon moi en lumière le danger le plus nocif de l’intelligence artificielle : le caractère religieux et aveuglant qu’elle a acquis en à peine dix ans.
Avant propos : un détour paléosophique
Dans son travail sur la Paléosophie, Catherine Reine Thomas nous invite à repenser la cosmologie occidentale, celle qui a fait naître les premières civilisations agricoles il y a dix mille ans pour devenir la société dans laquelle nous européen·nes vivons, comme un déséquilibre dans le rapport entre la “Vie” et la “Technique”.
L’une des singularités du genre Homo, et plus particulièrement d’Homo Sapiens, par rapport aux autres animaux sont sa capacité et son envie de développer des outils et des savoir-faire. L’ensemble de ces outils engendre un spectre de technologies qui alimente alors une entité non-vivante mais bien réelle et dynamique que Thomas nomme Technique.
L’animalité d’Homo Sapiens exigerait néanmoins, au même titre que les autres animaux, de conserver un contrôle sur son milieu, une puissance d’agir pour emprunter les termes de Spinoza, que Thomas appelle la Vie.
Les entités Technique et Vie entrent dès lors dans une compétition intérieure dont l’équilibre est maintenu par l’activité artistique : Homo Sapiens n’est pas esclave d’une technologie tant que l’outil ou la technique garde un ancrage dans le champ de la Vie. Les dessins et sculptures (dès les premières peintures rupestres et objets décoratifs) sont autant d’expressions vivantes de techniques et savoir-faire utilisés par ailleurs, mais non exclusivement, pour le besoin des outils.
Cette dualité stable entre Vie et Technique assurerait un lien sain et serein entre Homo Sapiens et son environnement. Dans son ethnographie du peuple Achuar d’Amazonie qui entretient une relation animiste au milieu [^1], Descola rapporte que les Achuar ne travaillent que quatre à cinq heures par jour (aux champs, à la chasse, à l’artisanat) pour dédier le plus clair de leur temps aux chants, à la confection d’ornements, aux pratiques spirituelles et autres activités artistiques.
Selon Thomas, la Technique, vue comme entité non-vivante mais symbiotique au vivant Homo Sapiens peut devenir parasitaire lorsqu’elle prend le pas sur la Vie : c’est-à-dire lorsque le contrôle artistique par Homo Sapiens disparait au profit d’un développement non maîtrisé des technologies. Dès lors, la Technique se nourrit de l’énergie métabolique d’Homo Sapiens pour devenir autonome, tels les robots de l’univers dystopique d’Isaac Asimov difficilement tenus sous le contrôle des trois lois de la robotique.
Cet angle de vue paléosophique par la dualité Vie-Technique est intéressant à plusieurs égards : d’une part, il rejette le fatalisme, grandement véhiculée par les best-seller Sapiens d’Harari ou Effondrement de Diamond, d’une espèce humaine prédatrice et vouée à l’auto-destructrion. L’espèce humaine serait au contraire sous le joug de la Technique qui cultive Homo Sapiens comme les termites cultivent les champignons qui digèrent pour eux la cellulose du bois.
Il permet d’autre part d’expliquer l’inexplicable : pourquoi Homo Sapiens, en dépit des évidences scientifiques, des solutions technologiques existantes (permaculture, outillage low-tech, communs) et des connaissances neuropsychologiques et sociales disponibles (lien rompu au vivant, bienfaits des pratiques écopsychologiques, évidence d’une entraide perdue mais gravée dans notre ADN) ne parvient pas à se défaire de ses technologies mortifères et de son comportement agressif envers le vivant, colonial et extractiviste ? L’analyse paléosophique résoud aussi le verrouillage du triangle des responsabilités entre citoyen, gouvernement et entreprise qui veut que les citoyen·nes reprochent l’inaction gouvernementale et la vénalité des entreprises, tandis que les entreprises n’ont de choix que de s’aligner aux contraintes gouvernementales et ne sont pas responsables des besoins compulsifs des citoyens, et que les gouvernements défendent leurs actions comme conséquences du vote citoyen et des pressions économiques des entreprises.
En somme, tout le monde est responsable et personne ne l’est. Ici Catherine Reine Thomas avancerait sûrement que la Technique, ignorée dans ce triptyque, porte en réalité le poids de la chaîne deresponsabilités : elle assujettit le citoyen dans la réalisation de ses besoins techniques, maintient la survie de l’entreprise qui n’a de raison d’être qu’en perpétuant l’alimentation technologique et neutralise le gouvernement dans sa nécessité de croissance économique par la technologie.
Difficile de ne pas voir ici une terrible analogie entre la Technique devenue parasite d’une humanité au bord du chaos et l’Ophiocordyceps Unilateralis, ce champignon qui pénètre le corps des fourmis, les incite à monter aussi haut que possible le long de la tige d’une plante charnue avant de finalement s’y accrocher puissamment par les mandibules et de se faire dévorer de l’intérieur par le champignon (qui peut dès lors se développer dans des conditions optimales et propager efficacement ses spores).
Car le développement accéléré des outils et technologies a rompu l’équilibre Technique-Vie, engendrant des conséquences destructrices aux dynamiques exponentielles : agriculture intensive dont les outils et ressources sont aujourd’hui en dehors du contrôle des paysan·nes (machines irréparables, niveaux d’endettement imposant une productivité assurée par l’usage d’engrais de synthèse et pesticides), exigences et conflits de ressources (croissance intenable des populations, guerres, colonisations, génocides et écocides), fracture du lien au vivant (urbanisation et artificialisation des sols, extractivisme minéral, cybernétisation, ontologie naturaliste [^2]), déshumanisation physique et psychologique (maladies de civilisation, épidémies, pertes de sens, troubles neuropsychologiques, dépressions, fractures identitaire et sociale).
Le champignon Technique dévore notre humanité de l’intérieur, par le biais de l’extinction inexorable de l’ensemble du vivant. On retrouve bien là les nombreux dépassements de convivialité de l’outil dans la terminologie d’Ivan Illich [^3] : au delà d’un certain seuil de complexité, l’outil sort du contrôle de l’humain et passe d’un moyen technique à une fin en soi. Cette fin en soi se mue dans le pire des cas en ce qu’Illich appelle un monopole radical qui transforme la société autour de l’outil : il n’est par exemple plus possible de vivre sans camions pour transporter les aliments, sans informatique pour gérer les chaînes logistiques ou les transferts financiers, sans vaccins pour amortir les conséquences de la surpopulation, etc.
La Technique est ainsi devenue religion, fluidifiée par le fétiche de l’argent, qui impose une croyance techno-solutionniste à quelques huit milliards d’Homo Sapiens dépourvus de la capacité de contrôle des technologies (absolument personne ne peut fabriquer ou réparer seule une quelconque technologie numérique moderne) et qui pour beaucoup ont perdu l’équilibrage du moteur de la Vie (perte de sens pour les occidentaux, soumission coloniale pour les habitant·es des pays du Sud [^4]).
À défaut de maîtriser l’outil, Homo Sapiens, désormais dépendant des technologies et de l’énergie fossile qui les nourrit (comme l’explique Jean-Baptiste Fressoz dans L’événement Anthropocène, nous ne pouvons plus vivre sans pétrole), s’en remet religieusement au maintien, à l’entretien et au développement d’un système technique paradoxalement occulté des débats politiques (on ne remet que rarement en question l’utilité des technologies) alors qu’il pèse aujourd’hui cinq fois le poids du vivant [^5].
Le détail de cette courte analyse paléosophique est certainement un peu plus complexe et mérite de s’y appesantir un instant. La production technique moderne s’effectue en effet par le biais d’ingénieur·es et chercheur·ses pour la plupart parfaitement ancré·es dans un équilibre Technique-Vie de la bricoleuse d’équations passionnée ou de l’insassiable manipulateur de tubes à essais.
Mais tous·tes deux vivent, au même titre que l’expert marketing ou la chef d’entreprise, dans autant de tours d’ivoire imperméables aux considérations systémiques complexes (est-ce que l’outil dont je prends une maigre part au développement intègrera un produit potentiellement nocif pour la société ?) et qu’il est supposé sage d’ignorer, le travail scientifique factuel de l’expert·e technique ne lui conférant ni la légitimité ni même l’accès à ces prérogatives réflexives. [^6]
C’est ainsi que les chercheur·ses de mon propre laboratoire, autant de personnes dont j’admire l’extrême intelligence mathématique et l’ensemble de la carrière, se trouvent incapables de rompre avec un domaine dont ils connaissent et reconnaissent la nocivité. Pour retrouver un semblant de sens, on évoque paradoxalement notre illégitimité ou notre incapacité à traîter les questions environnementales (“je préfère laisser les experts s’en charger”, comme si de tels experts existaient vraiment) ou alors la fatalité d’un système verrouillé (“notre équipe travaille sur ce domaine, on ne peut pas faire non plus n’importe quoi”).
Ce sentiment d’emprisonnement amène à des paradoxes proprement délirants, comme c’est le cas des chercheur·ses qui se réfugient dans une activité de recherche poussée volontairement dans une extrémité théorique qui assure qu’elle n’alimentera jamais l’industrie mortifère. En définitive, la société moderne assoit la domination de la Technique sur la Vie paradoxalement par le biais du travail d’une élite minoritaire qui parvient elle, parfois en dépit d’une forte dissonance cognitive, à maintenir son propre équilibre Technique-Vie assuré par la flamme du pouvoir d’agir spinoziste [^7] (et/ou par un attraitfétichiste pour la domination égoïste et l’argent [^8]).
La religion intelligence artificielle
Le cas particulier de l’intelligence artificielle illustre parfaitement mon propos. Suite aux quelques prouesses magiques dans les domaines de la vision assistée par ordinateur et du traitement du langage naturel, auxquelles s’ajoute la victoire jusque là considérée impossible de l’algorithme AlphaGo contre le champion du monde de Go, l’IA, et plus précisément les réseaux de neurones profonds, sont aujourd’hui vus comme un Eldorado, un couteau-suisse en mesure de résoudre tous les problèmes sur lesquels les humains se cassent les dents ou qu’ils n’ont pas les capacités calculatoires ou cognitives de traiter.
Mais comme aucune théorie mathématique n’est en mesure de craquer les mystères des réseaux de neurones profonds [^9] produits par des heures de calculs purement informatiques et très aléatoires (deux instanciations d’un même algorithme donneront lieu à deux réseaux de neurones absolument distincts), l’outil technique “IA” dépasse le contrôle humain, y compris le contrôle expert. C’est ainsi que naissent des situations aussi ubuesques que celle décrite en début d’article et qu’on voit se généraliser : les étudiants formés à l’intelligence artificielle n’ont aucun contrôle sur leur propre outil.
L’enseignement de l’IA tend d’ailleurs à renforcer l’illusion, la magie d’une machine omnipotente et qui nécessite peu d’efforts (aucune théorie mathématique profonde n’est nécessaire et des interfaces logicielles flexibles, telles que TensorFlow, permettent de devenir autonome en quelques heures).
Le triptyque citoyen-gouvernement-industrie aggrave le problème à ses dépends : afin de tenir la dragée haute aux GAFAM, le gouvernement français a récemment lancé un appel “Compétences et Métiers d’Avenir” à la massification des enseignements en IA, dont l’objectif est de doubler l’offre de formation des étudiants post-bac. S’il n’est pas incohérent de vouloir adapter les connaissances universitaires aux savoirs dernièrement acquis, il est important de rappeler que doubler l’offre en IA implique arithmétiquement la disparition d’autres formations, celles dès lors considérées obsolètes ou moins utiles.
C’est dans ce contexte que les designers de circuits électroniques ont disparu et que la béquille de l’“IA couteau-suisse” évoquée en début d’article tente très maladroitement de répondre à un problème mal posé [^10]. L’IA vide donc indirectement les savoirs et les savoir-faire élémentaires, imposant de fait un monopole radical par lequel l’outil numérique porteur des algorithmes de l’IA prend la charge des décisions précédemment établies par l’humain.
Et ce, sans contrôle possible par l’humain, qu’il soit ignorant, novice ou même expert en informatique. Le choix des populations, gouvernements et entreprises d’investir massivement dans l’IA est celui de la pillule bleu présentée à Néo dans le film Matrix : un point de non retour dans l’illusion d’un monde idéalisé contrôlé par des machines capables de tout solutionner, et entre autres de résoudre la dite crise climatique (qu’il serait plus sage pour réellement cerner les enjeux de correctement nommer extinction de masse ou effondrement du vivant).
L’IA ajoute par ailleurs une nouvelle pierre à l’édifice d’abrutissement de la population, dénoncé par Steigler dans La télécratie contre la Démocratie ou par Brighelli dans La fabrique du crétin, qui permet à chacun·e (dans la société occidentale du moins) de vivre dans un monde en apparence dépourvu de contraintes, de nécessité de savoir ou même de comprendre, et dépourvu de conflits, un monde aux ressources toujours supposées infinies par l’économie néo-classique [^11] sur laquelle se basent tous les gouvernements occidentaux. Le plus grand danger de l’IA apparait alors comme une évidence : en renforçant la promesse techno-solutionniste en direction d’une population privée de ses savoirs et savoir-faire, privation renforcée par une dépendance totale à des machines et à des décisions automatiques incontrôlables, l’IA masque un peu plus la réalité d’un système de technologies insoutenables et au bord de l’effondrement.
Ces technologies, que Monnin dans Héritage et fermeture qualifie de zombies, car elles sont en apparence vivantes (elles fonctionnent aujourd’hui et donnent l’impression de toujours pouvoir se développer demain) mais effectivement mortes (du fait de la déplétion matérielle, des pics de ressources énergétiques prochains, mais aussi de leur impact environnemental intenable et qui imposera des régulations fortes sur le moyen terme), sont amenées à disparaitre.
Dans le cas de l’IA, c’est par l’intermédiaire de l’impossible renouvellement de l’infrastructure numérique et de l’insoutenabilité de son coût énergétique que sa disparition s’opèrera assurément. En l’absence d’anticipation, l’ensemble des machines automatisées qui se substituent aujourd’hui à un savoir-faire initialement humain ne pourront plus être alimentées ou réparées, mettant à mal certaines activités essentielles. C’est le cas notamment des machines agricoles que l’industrie 4.0 promet de rendre plus “intelligentes”.
Atelier Paysan, dans son manifeste Reprendre la terre aux machines, alerte précisément sur ce point : le nombre de paysan·nes qui nourrissent une population grandissante n’a de cesse de diminuer 12 au profit de machines automatisées (tracteurs sans conducteur, drones, machines de manipulation des plants), détruisant les savoir-faire humains (les paysan·nes ne sont plus en contact avec la terre) et aggravant la capacité de résilience consécutive aux chocs pétroliers et énergétiques à venir. L’exemple de Cuba, documenté dans la vidéo Comment Cuba survécut en 1990 sans pétrole, et dont la population a dû transiter essentiellement du jour au lendemain d’une vie “à l’américaine” à un retour à la terre non préparé parce que dépourvu des communs élémentaires, permet d’anticiper, dans une ampleur qui sera vraisemblablement incomparable, les conséquences des pénuries énergétiques et matérielles mondiales à venir, dans un écosystème qui plus est en extinction accélérée.
Démanteler l’IA
Dans Héritage et fermeture, Monnin propose une théorie du démantellement des technologies zombies comme articulation nécessaire à la résilience d’une société contrainte en énergie, ressources, et devant s’adapter aux multiples conséquences systémiques de l’écocide en cours (à commencer par l’adaptation au réchauffement climatique). En plus d’être une technologie proprement anti-résilience et donc aux conséquences sociétales particulièrement nocives, l’intelligence artificielle est un parfait candidat à la mise en place du démantellement technologique et du rééquilibrage de la balance Vie-Technique.
En effet, en tant que brique supérieure et encore récente de la forteresse numérique, la perspective d’abandon de l’intelligence artificielle
comme outil constitue à la fois un imaginaire crédible (il y a peu nous vivions sans) et un objectif accessible (il s’agit “juste” de faire table rase de dix années de recherche et l’industrie dans le domaine). Dans l’analyse effectuée par le groupe lownum 13 portant sur la dite low-technicisation du numérique, une première étape dans la mise en place d’un démantellement consiste à identifier et mettre en regard le caractère nécessaire (ou non) de l’outil numérique et le caractère nécessaire (ou non) du service qu’il remplit. Notamment, du fait de sa criticité et du danger de résilience induit, tout outil numérique nécessaire à un besoin nécessaire (voire vital) doit être démantelé au plus vite.
C’est le cas par exemple de l’industrie 4.0 dans le domaine agricole qui,amenée à déposséder les paysan·nes devenu·es technicien·nes numériques de leur maîtrise même de l’agriculture, doit être rapidement décommissionnée. L’exemple de Cuba évoqué plus haut démontre de la même manière que l’intensification de la production d’intrants artificiels (qui exige une utilisation intensive de gaz) en remplacement des nitrates, phosphates et potassium naturels (excrétions humaines et des autres animaux, composts de biomasse) provoquera des famines massives en cas de discontinuité d’approvisionnement énergétique. Ces intrants artificiels, dont les conséquences écologiques sont par ailleurs désastreuses, engendrent au même titre que l’agriculture 4.0 un danger élevé de résilience.
Les technologies zombies de l’intelligence artificielle tendent à s’emparer de secteurs industriels en lien à des besoins vitaux ou assurant tout au moins le maintien de l’équilibre sociétal. C’est le cas notamment du transport de produits, au moyen de véhicules autonomes ou de drones. Un développement massif d’une telle transition logistique serait en mesure, pour des raisons économiques évidentes d’imposer un monopole radical sur les chaînes d’approvisionnement, en particulier alimentaire. Toute rupture soudaine de ces chaînes (pénurie de métaux rares, cyber-attaque) est en capacité de produire des famines si le parc de véhicules non autonomes et le nombre de conducteurs encore disponibles (l’expertise étant rapidement perdue) ne couvrent plus les besoins de distribution. Fort heureusement, en tant que technologie encore immature, la véhiculation autonome est un outil aisément démantelable.
Le cœur de l’outillage de l’intelligence artificielle n’est cependant jusque là pas encore dédié à des besoins indispensables. La vaste majorité des applications de l’IA (en volume d’usage) concerne le tri automatique d’emails, les moteurs de recherche, la traduction automatique, la reconnaissance faciale et d’objets, etc. Il convient pour ces usages non essentiels d’évaluer la pertinence sociétale du besoin au regard de l’intensité énergétique et de l’empreinte environnementale induites par l’ensemble du cycle de vie de l’outil (recherche, développement, commercialisation, usage, fin de vie).
En l’occurrence, les phases de recherche, développement et usages ne sont pas neutres. L’intensité énergétique, la plus simple à évaluer, et qu’il est ensuite facile de convertir en bilan équivalent carbone, a été récemment documentée 14 : l’ensemble de la re-
cherche et du développement des réseaux de neurones profonds s’accompagne d’une très forte consommation électrique, à l’image des dizaines de milliers de cœurs GPU nécessairement pour entrainer un mois durant les réseaux profonds les plus avancés, pour un coût estimé à plusieurs centaines de tonnes équivalent CO2 (rappelons que la consommation annuelle totale d’un·e français·e est de 10 tonnes équivalent CO2).
Évaluer l’impact de l’IA par le simple prisme du bilan carbone est néanmoins tout aussi réducteur que dangereux (car il incite à une fuite en avant dans le développement de nouvelles technologies plus “économes”, prototypiques de l’oxymorique “croissance verte”) : le développement explosif de l’IA se réalise en effet au prix de la production effrénée de puissants serveurs très consommateurs en énergie et métaux rares, qui s’accompagnent parfois de la construction sur site de centrales électriques dédiées, et surtout alimente la production matérielle de nouveaux et nombreux produits (notamment les milliards de dispositifs de l’Internet des objets) qui interpénètrent essentiellement tous les secteurs économiques et fabriquent de nouveaux besoins rapidement devenus nécessités. Au bilan, c’est une
augmentation annuelle de l’ordre de 9% de l’ensemble du domaine du numérique dont il s’agit, qui s’accompagne notamment d’une augmentation de 100% tous les 3,4 mois de l’intensité calculatoire requise pour l’entrainement des réseaux de neurones profonds 15. Face à l’urgence environnementale et à la nécessité par ailleurs d’un repli de la consommation énergétique fossile (bloquée à 85% du mix énergétique global depuis 30 ans en dépit du développement massif des énergies dites renouvelables) à hauteur de -7% par an, ces explosions de consommation liées au numérique et particulièrement à l’IA sont intenables. Dans ce contexte, les usages sociétalement
bien maigres de l’IA sont particulièrement indéfendables.
Le chantier de résilience de la société humaine, qui se devra de retrouver une forme de cosmologie plus animiste 16, décoloniale et solidaire, doit passer par un démantèlement progressif des technologies zombies (insoutenables, coloniales, induisant leurs propres besoins) et l’instauration – ou plus souvent la réinstauration – de technologies vivantes (lowtech, répondant à des besoins réels et aux contraintes de ressources, accessibles à toutes et tous).
Cet article est donc un appel aux chercheur·ses et ingénieur·es en informatique et en mathématique de faire tomber les premiers pans de ce chantier aussi vaste qu’indispensable en décommissionnant les investissements en intelligence artificielle et en recréant une base saine de communs, c’est-à-dire de savoirs et savoir-faire partagés et résilients.
Il s’agit de bifurquer, refuser, parfois désobéir en conscience, mais aussi justifier, expliquer et sensibiliser, autant de compétences précisément au cœur du travail scientifique et qui nous positionne de fait comme les actrices et acteurs les mieux armé·es pour engager une transition enthousiaste et constructive. Sous la pression de nos propres étudiants, les laboratoires de recherche et universités y sont désormais sensibles et déjà prêts pour certains à accueillir, sinon inciter, à une pensée du déraillement pour reprendre le titre de l’appel large d’Aurélien Barrau.
La première pièce du puzzle d’une société résiliente peut passer très concrètement par ce démantèlement organisé des illusions mortifères de l’intelligence artificielle en redonnant toute sa place à notre intelligence animale, sociale et sensible.
[^1]: Voir par exemple Par delà nature et culture
[^2]: L'ontologie naturaliste crée une entité nommée nature, cet ensemble indifférencié d’êtres vivants non humains, mis à la marge car supposée dépourvue de conscience. Dès lors, cette nature-objet insensible peut être puisée, extraite, transformée, détruite. Selon Haudricourt dans son article Domestication des animaux, culture des plantes et traitement d’autrui, cette vision du monde induit l’accès à des formes de violences dont la conséquence est l’ensemble des formes d’assujettissement et de destruction du vivant
[^3]: Voir La convivialité d’Illich
[^4]: À ce titre, voir l’intéressant point de vue de Malcolm Ferdinand dans son livre Une écologie décoloniale
[^5]: L’ensemble minéral des infrastructures routières, bâtiments, machines, véhicules, etc., et des déchets de ces produits, conçus depuis moins d’un siècle, a en effet une masse cumulée équivalente à cinq fois la masse du monde carbone du vivant.
[^6]: Ces considérations ont récemment ouvert un débat houleux sur la distinction entre scientifique et scientifique militant, qu’il conviendrait plus raisonnablement de repenser comme un enjeu de réhabilitation des scientifiques vu·es aujourd’hui comme des produits des surspécialisation et polarisation techniques vers leur statut historique de penseurs philosophes systémiques (tels Pythagore, Aristote, Descartes, ou encore Einstein).
[^7]: Il est d’ailleurs frappant que les développeurs et développeuses de technologies high-tech soient précisément ceux et celles qui utilisent le moins ces mêmes technologies (c’est notamment le cas des nombreux chercheur·ses en télécommunication que j’ai pu côtoyer, moi-même inclus, qui ont longtemps vécu sans smartphone).
[^8]: Ce dernier point est défendu par Dany Robert-Dufour dans son livre Baise ton prochain
[^9]: Il est assez clair chez les mathématiciens qu’un tel espoir de compréhension de la complexité de ces réseaux, basés sur des optimisations hautement non linéaires aux milliards de minima locaux, est absolument hors d’atteinte.
[^10]: En l’occurrence, il ne s’agit ni de vision, ni de langage et, qui plus est, un problème qui demanderait bien trop d’exemples d’apprentissage par des architectures validées par des humains. On oublie bien trop souvent au passage qu’un algorithme d’intelligence artificielle ne fonctionne que par le biais de millions d’exemples étiquetés et alimentés par des humains : la perte de l’expertise technique, ne serait-ce que pour identifier les paramètres pertinents et correctement les étiqueter, se traduit de fait par l’impossibilité mécanique de la mise en place d’un algorithme d’IA.se traduit de fait par l’impossibilité mécanique de la mise en place d’un algorithme d’IA.
[^11]: Considérée comme une non science par les mathématiciens et physiciens.
[^12]: De six millions en 1950 à 400 000 en 2021, avec un objectif gouvernemental sous-entendu de descendre ce chiffre à 200 000, en dépit de l’évaluation du Shift Project dans son Plan de Transformaion de l’Économie Française de la nécessité d’accroître ce nombre de 500 000 nouveaux paysans d’ici à 2030 (Atelier Paysan évalue quant à lui ce chiffre à un million d’agriculteur·rices supplémentaires).
[^14]: Voir par exemple l’article de Patterson et al., Carbon emissions and large neural network training, ou encore àl’échelle du numérique le travail de Freitag et al. The real climate and transformative impact of ICT : A critique of estimates, trends, and regulations. Le rapport grand public Lean ICT du Shift Projet est aussi un point d’entrée très exhaustif.
[^15]: Il y a dix ans, cette croissance était de 100% tous les deux ans.
[^16]: C’est-à-dire qui confère, comme la science l’établit aujourd’hui, une forme d’intériorité subjective (de conscience) aux autres êtres vivants, et qui place au centre des débats géopolitiques l’interdépendance forte entre les espèces (humaine et autres qu’humaine).
The end of the social network
The Economist
Editor’s note, February 2nd 2024: This article was updated after Meta announced earnings results for 2023.
Facebook may be turning 20 on February 4th, but it is just as much of a magnet for controversy and cash today as when it was a brash, break-everything teenager. On January 31st Mark Zuckerberg, the social network’s founder, was harangued by American senators over the spread of harmful material. The next day he announced another set of glittering results for Meta, Facebook’s parent company, which is now valued at $1.2trn. Yet even as social media reliably draw vast amounts of attention from addicts and critics alike, they are undergoing a profound but little-noticed transformation.
The weird magic of online social networks was to combine personal interactions with mass communication. Now this amalgam is splitting in two again. Status updates from friends have given way to videos from strangers that resemble a hyperactive tV. Public posting is increasingly migrating to closed groups, rather like email. What Mr Zuckerberg calls the digital “town square” is being rebuilt—and posing problems.
This matters, because social media are how people experience the internet. Facebook itself counts more than 3bn users. Social apps take up nearly half of mobile screen time, which in turn consumes more than a quarter of waking hours. They gobble up 40% more time than they did in 2020, as the world has gone online. As well as being fun, social media are the crucible of online debate and a catapult for political campaigns. In a year when half the world heads to the polls, politicians from Donald Trump to Narendra Modi will be busy online.
The striking feature of the new social media is that they are no longer very social. Inspired by TikTok, apps like Facebook increasingly serve a diet of clips selected by artificial intelligence according to a user’s viewing behaviour, not their social connections. Meanwhile, people are posting less. The share of Americans who say they enjoy documenting their life online has fallen from 40% to 28% since 2020. Debate is moving to closed platforms, such as WhatsApp and Telegram.
The lights have gone out in the town square. Social media have always been opaque, since every feed is different. But TikTok, a Chinese-owned video phenomenon, is a black box to researchers. Twitter, rebranded as X, has published some of its code but tightened access to data about which tweets are seen. Private messaging groups are often fully encrypted.
Some of the consequences of this are welcome. Political campaigners say they have to tone down their messages to win over private groups. A provocative post that attracts “likes” in the X bear pit may alienate the school parents’ WhatsApp group. Posts on messaging apps are ordered chronologically, not by an engagement-maximising algorithm, reducing the incentive to sensationalise. In particular, closed groups may be better for the mental health of teenagers, who struggled when their private lives were dissected in public.
In the hyperactive half of social media, behaviour-based algorithms will bring you posts from beyond your community. Social networks can still act as “echo chambers” of self-reinforcing material. But a feed that takes content from anywhere at least has the potential to spread the best ideas farthest.
Yet this new world of social-media brings its own problems. Messaging apps are largely unmoderated. For small groups, that is good: platforms should no more police direct messages than phone companies should monitor calls. In dictatorships encrypted chats save lives. But Telegram’s groups of 200,000 are more like unregulated broadcasts than conversations. Politicians in India have used WhatsApp to spread lies that would surely have been removed from an open network like Facebook.
As people move to closed groups, the open networks left behind are less useful because of the decline in public posting. During the covid-19 pandemic, scientists and doctors contributed to an online debate which contained real insight as well as misinformation. Open-source intelligence flowed when Russia invaded Ukraine. Today those conversations are disappearing or moving to closed channels, slowing the spread of ideas. The people still weighing in on the public networks, meanwhile, are disproportionately male and likely to describe themselves as very left- or right-wing: bores, in plain English.
What’s more, the open-network algorithms driven by users’ behaviour seem primed to spread the spiciest videos. For something to go viral on a social network, people had to choose to share it. Now they endorse it simply by watching, as the algorithm rewards content that attracts the most engagement. Deliberate curation has been replaced by a system that taps straight into the id. Provocateurs like Mr Trump or Nayib Bukele, the favourite in this week’s election in El Salvador, stand to benefit, as do misinformation merchants. Platforms say they are better at weeding out fakes. Taylor Swift, the latest high-profile victim of a deepfake, might disagree.
More urgent even than the rise of fake news is a lack of the real sort. Mr Zuckerberg once said he wanted Facebook to be like a personalised newspaper. But since the network’s pivot to entertainment, news makes up only 3% of what people see on it. Across social media only 19% of adults share news stories weekly, down from 26% in 2018. Publications like BuzzFeed News, which relied on social distribution, have perished. That is their lookout (and ours). But it is everyone’s problem when nearly half of young people say that, just as the platforms decide news is no longer interesting, social media are their main source of news.
WhatsApp and WhatsDown
Some people argue that social networks’ defects can be fixed by better governance, clever coding or a different business model. Such things can help. But the problems raised by the new generation of apps suggest that social media’s flaws are also the result of the trade-offs built into human communication. When platforms swing back towards private groups, they inevitably have less oversight. When people escape their echo chambers, they may well face more extreme content. When users embrace harmless entertainment, they see less news. As social networks wither, platform operators and users should devote less time to the old battles and more to grappling with the new.