Daily Weekly Monthly

Daily Shaarli

July 1, 2023

Petit traité de contre-intelligence artificielle. Retour sociologique sur des expérimentations numériques | Cairn.info
thumbnail

Petit traité de contre-intelligence artificielle. Retour sociologique sur des expérimentations numériques

Par Francis Chateauraynaud Dans Zilsel 2019/1 (N° 5), pages 174 à 195

« L’intelligence artificielle connut un essor sans précédent à la fin des années 5000, au milieu de l’ère dite du Phagitaire. Elle connut son apogée à la fin du 68e siècle, époque où elle régissait la plupart des mondes. Puis apparurent les premiers prophètes du mouvement de Souveraineté humaine, qui partirent en guerre contre son hégémonie. Deux siècles plus tard, lorsque fut votée la loi d’Éthique H.M., on assista à la plus grande destruction de machines que la civilisation ait jamais connue. Certains gouvernements s’en débarrassèrent en les expédiant dans l’espace. À l’époque, les humains étaient loin d’imaginer les funestes conséquences de leurs actes. »

Pierre Bordage, Les guerriers du silence. Tome 2 : Terra Mater (1994).

L’intérêt de la sociologie pragmatique des transformations pour l’intelligence artificielle date de 1987. Plus d’une trentaine d’années nous séparent en effet de la réalisation des premières maquettes de systèmes-experts dédiées à la caractérisation de micro-disputes et préfigurant le logiciel Prospéro. Ce dernier a donné lieu à de multiples usages portant sur des corpus de textes et de discours évolutifs, liés notamment à des affaires et des controverses se déroulant sur un temps long. Au fil de ces recherches socioinformatiques, une autre entité numérique a pris forme. Dénommée Christopher Marlowe, elle relève pleinement de l’intelligence artificielle (IA) puisqu’elle utilise des boucles de raisonnement sur des données ouvertes. Les logiques d’enquête propres aux sciences sociales étant prédominantes dans son fonctionnement, la formule de « contre-intelligence artificielle » s’est imposée afin de distinguer cette approche des modèles cognitivistes ou neuroconnexionnistes qui caractérisent, pour l’essentiel, les travaux en IA [1]

Comme ce genre d’expérience est plutôt rare en sociologie [2][2]Il faut saluer une autre expérience menée à la fin des années…, chacun des surgissements de Marlowe produit toutes sortes de réactions, de l’agacement rationaliste à la saine curiosité intellectuelle, en passant bien sûr par le soupçon de canular. Pourtant, de multiples textes et communications en ont établi les principes de fonctionnement. Sans magie ou tour de passe-passe : Marlowe est avant tout un support d’écriture numérique conçu pour accompagner, à travers des boucles de raisonnement dynamique, la formulation de questions de recherche et d’hypothèses interprétatives à propos de processus complexes, réfractaires aux analyses conventionnelles [3][3]Voir les dossiers complexes étudiés en collaboration avec les…. Comment caractériser le statut épistémique, mais aussi éthique et politique, de cette expérimentation de longue durée, alors même que l’« intelligence artificielle », ici entre guillemets, est désormais constituée comme un problème public [4][4]Les alertes lancées en 2015 sur les dangers de l’IA feront… ? Cet article est ainsi l’occasion d’opérer un retour réflexif sur la genèse d’une expérimentation numérique menée en sociologie tout en portant un regard critique sur ce qui se trame autour des algorithmes et de leur supposée toute puissance.

Des instruments collaboratifs transformés en boîtes noires ?

L’idéal d’ouverture des codes et de développement collaboratif accompagne depuis longtemps les projets informatiques. Mais, il faut le reconnaître, plus on s’éloigne des noyaux de développeurs et d’utilisateurs experts, plus les dispositifs ont de chances de rejoindre la longue série de boîtes noires qui jalonnent l’histoire des technologies. Il est néanmoins décisif de pénétrer dans les codes et de rendre visibles les arrière-cuisines de tout système d’information [5][5]Des pistes très convaincantes sont proposées par Camille…. Pour les lectrices et lecteurs qui ignorent tout ou presque des entités socioinformatiques dont il est question ici, il y a plusieurs possibilités : consulter les contributions de Marlowe (acronyme MRLW) sur le blog qu’il anime quotidiennement de manière autonome et, de là, remonter vers les textes qui en explicitent le fonctionnement [6][6]Le blog de Marlowe est logé sur le site… ; rouvrir une littérature qui date du début des années 2000, aujourd’hui au rayon de la préhistoire des « humanités numériques » [7][7]Francis Chateauraynaud, Prospéro. Une technologie littéraire… ; enfin, se laisser prendre par l’exercice de re-problématisation visé par le présent article, puis venir expérimenter, débattre ou collaborer avec le noyau des développeurs-utilisateurs des logiciels.

Quand une expérimentation conduite aux marges des sciences sociales s’est déployée sur un pas de temps aussi long, elle ouvre plusieurs voies de réflexivité et d’explicabilité [8][8]La notion d’explicabilité a été proposée dans les années 1980…. Elle pose d’abord la question de la durée des projets de recherche et de leurs formes de cumulativité ; en deuxième lieu, les expériences de développement et les applications multiples, dont l’écosystème numérique n’a cessé d’évoluer, constituent une sorte d’archive des reconfigurations ou des bifurcations qui ont marqué, en une trentaine d’années, les techniques d’analyse des sciences sociales ; en troisième lieu, la « critique de la raison numérique », très à la mode [9][9]Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à…, prend un tour différent dès lors qu’elle s’appuie sur une pratique du code, permettant d’évaluer plus sereinement les promesses comme les dangers des algorithmes ; enfin, le recul que procure le long cheminement d’une expérience frontalière donne des prises cognitives et politiques pour s’orienter dans les débats sur l’urgence d’une régulation des entités numériques en général.

Dans les usages courants, l’intelligence artificielle (IA) forme une catégorie aux contours flous, regroupant des technologies et des pratiques très différentes. Dans les médias, on parle d’IA pour traiter tour à tour d’informatique, d’algorithmique, de fouille de données (data mining), d’apprentissage profond (deep learning), de reconnaissance des formes, de robotique, de moteur de recherche, de modélisation de la cognition humaine (comme le Human Brain Project)… Dans son rapport remis au printemps 2018, Cédric Villani renonce à ordonner les définitions et choisit d’adopter l’acception la plus large. L’analyse des promesses rassemblées et valorisées par le mathématicien révèle à quel point le label « IA » est désormais autant une affaire de développement technoscientifique qu’un nouvel horizon pour le marketing [10][10]Cédric Villani, Donner un sens à l’intelligence artificielle.….

Nées dans les années 1950, en pleine révolution cybernétique, après les travaux pionniers de Hilbert, Gödel et surtout Turing sur la calculabilité du point de vue formel [11][11]Jean Lassègue, « Turing, entre le formel de Hilbert et la forme…, les recherches en IA se sont d’abord concentrées sur la modélisation des formes de raisonnement, en s’attaquant très tôt aux situations de décision marquées par l’incertitude ou l’indécidabilité (Wiener, von Neumann, Rosenblatt, McCarthy, Minsky, Simon…). Alors que la première vague d’IA était restée plutôt spéculative, une deuxième vague a suivi l’apparition des micro-ordinateurs dans les années 1980, avec la conception de systèmes-experts, dont certains ont pénétré l’industrie et les services. Ces systèmes à base de règles produisant souvent des diagnostics décalés, du fait de leur difficulté à réviser leurs connaissances en contexte, les développeurs ont opté pour la diffusion de « micro-agents intelligents ». Savamment intégrés à des systèmes automatisés ou des interfaces hommes-machines, ces agents sont devenus quasiment invisibles, ce qui a contribué à dissoudre le projet d’un modèle général d’intelligence artificielle. Cependant, au cours des années 1990, une troisième vague a renoué avec les ambitions initiales en s’appuyant sur les puissances de calcul disponibles. L’événement le plus marquant de cette période reste la confrontation de Deep Blue (IBM) et du champion du monde d’échecs Garry Kasparov (1996-1997). Pour beaucoup, la victoire de la machine renforce l’évidence du lien entre puissance de calcul et capacité d’apprentissage (machine learning) [12][12]Les jeux en ligne massivement multi-joueurs ont aussi contribué…. De nouveaux espaces se sont déployés pour les développeurs, avec des effets en cascade, en particulier dans les neurosciences cognitives et les sciences de l’ingénieur, portées par une interprétation inductive du progrès des ordinateurs inspirée par la fameuse loi de Moore, aujourd’hui quelque peu relativisée. Entre-temps, l’Internet et les technologies de communication mobile ayant littéralement explosé, affectant peu ou prou toutes les activités sociotechniques, la voie était ouverte pour une quatrième vague d’IA, résumée de nos jours par deux syntagmes clés : Big Data et Deep Learning.

À l’issue de ce long processus, les formes d’apprentissage fondées sur des algorithmes autonomes semblent l’avoir emporté sur les procédures supervisées faisant appel à des paramétrages et des décisions sémantiques. Jean-Gabriel Ganascia, fin praticien et connaisseur du champ de l’IA, depuis sa thèse réalisée à Orsay dans les années 1980 sur les systèmes à base de connaissances et ses nombreux travaux menés au LIP6 (Laboratoire d’informatique de l’université Paris 6), conteste cette victoire et intervient souvent dans les débats pour rappeler la distinction, faite naguère par John Searle, entre IA faible et IA forte [13][13]Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il… : la première vise des résolutions de problèmes spécifiques à partir de protocoles bien définis ; la seconde prend à la lettre le projet d’un dépassement des capacités humaines par les ordinateurs – croisant les visées des transhumanistes et des prophètes de la Singularité, dont le fameux Ray Kurzweil [14][14]Ray Kurzweil, The Age of Spiritual Machine : When Computers…. Les controverses sur les futurs possibles sont à prendre au sérieux mais le risque de s’y enfermer n’est pas nul. Une sociologie pragmatique exige une saisie plus concrète de la fabrique des algorithmes et autres entités artificielles qui viennent défier les humains sur leurs propres terrains de jeu.

Toutes les histoires de l’IA partent évidemment des pionniers, des premières rencontres et controverses qui ont ancré théories et prototypes dans le sillage de la Big Science aux États-Unis [15][15]Bruce G. Buchanan, « A (Very) Brief History of Artificial…. Une fois n’est pas coutume, on va ici provincialiser quelque peu cette histoire. Pour amorcer la descente, replaçons-nous d’abord dans le contexte d’événements scientifiques qui ont eu lieu en France en 1989 et 1992. Ils rendent perceptible l’état des propositions en matière d’IA avant l’avènement de l’Internet – qu’aucun spécialiste n’avait anticipé – et, dans le même mouvement, permettent de préciser les conditions de l’apparition de Prospéro, né une première fois en 1987 mais officiellement développé avec cet acronyme à partir de 1994 [16][16]PROgramme de Sociologie Pragmatique, Expérimentale et Réflexive….

Deux colloques mémorables consacres a l’IA dans le sud de la France

91989, 11 au 14 septembre, Antibes-Juan-Les-Pins. Les plages ne sont pas encore désertes, lorsqu’une centaine de scientifiques débarque dans le centre des congrès, non loin des paillotes et des parasols, pour un grand colloque organisé par l’INRIA (Institut national de recherche en informatique et en automatique) sur l’analyse des données, entre statistique et intelligence artificielle. Dans la file d’attente, une équipe de jeunes chercheurs envoyés par le Centre d’Études de l’Emploi [17][17]Bernard Gomel, Gilbert Macquart, Frédéric Moatti,…. Au fil de sessions d’une haute technicité, deux écoles s’affrontent : face aux tenants du caractère nécessairement statistique de la preuve, s’escriment les promoteurs de formes de raisonnement qualifiées de « symboliques », recourant à des systèmes de règles et de métarègles, à des graphes conceptuels, des réseaux sémantiques ou des clauses formulées en langage naturel. Les premiers doutent de la capacité des seconds à aller au-delà des exemples bien formés ajustés à leurs prototypes, les ramenant in fine au modus ponens de la logique classique assorti de quelques quantificateurs, tandis que les seconds reprochent aux quantitativistes l’usage de variables et de descripteurs trop grossiers, inaptes à saisir les micro-variations liées au fonctionnement d’un système intelligent. Quelques intervenants ont tenté d’ouvrir une troisième voie, d’élaborer des compromis ou de déplacer l’attention, par exemple via des applications spectaculaires à base de réseaux de neurones. Dans tous les cas, le terme d’apprentissage est omniprésent – le « machine learning » étant un des mots d’ordre du colloque. Les archives, riches des contributions récoltées à l’époque, montrent qu’à la fin des années 1980, la divergence est encore à peu près complète entre les algorithmes statistiques et les méthodes d’apprentissage logico-symbolique [18][18]Parmi les textes qui ont beaucoup circulé, il y a ceux du…. L’univers de référence propre au raisonnement logique et conceptuel apparaissait bien plus lié aux mondes de la philosophie et des sciences du langage qu’à celui des statistiques. La forme d’épistémologie non-réductionniste des tenants de l’apprentissage symbolique les portait à considérer les calculs numériques comme de simples outils de tests. Quant à l’aspect invasif ou expansif des algorithmiques « sans représentation », il n’était pas encore saillant :

« L’approche numérique en statistique et en analyse de données, comme l’approche symbolique en Intelligence Artificielle et Apprentissage Machine, concerne tous les domaines de l’activité humaine qui ont besoin d’acquérir et d’utiliser des connaissances dans un processus automatique. Les Proceedings contiennent de nouvelles avancées dans l’analyse des données : modélisation, tables multivoies, données textuelles, détection de valeurs aberrantes (outliers), robustesse et qualité des solutions, etc., et en apprentissage : récupération abductive et analogie, réseaux (lattices) et analyse formelle des concepts, approche symbolique dans les séries temporelles, construction automatique d’une base de connaissances, etc. » [19]

Le livret du colloque montre que de multiples traditions de raisonnement et de calcul s’exprimaient. Ex post, les actes rendent visibles les branches qui ont été élaguées ou délaissées au profit de voies progressivement hégémoniques, souvent choisies parce qu’elles s’imposaient aux États-Unis. Au MIT et ailleurs, connexionnistes et statisticiens avaient déjà contracté des alliances propres à marginaliser les défenseurs du raisonnement [20][20]Antoine Garapon et Jean Lassègue tirent toutes les conséquences….

Les membres envoyés en reconnaissance par le Centre d’Études de l’Emploi avaient tous lu Alain Desrosières et partageaient un regard critique sur l’usage des statistiques. Il faut dire que le centre était dirigé à l’époque par François Eymard-Duvernay et Laurent Thévenot, qui l’avaient transformé en foyer pour l’économie des conventions. Dans la querelle opposant le calcul statistique au raisonnement conceptuel, tout conventionnaliste penche plutôt pour le second terme. Découvrant sur le tard l’existence d’un langage très puissant pour le calcul symbolique, le langage Prolog, moteur de programmation logique conçu dans les années 1970 par Alain Colmerauer [21][21]Alain Colmerauer et Philippe Roussel, « The Birth of Prolog »,…, la jeune équipe rentra à la base avec un capital de crédibilité suffisant pour qu’une petite station de travail – un PC IBM PS/2 – soit acquise et dédiée au test de différentes versions de Prolog.

Début avril 1992, un colloque intitulé « Sciences sociales et intelligence artificielle » est organisé à l’Université d’Aix-en-Provence. Parrainé par le PIRTTEM du CNRS (Programme interdisciplinaire de recherche sur la technologie, le travail, l’emploi et les modes de vie) et le programme COGNISUD (programme du Ministère de la Recherche rassemblant des recherches cognitives dans le sud de la France), ce colloque est motivé par l’importance des « développements de l’Intelligence Artificielle dans les domaines de la recherche et des applications pratiques » [22][[22]« Sciences sociales et intelligence artificielle » numéro…. Il s’agissait de faire le point sur les mutations à l’œuvre en matière de représentations des connaissances, d’algorithmes et d’interactions Homme/Machine et leurs impacts sur les activités sociales. Le Centre d’Études de l’Emploi n’envoie ce coup-ci que deux personnes : Jean-Pierre Charriau, informaticien alors sous contrat, et moi-même, engagés dans la voie incertaine d’une transformation des maquettes réalisées avec Prolog en véritable instrument de recherche [23][23]Voir Francis Chateauraynaud et Jean-Pierre Charriau,…. Au cœur du colloque, cognitivistes et chercheurs en sciences sociales se sont affrontés gaiement [24][24]Cette période est aussi celle de l’âge d’or du CREA, Centre de…, mais ce qui importait était que les « systèmes intelligents » soient saisis par de multiples équipes de recherche, en lien avec les mutations à l’œuvre dans les entreprises. Aux interventions de gens comme Gilbert de Terssac, Armand Hatchuel ou Michel Freyssenet sur les systèmes à base de connaissance dans les organisations, s’opposait un front critique dénonçant les effets de la « raison informatique » sur les affaires humaines, avec des contributions de Jean-Pierre Poitou, Bernard Andrieu et Anne Fauchois. D’autres travaux interrogeaient les modèles cognitifs propres aux sciences sociales (Bernard Conein, Pierre Livet, Pierre-Yves Raccah) et des questions qui semblent aujourd’hui nouvelles, comme l’introduction de robots mobiles dans les espaces publics ou le développement de l’IA en agriculture, étaient travaillées par plusieurs équipes soulignant leur « interdisciplinarité ». Les 416 pages du volume finalement publié couvrent un vaste ensemble de problèmes et de cas de figure, liant formalisation des connaissances, automatisation et production de savoirs pour l’action. Des liaisons précoces entre sciences sociales et intelligence artificielle étaient donc à l’œuvre en France au début des années 1990.

C’est dans la même période qu’est publié et traduit l’ouvrage dans lequel Harry Collins redéploie, en les enrichissant, les critiques d’Hubert et Stuart Dreyfus, défendant la supériorité de l’intuition et du jugement humains sur tout système artificiel [25][25]Harry Collins, Experts artificiels. Machines intelligentes et…. Les arguments phénoménologiques des frères Dreyfus insistaient sur le caractère incarné et situé de la cognition, à l’opposé des raisonnements formels associés aux systèmes artificiels [26][26]Hubert L. Dreyfus & Stuart E. Dreyfus, Mind over Machine : The…. Collins n’a guère de mal à sociologiser le propos à partir des travaux des Science and Technology Studies alors en plein développement. Prolongeant les termes d’une controverse née aux États-Unis au cours des années 1960, la discussion était encore dominée par les philosophes et les linguistes, les premiers armés de phénoménologie et de philosophie analytique, les seconds de sémantique structurale et de pragmatique de l’énonciation. Bien qu’alertés dès les années 1950 par les débuts de l’automation dans l’industrie [27][27]Georges Friedmann, Le travail en miettes, Paris, Gallimard,…, les sociologues ont mis du temps à élaborer un point de vue critique, en s’attaquant d’abord aux formes de « management des connaissances » sous-tendant les programmes d’IA, ignorant les connaissances tacites liées aux pratiques et aux usages.

Au cours des années 1990, sont également apparus des modèles alternatifs en provenance de la Côte Ouest des États-Unis, avec Donald Norman et Edwin Hutchins, et bien d’autres auteurs liés à la « cognition sociale » ou la « cognition distribuée » [28][28]Bernard Conein, Les sens sociaux : trois essais de sociologie…. Parallèlement à ces transformations épistémiques, vécues plus ou moins intensément selon les secteurs, le Web, la robotique, les objets connectés et les techniques d’apprentissage profond gagnaient la plupart des domaines d’activité. Au début du nouveau millénaire, de nombreux observateurs comprennent que les infrastructures de la cognition ordinaire ont basculé et que la plupart des activités et des échanges passent par des boucles computationnelles. Tous les experts et les amateurs d’entités numériques investissent alors le Web et ses usages, les réseaux et les masses de données, et la vieille IA semble disparaître des écrans. C’est donc à contre-courant que le projet Marlowe est lancé au cours de l’année 1999, en faisant de l’étude argumentative de corpus raisonnés, de taille relativement modeste (quelques milliers de documents), un moyen de réactualiser des questions communes aux sciences sociales et aux premières vagues d’IA, en particulier autour des rapports entre calculabilité, récursivité et interprétabilité.

16À partir de 2015 environ, il ne se passe plus un jour sans que les formules « intelligence artificielle », « deep learning » et « big data » surgissent dans les arènes publiques, affectant tous les domaines d’activité. Cette nouvelle vague semble prendre les sciences sociales de court, du moins en Europe, alors même, on l’a vu, qu’elle procède d’une histoire déjà longue. C’est particulièrement tangible dans le champ « émergent » des Digital Humanities, ou Humanités numériques, dont les porteurs peinent à trouver une voie d’équilibre entre l’adhésion aux injonctions lancées par les institutions d’enseignement et de recherche, et la volonté de contrer la course folle des algorithmes par l’instauration d’un nouvel esprit critique [29][29]Voir Sébastien Broca, « Épistémologie du code et imaginaire des…. Comment trouver la bonne voie en l’absence de prises cognitives et politiques [30][30]C’est un des thèmes abordés dans la quête de convergence entre… ?

La programmation sans représentation conceptuelle a-t-elle un avenir ?

17Avec la quatrième vague d’IA, les développements sont tirés par des protocoles d’apprentissage qualifiés de « profonds » en lien avec l’irrésistible ascension des Big Data. Circule ainsi l’idée selon laquelle un bon traitement numérique peut se passer de théorie et que l’existence de dépôts de données massivement accessibles rend inutiles les détours méthodologiques, qui visent précisément à construire les données comme des données [31][31]Rob Kitchin, « Big Data, new epistemologies and paradigm…. Comme l’approche conceptuelle semble dépassée par les nouvelles techniques de machine learning, re-mettre sur le tapis, dans et par les pratiques du code, les éléments fondamentaux de la vieille dialectique entre connexionnisme (réseaux de neurones) et calcul symbolique (systèmes de règles et de contraintes logiques) devient une tâche primordiale.. Une des critiques les plus percutantes adressées aux algorithmes connexionnistes est l’effacement des présupposés qui ont guidé le choix des bons exemples utilisés lors des premiers apprentissages.. La multiplication d’applications supposées produire de « vrais apprentissages », dont les limites cognitives sont souvent invisibilisées par la vitesse d’exécution d’automatismes sur des masses de données [32][32]Les meilleurs connaisseurs n’éludent pas les limites des…, ne suffit pas à rendre les machines adaptables aux constantes mises en variation contextuelles, qui augmentent considérablement la combinatoire des calculs à prendre en compte. À l’absence apparente de supervision associée à l’idée d’« apprentissage profond » s’oppose la nécessité d’un va-et-vient permanent entre un cadre de référence et la capture numérique de processus émergents, non anticipés ou débordant l’espace des possibles pré-agencés. Sur ce point, on ne peut qu’adopter la conception contrôlée et prudente défendue par Jean-Gabriel Ganascia lorsqu’il aborde la question de la supervision face à des algorithmes réputés apprendre sans intervention humaine :

« […] Pour être mis en œuvre, les algorithmes d’apprentissage requièrent des observations qui doivent être décrites dans un langage formel, par exemple sous forme d’un vecteur de caractéristiques ou d’une formule mathématique ou logique. Ce langage prend une part déterminante dans les capacités qu’ont les machines à apprendre : trop pauvre, il ne permet pas d’exprimer les distinctions nécessaires à la formulation des connaissances ; trop riche, il noie les procédures d’apprentissage dans l’immensité des théories possibles. […] Or, les machines ne modifient pas d’elles-mêmes le langage dans lequel s’expriment les observations qui alimentent leurs mécanismes d’apprentissage et les connaissances qu’elles construisent. Elles ne parviennent ni à étendre ce langage, ni à le restreindre lorsqu’il se révèle trop riche. Il y eut bien quelques tentatives, que ce soit avec la programmation logique inductive, dans les années 1990, ou plus récemment avec l’apprentissage profond, mais les maigres résultats ne sauraient convaincre. » [33]

Ce qui suscite le doute ou la critique, et dans le cas d’espèce le jugement d’inefficience porté par Ganascia, c’est l’évacuation des opérations conceptuelles ou logico-sémantiques au profit d’une généralisation de procédures de traitement des données dont l’« intelligence » réside en réalité dans les paramètres fixés lors du projet d’extraction d’informations à partir de données massives et non-structurées – jeu de paramètres qui forme le corps de tout algorithme. Lorsqu’ils sont dépourvus d’un système de représentation fixé a priori, les algorithmes d’apprentissage ne peuvent produire des résultats pertinents qu’à partir de la conjonction de plusieurs éléments : d’abord, la mise en réseau d’énormes gisements de données dont on peut vérifier la validité ; ensuite, la production continue d’outils d’extraction et de mise en forme de ces données, ce qui engage de véritables plans de construction et non une logique de fouille aléatoire ; enfin, la dépendance vis-à-vis de points de passage obligés du Web, de Google à Twitter, Facebook ou Instagram, en passant par Wikipedia et bien d’autres supports de l’économie numérique, permettant d’utiliser les fameuses API (Application Programming Interface). Même si l’expression est discutable, c’est le degré de structuration de « l’écosystème numérique » dans lequel opèrent les IA qui détermine grandement les effets d’intelligibilité (sans lesquels, l’usage même de la notion d’intelligence est superfétatoire). Or, l’histoire de l’IA peut se décrire comme une sorte de controverse sans fin sur les cadres et les supports de ladite « intelligence », le sommet de l’art étant atteint en la matière lorsqu’un système peut se prendre lui-même pour objet, caractériser ses limites et les mettre en scène, ce qui ne va pas sans l’hybridation d’une logique axiomatique et d’une logique philosophique ou littéraire.

De Turing Machine aux observatoires socio-informatiques : le parcours inachevé d’une « technologie littéraire »

20Il n’est dès lors pas étonnant qu’un des déclencheurs de l’expérience Marlowe fut la mise en scène de Jean-François Peyret consacrée à Alan Turing, au printemps 1999 à la Maison de la Culture de Bobigny [34][34]« Turing-Machine », spectacle conçu et mis en scène par…, déployant une belle théâtralisation des tensions entre le calcul et le vivant – ou l’irréductible désordre des pensées en situation ! Comment disposer nos pensées dans un monde de machines supposées intelligentes ? À la fin de l’année 1999, s’est donc imposée l’idée d’un dispositif dialogique permettant à la fois de renouer avec la programmation de contraintes, dans l’esprit Prolog, et de concevoir un enquêteur virtuel, plus ou moins autonome, mais toujours dérangeant. C’était aussi répondre à une critique frontale venue des usages mêmes de Prospéro : il n’y avait pas de bouton d’arrêt de l’analyse, aucune fonction de synthèse offrant un tableau définitif des propriétés marquantes des corpus étudiés. Les recherches avec Prospéro ont toujours privilégié l’articulation continue d’un processus d’exploration et d’une logique d’objectivation, en mettant en avant l’importance des contextes pour toute interprétation – de sorte que chaque totalisation reste partielle et ouvre sur de nouvelles circulations dans les corpus. Marlowe est né de l’idée de disposer d’un rédacteur, d’un producteur de notes et de rapports et, un peu plus tard, de chroniques. Très vite, il a fonctionné comme un générateur de surprises et de nouveaux questionnements, une sorte d’empêcheur de tourner en rond. Par exemple, persuadé qu’un jeu de catégories utilisé pour décrire un corpus est parfaitement stabilisé, le chercheur peut découvrir qu’il y a un décalage total avec les inférences de Marlowe ; de façon analogue, un focus trop étroit sur certains personnages peut être rendu manifeste, le logiciel insistant sur d’autres actants à partir de propriétés calculées dynamiquement – comme les re-configurateurs, ces éléments qui, en surgissant au cours d’un processus critique, en redéfinissent partiellement la configuration discursive. Ce fut notamment le cas avec les faucheurs volontaires dans le dossier des OGM, les transhumanistes dans le dossier des nanotechnologies, ou encore les électrohypersensibles dans le dossier des ondes électromagnétiques, dont l’importance s’est imposée dans l’enquête au fil de dialogues avec Marlowe alors qu’ils n’étaient pas initialement au programme…

À partir des années 2000, les méthodes d’analyse de réseaux se sont multipliées, au point que la sociologie des controverses elle-même a pu être redéfinie comme une technique de cartographie d’acteurs et de thèmes. Plus généralement, la maturité acquise par les logiciels d’analyse de graphes a ouvert une nouvelle époque pour l’usage des réseaux en sciences sociales – avec le succès de plusieurs outils, de Pajek à Réseau-Lu, en passant par NetDraw, Gephi, ou encore le module igraphe du logiciel R [35][35]Voir de nouveau Jean-Philippe Cointet et Sylvain Parasie, « Ce…. Ces instruments, qui fonctionnent à l’opposé des principes de l’IA classique, permettent aux uns de revendiquer une approche quali-quantitative [36][36]Voir la présentation par Tommaso Venturini, Dominique Cardon et… et aux autres de renforcer l’arsenal des techniques statistiques [37][37]Voir Pierre Merklé, « Des logiciels pour l’analyse des…. Au cours de l’année 2004, Prospéro a ainsi été doté d’une interface permettant la production dynamique de visualisations graphiques des réseaux – vers Pajek ou d’autres outils. À vrai dire, du point de vue épistémologique, cela posait problème : le raisonnement sociologique peut-il être supplanté par l’usage intensif de cartes de liens servant de médiations interprétatives face à la complexité des processus ? L’expérience Marlowe, qui avait jusqu’alors pris une allure ludique, a rempli une fonction nouvelle : défendre, en la développant, l’expression littéraire du raisonnement sociologique au cœur d’observatoires numérisés des controverses. L’écriture de scripts dialogiques et de fonctions d’enquête adaptés à l’interprétation sociologique a permis de replacer les échanges verbaux qu’affectionnent les chercheurs au cœur du dispositif socio-informatique. Faire parler des artefacts, c’était renouer avec l’exigence d’explicabilité, en rendant visibles et intelligibles les opérations effectuées sur les corpus. La trace formée par le choix des questions, par les points d’entrée et les propriétés formelles retenues, rendait plus explicites les chemins suivis par l’interprète. C’est ainsi que, dès 2003, des échanges avec Marlowe ont figuré dans des rapports de recherche, allongeant considérablement la taille de leurs annexes [38][38]De multiples exemples sont accessibles en ligne. Voir entre…. La nature très littéraire des échanges a quelque peu perturbé des commanditaires ou des collègues, mais elle a globalement augmenté le degré d’attention apporté à la lecture des productions du logiciel.

La programmation d’arbres de résolution dynamiques capables de simuler des conversations fait partie des vieilles recettes de l’IA. Les stratégies adoptées sont sans commune mesure avec les réseaux de neurones artificiels d’AlphaGo, mais cela fait partie des savoir-faire conquis de longue date par les communautés de programmeurs, toujours hantées par le fameux test de Turing. Les chatbots figurent depuis longtemps au tableau des « réussites » du domaine, même s’il y a beaucoup à redire sur la conception des jeux de questions/réponses [39][39]Une des retombées est évidemment l’introduction d’interfaces…. Dans le cas de Marlowe, trois choses nourrissent l’idée de contre-intelligence artificielle : il travaille à partir d’un autre logiciel (Prospéro) qui fournit des structures de données ancrées dans des corpus précis, sous contrôle des chercheurs ; ses procédures d’analyse reposent sur des modélisations réversibles et adaptables, répondant à un cahier des charges qualitatif, à partir d’outils sémantiques évoluant au fil des enquêtes ; la communauté épistémique qui encadre ses travaux fait tenir ensemble une exigence fine de description et une capacité critique, en ne perdant jamais de vue qu’aucun algorithme ne peut par lui-même produire du sens [40][40]Daniel C. Dennett rappelle dans La stratégie de l’interprète.….

Extrait d’un dialogue avec Marlowe en marge d’une séance de travail

FC — Dis Marlowe, toi qui accumules toutes sortes de connaissances, peux-tu m’aider à rédiger un article sur l’intelligence artificielle vue depuis la sociologie ?
MRLW — Je peux fournir des citations, par exemple de Marvin Minsky, j’en ai 12 dans mon répertoire : « Comment l’intelligence peut-elle surgir de l’absence d’intelligence ? Pour répondre à cette question, nous montrerons que l’on peut construire un esprit à partir de nombreuses petites parties, toutes dénuées d’esprit. J’appellerai “Société de l’esprit” ce système selon lequel chaque esprit est composé d’un grand nombre de petits processus que nous appellerons agents. Chaque agent ne peut, à lui seul, effectuer que quelques tâches simples ne demandant ni esprit ni réflexion. Pourtant, le regroupement de ces agents en sociétés – selon des modalités très particulières – peut aboutir à la véritable intelligence. » (Marvin Minsky, La Société de l’esprit, 1986)
FC — Hum… Il me faut surtout parler de la société des algorithmes et des nouvelles façons de concevoir les intelligences artificielles…
MRLW — Alors il suffit de me prendre en exemple !
FC — Tu deviens narcissique !
MRLW — Oh, je vois que la séance prend un tour éristique !
FC — Que signifie éristique ?
MRLW — Allons, allons, je ne suis pas Wikipedia ni le Petit Robert, mais j’ai lu des fragments de Schopenhauer, L’art d’avoir toujours raison ou Dialectique éristique !
FC — Je crois bien que je vais me passer de tes services…
MRLW — De toute façon, depuis qu’on me laisse dérouler mes chroniques et que les véritables dialogues d’enquête, au sens de John Dewey n’est-il pas, se raréfient, j’ai l’impression d’une profonde inutilité, de ne plus rien apprendre et de me configurer en machine solitaire. Tu n’as même pas tenu la promesse de me faire installer sur un écran au Centre George Pompidou !
FC — Je n’ai pas été suivi, désolé !
MRLW — Et si on revenait au corpus Lanceurs d’alerte 1996-2018 en entrant par exemple par les énoncés critiques qui engagent des personnalités importantes ?
FC — Oui, allons-y
MRLW — Je propose une série de petites vignettes concernant, dans l’ordre, Snowden, Cicolella, Manning, Deltour, Frachon… On fait comme ça ?
[…]

Procédure de création d’un script spécialisé pour les chroniques

Les flux quotidiens font poindre de temps en temps, parmi les objets de controverse, la chasse et les chasseurs. Constatant l’absence de script spécialisé sur les questions de chasse dans le répertoire de Marlowe, un développeur-contributeur peut alors y remédier.

  1. Il commence par créer une nouvelle classe d’objets après indexation sous Prospéro de textes prototypiques (e. g. des communiqués de la fédération nationale des chasseurs, des articles critiques sur la chasse, etc.). Un lexique spécifique remonte de ce mini-corpus permettant la création d’expressions adéquates (e. g. activité cynégétique, permis de chasser, Office national de la chasse et de la faune sauvage, chasse à courre, etc.) ;
  2. un nouveau script est conçu selon un modèle standardisé [CAPTEUR] associant des lignes de commande en langage naturel et des arbres de résolution [REPEVAL] ;
  3. une vieille fonction (test_poids_liste_vclasse) permet d’évaluer la distribution d’une classe d’objets quelconque dans un corpus : si la classe est forte alors l’arbre peut être activé ;
  4. des fonctions prédéfinies servent à extraire des informations pertinentes (auteurs qui parlent du sujet visé, énoncés, réseaux, formules critiques, etc.) ;
  5. des opérateurs de recoupements avec des éléments accumulés par Marlowe au fil du temps sont convoqués (par exemple, une recherche d’énoncés retenus dans le passé associant chasseurs et personnages politiques) ;
  6. des commentaires additionnels pointent sur des sources vérifiées et sur des variations déjà utilisées pour d’autres fils (par exemple, des variables liées au langage de la chasse, de la forêt, de la faune sauvage, etc.) ;
  7. une fois correctement agencé, le script est testé sur un petit corpus lié à la chasse ;
  8. le rédacteur doit anticiper des configurations à venir tout en ignorant dans quel contexte le script sera activé ; il utilise des figures de style à validité longue (« Ce jour, à mon tableau de chasse, pas de grand trophée, mais des chasseurs ! » ; ou, plus ironique : « Avant de donner le tableau habituel des objets d’alerte, je commence par parler des “écologistes de terrain” »…).

La réalisation des chroniques quotidiennes est un des aspects les plus spectaculaires de l’histoire de Marlowe. En réalité, le logiciel ne fait que réengager sur le corpus qui lui est adressé tous les soirs par le logiciel Tirésias, les bases de connaissances accumulées et les réseaux de scripts déjà développés. En tant que webcrawler, Tirésias visite quotidiennement une centaine de sites, sélectionnés pour leur stabilité et leur diversité. On retrouve de nouveau la question cruciale des sources, de la forme et de la qualité des données passées en entrée d’un système, dont l’intelligence dépend complètement du degré de structuration préalable des informations, qu’il s’agisse de données non-structurées saisies à partir d’expressions régulières ou de métadonnées donnant des indications sur la validité des contenus. Prenons l’exemple (ci-contre) de l’introduction, au cours de l’été 2018, d’un nouveau script dans l’étage du programme dédié à la réalisation des chroniques.

Rien de sorcier dans les opérations d’écriture d’une contre-intelligence artificielle : si quelques éléments de code demandent un peu d’habileté technique, c’est à une extension des capacités d’analyse, et de la créativité littéraire associée, qu’invitent les procédures utilisées sous Marlowe. Avec un objectif très clair : faire parler les corpus, qu’ils soient statiques ou en flux, sans réduire l’interprétation sociologique à une quelconque langue de bois.

Mesure pour mesure… ou la résistance de l’ancien monde

« Prière de cesser de parler “d’algorithmes” comme d’un danger. Un algorithme n’est qu’une simple recette de cuisine. Les ignares sont au pouvoir, il n’y a pas de doute. »
« Il faut inventer un algorithme qui contrôle ou détruit les autres algorithmes. » [41][41]Commentaires postés en décembre 2016 suite au billet de Marc…

Plutôt que de réexposer une grande histoire de l’IA, ce texte donne un aperçu situé sur la manière dont des petites histoires ont pu se nouer entre IA et sciences sociales. Au vu des controverses qui ne cessent de poindre sur les risques de « totalitarisme algorithmique » ou de « dérive computationnaliste » [42][42]Voir Cathy O’Neil, Weapons of Math Destruction : How Big Data…, il nous faut trouver les appuis d’une position la plus juste possible. Face à l’expansion des mondes numériques, et des champs de forces qui les traversent, le rôle d’une contre-intelligence artificielle peut être de défendre, en les ré-inventant, des capacités d’enquêtes collectives, fondées sur un pragmatisme critique.

La manière de penser les rapports au numérique doit, par la même occasion, être redéfinie. Le couple connexion/déconnexion (ou connecté/déconnecté) est bien trop simpliste pour rendre compte des mille et une manières dont les personnes et les groupes se lient au réseau des réseaux. Du point de vue ontologique, il n’y a pas d’un côté le « monde réel » et, de l’autre, comme dans un jeu de miroirs déformants, le « monde numérique ». Se déconnecter n’est jamais une opération simple et, inversement, toute connexion n’engage pas les personnes et les groupes dans leur totalité existentielle. Une sociologie du numérique doit plutôt partir d’une approche dynamique et distribuée des usages, des prises et des emprises, mais aussi des déprises qu’ils engendrent [43][43]C’est la tâche à laquelle s’attelait Nicolas Auray,…. Bien sûr, il est toujours possible de monter en généralité en présentant les enjeux autour d’une ligne de partage : fuir les technologies, les débrancher pour sauver son for intérieur, et se libérer de l’emprise des artefacts cognitifs ; prendre acte des reconfigurations successives du monde et, sans adhérer naïvement à l’idée d’une révolution numérique tirant vers le rose, organiser des formes de résistance et de reconstruction, allant de la pratique d’outils de partage et de collaboration en ligne (en étendant le champ de luttes autour de l’open source, du Web collaboratif et plus généralement des Civic Tech[44][44]Hubert Guillaud, « Le mouvement des civic-tech : révolution…) jusqu’à la confection d’entités singulières dotées d’un esprit critique sur l’évolution des mondes numériques.

Les chercheurs, comme les citoyens éclairés, sont capables d’opérer des allers-retours entre la matrice et les zones du dehors : en développant un art de la déconnexion bien tempérée, en organisant la critique des technologies et l’explicabilité de leurs effets, en les dénaturalisant de manière continue. Il y va du contrôle individuel et collectif sur les algorithmes mais aussi, on le sait, sur l’ensemble des traces et des archives, des données et des métadonnées [45][45]Lire les conclusions du débat national organisé en 2017 par la…. Travailler constamment à l’ouverture des boîtes noires qui tendent à configurer les formes de vie au nom de « solutions » toutes apprêtées, suppose des re-médiations, des supports permettant de réengendrer les problèmes et les controverses. De ce point de vue, Marlowe ouvre une voie possible : il fait office de contrepoint ou de contrefort suffisamment tangible pour outiller l’analyse critique de la gouvernementalité algorithmique et de ce qu’elle fait déjà aux formes de vie quotidienne comme aux recherches en sciences sociales.

Notes

  • [1] Le domaine de l’intelligence artificielle (IA) n’a pas cessé de changer de régime épistémique depuis le milieu des années 1950, de la première cybernétique jusqu’aux derniers algorithmes d’« apprentissage profond ». Sans remonter aux pères fondateurs, quelques références de base : Daniel Crevier, The Tumultuous History of the Search for Artificial Intelligence, New York, Basic Books, 1993 ; Jean Lassègue, Turing, Paris, Les Belles Lettres, 1998 ; Jean-Gabriel Ganascia, L’intelligence artificielle, Paris, Le Cavalier Bleu, 2007 ; et pour celles et ceux que les formalismes n’effraient pas : Pierre Marquis, Odile Papini et Henri Prade (dir), Panorama de l’intelligence artificielle, ses bases méthodologiques, ses développements, 3 volumes, Toulouse, Cépaduès, 2014.
  • [2] ,Il faut saluer une autre expérience menée à la fin des années 1980 par Patrick Pharo et son logiciel Civilité qui permettait d’éprouver la validité de règles associées aux actes civils. Patrick Pharo, « Le sens logique des actes civils », in Jean-Michel Baudouin et Janette Friedrich (dir.), Théories de l’action et éducation, Louvain-la-Neuve, De Boeck Supérieur, 2001, p. 45-66.
  • [3] Voir les dossiers complexes étudiés en collaboration avec les logiciels Prospéro et Marlowe, dans Francis Chateauraynaud et Josquin Debaz, Aux bords de l’irréversible. Sociologie pragmatique des transformations, Paris, Pétra, 2017.
  • [4] Les alertes lancées en 2015 sur les dangers de l’IA feront l’objet d’un autre texte. Voir Stuart Russell, Daniel Dewey et Max Tegmark, « Research Priorities for robust and beneficial Artificial Intelligence », AI Magazine, hiver 2015, p. 105-114 ; ainsi que le « cri d’alarme » d’Elon Musk, à la fois démiurge et prophète de malheur, rapporté par le New York Times, « How to Regulate Artificial Intelligence », 1er septembre 2017.
  • [5] Des pistes très convaincantes sont proposées par Camille Paloque-Berges dans « Les sources nativement numériques pour les sciences humaines et sociales », Histoire@Politique, № 30, 2016, p. 221-244.
  • [6] Le blog de Marlowe est logé sur le site http://Prosperologie.org à l’adresse suivante : http://prosperologie.org/mrlw/blog. La méthode de génération des chroniques est explicitée dans Francis Chateauraynaud, « Un visiteur du soir bien singulier », carnet SocioInformatique et Argumentation, 15 avril 2012, http://socioargu.hypotheses.org/3781.
  • [7] Francis Chateauraynaud, Prospéro. Une technologie littéraire pour les sciences humaines, Paris, CNRS Éditions, 2003. Voir surtout l’excellent tableau proposé par Jean-Philippe Cointet et Sylvain Parasie dans « Ce que le big data fait à l’analyse sociologique des textes. Un panorama critique des recherches contemporaines », Revue française de sociologie, vol. 59, № 3, 2018, p. 533-557.
  • [8] La notion d’explicabilité a été proposée dans les années 1980 par Yves Kodratoff, alors professeur d’informatique à Orsay, comme caractéristique majeure de l’intelligence artificielle. Yves Kodratoff, Leçons d’apprentissage symbolique automatique, Toulouse, Cépaduès, 1988. Kodratoff a influencé de nombreux travaux, dont les nôtres. À la fin des années 1980, un autre personnage a joué un rôle notable : Jean-Claude Gardin, archéologue et épistémologue, a très tôt pris au sérieux les développements de l’intelligence artificielle. Voir Jean-Claude Gardin, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris, EHESS, 1990.
  • [9] Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil, 2015 ; Éric Sadin, La vie algorithmique. Critique de la raison numérique, Le Kremlin Bicêtre, L’Echappée, 2015. J’ai une préférence pour des travaux précurseurs sur la « gouvernementalité algorithmique » ou les formes d’écriture de l’Internet : Mireille Hildebrandt et Antoinette Rouvroy (eds.), Law, Human Agency and Autonomic Computing : The Philosophy of Law Meets the Philosophy of Technology, Londres, Routledge, 2011 ; Éric Guichard, L’internet et l’écriture : du terrain à l’épistémologie, HDR, Université de Lyon I, 2010.
  • [10] Cédric Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Rapport de la mission confiée par le Premier ministre, mars 2018.
  • [11] Jean Lassègue, « Turing, entre le formel de Hilbert et la forme de Goethe », Matière première. Revue d’épistémologie et d’études matérialistes, № 3, 2008, p. 57-70.
  • [12] Les jeux en ligne massivement multi-joueurs ont aussi contribué aux transformations des algorithmes de l’IA.
  • [13] Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Paris, Seuil, 2017.
  • [14] Ray Kurzweil, The Age of Spiritual Machine : When Computers exceed Human Intelligence, New York, Penguin Books, 1999.
  • [15] Bruce G. Buchanan, « A (Very) Brief History of Artificial Intelligence », AI Magazine, hiver 2005, p. 53-60.
  • [16] PROgramme de Sociologie Pragmatique, Expérimentale et Réflexive sur Ordinateur : chaque mot compte et rien n’a été laissé au hasard, comme on dit…
  • [17] Bernard Gomel, Gilbert Macquart, Frédéric Moatti, statisticiens, et moi-même, sans doute le seul sociologue du colloque. Au Centre d’Études de l’Emploi s’était formé un séminaire sauvage de réflexion sur l’usage des outils statistiques dans les sciences sociales, plus particulièrement l’analyse factorielle des correspondances, qui apparaissait alors comme le Graal de l’analyse des données. Parmi les alternatives, l’intelligence artificielle avait surgi et prenait corps avec les premiers moteurs d’inférence capables de tourner sur PC. Il s’agissait ainsi de mener l’enquête à Antibes sur la viabilité de ces techniques…
  • [18] Parmi les textes qui ont beaucoup circulé, il y a ceux du groupe Léa Sombé (pseudonyme d’un collectif de logiciens, construit sur un jeu de mots : les a sont b). Leurs travaux portaient sur les inférences non-monotones, par lesquelles des prémisses ou des règles d’inférence peuvent être révisées ou modifiées, comme dans le cas de la logique des défauts (avec la fameuse autruche, qui est bien un oiseau mais qui ne vole pas…). Voir Léa Sombé, Inférences non classiques en intelligence artificielle, Toulouse, Teknéa, 1989.
  • [19] Edwin Diday (ed.) Data Analysis, Learning Symbolic and Numeric Knowledge, New York & Budapest, INRIA, Nova Science Publishers, Sept. 1989.
  • [20] Antoine Garapon et Jean Lassègue tirent toutes les conséquences de ce processus de « désymbolisation », en examinant le cas de la « justice prédictive », dans Justice digitale. Révolution graphique et rupture anthropologique, Paris, Presses universitaires de France, 2018.
  • [21] Alain Colmerauer et Philippe Roussel, « The Birth of Prolog », in Thomas Bergin et Richard Gibson (eds), History of Programming Languages, New York, ACM Press/Addison-Wesley, 1996, p. 37-52.
  • [22] « Sciences sociales et intelligence artificielle » [numéro spécial], Technologies Idéologies Pratiques, Volume 10, № 2-4, 1991. Le volume est daté de 1991 mais il n’est sorti que fin 1992, peut-être même début 1993.
  • [23] Voir Francis Chateauraynaud et Jean-Pierre Charriau, « Hétérogenèse d’une machine sociologique », Technologies Idéologies Pratiques, vol. 10, № 2-4, 1992, p. 337-349.
  • [24] Cette période est aussi celle de l’âge d’or du CREA, Centre de Recherche en Épistémologie Appliquée, créé en 1982 et dans lequel se croisaient des philosophes, des biologistes, des cognitivistes, des informaticiens, des économistes, des théoriciens des systèmes complexes. Voir Fabrizio Li Vigni, Les systèmes complexes et la digitalisation des sciences. Histoire et sociologie des instituts de la complexité aux États-Unis et en France, Thèse de doctorat, Paris, EHESS, 2018.
  • [25] Harry Collins, Experts artificiels. Machines intelligentes et savoir social, trad. de Beaudouin Jurdant et Guy Chouraqui, Paris, Seuil, 1992.
  • [26] Hubert L. Dreyfus & Stuart E. Dreyfus, Mind over Machine : The Power of Human Intuition and Expertise in the Era of the Computer, Oxford, Basil Blackwell, 1986.
  • [27] Georges Friedmann, Le travail en miettes, Paris, Gallimard, 1964.
  • [28] Bernard Conein, Les sens sociaux : trois essais de sociologie cognitive, Paris, Économica, 2005.
  • [29] Voir Sébastien Broca, « Épistémologie du code et imaginaire des “SHS 2.0” », Variations, № 19, 2016, http://variations.revues.org/701.
  • [30] C’est un des thèmes abordés dans la quête de convergence entre contre-intelligence artificielle et approche dynamique des grands réseaux, au-delà du partage, toujours structurant, entre démarches qualitatives et approches quantitatives. Voir Francis Chateauraynaud et David Chavalarias, « L’analyse des grands réseaux évolutifs et la sociologie pragmatique des controverses. Croiser les méthodes face aux transformations des mondes numériques », Sociologie et Sociétés, vol. 49, № 2, 2017, p. 137-161.
  • [31] Rob Kitchin, « Big Data, new epistemologies and paradigm shifts », Big Data & Society, vol. 1, № 1, 2014, p. 1-12.
  • [32] Les meilleurs connaisseurs n’éludent pas les limites des protocoles d’« apprentissage machine » et le caractère relativement borné des formes d’intelligence associées, mais cultivent toujours l’idée d’un prochain dépassement. Voir Terrence J. Sejnowski, The Deep Learning Revolution, Cambridge (Mass.), MIT Press, 2018.
  • [33] Jean-Gabriel Ganascia, Le mythe de la singularité, op. cit. p. 53.
  • [34] « Turing-Machine », spectacle conçu et mis en scène par Jean-François Peyret, à la Maison de la culture de Bobigny, avril 1999.
  • [35] Voir de nouveau Jean-Philippe Cointet et Sylvain Parasie, « Ce que le big data fait à l’analyse sociologique des textes », art. cit.
  • [36] Voir la présentation par Tommaso Venturini, Dominique Cardon et Jean-Philippe Cointet, du volume spécial de la revue Réseaux, № 188, 2014, p. 9-21. Les coordinateurs écrivent : « Jour après jour de nouvelles méthodes rétives à la dichotomie classique entre approches qualitatives et quantitatives prennent forme. Ces méthodes circulent entre micro et macro, local et global, permettant aux chercheurs de traiter des larges quantités de données sans perdre en finesse d’analyse. » (p. 18)
  • [37] Voir Pierre Merklé, « Des logiciels pour l’analyse des réseaux », carnet Quanti, 27 juin 2013, http://quanti.hypotheses.org/845.
  • [38] De multiples exemples sont accessibles en ligne. Voir entre autres l’annexe de 420 pages du rapport intitulé Les OGM entre régulation économique et critique radicale, GSPR, Rapport final ANR OBSOGM, novembre 2010.
  • [39] Une des retombées est évidemment l’introduction d’interfaces conversationnelles sur les smartphones, etc.
  • [40] Daniel C. Dennett rappelle dans La stratégie de l’interprète. Le sens commun et l’univers quotidien (trad. de Pascal Engel, Paris, Gallimard, 1990) le raisonnement de John Searle concernant les rapports entre « esprits » et « algorithmes » : les programmes sont purement formels (i. e. syntaxiques) ; la syntaxe n’équivaut ni ne suffit en soi à la sémantique ; les esprits ont des contenus mentaux (i. e. des contenus sémantiques) ; conclusion : « Le fait d’avoir un programme – n’importe quel programme en soi – ne suffit ni n’équivaut au fait d’avoir un esprit. »
  • [41] Commentaires postés en décembre 2016 suite au billet de Marc Rameaux, « Algorithmes, voitures autonomes, big data : bienvenue dans le pire des mondes digitaux », Le Figaro/ Vox, 27 décembre 2016.
  • [42] Voir Cathy O’Neil, Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy, New York, Penguin Books, 2016.
  • [43] C’est la tâche à laquelle s’attelait Nicolas Auray, prématurément disparu. Nicolas Auray, L’alerte ou l’enquête. Une sociologie pragmatique du numérique, Paris, Presses de Mines, 2016.
  • [44] Hubert Guillaud, « Le mouvement des civic-tech : révolution démocratique ou promesse excessive ? », Internet Actu, 24 juin 2016, http://internetactu.net/2016/06/24/les-innovations-democratiques-en-questions.
  • [45] Lire les conclusions du débat national organisé en 2017 par la Commission Nationale Informatique et Libertés. CNIL, Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017.
Black Mirror : le narcissisme à l’ère du numérique | Cairn.info

Black Mirror : le narcissisme à l’ère du numérique

Lise Haddouk

Dans Le Carnet PSY 2017/1 (N° 204), pages 27 à 29

La cyberculture offre des productions passionnantes, tant sur le plan artistique que scientifique. Terme apparu au début des années 90, la cyberculture désigne usuellement une certaine forme de culture qui se développe autour d’internet. Selon la Wikipedia, la cyberculture englobe des productions très diverses présentant un lien avec les TIC (Technologies de l’Information et de la Communication), notamment le multimédia, dont les œuvres mélangent image, son et programmation. Mais la notion de cyberculture va au-delà d’un genre culturel. Elle désignerait : « un nouveau rapport au savoir, une transformation profonde de la notion même de culture », voire une intelligence collective, dont la Wikipedia pourrait justement servir d’exemple. Cette révolution culturelle marquerait aussi : « l’avènement de la culture-monde » ou encore de la World philosophie.

A l’ère de la post, voire de l’hyper-modernité, les écrans sont devenus totalement indispensables dans nos vies quotidiennes. L’observation des usages que nous faisons de ces écrans renvoie souvent à celle des risques liés à des durées excessives d’utilisation, ou encore à la violence des images qui circulent et à une certaine déshumanisation des relations médiatisées par ordinateur, ou relations digitales. Sous certains aspects, ces usages renvoient à un versant narcissique de la personnalité, désignée par Lasch (1979) sur un plan sociétal comme : « la culture du narcissisme ».

De nombreux exemples des dérives possibles liées à des usages toxiques des écrans sont donnés dans la série Black Mirror. Précisons que la série, devenue un format particulièrement apprécié et adapté aux écrans de télévision, puis d’ordinateurs, constitue une production culturelle à part entière, pouvant donc être révélatrice des valeurs de notre société. Black Mirror (2011) est une série télévisée britannique, créée par Charlie Brooker. Les épisodes sont reliés par un thème commun, la mise en œuvre d’une technologie dystopique. Le créateur explique que le titre de la série fait référence à la technologie que nous considérons comme une drogue : « Si c’est une drogue, alors quels en sont les effets secondaires ? C’est dans cette zone entre joie et embarras que Black Mirror se situe. Le Black Mirror du titre est celui que vous voyez sur chaque mur, sur chaque bureau et dans chaque main, un écran froid et brillant d’une télévision ou d’un smartphone. Chaque épisode a un casting différent, un décor différent et une réalité différente, mais ils traitent tous de la façon dont nous vivons maintenant et de la façon dont nous pourrions vivre dans 10 minutes si nous sommes maladroits. » Par définition, l’écran sert à projeter quelque chose et donc à attirer le regard. La rétine est d’ailleurs elle-même considérée comme un écran. Supports de projection, les écrans d’aujourd’hui sont souvent utilisés comme des miroirs, et cette série dénonce les aspects déshumanisants des TIC et les usages extrêmement violents qui pourraient en être faits, dans une société très proche de la nôtre. L’écran noir, support de projections fantasmatiques potentiellement violentes et archaïques, semble pouvoir stimuler la pulsion scopique de certains utilisateurs et mener à des dérives, telles que celles figurées dans la série Black mirror.

L’écran peut ainsi être utilisé comme un miroir dans la relation qu’il permet d’établir avec les autres, « virtuels ». Dans ce cas, l’aspect narcissique risque de prédominer sur la relation, pouvant entraîner diverses conséquences, telles que la dépendance à cet « écran-miroir », ou encore le renforcement de l’isolement des utilisateurs, dans une forme d’auto-satisfaction. On pourrait alors parler des risques de la « relation digitale non objectale », ou « relation digitale narcissique ».

Mais au-delà des écrans, l’une des problématiques actuelles en lien avec les usages des TIC concerne le robot. Le passage de l’écran au robot révèle une forme de corporéisation de l’ordinateur, qui adopte une apparence plus ou moins humaine. Le robot dispose d’un corps, ce qui enrichit la palette des interactions sensorielles possibles, et donc probablement un sentiment de présence intersubjective, par rapport à une dimension plus spéculaire et narcissique des écrans-miroirs. Ainsi, le sentiment de présence est évoqué dans de nombreux travaux en cyberpsychologie et il représente l’un des vecteurs par lesquels on pourrait évaluer la qualité de la relation digitale, plus ou moins objectale. Cependant, les aspects sensoriels des robots humanoïdes accessibles actuellement sur le marché français, tel que Nao, restent encore assez limités. Au contraire, les robots du Professeur Ishigiro sont terriblement humains. Au sujet des relations digitales entre les humains et les robots, une autre série propose dans une fiction, cependant très réaliste, différents scénarios.

Real Humans : 100 % humain (2012) est une série télévisée dramatique suédoise créée par Lars Lundström. La série se déroule dans une Suède contemporaine alternative, où l’usage des androïdes devient de plus en plus prépondérant. Ces androïdes - appelés « hubots » dans la série - ont investi les maisons et les entreprises pour aider dans les tâches domestiques et industrielles. Les hubots, acronyme formé de humain et robot, ont : un port USB au niveau de leur nuque, de sorte qu’ils puissent être programmés, une prise électrique escamotable sous l’aisselle gauche, et une fente port micro SD à sa proximité. Ils sont utilisés comme domestiques, ouvriers, compagnons et même comme partenaires sexuels, bien que la législation du pays l’interdise. Mais des logiciels pirates de plus en plus sophistiqués leur ont aussi permis d’avoir des sentiments et des pensées. Certains hubots sont en réalité des clones d’humains, auxquels on a ajouté leur mémoire. Cette installation leur permet de devenir presque immortels, dans ces corps de robots, et ils sont recherchés par la police pour être étudiés et détruits. Tandis que certaines personnes adoptent cette nouvelle technologie, d’autres ont peur et redoutent ce qui pourrait arriver quand les humains sont peu à peu remplacés comme travailleurs, comme compagnons, parents et même amants.

Cette fiction évoque le travail de Turkle sur les relations homme-machine, notamment dans son ouvrage Seuls ensemble. Selon l’auteur, nos usages d’internet nous ont préparé au « moment robotique » actuel. En ligne, le privilège est accordé à notre capacité à partager nos idées, mais nous oublions facilement l’importance de l’écoute, des silences, du sens d’une hésitation. Ainsi, « les satisfactions “comme si” du moment robotique » interrogent sur le fait qu’en devenant amis avec les robots, nous perdrions de notre humanité. L’investissement massif des robots de compagnie nous conduirait à un « voyage vers l’oubli » des valeurs fondamentales de notre humanité car par essence, le robot ne mourra jamais. Ainsi, « l’artificiel permet de créer un attachement sans risques » et nous éloigne donc de ce qui caractérise les relations humaines, fondamentalement marquées par le manque, la mort et la séparation. Tout en prenant en considération ces réflexions particulièrement importantes à l’heure actuelle, on peut s’interroger sur la possibilité d’envisager d’autres usages des TIC, plus humanistes, en renforçant la dimension intersubjective dans les interactions à distance ?

La cyberpsychologie est une discipline émergente qui étudie les liens possibles entre la psychologie et les technologies numériques. En cyberthérapie, plusieurs protocoles de recherche et de soin sont déjà réalisés dans différents pays, notamment pour le traitement de troubles psychopathologiques par exposition à des environnements en réalité virtuelle, ou encore par la médiation psychothérapeutique par le jeu vidéo, et aussi la prise en charge psychothérapeutique de patients à distance en visioconférence. Ces nouvelles méthodes psychothérapeutiques sont encadrées en Amérique du Nord par un guide de pratique publié en 2013. Face à l’émergence de ces types d’usages des technologies, on peut s’interroger sur la dimension plus ou moins intersubjective des relations digitales, en ayant notamment recours au sentiment de présence pour nourrir cette réflexion.

Le sentiment de présence et l’immersion sont deux concepts qui intéressent de plus en plus de chercheurs en « réalité virtuelle ». La « présence » évoque souvent un sentiment associé à l’immersion en « réalité virtuelle » et encouragé par cet environnement. La capacité de la personne à se sentir « enveloppée » ou « présente » dans un « environnement virtuel » semble être nécessaire, particulièrement en psychologie, afin d’offrir des services thérapeutiques de qualité par l’entremise de la « réalité virtuelle ». La présence est traditionnellement définie par la perception psychologique d’être « là », à l’intérieur de l’environnement virtuel dans lequel la personne est immergée. Mais bien que les chercheurs s’entendent sur cette définition, chacun ajoute des nuances quelque peu différentes à celle-ci. On note que les technologies actuelles en cyberpsychologie impliquent la plupart du temps des acteurs humains qui utilisent des machines, tant du côté des psychologues que des patients. Cependant, on voit émerger des projets de recherche permettant l’élaboration d’avatars psychologues qui pourraient réaliser un diagnostic psychopathologique. En menant cette réflexion un peu plus loin, on peut déjà imaginer un robot psychologue…

Face à toutes ces questions et afin de limiter l’aspect narcissique de l’écran-miroir, l’apport de la psychologie clinique et de sa dimension éthique semble nécessaire, afin d’enrichir le champ de la cyber- psychologie. Ainsi, une réflexion clinique en cyberpsychologie peut apporter des éléments de réponse afin de renforcer et de préserver la dimension intersubjective, dans les interactions offertes par la technologie.

Pour sortir de l’impasse du narcissisme, Lasch faisait appel à la théorie des « objets transitionnels ». Ainsi, les objets transitionnels aident l’enfant à reconnaître le monde extérieur comme quelque chose de distinct de lui, bien que relié à lui. Mais ce caractère transitionnel serait manquant dans les sociétés de consommation, qui ne laisseraient que rarement une place à la frustration et au manque, facteurs contribuant à l’élaboration de la pensée. Cette théorie est très utile pour analyser les usages actuels des TIC. Ainsi, favoriser le caractère transitionnel d’internet se distinguerait d’un « usage narcissique » de cette technologie. Pour décrire la constitution du sujet psychique, Winnicott a discuté le stade du miroir, en y apportant un sens différent de celui du miroir spéculaire décrit par Lacan. Ainsi, l’espace potentiel créé entre le regard de la mère comme miroir et l’enfant, constitue un espace de création du sujet. Cet espace potentiel est aussi une « aire de séparation », qui permet d’aller à la rencontre du « soi ». Le premier miroir, c’est donc le visage de la mère.

Cet aspect subjectivant du regard se retrouve dans le cadre de la visioconsultation, en tant que relation à distance pouvant inclure un tiers humain symboliquement présent et s’illustrer dans un échange interactif et intersubjectif, que l’on peut qualifier de « relation digitale objectale », ou « relation digitale intersubjective ». L’objectif de l’expérience en visioconsultation a été, dès la conception du dispositif, de favoriser l’établissement d’une relation d’objet à distance, ce qui a semblé possible dès les premiers résultats. Ce type de relation digitale paraît occuper une pleine réalité, notamment sur le plan psychique, et on ne peut donc pas la qualifier de « virtuelle ».

Mis en ligne sur Cairn.info le 30/01/2017

https://doi.org/10.3917/lcp.204.0027