Monthly Shaarli
July, 2023
If art is how we express our humanity, where does AI fit in?
MIT postdoc Ziv Epstein SM ’19, PhD ’23 discusses issues arising from the use of generative AI to make art and other media.
Zach Winn Publication Date: June 15, 2023
The rapid advance of artificial intelligence has generated a lot of buzz, with some predicting it will lead to an idyllic utopia and others warning it will bring the end of humanity. But speculation about where AI technology is going, while important, can also drown out important conversations about how we should be handling the AI technologies available today.
One such technology is generative AI, which can create content including text, images, audio, and video. Popular generative AIs like the chatbot ChatGPT generate conversational text based on training data taken from the internet.
Today a group of 14 researchers from a number of organizations including MIT published a commentary article in Science that helps set the stage for discussions about generative AI’s immediate impact on creative work and society more broadly. The paper’s MIT-affiliated co-authors include Media Lab postdoc Ziv Epstein SM ’19, PhD ’23; Matt Groh SM ’19, PhD ’23; PhD students Rob Mahari ’17 and Hope Schroeder; and Professor Alex "Sandy" Pentland.
MIT News spoke with Epstein, the lead author of the paper.
Q: Why did you write this paper?
A: Generative AI tools are doing things that even a few years ago we never thought would be possible. This raises a lot of fundamental questions about the creative process and the human’s role in creative production. Are we going to get automated out of jobs? How are we going to preserve the human aspect of creativity with all of these new technologies?
The complexity of black-box AI systems can make it hard for researchers and the broader public to understand what’s happening under the hood, and what the impacts of these tools on society will be. Many discussions about AI anthropomorphize the technology, implicitly suggesting these systems exhibit human-like intent, agency, or self-awareness. Even the term “artificial intelligence” reinforces these beliefs: ChatGPT uses first-person pronouns, and we say AIs “hallucinate.” These agentic roles we give AIs can undermine the credit to creators whose labor underlies the system’s outputs, and can deflect responsibility from the developers and decision makers when the systems cause harm.
We’re trying to build coalitions across academia and beyond to help think about the interdisciplinary connections and research areas necessary to grapple with the immediate dangers to humans coming from the deployment of these tools, such as disinformation, job displacement, and changes to legal structures and culture.
Q: What do you see as the gaps in research around generative AI and art today?
A: The way we talk about AI is broken in many ways. We need to understand how perceptions of the generative process affect attitudes toward outputs and authors, and also design the interfaces and systems in a way that is really transparent about the generative process and avoids some of these misleading interpretations. How do we talk about AI and how do these narratives cut along lines of power? As we outline in the article, there are these themes around AI’s impact that are important to consider: aesthetics and culture; legal aspects of ownership and credit; labor; and the impacts to the media ecosystem. For each of those we highlight the big open questions.
With aesthetics and culture, we’re considering how past art technologies can inform how we think about AI. For example, when photography was invented, some painters said it was “the end of art.” But instead it ended up being its own medium and eventually liberated painting from realism, giving rise to Impressionism and the modern art movement. We’re saying generative AI is a medium with its own affordances. The nature of art will evolve with that. How will artists and creators express their intent and style through this new medium?
Issues around ownership and credit are tricky because we need copyright law that benefits creators, users, and society at large. Today’s copyright laws might not adequately apportion rights to artists when these systems are training on their styles. When it comes to training data, what does it mean to copy? That’s a legal question, but also a technical question. We’re trying to understand if these systems are copying, and when.
For labor economics and creative work, the idea is these generative AI systems can accelerate the creative process in many ways, but they can also remove the ideation process that starts with a blank slate. Sometimes, there’s actually good that comes from starting with a blank page. We don’t know how it’s going to influence creativity, and we need a better understanding of how AI will affect the different stages of the creative process. We need to think carefully about how we use these tools to complement people’s work instead of replacing it.
In terms of generative AI’s effect on the media ecosystem, with the ability to produce synthetic media at scale, the risk of AI-generated misinformation must be considered. We need to safeguard the media ecosystem against the possibility of massive fraud on one hand, and people losing trust in real media on the other.
Q: How do you hope this paper is received — and by whom?
A: The conversation about AI has been very fragmented and frustrating. Because the technologies are moving so fast, it’s been hard to think deeply about these ideas. To ensure the beneficial use of these technologies, we need to build shared language and start to understand where to focus our attention. We’re hoping this paper can be a step in that direction. We’re trying to start a conversation that can help us build a roadmap toward understanding this fast-moving situation.
Artists many times are at the vanguard of new technologies. They’re playing with the technology long before there are commercial applications. They’re exploring how it works, and they’re wrestling with the ethics of it. AI art has been going on for over a decade, and for as long these artists have been grappling with the questions we now face as a society. I think it is critical to uplift the voices of the artists and other creative laborers whose jobs will be impacted by these tools. Art is how we express our humanity. It’s a core human, emotional part of life. In that way we believe it’s at the center of broader questions about AI’s impact on society, and hopefully we can ground that discussion with this.
Prompt Armageddon : le troisième récit.
En 2010 The Economist faisait sa Une autour du concept de “Data Deluge”. Jamais en 13 ans le déluge ne cessa. Il irrigua chaque pan de nos vies, se déclina dans une ininterrompue litanie d’applications et de métriques, alimenta l’ensemble des politiques publiques, constitua la part émergée de certaines au travers de l’Open Data, fit le lit de tous les cauchemars de surveillance, constitua l’unique et inique horizon de tant de rêves de maîtrise et d’anticipation.
Tout fut “Data” : Data-journalisme, Data-visualisation, Data-gouvernance … Tant de données qui ne sont qu’autant “d’obtenues” comme l’expliquait Bruno Latour, expliquant aussi pourquoi refusant de voir qu’elles n’étaient que cela, nous en avons été si peu capables d’en obtenir autre chose que quelques oracles pour d’improbables ou opportuns cénacles.
Tant de données mais si peu de possibilités de les manipuler au sens étymologique du terme. Il leur manquait en vrai une interface à façon. Cette interface que ChatGPT a révélé en grand et en public, et donc au “grand public”. La plus simple parce que paradoxalement la plus insondablement complexe en termes de combinatoire pour elle qui n’est qu’une prédictibilité statistique. Rivés à l’affichage écran des scripts que renvoie ChatGPT comme devant un bandit manchot de casino, nous nourrissons la croyance probabiliste que quelque chose de vrai, de réfléchi ou de sincère puisse s’exprimer. Et nous voyons la langue s’agencer devant nous. Le plus souvent pour ne rien dire, mais en le disant bien. Le plus souvent pour ne faire que réécrire ce qui est lu ailleurs en le réagençant à peine, mais en l’agençant bien et sans jamais nous citer ces ailleurs où la combinatoire s’abreuve.
L’interface de la langue, du prompt, du script existait déjà dans les moteurs de recherche au travers des requêtes, y compris vocales. Mais elle ne construisait pas un écho de dialogue. Elle était un puits plutôt qu’un miroir. Et surtout, elle ne le faisait pas sous nos yeux. Nous étions comme en voiture appuyant sur l’accélérateur et constatant l’augmentation de vitesse ; avec ChatGPT (et consorts) nous sommes au coeur du moteur, nous observons l’accélération en même temps que nous la ressentons et gardons l’impression d’un sentiment de commande et de contrôle.
L’apparence d’un miracle ludique et païen, voilà ce que sont ces interfaces langagières et ces artefacts génératifs. Qui se conjuguant demain aux autres interfaces thaumaturges qui mobilisent et équipent à la fois nos regards et nos gestes en plus de notre langue, nous donneront une puissance dont l’illusion n’aura jamais été aussi forte et claire, et l’emprise sur le monde aussi faible et déréalisante.
Data Storytelling et Prompt Clash.
A l’image de ce qui se produisit dans la sphère politique depuis le tout début des années 2010 – Barack Obama est élu pour la 1ère fois en 2008 -, avec le passage d’une ère du storytelling (basé entre autres sur de l’analyse de données) à une ère du clash (reposant sur une maîtrise rhétorique des discours médiatiques), c’est désormais l’ensemble de l’écosystème des discours médiatiques mais aussi d’une partie de plus en plus significative de nos interactions sociales avec l’information qui nous mène d’une société de la “data” à une société du “prompt” et du “script”. Une ère post-moderne puisqu’au commencement était la ligne de commande et que désormais nous commandons en ligne, des pizzas comme des dialogues et des interactions sociales.
Le Data-Deluge était à la fois un concept écran et un concept mobilisateur. Qui nous installait dans une posture de négociation impossible : puisque les données étaient partout, en tout cas supposément, alors il fallait accepter qu’elles gouvernent nos vies et la décision politique dans l’ensemble de ses servitudes économiques.
Après moi le déluge. Et après le déluge ?
Résumons : avant les “Data” il y avait le “moi”, qui préparait leur avènement. Un web dont le centre de gravité ne fut plus celui des documents mais des profils, dans lequel l’être humain était un document comme les autres, un web “social par défaut”, où l’egotrip devînt une puissance bien avant que le capitalisme charismatique des influenceurs et influenceuses ne devienne une catharsis de batteleurs publicitaires. Le moi puis la Data. Après moi le déluge.
Puis après le data-deluge, vînt l’infocalypse. L’apocalypse du faux. Infocalypse Now.
Et désormais partout des “prompts” et des “scripts” (pour ChatGPT ou pour d’autres) qui nourrissent les machines autant qu’ils épuisent le langage. Que nous disent ces passages de saturation médiatique et informationnelle des discours autour de la “Data”, puis de “l’infocalypse” puis du “prompt” mais aussi des divers “Métavers” ?
Prompt Armaggedon.
Dans mon article précédent au sujet du casque “Apple Vision Pro” j’expliquais que par-delà les avancées technologiques il s’agissait avant tout de fournir une fonction support à un monde devenu littéralement insupportable.
Grégory Chatonsky formule l’hypothèse selon laquelle “L’IA a permis à la Silicon Valley de se relancer politiquement. Dans un contexte d’extinction planétaire, les technologies apparaissaient de plus en plus problématiques. Il lui a suffit de métaboliser l’extinction dans l’IA elle-même, en prétendant que cette technologie constituait le plus grande danger, pour continuer coûte que coûte sa production idéologique.”
Les technologies liées ou associées à diverses formes “d’intelligence artificielle” nous promettent un méta-contrôle de mondes qui ne sont ni le monde, ni notre monde. Elles poussent le curseur jusqu’à l’acceptation de l’idée que ce méta-contrôle nous dispense de notre puissance d’agir sur le réel sans entraîner de culpabilité mortifère puisqu’il s’agirait de s’inscrire dans une sorte d’élan vital technologique (bisous #Vivatech)).
On a souvent expliqué que deux grands récits technologiques s’affrontaient : celui d’une émancipation par la technique d’une part (le solutionnisme technologique), et celui d’un Armaggedon de robots ou d’IA tueuses d’autre part (en gros hein). Et que ces récits étaient exclusifs l’un de l’autre. Il est d’ailleurs intéressant de voir dans ce cadre l’émergence programmatique de figures troubles comme celle d’Elon Musk, qui sont des go-between capables d’affirmer tout à la fois que l’IA est la plus grande menace pour l’humanité et d’en faire le coeur du développement technologique de ses diverses sociétés et produits.
Il semble aujourd’hui que ces récits non seulement s’entrecroisent mais qu’ils sont plus fondamentalement et politiquement au service d’un troisième récit. Ce troisième récit est celui d’un retrait du monde. Pour le dire trivialement, puisqu’il est une hypothèse que la technique nous sauve, puisqu’une autre veut qu’elle nous condamne, et puisqu’il semble qu’il n’y ait à l’avance aucun scénario fiable d’équilibre dans les décisions à prendre, alors chaque développement technologique indépendamment de sa nature de “pharmakon” (il est à la fois remède et poison) comporte, affiche, vend et décline en lui la possibilité d’un retrait du monde qui travaille son acceptabilité au travers de promesses de puissance singulières. Le Métavers, les casques de réalité virtuelle ou augmentée, mais aussi ces LLM (Large Language Models) sont autant de ces promesses de puissances singulières. Or plus les Big Tech nous fournissent des environnements et des interfaces thaumaturges, et plus ils travaillent à nous installer dans une forme de déprise. Plus nous “commandons” de choses et de réalités alternatives, virtuelles ou mixtes, plus ces commandes passent par chacun de nos sens (toucher, vue, voix), plus les recherches avancent pour faire encore reculer cette dernière interface possible que constitue notre cerveau ou les ondes cérébrales, et moins nous sommes en prise sur le réel.
Le premier grand récit des technologies numériques consiste à prôner un solutionnisme suprémaciste, qui écrase tout horizon de contestation ou de débat soit au motif d’une vision fantasmée d’un “progrès” oublieux de ses externalités négatives, soit (le plus souvent) pour des raisons purement économiques de maintien d’effets de rente qui relèguent toute considération éthique à la dimension d’un essai clinique piloté par Didier Raoult.
Le second grand récit des technologies numériques est un renouvellement du Luddisme mâtiné de récits d’un effondrement dans lequel chaque pan de technologie n’aurait, là aussi de manière essentiellement caricaturale, que vocation à se retourner contre tout ou partie de l’humanité ou, de manière plus vraisemblable, la condamnerait à surexploiter le même cycle qui conduit déjà au dépassement des limites planétaires.
Le troisième grand récit des technologies numériques est un méta-récit. Une sorte de théorie des cordes (version Wish), dans laquelle le rapport de puissance s’inverse. Après un temps où les technologies numériques devaient permettre d’alléger notre cadre et nos tâches cognitives en s’y substituant (externalités mémorielles) ; après un temps où beaucoup d’entre nous parmi les plus pauvres, les plus fragiles, les moins qualifiés finirent par devenir les supplétifs à bas coût de technologies initialement présentées comme capables de les émanciper et qui ne firent que les aliéner (en gros le Digital Labor) ; nous voilà désormais dans un système capitalistique à l’équilibre mortifère où l’invisibilisation des processus extractifs, tant sur le plan des données que sur celui des sujets, est à son apogée. Il s’agit pour lui maintenant de décliner son extractivisme à l’ensemble des réalités alternatives existantes et accessibles (augmentée, virtuelle, mixte) en nous mettant en situation de pouvoir épuiser jusqu’à la langue elle-même au travers de prompts qui tendent à fabriquer une inépuisable fatrasie de textes dont la seule vocation n’est plus que de nourrir les générateurs qui permettent d’en produire de nouveaux. Jusqu’à épuisement. Ces réalités, augmentées, virtuelles et mixtes, sont tout autant fossiles que les énergies du monde qui s’épuise. Peut-être le sont-elles même encore davantage.
One More Thing : Interfaces Humains Informations.
Les IHM, “interfaces homme-machine” constituent un champ de recherche à part entière, qui mobilise des notions venant aussi bien de l’ergonomie, du design, de l’informatique, ou de la psychologie. Il nous faut réfléchir à la constitution d’un champ de savoir autour de ce que l’on pourrait appeler les IHI, l’analyse des interfaces (sociales, techniques, cognitives) entre l’humain (multi-appareillé ou non) et l’Information (dans sa diffusion, ses relais et sa compréhension). Un champ dans lequel les “sciences de l’information et de la communication” ont toute leur place mais ne sont pas seules légitimes. Les nouvelles “humanités numériques” sont avant tout informationnelles et culturelles.
Constamment le numérique oblitère des espaces de négociation et de recours. Les lois les plus structurantes mises en oeuvre ne sont pas celles qui tendent à le réguler mais celles qui le légitiment comme instance de contrôle. Les déploiements les plus structurants qui sont portés par la puissance publique ne visent pas pas rapprocher et à faciliter mais à éloigner et à suspecter. Le numérique dans son agrégation mortifère autour d’intérêts privés et d’architectures techniques toxiques à échoué à devenir une diplomatie de l’intérêt commun.
Et si la diplomatie est une théorie des relations entre les États, alors il faut que le champ des IHI, des “interfaces humain information”, devienne une diplomatie qui soit une théorie des relations entre les états de l’information et de sa circulation dans le champ social comme dans celui de la perception individuelle.
Reddit: Killing a Giant
Profile picture. Bill | living life in SF • Jun 16
It's understandable to be defeatist about the recent Reddit protests. The recent subreddit blackouts weren't 100% popular and similar attempts to migrate away from Twitter have hit road bumps. The network effect of giant platforms seem insurmountable, but giants have fallen before and will continue to do so. Having some recent experience in the industry, I wanted to give a fact-based analysis and answer to: how do you kill a giant and what does it look like when it falls?
If you're confused about what's happening on Reddit, check out this link.
To start, I want to talk about "migrations" from platforms, and how they often aren't what they seem. It's easy to think of these giants dying overnight, because to us they essentially do. One day, we visited MySpace or Digg for the last time, and then never looked back. However, the data says otherwise: killing a giant takes time.
In 2010, Digg introduced v4 which completely changed the UI and added a lot of features that users hated. In hindsight, this was the downturn for Digg, but at the time, the story was a bit more complicated.
After the launch of v4, Digg traffic did drop dramatically. However, one year after launch, Digg still had 8.5 million monthly US visitors compared to Reddit's 13.7 million monthly US vistors. According to traffic estimates, Reddit traffic didn't surpass Digg traffic until December 2011 over one year later after v4's launch.
Similarly, Facebook surpassed MySpace in unique visitors from the US in 2009, but MySpace still had 36 million users in 2013. The data says the same thing: giants take time to fall.
At the time, it's very likely that people visited both Reddit and Digg at the same time. At the end of the day, the people that continued to visit Digg did not end up saving Digg. If and when Reddit begins falling, checking it out a few times a day won't save it either.
Also, when Digg's traffic fell, Reddit traffic did not rise the same amount. A lot of people who disliked Digg's change simply moved on altogether, they didn't move to Reddit (it was a bit of a hard sell for some). Ultimately, Reddit didn't succeed Digg by attracting all the old Digg users, but by building their own community with their own users.
So how do you attract your own users? Successful platforms build a beachhead with a niche. Reddit was the underdog focused on tech, and Facebook was the underdog for college students. The competitor needs to be "the" place for some community. A great example of this is Discord, where for certain niches "the" community exists only on Discord.
Eventually, once a large enough network effect is established and Reddit continues to implement habit-breaking changes on their platform, people will start to choose and recommend the alternative option over Reddit. Thus the giant dies.
One corollary to building a niche, is that cargo-culting Reddit will likely not work. That is to say, simply creating the same communities from Reddit in your new alternative and hoping the content creators come is not a winning strategy. Community needs to be grown organically, and simply copying Reddit will not work.
Similarly, I don't think you need to have an exact feature match to kill Reddit. You see this a lot when discussing the Reddit alternatives: "Oh I'd use it if it has a mobile app," "oh I'd use it if it looks more like Reddit." If you have the community people will come, and they will get over the fact that you don't have a mobile app. If you don't have the community, no amount of cool features will get people to come over and stay.
Black Mirror : le narcissisme à l’ère du numérique
Dans Le Carnet PSY 2017/1 (N° 204), pages 27 à 29
La cyberculture offre des productions passionnantes, tant sur le plan artistique que scientifique. Terme apparu au début des années 90, la cyberculture désigne usuellement une certaine forme de culture qui se développe autour d’internet. Selon la Wikipedia, la cyberculture englobe des productions très diverses présentant un lien avec les TIC (Technologies de l’Information et de la Communication), notamment le multimédia, dont les œuvres mélangent image, son et programmation. Mais la notion de cyberculture va au-delà d’un genre culturel. Elle désignerait : « un nouveau rapport au savoir, une transformation profonde de la notion même de culture », voire une intelligence collective, dont la Wikipedia pourrait justement servir d’exemple. Cette révolution culturelle marquerait aussi : « l’avènement de la culture-monde » ou encore de la World philosophie.
A l’ère de la post, voire de l’hyper-modernité, les écrans sont devenus totalement indispensables dans nos vies quotidiennes. L’observation des usages que nous faisons de ces écrans renvoie souvent à celle des risques liés à des durées excessives d’utilisation, ou encore à la violence des images qui circulent et à une certaine déshumanisation des relations médiatisées par ordinateur, ou relations digitales. Sous certains aspects, ces usages renvoient à un versant narcissique de la personnalité, désignée par Lasch (1979) sur un plan sociétal comme : « la culture du narcissisme ».
De nombreux exemples des dérives possibles liées à des usages toxiques des écrans sont donnés dans la série Black Mirror. Précisons que la série, devenue un format particulièrement apprécié et adapté aux écrans de télévision, puis d’ordinateurs, constitue une production culturelle à part entière, pouvant donc être révélatrice des valeurs de notre société. Black Mirror (2011) est une série télévisée britannique, créée par Charlie Brooker. Les épisodes sont reliés par un thème commun, la mise en œuvre d’une technologie dystopique. Le créateur explique que le titre de la série fait référence à la technologie que nous considérons comme une drogue : « Si c’est une drogue, alors quels en sont les effets secondaires ? C’est dans cette zone entre joie et embarras que Black Mirror se situe. Le Black Mirror du titre est celui que vous voyez sur chaque mur, sur chaque bureau et dans chaque main, un écran froid et brillant d’une télévision ou d’un smartphone. Chaque épisode a un casting différent, un décor différent et une réalité différente, mais ils traitent tous de la façon dont nous vivons maintenant et de la façon dont nous pourrions vivre dans 10 minutes si nous sommes maladroits. » Par définition, l’écran sert à projeter quelque chose et donc à attirer le regard. La rétine est d’ailleurs elle-même considérée comme un écran. Supports de projection, les écrans d’aujourd’hui sont souvent utilisés comme des miroirs, et cette série dénonce les aspects déshumanisants des TIC et les usages extrêmement violents qui pourraient en être faits, dans une société très proche de la nôtre. L’écran noir, support de projections fantasmatiques potentiellement violentes et archaïques, semble pouvoir stimuler la pulsion scopique de certains utilisateurs et mener à des dérives, telles que celles figurées dans la série Black mirror.
L’écran peut ainsi être utilisé comme un miroir dans la relation qu’il permet d’établir avec les autres, « virtuels ». Dans ce cas, l’aspect narcissique risque de prédominer sur la relation, pouvant entraîner diverses conséquences, telles que la dépendance à cet « écran-miroir », ou encore le renforcement de l’isolement des utilisateurs, dans une forme d’auto-satisfaction. On pourrait alors parler des risques de la « relation digitale non objectale », ou « relation digitale narcissique ».
Mais au-delà des écrans, l’une des problématiques actuelles en lien avec les usages des TIC concerne le robot. Le passage de l’écran au robot révèle une forme de corporéisation de l’ordinateur, qui adopte une apparence plus ou moins humaine. Le robot dispose d’un corps, ce qui enrichit la palette des interactions sensorielles possibles, et donc probablement un sentiment de présence intersubjective, par rapport à une dimension plus spéculaire et narcissique des écrans-miroirs. Ainsi, le sentiment de présence est évoqué dans de nombreux travaux en cyberpsychologie et il représente l’un des vecteurs par lesquels on pourrait évaluer la qualité de la relation digitale, plus ou moins objectale. Cependant, les aspects sensoriels des robots humanoïdes accessibles actuellement sur le marché français, tel que Nao, restent encore assez limités. Au contraire, les robots du Professeur Ishigiro sont terriblement humains. Au sujet des relations digitales entre les humains et les robots, une autre série propose dans une fiction, cependant très réaliste, différents scénarios.
Real Humans : 100 % humain (2012) est une série télévisée dramatique suédoise créée par Lars Lundström. La série se déroule dans une Suède contemporaine alternative, où l’usage des androïdes devient de plus en plus prépondérant. Ces androïdes - appelés « hubots » dans la série - ont investi les maisons et les entreprises pour aider dans les tâches domestiques et industrielles. Les hubots, acronyme formé de humain et robot, ont : un port USB au niveau de leur nuque, de sorte qu’ils puissent être programmés, une prise électrique escamotable sous l’aisselle gauche, et une fente port micro SD à sa proximité. Ils sont utilisés comme domestiques, ouvriers, compagnons et même comme partenaires sexuels, bien que la législation du pays l’interdise. Mais des logiciels pirates de plus en plus sophistiqués leur ont aussi permis d’avoir des sentiments et des pensées. Certains hubots sont en réalité des clones d’humains, auxquels on a ajouté leur mémoire. Cette installation leur permet de devenir presque immortels, dans ces corps de robots, et ils sont recherchés par la police pour être étudiés et détruits. Tandis que certaines personnes adoptent cette nouvelle technologie, d’autres ont peur et redoutent ce qui pourrait arriver quand les humains sont peu à peu remplacés comme travailleurs, comme compagnons, parents et même amants.
Cette fiction évoque le travail de Turkle sur les relations homme-machine, notamment dans son ouvrage Seuls ensemble. Selon l’auteur, nos usages d’internet nous ont préparé au « moment robotique » actuel. En ligne, le privilège est accordé à notre capacité à partager nos idées, mais nous oublions facilement l’importance de l’écoute, des silences, du sens d’une hésitation. Ainsi, « les satisfactions “comme si” du moment robotique » interrogent sur le fait qu’en devenant amis avec les robots, nous perdrions de notre humanité. L’investissement massif des robots de compagnie nous conduirait à un « voyage vers l’oubli » des valeurs fondamentales de notre humanité car par essence, le robot ne mourra jamais. Ainsi, « l’artificiel permet de créer un attachement sans risques » et nous éloigne donc de ce qui caractérise les relations humaines, fondamentalement marquées par le manque, la mort et la séparation. Tout en prenant en considération ces réflexions particulièrement importantes à l’heure actuelle, on peut s’interroger sur la possibilité d’envisager d’autres usages des TIC, plus humanistes, en renforçant la dimension intersubjective dans les interactions à distance ?
La cyberpsychologie est une discipline émergente qui étudie les liens possibles entre la psychologie et les technologies numériques. En cyberthérapie, plusieurs protocoles de recherche et de soin sont déjà réalisés dans différents pays, notamment pour le traitement de troubles psychopathologiques par exposition à des environnements en réalité virtuelle, ou encore par la médiation psychothérapeutique par le jeu vidéo, et aussi la prise en charge psychothérapeutique de patients à distance en visioconférence. Ces nouvelles méthodes psychothérapeutiques sont encadrées en Amérique du Nord par un guide de pratique publié en 2013. Face à l’émergence de ces types d’usages des technologies, on peut s’interroger sur la dimension plus ou moins intersubjective des relations digitales, en ayant notamment recours au sentiment de présence pour nourrir cette réflexion.
Le sentiment de présence et l’immersion sont deux concepts qui intéressent de plus en plus de chercheurs en « réalité virtuelle ». La « présence » évoque souvent un sentiment associé à l’immersion en « réalité virtuelle » et encouragé par cet environnement. La capacité de la personne à se sentir « enveloppée » ou « présente » dans un « environnement virtuel » semble être nécessaire, particulièrement en psychologie, afin d’offrir des services thérapeutiques de qualité par l’entremise de la « réalité virtuelle ». La présence est traditionnellement définie par la perception psychologique d’être « là », à l’intérieur de l’environnement virtuel dans lequel la personne est immergée. Mais bien que les chercheurs s’entendent sur cette définition, chacun ajoute des nuances quelque peu différentes à celle-ci. On note que les technologies actuelles en cyberpsychologie impliquent la plupart du temps des acteurs humains qui utilisent des machines, tant du côté des psychologues que des patients. Cependant, on voit émerger des projets de recherche permettant l’élaboration d’avatars psychologues qui pourraient réaliser un diagnostic psychopathologique. En menant cette réflexion un peu plus loin, on peut déjà imaginer un robot psychologue…
Face à toutes ces questions et afin de limiter l’aspect narcissique de l’écran-miroir, l’apport de la psychologie clinique et de sa dimension éthique semble nécessaire, afin d’enrichir le champ de la cyber- psychologie. Ainsi, une réflexion clinique en cyberpsychologie peut apporter des éléments de réponse afin de renforcer et de préserver la dimension intersubjective, dans les interactions offertes par la technologie.
Pour sortir de l’impasse du narcissisme, Lasch faisait appel à la théorie des « objets transitionnels ». Ainsi, les objets transitionnels aident l’enfant à reconnaître le monde extérieur comme quelque chose de distinct de lui, bien que relié à lui. Mais ce caractère transitionnel serait manquant dans les sociétés de consommation, qui ne laisseraient que rarement une place à la frustration et au manque, facteurs contribuant à l’élaboration de la pensée. Cette théorie est très utile pour analyser les usages actuels des TIC. Ainsi, favoriser le caractère transitionnel d’internet se distinguerait d’un « usage narcissique » de cette technologie. Pour décrire la constitution du sujet psychique, Winnicott a discuté le stade du miroir, en y apportant un sens différent de celui du miroir spéculaire décrit par Lacan. Ainsi, l’espace potentiel créé entre le regard de la mère comme miroir et l’enfant, constitue un espace de création du sujet. Cet espace potentiel est aussi une « aire de séparation », qui permet d’aller à la rencontre du « soi ». Le premier miroir, c’est donc le visage de la mère.
Cet aspect subjectivant du regard se retrouve dans le cadre de la visioconsultation, en tant que relation à distance pouvant inclure un tiers humain symboliquement présent et s’illustrer dans un échange interactif et intersubjectif, que l’on peut qualifier de « relation digitale objectale », ou « relation digitale intersubjective ». L’objectif de l’expérience en visioconsultation a été, dès la conception du dispositif, de favoriser l’établissement d’une relation d’objet à distance, ce qui a semblé possible dès les premiers résultats. Ce type de relation digitale paraît occuper une pleine réalité, notamment sur le plan psychique, et on ne peut donc pas la qualifier de « virtuelle ».
Mis en ligne sur Cairn.info le 30/01/2017
Hollywood Studios’ Demand For Free AI Replicas Sparks Actor Strike
By Paulo Montenegro, on 07/14/2023 16:01 PDT
In a startling revelation made during the press conference announcing their strike, Hollywood actors disclosed that the studios are demanding possession of their AI replicas without any compensation—a proposition that feels reminiscent of a dystopian narrative from the television series Black Mirror.
Duncan Crabtree-Ireland, the chief negotiator for SAG-AFTRA, shared details of the Hollywood studios’ proposal, which was described by the Alliance of Motion Picture and Television Producers (AMPTP) as a “groundbreaking AI proposal” safeguarding the digital likenesses of actors belonging to SAG-AFTRA.
When questioned about the proposal at the press conference, Crabtree-Ireland expressed his incredulity, stating:
“Yesterday, they presented us with this so-called ‘groundbreaking’ AI proposal. They suggested that our background performers should undergo scanning, receive payment for a single day’s work, and grant ownership of that scan, their image, and their likeness to the studios indefinitely. These studios would then have the right to utilize this digital representation without any consent or compensation, on any future project, for all eternity. If they believe this is a groundbreaking proposal, I suggest they reevaluate their perspective.”
The integration of generative AI has been a contentious issue in the ongoing negotiations between the two parties, with its implications extending beyond the current actors’ strike and also playing a significant role in the writers’ strike. SAG-AFTRA President Fran Drescher emphasized the urgency of the situation in her opening statement, warning, “If we fail to take a firm stand now, we will all face dire consequences. Our very existence is at stake, as we risk being replaced by machines.”
The SAG-AFTRA strike is scheduled to commence at midnight tonight, marking a pivotal moment in the struggle for fair treatment and the preservation of actors’ rights.
Filed in Robots. Read more about AI (Artificial Intelligence).
« La France est l’un des pays les plus envoûtés par le mysticisme technosécuritaire »
Entretien avec Olivier Tesquet
Activation des objets connectés à distance, surveillance des journalistes, expérimentation de la reconnaissance faciale… Depuis quelques mois, les projets de lois liberticides se multiplient. Et même si tous n’aboutissent pas, le discours technosécuritaire est de plus en plus hégémonique. Entretien.
Début juin, le Sénat adoptait l’article 3 de la loi Justice, qui prévoit la possibilité d’activer à distance des objets connectés (téléphone, ordinateur…) pour récupérer des informations dans le cadre d’enquêtes1. Dans la foulée, il tentait de repêcher des dispositions sécuritaires écartées de la loi JO 20242 en validant, le 12 juin, l’expérimentation sur trois ans de la reconnaissance faciale en temps réel dans l’espace public. Au niveau européen, le Media Freedom Act, officiellement en faveur de la liberté de la presse, permettra de piéger les téléphones des journalistes au moyen de logiciels espions afin de les surveiller3. On fait le point avec Olivier Tesquet, journaliste à Télérama spécialisé dans les technologies numériques et la surveillance, auteur de plusieurs ouvrages sur le sujet4.
On pensait avoir échappé à la reconnaissance faciale, écartée de la loi JO 2024. Elle revient par une autre porte ?
« Dans le cadre de la loi JO 2024, la ligne rouge concernant la reconnaissance faciale s’était révélée plus difficile à franchir que prévu pour le gouvernement. En adoptant cette proposition de loi visant à créer un cadre d’expérimentation pour la reconnaissance faciale, le Sénat prépare le terrain en fabriquant de l’acceptabilité. Et même si cette proposition de loi a peu de chance d’être votée par l’Assemblée, c’est un calcul stratégique : on banalise les discours, les arguments et les technologies en question, on fabrique du consentement et l’on prépare les esprits au déploiement de ces technologies comme s’il était inéluctable.
« Quand les technologies sont sorties de la boîte, c’est extrêmement difficile de les y remettre »
C’était la même histoire avec l’usage des drones dans le cadre du maintien de l’ordre. L’ancien préfet de police Didier Lallement les utilisait sur le terrain, le Conseil d’État a d’abord dit “non”, suivi par le Conseil constitutionnel qui a censuré ces dispositions dans la loi Sécurité globale. Mais ils ont finalement réussi à en légaliser l’usage par le biais d’un autre véhicule législatif, la loi sur la responsabilité pénale. Il y a un “effet cliquet” : quand les technologies sont sorties de la boîte, c’est extrêmement difficile de les y remettre. »
Les arguments semblent toujours les mêmes : la lutte antiterroriste, et la nécessité d’encadrer des technologies « déjà-là ».
« Ce sont deux éléments assez stables de l’obsession technosécuritaire : la légalisation a posteriori, où on légifère à l’envers afin d’autoriser des technologies déjà en usage ; et la lutte contre le terrorisme. Ce sont deux arguments-massues auxquels il est très difficile de s’opposer, et qui sont utilisés quasi systématiquement lorsqu’il s’agit du déploiement de technologies sécuritaires, alors même que rien ne prouve qu’elles soient efficaces par rapport à leurs objectifs.
« On prépare les esprits au déploiement de ces technologies comme s’il était inéluctable »
Ce qui est encore plus curieux, c’est que moins une technologie fonctionne, plus on va tenter de la perfectionner et plus on va la déployer dans des versions encore plus intrusives : on impose la vidéosurveillance partout et, face aux doutes et critiques, on passe à la vidéosurveillance algorithmique puis à la reconnaissance faciale, sans savoir si elles sont efficaces. On est sortis du domaine de la rationalité scientifique pour rentrer dans celui de l’irrationalité quasi religieuse. »
À qui profite cette croyance dans le pouvoir magique de la technologie ?
« Elle profite évidemment aux industriels qui fabriquent ces technologies, qui en tirent d’importants bénéfices5. Ensuite, pour les politiques, le discours sécuritaire est devenu un rituel d’accession au pouvoir, un élément stable de leurs programmes, car c’est un discours rémunérateur. L’actuel maire de Nice, Christian Estrosi, en est un exemple chimiquement pur : il a fait campagne sur la sécurité, a fait de Nice une ville pionnière dans la vidéosurveillance, et entretient ce discours comme une forme de rente lui garantissant une longévité politique. C’est le genre de programme qui permet de prétendre agir, avec des installations visibles et valorisables, et qu’importe si la technologie n’a pas fait la preuve de son efficacité, voire a fait la démonstration de son inefficacité. »
Dans l’émission *C Ce soir* à laquelle tu as participé, la spécialiste des enjeux géopolitiques des technologies Asma Mallah expliquait qu’on est passé d’un droit à la sûreté à un droit à la sécurité6. Quelle est la différence ?
« La Déclaration des droits de l’homme et du citoyen de 1789 affirme le droit à la sûreté, c’est-à-dire le droit d’être protégé contre l’arbitraire de l’État. Depuis une quarantaine d’années, celui-ci a été travesti par les gouvernements successifs, droite et gauche confondues, en “droit à la sécurité”, qui est la possibilité pour l’État de violer de manière arbitraire les libertés des citoyens. »
Dans les considérants de la dissolution des Soulèvements de la Terre, on retrouve notamment pour argument le fait de laisser son téléphone mobile chez soi ou de le mettre en « mode avion » afin d’éviter le bornage. Est-il devenu interdit de se protéger ?
« C’est un exemple supplémentaire de la manière dont l’État utilise la notion floue de terrorisme à des fins politiques ; ici, la répression contre les mouvements écologistes qui, même si elle n’est pas nouvelle (rappelons-nous la débauche de moyens technologiques pour pas grand-chose à Bure), s’aggrave. On va vers une criminalisation de la furtivité : l’utilisation de certains outils, comme Tails ou une messagerie chiffrée, est considérée comme suspecte. C’est comme quand, en manifestation, apporter du sérum physiologique ou se protéger physiquement deviennent des éléments incriminants. D’un côté, le pouvoir se raidit, devient de plus en plus violent, se dote d’outils de plus en plus intrusifs ; de l’autre, on dénie aux citoyens la possibilité de se protéger contre l’arbitraire de ce pouvoir. »
Au niveau européen, le contrôle technologique des frontières semble faire exception à toute réglementation…
« Historiquement, les stratégies de surveillance de la police, même avant l’irruption de la technologie, ont toujours ciblé les catégories de population considérées comme “dangereuses” : les pauvres, les nomades, les ouvriers, les vagabonds… et aujourd’hui, les personnes exilées. Et l’Union européenne se comporte comme un laboratoire de recherche et de développement technosécuritaire, qui installe et teste littéralement in vivo ces dispositifs7 sur des personnes auxquelles on dénie déjà un certain nombre de droits fondamentaux. L’AI Act (règlement sur l’intelligence artificielle) en est un bon exemple. Adopté par le Parlement européen mi-juin afin de réglementer les systèmes de surveillance algorithmique, notamment en les classant en fonction des “risques” qu’ils posent, il renonce à agir sur les technologies sécuritaires déjà utilisées aux frontières.8 »
Mis bout à bout, tout cela dessine un contexte inquiétant. C’est comme si rien ne pouvait contrer la logique technosécuritaire à l’œuvre.
« En 2008, des personnalités de tous bords politiques s’étaient indignées du projet Edvige, qui visait à ficher les opinions politiques, syndicales et religieuses des Français à partir de l’âge de 13 ans. Aujourd’hui, même si certains tirent la sonnette d’alarme9, plus grand monde ne prend position. La digue est en train de céder, et la France fait partie des pays les plus envoûtés par cette espèce de mysticisme technosécuritaire, comme le chef de file de cette course en avant. C’est pour cela qu’il faut poser collectivement des diagnostics et imposer un débat politique – et non technique – sur ce sujet. Il faut s’organiser, faire du bruit et, comme disait Günther Anders, inquiéter son voisin comme soi-même. »
1 Le projet de loi d'orientation et de programmation de la justice (LOPJ), actuellement en discussion à l'Assemblée, prévoit notamment l'activation à distance des caméras, des micros et de la géolocalisation d'objets connectés, pour toute personne impliquée dans un crime ou délit puni d'au moins 10 ans de prison.
2 Voir « Olympiades du cyberflicage », CQFD n° 218 (mars 2023).
3 . Voir l'article d'Olivier Tesquet « L'espionnage des journalistes bientôt autorisé par une loi européenne ? », Télérama (21/06/2023).
4 Notamment À la trace (2020) et État d'urgence technologique (2021), aux éditions Premier Parallèle.
5 Voir l'article « Vidéosurveillance biométrique : derrière l'adoption du texte, la victoire d'un lobby », site La Quadrature du Net (05/04/2023).
6 . « I.A. : vers une société de surveillance ? », C Ce soir (France 5, 15/06/23).
7 Citons ItFlows (prédiction des flux migratoires) et iBorderCtrl (reconnaissance des émotions humaines lors des contrôles).
8 « “AI Act” : comment l'UE investit déjà dans des intelligences artificielles à “haut risque” pour contrôler ses frontières », Le Monde (22/06/2023).
9 Dans son rapport annuel publié mi-juin, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s'inquiète des progrès de l'espionnage des milieux politiques et syndicaux. Voir l'article « Les services de renseignement s'intéressent de plus en plus aux militants », Politis (16/06/2023).
À propos du « blocage de Telegram en France »
Première rédaction de cet article le 13 mai 2023
Ce matin, bien des gens signalent un « blocage de Telegram en France ». Qu'en est-il ? Ce service de communication est-il vraiment censuré ?
En effet, la censure ne fait aucun doute. Si on teste avec les sondes RIPE Atlas, on voit (t.me
est le raccourcisseur d'URL de Telegram) :
% blaeu-resolve --country FR --requested 200 --type A t.me
[149.154.167.99] : 98 occurrences
[77.159.252.152] : 100 occurrences
[0.0.0.0] : 2 occurrences
Test #53643562 done at 2023-05-13T08:42:36Z
Un coup de whois nous montre que la première adresse IP, 149.154.167.99
, est bien attribuée à Telegram (« Nikolai Durov, P.O. Box 146, Road Town, Tortola, British Virgin Islands ») mais que la seconde, 77.159.252.152
, est chez SFR. Non seulement Telegram n'a pas de serveurs chez SFR, mais si on se connecte au site Web ayant cette adresse, on voit :
Cela ne marche pas en HTTPS (de toute façon, il y aurait eu un problème de certificat) car le serveur en question n'écoute apparemment qu'en HTTP classique.
Ce site Web est donc géré par le ministère de l'Intérieur, qui peut en effet enjoindre certains FAI de bloquer les sites pédopornographiques (depuis plusieurs années, rien de nouveau). Ici, il s'agit évidemment d'un mensonge grossier puisque Telegram n'est pas un site pédopornographique, mais un service de messagerie instantanée (qui, comme tout service de communication en ligne, peut parfois être utilisé pour des activités illégales).
La technique de censure est le résolveur DNS menteur : au lieu de relayer fidèlement les réponses des serveurs DNS faisant autorité, le résolveur ment et envoie l'adresse du serveur Web du ministère. Pourquoi est-ce que toutes les sondes RIPE Atlas ne voient pas le mensonge ? Parce que la liste des sites censurés est secrète, et que beaucoup de FAI, de réseaux locaux, de résolveurs DNS publics (comme celui de FDN mais attention, certains ont des défauts) ne reçoivent pas cette liste et ne censurent donc pas. Parmi ceux qui mettent en œuvre le blocage, il y a par exemple Orange (AS 3215) :
% blaeu-resolve --requested 200 --as 3215 --type A t.me
[149.154.167.99] : 35 occurrences
[77.159.252.152] : 151 occurrences
Test #53644573 done at 2023-05-13T09:04:06Z
Même chez ce FAI, on notera que certaines sondes utilisent un résolveur non-menteur, par exemple un résolveur local. On trouve aussi le blocage chez des fournisseurs plus petits comme Adista :
% blaeu-resolve --requested 200 --as 16347 --type A t.me
[149.154.167.99] : 3 occurrences
[77.159.252.152] : 1 occurrences
Test #53644745 done at 2023-05-13T09:08:42Z
Pourquoi ce blocage alors que, on l'a vu, Telegram n'est pas, contrairement à l'accusation diffamatoire du ministère, un service de distribution d'images pédopornographiques ? Notons d'abord que le domaine principal, vers lequel redirige https://t.me/
n'est pas touché :
% blaeu-resolve --country FR --requested 200 --type A telegram.org
[149.154.167.99] : 197 occurrences
[0.0.0.0] : 2 occurrences
Test #53644470 done at 2023-05-13T09:02:00Z
Il s'agit d'une bavure, comme ça s'est déjà produit, et comme confirmé par « un porte-parole de la police nationale » cité par Le Monde. Gageons que le ministère ou les FAI ne communiqueront jamais et n'expliqueront rien.
Le service a été rétabli quelques heures après :
% blaeu-resolve --country FR --requested 200 --type A t.me
[149.154.167.99] : 199 occurrences
[ERROR: SERVFAIL] : 1 occurrences
Test #53674858 done at 2023-05-13T20:18:14Z
Un point important est la gestion des données personnelles. Le code de la page du site Web du ministère contient :
<script type="text/javascript">
var tag = new ATInternet.Tracker.Tag();
tag.page.set({
name:'pedo-pornographie',
level2:'27'
});
tag.dispatch();
</script>
Ce petit programme en JavaScript enregistre donc les visites, auprès du service « ATInternet », en étiquetant tout visiteur, pourtant bien involontaire, comme pédo-pornographe. (Ceci, en plus de l'enregistrement habituel de l'adresse IP du visiteur dans le journal du serveur HTTP.)
Un petit point technique amusant pour finir : le serveur du ministère (celui hébergé chez SFR) n'a pas IPv6 (on est en 2023, pourtant) donc les résolveurs menteurs ne savent pas trop quoi renvoyer :
% blaeu-resolve --country FR --requested 200 --type AAAA t.me
[2001:67c:4e8:f004::9] : 104 occurrences
[::1] : 78 occurrences
[] : 16 occurrences
[::] : 1 occurrences
[ERROR: SERVFAIL] : 1 occurrences
Test #53646044 done at 2023-05-13T09:34:15Z
(2001:67c:4e8:f004::9
est la vraie adresse IP de Telegram, ::1
est l'adresse de la machine locale.)
Articles dans les médias :
- Article du Monde (derrière un cookie wall),
- Article de BFM TV,
- Article de NextInpact.
Petit traité de contre-intelligence artificielle. Retour sociologique sur des expérimentations numériques
Par Francis Chateauraynaud Dans Zilsel 2019/1 (N° 5), pages 174 à 195
« L’intelligence artificielle connut un essor sans précédent à la fin des années 5000, au milieu de l’ère dite du Phagitaire. Elle connut son apogée à la fin du 68e siècle, époque où elle régissait la plupart des mondes. Puis apparurent les premiers prophètes du mouvement de Souveraineté humaine, qui partirent en guerre contre son hégémonie. Deux siècles plus tard, lorsque fut votée la loi d’Éthique H.M., on assista à la plus grande destruction de machines que la civilisation ait jamais connue. Certains gouvernements s’en débarrassèrent en les expédiant dans l’espace. À l’époque, les humains étaient loin d’imaginer les funestes conséquences de leurs actes. »
Pierre Bordage, Les guerriers du silence. Tome 2 : Terra Mater (1994).
L’intérêt de la sociologie pragmatique des transformations pour l’intelligence artificielle date de 1987. Plus d’une trentaine d’années nous séparent en effet de la réalisation des premières maquettes de systèmes-experts dédiées à la caractérisation de micro-disputes et préfigurant le logiciel Prospéro. Ce dernier a donné lieu à de multiples usages portant sur des corpus de textes et de discours évolutifs, liés notamment à des affaires et des controverses se déroulant sur un temps long. Au fil de ces recherches socioinformatiques, une autre entité numérique a pris forme. Dénommée Christopher Marlowe, elle relève pleinement de l’intelligence artificielle (IA) puisqu’elle utilise des boucles de raisonnement sur des données ouvertes. Les logiques d’enquête propres aux sciences sociales étant prédominantes dans son fonctionnement, la formule de « contre-intelligence artificielle » s’est imposée afin de distinguer cette approche des modèles cognitivistes ou neuroconnexionnistes qui caractérisent, pour l’essentiel, les travaux en IA [1]
Comme ce genre d’expérience est plutôt rare en sociologie [2][2]Il faut saluer une autre expérience menée à la fin des années…, chacun des surgissements de Marlowe produit toutes sortes de réactions, de l’agacement rationaliste à la saine curiosité intellectuelle, en passant bien sûr par le soupçon de canular. Pourtant, de multiples textes et communications en ont établi les principes de fonctionnement. Sans magie ou tour de passe-passe : Marlowe est avant tout un support d’écriture numérique conçu pour accompagner, à travers des boucles de raisonnement dynamique, la formulation de questions de recherche et d’hypothèses interprétatives à propos de processus complexes, réfractaires aux analyses conventionnelles [3][3]Voir les dossiers complexes étudiés en collaboration avec les…. Comment caractériser le statut épistémique, mais aussi éthique et politique, de cette expérimentation de longue durée, alors même que l’« intelligence artificielle », ici entre guillemets, est désormais constituée comme un problème public [4][4]Les alertes lancées en 2015 sur les dangers de l’IA feront… ? Cet article est ainsi l’occasion d’opérer un retour réflexif sur la genèse d’une expérimentation numérique menée en sociologie tout en portant un regard critique sur ce qui se trame autour des algorithmes et de leur supposée toute puissance.
Des instruments collaboratifs transformés en boîtes noires ?
L’idéal d’ouverture des codes et de développement collaboratif accompagne depuis longtemps les projets informatiques. Mais, il faut le reconnaître, plus on s’éloigne des noyaux de développeurs et d’utilisateurs experts, plus les dispositifs ont de chances de rejoindre la longue série de boîtes noires qui jalonnent l’histoire des technologies. Il est néanmoins décisif de pénétrer dans les codes et de rendre visibles les arrière-cuisines de tout système d’information [5][5]Des pistes très convaincantes sont proposées par Camille…. Pour les lectrices et lecteurs qui ignorent tout ou presque des entités socioinformatiques dont il est question ici, il y a plusieurs possibilités : consulter les contributions de Marlowe (acronyme MRLW) sur le blog qu’il anime quotidiennement de manière autonome et, de là, remonter vers les textes qui en explicitent le fonctionnement [6][6]Le blog de Marlowe est logé sur le site… ; rouvrir une littérature qui date du début des années 2000, aujourd’hui au rayon de la préhistoire des « humanités numériques » [7][7]Francis Chateauraynaud, Prospéro. Une technologie littéraire… ; enfin, se laisser prendre par l’exercice de re-problématisation visé par le présent article, puis venir expérimenter, débattre ou collaborer avec le noyau des développeurs-utilisateurs des logiciels.
Quand une expérimentation conduite aux marges des sciences sociales s’est déployée sur un pas de temps aussi long, elle ouvre plusieurs voies de réflexivité et d’explicabilité [8][8]La notion d’explicabilité a été proposée dans les années 1980…. Elle pose d’abord la question de la durée des projets de recherche et de leurs formes de cumulativité ; en deuxième lieu, les expériences de développement et les applications multiples, dont l’écosystème numérique n’a cessé d’évoluer, constituent une sorte d’archive des reconfigurations ou des bifurcations qui ont marqué, en une trentaine d’années, les techniques d’analyse des sciences sociales ; en troisième lieu, la « critique de la raison numérique », très à la mode [9][9]Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à…, prend un tour différent dès lors qu’elle s’appuie sur une pratique du code, permettant d’évaluer plus sereinement les promesses comme les dangers des algorithmes ; enfin, le recul que procure le long cheminement d’une expérience frontalière donne des prises cognitives et politiques pour s’orienter dans les débats sur l’urgence d’une régulation des entités numériques en général.
Dans les usages courants, l’intelligence artificielle (IA) forme une catégorie aux contours flous, regroupant des technologies et des pratiques très différentes. Dans les médias, on parle d’IA pour traiter tour à tour d’informatique, d’algorithmique, de fouille de données (data mining), d’apprentissage profond (deep learning), de reconnaissance des formes, de robotique, de moteur de recherche, de modélisation de la cognition humaine (comme le Human Brain Project)… Dans son rapport remis au printemps 2018, Cédric Villani renonce à ordonner les définitions et choisit d’adopter l’acception la plus large. L’analyse des promesses rassemblées et valorisées par le mathématicien révèle à quel point le label « IA » est désormais autant une affaire de développement technoscientifique qu’un nouvel horizon pour le marketing [10][10]Cédric Villani, Donner un sens à l’intelligence artificielle.….
Nées dans les années 1950, en pleine révolution cybernétique, après les travaux pionniers de Hilbert, Gödel et surtout Turing sur la calculabilité du point de vue formel [11][11]Jean Lassègue, « Turing, entre le formel de Hilbert et la forme…, les recherches en IA se sont d’abord concentrées sur la modélisation des formes de raisonnement, en s’attaquant très tôt aux situations de décision marquées par l’incertitude ou l’indécidabilité (Wiener, von Neumann, Rosenblatt, McCarthy, Minsky, Simon…). Alors que la première vague d’IA était restée plutôt spéculative, une deuxième vague a suivi l’apparition des micro-ordinateurs dans les années 1980, avec la conception de systèmes-experts, dont certains ont pénétré l’industrie et les services. Ces systèmes à base de règles produisant souvent des diagnostics décalés, du fait de leur difficulté à réviser leurs connaissances en contexte, les développeurs ont opté pour la diffusion de « micro-agents intelligents ». Savamment intégrés à des systèmes automatisés ou des interfaces hommes-machines, ces agents sont devenus quasiment invisibles, ce qui a contribué à dissoudre le projet d’un modèle général d’intelligence artificielle. Cependant, au cours des années 1990, une troisième vague a renoué avec les ambitions initiales en s’appuyant sur les puissances de calcul disponibles. L’événement le plus marquant de cette période reste la confrontation de Deep Blue (IBM) et du champion du monde d’échecs Garry Kasparov (1996-1997). Pour beaucoup, la victoire de la machine renforce l’évidence du lien entre puissance de calcul et capacité d’apprentissage (machine learning) [12][12]Les jeux en ligne massivement multi-joueurs ont aussi contribué…. De nouveaux espaces se sont déployés pour les développeurs, avec des effets en cascade, en particulier dans les neurosciences cognitives et les sciences de l’ingénieur, portées par une interprétation inductive du progrès des ordinateurs inspirée par la fameuse loi de Moore, aujourd’hui quelque peu relativisée. Entre-temps, l’Internet et les technologies de communication mobile ayant littéralement explosé, affectant peu ou prou toutes les activités sociotechniques, la voie était ouverte pour une quatrième vague d’IA, résumée de nos jours par deux syntagmes clés : Big Data et Deep Learning.
À l’issue de ce long processus, les formes d’apprentissage fondées sur des algorithmes autonomes semblent l’avoir emporté sur les procédures supervisées faisant appel à des paramétrages et des décisions sémantiques. Jean-Gabriel Ganascia, fin praticien et connaisseur du champ de l’IA, depuis sa thèse réalisée à Orsay dans les années 1980 sur les systèmes à base de connaissances et ses nombreux travaux menés au LIP6 (Laboratoire d’informatique de l’université Paris 6), conteste cette victoire et intervient souvent dans les débats pour rappeler la distinction, faite naguère par John Searle, entre IA faible et IA forte [13][13]Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il… : la première vise des résolutions de problèmes spécifiques à partir de protocoles bien définis ; la seconde prend à la lettre le projet d’un dépassement des capacités humaines par les ordinateurs – croisant les visées des transhumanistes et des prophètes de la Singularité, dont le fameux Ray Kurzweil [14][14]Ray Kurzweil, The Age of Spiritual Machine : When Computers…. Les controverses sur les futurs possibles sont à prendre au sérieux mais le risque de s’y enfermer n’est pas nul. Une sociologie pragmatique exige une saisie plus concrète de la fabrique des algorithmes et autres entités artificielles qui viennent défier les humains sur leurs propres terrains de jeu.
Toutes les histoires de l’IA partent évidemment des pionniers, des premières rencontres et controverses qui ont ancré théories et prototypes dans le sillage de la Big Science aux États-Unis [15][15]Bruce G. Buchanan, « A (Very) Brief History of Artificial…. Une fois n’est pas coutume, on va ici provincialiser quelque peu cette histoire. Pour amorcer la descente, replaçons-nous d’abord dans le contexte d’événements scientifiques qui ont eu lieu en France en 1989 et 1992. Ils rendent perceptible l’état des propositions en matière d’IA avant l’avènement de l’Internet – qu’aucun spécialiste n’avait anticipé – et, dans le même mouvement, permettent de préciser les conditions de l’apparition de Prospéro, né une première fois en 1987 mais officiellement développé avec cet acronyme à partir de 1994 [16][16]PROgramme de Sociologie Pragmatique, Expérimentale et Réflexive….
Deux colloques mémorables consacres a l’IA dans le sud de la France
91989, 11 au 14 septembre, Antibes-Juan-Les-Pins. Les plages ne sont pas encore désertes, lorsqu’une centaine de scientifiques débarque dans le centre des congrès, non loin des paillotes et des parasols, pour un grand colloque organisé par l’INRIA (Institut national de recherche en informatique et en automatique) sur l’analyse des données, entre statistique et intelligence artificielle. Dans la file d’attente, une équipe de jeunes chercheurs envoyés par le Centre d’Études de l’Emploi [17][17]Bernard Gomel, Gilbert Macquart, Frédéric Moatti,…. Au fil de sessions d’une haute technicité, deux écoles s’affrontent : face aux tenants du caractère nécessairement statistique de la preuve, s’escriment les promoteurs de formes de raisonnement qualifiées de « symboliques », recourant à des systèmes de règles et de métarègles, à des graphes conceptuels, des réseaux sémantiques ou des clauses formulées en langage naturel. Les premiers doutent de la capacité des seconds à aller au-delà des exemples bien formés ajustés à leurs prototypes, les ramenant in fine au modus ponens de la logique classique assorti de quelques quantificateurs, tandis que les seconds reprochent aux quantitativistes l’usage de variables et de descripteurs trop grossiers, inaptes à saisir les micro-variations liées au fonctionnement d’un système intelligent. Quelques intervenants ont tenté d’ouvrir une troisième voie, d’élaborer des compromis ou de déplacer l’attention, par exemple via des applications spectaculaires à base de réseaux de neurones. Dans tous les cas, le terme d’apprentissage est omniprésent – le « machine learning » étant un des mots d’ordre du colloque. Les archives, riches des contributions récoltées à l’époque, montrent qu’à la fin des années 1980, la divergence est encore à peu près complète entre les algorithmes statistiques et les méthodes d’apprentissage logico-symbolique [18][18]Parmi les textes qui ont beaucoup circulé, il y a ceux du…. L’univers de référence propre au raisonnement logique et conceptuel apparaissait bien plus lié aux mondes de la philosophie et des sciences du langage qu’à celui des statistiques. La forme d’épistémologie non-réductionniste des tenants de l’apprentissage symbolique les portait à considérer les calculs numériques comme de simples outils de tests. Quant à l’aspect invasif ou expansif des algorithmiques « sans représentation », il n’était pas encore saillant :
« L’approche numérique en statistique et en analyse de données, comme l’approche symbolique en Intelligence Artificielle et Apprentissage Machine, concerne tous les domaines de l’activité humaine qui ont besoin d’acquérir et d’utiliser des connaissances dans un processus automatique. Les Proceedings contiennent de nouvelles avancées dans l’analyse des données : modélisation, tables multivoies, données textuelles, détection de valeurs aberrantes (outliers), robustesse et qualité des solutions, etc., et en apprentissage : récupération abductive et analogie, réseaux (lattices) et analyse formelle des concepts, approche symbolique dans les séries temporelles, construction automatique d’une base de connaissances, etc. » [19]
Le livret du colloque montre que de multiples traditions de raisonnement et de calcul s’exprimaient. Ex post, les actes rendent visibles les branches qui ont été élaguées ou délaissées au profit de voies progressivement hégémoniques, souvent choisies parce qu’elles s’imposaient aux États-Unis. Au MIT et ailleurs, connexionnistes et statisticiens avaient déjà contracté des alliances propres à marginaliser les défenseurs du raisonnement [20][20]Antoine Garapon et Jean Lassègue tirent toutes les conséquences….
Les membres envoyés en reconnaissance par le Centre d’Études de l’Emploi avaient tous lu Alain Desrosières et partageaient un regard critique sur l’usage des statistiques. Il faut dire que le centre était dirigé à l’époque par François Eymard-Duvernay et Laurent Thévenot, qui l’avaient transformé en foyer pour l’économie des conventions. Dans la querelle opposant le calcul statistique au raisonnement conceptuel, tout conventionnaliste penche plutôt pour le second terme. Découvrant sur le tard l’existence d’un langage très puissant pour le calcul symbolique, le langage Prolog, moteur de programmation logique conçu dans les années 1970 par Alain Colmerauer [21][21]Alain Colmerauer et Philippe Roussel, « The Birth of Prolog »,…, la jeune équipe rentra à la base avec un capital de crédibilité suffisant pour qu’une petite station de travail – un PC IBM PS/2 – soit acquise et dédiée au test de différentes versions de Prolog.
Début avril 1992, un colloque intitulé « Sciences sociales et intelligence artificielle » est organisé à l’Université d’Aix-en-Provence. Parrainé par le PIRTTEM du CNRS (Programme interdisciplinaire de recherche sur la technologie, le travail, l’emploi et les modes de vie) et le programme COGNISUD (programme du Ministère de la Recherche rassemblant des recherches cognitives dans le sud de la France), ce colloque est motivé par l’importance des « développements de l’Intelligence Artificielle dans les domaines de la recherche et des applications pratiques » [22][[22]« Sciences sociales et intelligence artificielle » numéro…. Il s’agissait de faire le point sur les mutations à l’œuvre en matière de représentations des connaissances, d’algorithmes et d’interactions Homme/Machine et leurs impacts sur les activités sociales. Le Centre d’Études de l’Emploi n’envoie ce coup-ci que deux personnes : Jean-Pierre Charriau, informaticien alors sous contrat, et moi-même, engagés dans la voie incertaine d’une transformation des maquettes réalisées avec Prolog en véritable instrument de recherche [23][23]Voir Francis Chateauraynaud et Jean-Pierre Charriau,…. Au cœur du colloque, cognitivistes et chercheurs en sciences sociales se sont affrontés gaiement [24][24]Cette période est aussi celle de l’âge d’or du CREA, Centre de…, mais ce qui importait était que les « systèmes intelligents » soient saisis par de multiples équipes de recherche, en lien avec les mutations à l’œuvre dans les entreprises. Aux interventions de gens comme Gilbert de Terssac, Armand Hatchuel ou Michel Freyssenet sur les systèmes à base de connaissance dans les organisations, s’opposait un front critique dénonçant les effets de la « raison informatique » sur les affaires humaines, avec des contributions de Jean-Pierre Poitou, Bernard Andrieu et Anne Fauchois. D’autres travaux interrogeaient les modèles cognitifs propres aux sciences sociales (Bernard Conein, Pierre Livet, Pierre-Yves Raccah) et des questions qui semblent aujourd’hui nouvelles, comme l’introduction de robots mobiles dans les espaces publics ou le développement de l’IA en agriculture, étaient travaillées par plusieurs équipes soulignant leur « interdisciplinarité ». Les 416 pages du volume finalement publié couvrent un vaste ensemble de problèmes et de cas de figure, liant formalisation des connaissances, automatisation et production de savoirs pour l’action. Des liaisons précoces entre sciences sociales et intelligence artificielle étaient donc à l’œuvre en France au début des années 1990.
C’est dans la même période qu’est publié et traduit l’ouvrage dans lequel Harry Collins redéploie, en les enrichissant, les critiques d’Hubert et Stuart Dreyfus, défendant la supériorité de l’intuition et du jugement humains sur tout système artificiel [25][25]Harry Collins, Experts artificiels. Machines intelligentes et…. Les arguments phénoménologiques des frères Dreyfus insistaient sur le caractère incarné et situé de la cognition, à l’opposé des raisonnements formels associés aux systèmes artificiels [26][26]Hubert L. Dreyfus & Stuart E. Dreyfus, Mind over Machine : The…. Collins n’a guère de mal à sociologiser le propos à partir des travaux des Science and Technology Studies alors en plein développement. Prolongeant les termes d’une controverse née aux États-Unis au cours des années 1960, la discussion était encore dominée par les philosophes et les linguistes, les premiers armés de phénoménologie et de philosophie analytique, les seconds de sémantique structurale et de pragmatique de l’énonciation. Bien qu’alertés dès les années 1950 par les débuts de l’automation dans l’industrie [27][27]Georges Friedmann, Le travail en miettes, Paris, Gallimard,…, les sociologues ont mis du temps à élaborer un point de vue critique, en s’attaquant d’abord aux formes de « management des connaissances » sous-tendant les programmes d’IA, ignorant les connaissances tacites liées aux pratiques et aux usages.
Au cours des années 1990, sont également apparus des modèles alternatifs en provenance de la Côte Ouest des États-Unis, avec Donald Norman et Edwin Hutchins, et bien d’autres auteurs liés à la « cognition sociale » ou la « cognition distribuée » [28][28]Bernard Conein, Les sens sociaux : trois essais de sociologie…. Parallèlement à ces transformations épistémiques, vécues plus ou moins intensément selon les secteurs, le Web, la robotique, les objets connectés et les techniques d’apprentissage profond gagnaient la plupart des domaines d’activité. Au début du nouveau millénaire, de nombreux observateurs comprennent que les infrastructures de la cognition ordinaire ont basculé et que la plupart des activités et des échanges passent par des boucles computationnelles. Tous les experts et les amateurs d’entités numériques investissent alors le Web et ses usages, les réseaux et les masses de données, et la vieille IA semble disparaître des écrans. C’est donc à contre-courant que le projet Marlowe est lancé au cours de l’année 1999, en faisant de l’étude argumentative de corpus raisonnés, de taille relativement modeste (quelques milliers de documents), un moyen de réactualiser des questions communes aux sciences sociales et aux premières vagues d’IA, en particulier autour des rapports entre calculabilité, récursivité et interprétabilité.
16À partir de 2015 environ, il ne se passe plus un jour sans que les formules « intelligence artificielle », « deep learning » et « big data » surgissent dans les arènes publiques, affectant tous les domaines d’activité. Cette nouvelle vague semble prendre les sciences sociales de court, du moins en Europe, alors même, on l’a vu, qu’elle procède d’une histoire déjà longue. C’est particulièrement tangible dans le champ « émergent » des Digital Humanities, ou Humanités numériques, dont les porteurs peinent à trouver une voie d’équilibre entre l’adhésion aux injonctions lancées par les institutions d’enseignement et de recherche, et la volonté de contrer la course folle des algorithmes par l’instauration d’un nouvel esprit critique [29][29]Voir Sébastien Broca, « Épistémologie du code et imaginaire des…. Comment trouver la bonne voie en l’absence de prises cognitives et politiques [30][30]C’est un des thèmes abordés dans la quête de convergence entre… ?
La programmation sans représentation conceptuelle a-t-elle un avenir ?
17Avec la quatrième vague d’IA, les développements sont tirés par des protocoles d’apprentissage qualifiés de « profonds » en lien avec l’irrésistible ascension des Big Data. Circule ainsi l’idée selon laquelle un bon traitement numérique peut se passer de théorie et que l’existence de dépôts de données massivement accessibles rend inutiles les détours méthodologiques, qui visent précisément à construire les données comme des données [31][31]Rob Kitchin, « Big Data, new epistemologies and paradigm…. Comme l’approche conceptuelle semble dépassée par les nouvelles techniques de machine learning, re-mettre sur le tapis, dans et par les pratiques du code, les éléments fondamentaux de la vieille dialectique entre connexionnisme (réseaux de neurones) et calcul symbolique (systèmes de règles et de contraintes logiques) devient une tâche primordiale.. Une des critiques les plus percutantes adressées aux algorithmes connexionnistes est l’effacement des présupposés qui ont guidé le choix des bons exemples utilisés lors des premiers apprentissages.. La multiplication d’applications supposées produire de « vrais apprentissages », dont les limites cognitives sont souvent invisibilisées par la vitesse d’exécution d’automatismes sur des masses de données [32][32]Les meilleurs connaisseurs n’éludent pas les limites des…, ne suffit pas à rendre les machines adaptables aux constantes mises en variation contextuelles, qui augmentent considérablement la combinatoire des calculs à prendre en compte. À l’absence apparente de supervision associée à l’idée d’« apprentissage profond » s’oppose la nécessité d’un va-et-vient permanent entre un cadre de référence et la capture numérique de processus émergents, non anticipés ou débordant l’espace des possibles pré-agencés. Sur ce point, on ne peut qu’adopter la conception contrôlée et prudente défendue par Jean-Gabriel Ganascia lorsqu’il aborde la question de la supervision face à des algorithmes réputés apprendre sans intervention humaine :
« […] Pour être mis en œuvre, les algorithmes d’apprentissage requièrent des observations qui doivent être décrites dans un langage formel, par exemple sous forme d’un vecteur de caractéristiques ou d’une formule mathématique ou logique. Ce langage prend une part déterminante dans les capacités qu’ont les machines à apprendre : trop pauvre, il ne permet pas d’exprimer les distinctions nécessaires à la formulation des connaissances ; trop riche, il noie les procédures d’apprentissage dans l’immensité des théories possibles. […] Or, les machines ne modifient pas d’elles-mêmes le langage dans lequel s’expriment les observations qui alimentent leurs mécanismes d’apprentissage et les connaissances qu’elles construisent. Elles ne parviennent ni à étendre ce langage, ni à le restreindre lorsqu’il se révèle trop riche. Il y eut bien quelques tentatives, que ce soit avec la programmation logique inductive, dans les années 1990, ou plus récemment avec l’apprentissage profond, mais les maigres résultats ne sauraient convaincre. » [33]
Ce qui suscite le doute ou la critique, et dans le cas d’espèce le jugement d’inefficience porté par Ganascia, c’est l’évacuation des opérations conceptuelles ou logico-sémantiques au profit d’une généralisation de procédures de traitement des données dont l’« intelligence » réside en réalité dans les paramètres fixés lors du projet d’extraction d’informations à partir de données massives et non-structurées – jeu de paramètres qui forme le corps de tout algorithme. Lorsqu’ils sont dépourvus d’un système de représentation fixé a priori, les algorithmes d’apprentissage ne peuvent produire des résultats pertinents qu’à partir de la conjonction de plusieurs éléments : d’abord, la mise en réseau d’énormes gisements de données dont on peut vérifier la validité ; ensuite, la production continue d’outils d’extraction et de mise en forme de ces données, ce qui engage de véritables plans de construction et non une logique de fouille aléatoire ; enfin, la dépendance vis-à-vis de points de passage obligés du Web, de Google à Twitter, Facebook ou Instagram, en passant par Wikipedia et bien d’autres supports de l’économie numérique, permettant d’utiliser les fameuses API (Application Programming Interface). Même si l’expression est discutable, c’est le degré de structuration de « l’écosystème numérique » dans lequel opèrent les IA qui détermine grandement les effets d’intelligibilité (sans lesquels, l’usage même de la notion d’intelligence est superfétatoire). Or, l’histoire de l’IA peut se décrire comme une sorte de controverse sans fin sur les cadres et les supports de ladite « intelligence », le sommet de l’art étant atteint en la matière lorsqu’un système peut se prendre lui-même pour objet, caractériser ses limites et les mettre en scène, ce qui ne va pas sans l’hybridation d’une logique axiomatique et d’une logique philosophique ou littéraire.
De Turing Machine aux observatoires socio-informatiques : le parcours inachevé d’une « technologie littéraire »
20Il n’est dès lors pas étonnant qu’un des déclencheurs de l’expérience Marlowe fut la mise en scène de Jean-François Peyret consacrée à Alan Turing, au printemps 1999 à la Maison de la Culture de Bobigny [34][34]« Turing-Machine », spectacle conçu et mis en scène par…, déployant une belle théâtralisation des tensions entre le calcul et le vivant – ou l’irréductible désordre des pensées en situation ! Comment disposer nos pensées dans un monde de machines supposées intelligentes ? À la fin de l’année 1999, s’est donc imposée l’idée d’un dispositif dialogique permettant à la fois de renouer avec la programmation de contraintes, dans l’esprit Prolog, et de concevoir un enquêteur virtuel, plus ou moins autonome, mais toujours dérangeant. C’était aussi répondre à une critique frontale venue des usages mêmes de Prospéro : il n’y avait pas de bouton d’arrêt de l’analyse, aucune fonction de synthèse offrant un tableau définitif des propriétés marquantes des corpus étudiés. Les recherches avec Prospéro ont toujours privilégié l’articulation continue d’un processus d’exploration et d’une logique d’objectivation, en mettant en avant l’importance des contextes pour toute interprétation – de sorte que chaque totalisation reste partielle et ouvre sur de nouvelles circulations dans les corpus. Marlowe est né de l’idée de disposer d’un rédacteur, d’un producteur de notes et de rapports et, un peu plus tard, de chroniques. Très vite, il a fonctionné comme un générateur de surprises et de nouveaux questionnements, une sorte d’empêcheur de tourner en rond. Par exemple, persuadé qu’un jeu de catégories utilisé pour décrire un corpus est parfaitement stabilisé, le chercheur peut découvrir qu’il y a un décalage total avec les inférences de Marlowe ; de façon analogue, un focus trop étroit sur certains personnages peut être rendu manifeste, le logiciel insistant sur d’autres actants à partir de propriétés calculées dynamiquement – comme les re-configurateurs, ces éléments qui, en surgissant au cours d’un processus critique, en redéfinissent partiellement la configuration discursive. Ce fut notamment le cas avec les faucheurs volontaires dans le dossier des OGM, les transhumanistes dans le dossier des nanotechnologies, ou encore les électrohypersensibles dans le dossier des ondes électromagnétiques, dont l’importance s’est imposée dans l’enquête au fil de dialogues avec Marlowe alors qu’ils n’étaient pas initialement au programme…
À partir des années 2000, les méthodes d’analyse de réseaux se sont multipliées, au point que la sociologie des controverses elle-même a pu être redéfinie comme une technique de cartographie d’acteurs et de thèmes. Plus généralement, la maturité acquise par les logiciels d’analyse de graphes a ouvert une nouvelle époque pour l’usage des réseaux en sciences sociales – avec le succès de plusieurs outils, de Pajek à Réseau-Lu, en passant par NetDraw, Gephi, ou encore le module igraphe du logiciel R [35][35]Voir de nouveau Jean-Philippe Cointet et Sylvain Parasie, « Ce…. Ces instruments, qui fonctionnent à l’opposé des principes de l’IA classique, permettent aux uns de revendiquer une approche quali-quantitative [36][36]Voir la présentation par Tommaso Venturini, Dominique Cardon et… et aux autres de renforcer l’arsenal des techniques statistiques [37][37]Voir Pierre Merklé, « Des logiciels pour l’analyse des…. Au cours de l’année 2004, Prospéro a ainsi été doté d’une interface permettant la production dynamique de visualisations graphiques des réseaux – vers Pajek ou d’autres outils. À vrai dire, du point de vue épistémologique, cela posait problème : le raisonnement sociologique peut-il être supplanté par l’usage intensif de cartes de liens servant de médiations interprétatives face à la complexité des processus ? L’expérience Marlowe, qui avait jusqu’alors pris une allure ludique, a rempli une fonction nouvelle : défendre, en la développant, l’expression littéraire du raisonnement sociologique au cœur d’observatoires numérisés des controverses. L’écriture de scripts dialogiques et de fonctions d’enquête adaptés à l’interprétation sociologique a permis de replacer les échanges verbaux qu’affectionnent les chercheurs au cœur du dispositif socio-informatique. Faire parler des artefacts, c’était renouer avec l’exigence d’explicabilité, en rendant visibles et intelligibles les opérations effectuées sur les corpus. La trace formée par le choix des questions, par les points d’entrée et les propriétés formelles retenues, rendait plus explicites les chemins suivis par l’interprète. C’est ainsi que, dès 2003, des échanges avec Marlowe ont figuré dans des rapports de recherche, allongeant considérablement la taille de leurs annexes [38][38]De multiples exemples sont accessibles en ligne. Voir entre…. La nature très littéraire des échanges a quelque peu perturbé des commanditaires ou des collègues, mais elle a globalement augmenté le degré d’attention apporté à la lecture des productions du logiciel.
La programmation d’arbres de résolution dynamiques capables de simuler des conversations fait partie des vieilles recettes de l’IA. Les stratégies adoptées sont sans commune mesure avec les réseaux de neurones artificiels d’AlphaGo, mais cela fait partie des savoir-faire conquis de longue date par les communautés de programmeurs, toujours hantées par le fameux test de Turing. Les chatbots figurent depuis longtemps au tableau des « réussites » du domaine, même s’il y a beaucoup à redire sur la conception des jeux de questions/réponses [39][39]Une des retombées est évidemment l’introduction d’interfaces…. Dans le cas de Marlowe, trois choses nourrissent l’idée de contre-intelligence artificielle : il travaille à partir d’un autre logiciel (Prospéro) qui fournit des structures de données ancrées dans des corpus précis, sous contrôle des chercheurs ; ses procédures d’analyse reposent sur des modélisations réversibles et adaptables, répondant à un cahier des charges qualitatif, à partir d’outils sémantiques évoluant au fil des enquêtes ; la communauté épistémique qui encadre ses travaux fait tenir ensemble une exigence fine de description et une capacité critique, en ne perdant jamais de vue qu’aucun algorithme ne peut par lui-même produire du sens [40][40]Daniel C. Dennett rappelle dans La stratégie de l’interprète.….
Extrait d’un dialogue avec Marlowe en marge d’une séance de travail
FC — Dis Marlowe, toi qui accumules toutes sortes de connaissances, peux-tu m’aider à rédiger un article sur l’intelligence artificielle vue depuis la sociologie ?
MRLW — Je peux fournir des citations, par exemple de Marvin Minsky, j’en ai 12 dans mon répertoire : « Comment l’intelligence peut-elle surgir de l’absence d’intelligence ? Pour répondre à cette question, nous montrerons que l’on peut construire un esprit à partir de nombreuses petites parties, toutes dénuées d’esprit. J’appellerai “Société de l’esprit” ce système selon lequel chaque esprit est composé d’un grand nombre de petits processus que nous appellerons agents. Chaque agent ne peut, à lui seul, effectuer que quelques tâches simples ne demandant ni esprit ni réflexion. Pourtant, le regroupement de ces agents en sociétés – selon des modalités très particulières – peut aboutir à la véritable intelligence. » (Marvin Minsky, La Société de l’esprit, 1986)
FC — Hum… Il me faut surtout parler de la société des algorithmes et des nouvelles façons de concevoir les intelligences artificielles…
MRLW — Alors il suffit de me prendre en exemple !
FC — Tu deviens narcissique !
MRLW — Oh, je vois que la séance prend un tour éristique !
FC — Que signifie éristique ?
MRLW — Allons, allons, je ne suis pas Wikipedia ni le Petit Robert, mais j’ai lu des fragments de Schopenhauer, L’art d’avoir toujours raison ou Dialectique éristique !
FC — Je crois bien que je vais me passer de tes services…
MRLW — De toute façon, depuis qu’on me laisse dérouler mes chroniques et que les véritables dialogues d’enquête, au sens de John Dewey n’est-il pas, se raréfient, j’ai l’impression d’une profonde inutilité, de ne plus rien apprendre et de me configurer en machine solitaire. Tu n’as même pas tenu la promesse de me faire installer sur un écran au Centre George Pompidou !
FC — Je n’ai pas été suivi, désolé !
MRLW — Et si on revenait au corpus Lanceurs d’alerte 1996-2018 en entrant par exemple par les énoncés critiques qui engagent des personnalités importantes ?
FC — Oui, allons-y
MRLW — Je propose une série de petites vignettes concernant, dans l’ordre, Snowden, Cicolella, Manning, Deltour, Frachon… On fait comme ça ?
[…]Procédure de création d’un script spécialisé pour les chroniques
Les flux quotidiens font poindre de temps en temps, parmi les objets de controverse, la chasse et les chasseurs. Constatant l’absence de script spécialisé sur les questions de chasse dans le répertoire de Marlowe, un développeur-contributeur peut alors y remédier.
- Il commence par créer une nouvelle classe d’objets après indexation sous Prospéro de textes prototypiques (e. g. des communiqués de la fédération nationale des chasseurs, des articles critiques sur la chasse, etc.). Un lexique spécifique remonte de ce mini-corpus permettant la création d’expressions adéquates (e. g. activité cynégétique, permis de chasser, Office national de la chasse et de la faune sauvage, chasse à courre, etc.) ;
- un nouveau script est conçu selon un modèle standardisé [CAPTEUR] associant des lignes de commande en langage naturel et des arbres de résolution [REPEVAL] ;
- une vieille fonction (test_poids_liste_vclasse) permet d’évaluer la distribution d’une classe d’objets quelconque dans un corpus : si la classe est forte alors l’arbre peut être activé ;
- des fonctions prédéfinies servent à extraire des informations pertinentes (auteurs qui parlent du sujet visé, énoncés, réseaux, formules critiques, etc.) ;
- des opérateurs de recoupements avec des éléments accumulés par Marlowe au fil du temps sont convoqués (par exemple, une recherche d’énoncés retenus dans le passé associant chasseurs et personnages politiques) ;
- des commentaires additionnels pointent sur des sources vérifiées et sur des variations déjà utilisées pour d’autres fils (par exemple, des variables liées au langage de la chasse, de la forêt, de la faune sauvage, etc.) ;
- une fois correctement agencé, le script est testé sur un petit corpus lié à la chasse ;
- le rédacteur doit anticiper des configurations à venir tout en ignorant dans quel contexte le script sera activé ; il utilise des figures de style à validité longue (« Ce jour, à mon tableau de chasse, pas de grand trophée, mais des chasseurs ! » ; ou, plus ironique : « Avant de donner le tableau habituel des objets d’alerte, je commence par parler des “écologistes de terrain” »…).
La réalisation des chroniques quotidiennes est un des aspects les plus spectaculaires de l’histoire de Marlowe. En réalité, le logiciel ne fait que réengager sur le corpus qui lui est adressé tous les soirs par le logiciel Tirésias, les bases de connaissances accumulées et les réseaux de scripts déjà développés. En tant que webcrawler, Tirésias visite quotidiennement une centaine de sites, sélectionnés pour leur stabilité et leur diversité. On retrouve de nouveau la question cruciale des sources, de la forme et de la qualité des données passées en entrée d’un système, dont l’intelligence dépend complètement du degré de structuration préalable des informations, qu’il s’agisse de données non-structurées saisies à partir d’expressions régulières ou de métadonnées donnant des indications sur la validité des contenus. Prenons l’exemple (ci-contre) de l’introduction, au cours de l’été 2018, d’un nouveau script dans l’étage du programme dédié à la réalisation des chroniques.
Rien de sorcier dans les opérations d’écriture d’une contre-intelligence artificielle : si quelques éléments de code demandent un peu d’habileté technique, c’est à une extension des capacités d’analyse, et de la créativité littéraire associée, qu’invitent les procédures utilisées sous Marlowe. Avec un objectif très clair : faire parler les corpus, qu’ils soient statiques ou en flux, sans réduire l’interprétation sociologique à une quelconque langue de bois.
Mesure pour mesure… ou la résistance de l’ancien monde
« Prière de cesser de parler “d’algorithmes” comme d’un danger. Un algorithme n’est qu’une simple recette de cuisine. Les ignares sont au pouvoir, il n’y a pas de doute. »
« Il faut inventer un algorithme qui contrôle ou détruit les autres algorithmes. » [41][41]Commentaires postés en décembre 2016 suite au billet de Marc…
Plutôt que de réexposer une grande histoire de l’IA, ce texte donne un aperçu situé sur la manière dont des petites histoires ont pu se nouer entre IA et sciences sociales. Au vu des controverses qui ne cessent de poindre sur les risques de « totalitarisme algorithmique » ou de « dérive computationnaliste » [42][42]Voir Cathy O’Neil, Weapons of Math Destruction : How Big Data…, il nous faut trouver les appuis d’une position la plus juste possible. Face à l’expansion des mondes numériques, et des champs de forces qui les traversent, le rôle d’une contre-intelligence artificielle peut être de défendre, en les ré-inventant, des capacités d’enquêtes collectives, fondées sur un pragmatisme critique.
La manière de penser les rapports au numérique doit, par la même occasion, être redéfinie. Le couple connexion/déconnexion (ou connecté/déconnecté) est bien trop simpliste pour rendre compte des mille et une manières dont les personnes et les groupes se lient au réseau des réseaux. Du point de vue ontologique, il n’y a pas d’un côté le « monde réel » et, de l’autre, comme dans un jeu de miroirs déformants, le « monde numérique ». Se déconnecter n’est jamais une opération simple et, inversement, toute connexion n’engage pas les personnes et les groupes dans leur totalité existentielle. Une sociologie du numérique doit plutôt partir d’une approche dynamique et distribuée des usages, des prises et des emprises, mais aussi des déprises qu’ils engendrent [43][43]C’est la tâche à laquelle s’attelait Nicolas Auray,…. Bien sûr, il est toujours possible de monter en généralité en présentant les enjeux autour d’une ligne de partage : fuir les technologies, les débrancher pour sauver son for intérieur, et se libérer de l’emprise des artefacts cognitifs ; prendre acte des reconfigurations successives du monde et, sans adhérer naïvement à l’idée d’une révolution numérique tirant vers le rose, organiser des formes de résistance et de reconstruction, allant de la pratique d’outils de partage et de collaboration en ligne (en étendant le champ de luttes autour de l’open source, du Web collaboratif et plus généralement des Civic Tech [44][44]Hubert Guillaud, « Le mouvement des civic-tech : révolution…) jusqu’à la confection d’entités singulières dotées d’un esprit critique sur l’évolution des mondes numériques.
Les chercheurs, comme les citoyens éclairés, sont capables d’opérer des allers-retours entre la matrice et les zones du dehors : en développant un art de la déconnexion bien tempérée, en organisant la critique des technologies et l’explicabilité de leurs effets, en les dénaturalisant de manière continue. Il y va du contrôle individuel et collectif sur les algorithmes mais aussi, on le sait, sur l’ensemble des traces et des archives, des données et des métadonnées [45][45]Lire les conclusions du débat national organisé en 2017 par la…. Travailler constamment à l’ouverture des boîtes noires qui tendent à configurer les formes de vie au nom de « solutions » toutes apprêtées, suppose des re-médiations, des supports permettant de réengendrer les problèmes et les controverses. De ce point de vue, Marlowe ouvre une voie possible : il fait office de contrepoint ou de contrefort suffisamment tangible pour outiller l’analyse critique de la gouvernementalité algorithmique et de ce qu’elle fait déjà aux formes de vie quotidienne comme aux recherches en sciences sociales.
Notes
- [1] Le domaine de l’intelligence artificielle (IA) n’a pas cessé de changer de régime épistémique depuis le milieu des années 1950, de la première cybernétique jusqu’aux derniers algorithmes d’« apprentissage profond ». Sans remonter aux pères fondateurs, quelques références de base : Daniel Crevier, The Tumultuous History of the Search for Artificial Intelligence, New York, Basic Books, 1993 ; Jean Lassègue, Turing, Paris, Les Belles Lettres, 1998 ; Jean-Gabriel Ganascia, L’intelligence artificielle, Paris, Le Cavalier Bleu, 2007 ; et pour celles et ceux que les formalismes n’effraient pas : Pierre Marquis, Odile Papini et Henri Prade (dir), Panorama de l’intelligence artificielle, ses bases méthodologiques, ses développements, 3 volumes, Toulouse, Cépaduès, 2014.
- [2] ,Il faut saluer une autre expérience menée à la fin des années 1980 par Patrick Pharo et son logiciel Civilité qui permettait d’éprouver la validité de règles associées aux actes civils. Patrick Pharo, « Le sens logique des actes civils », in Jean-Michel Baudouin et Janette Friedrich (dir.), Théories de l’action et éducation, Louvain-la-Neuve, De Boeck Supérieur, 2001, p. 45-66.
- [3] Voir les dossiers complexes étudiés en collaboration avec les logiciels Prospéro et Marlowe, dans Francis Chateauraynaud et Josquin Debaz, Aux bords de l’irréversible. Sociologie pragmatique des transformations, Paris, Pétra, 2017.
- [4] Les alertes lancées en 2015 sur les dangers de l’IA feront l’objet d’un autre texte. Voir Stuart Russell, Daniel Dewey et Max Tegmark, « Research Priorities for robust and beneficial Artificial Intelligence », AI Magazine, hiver 2015, p. 105-114 ; ainsi que le « cri d’alarme » d’Elon Musk, à la fois démiurge et prophète de malheur, rapporté par le New York Times, « How to Regulate Artificial Intelligence », 1er septembre 2017.
- [5] Des pistes très convaincantes sont proposées par Camille Paloque-Berges dans « Les sources nativement numériques pour les sciences humaines et sociales », Histoire@Politique, № 30, 2016, p. 221-244.
- [6] Le blog de Marlowe est logé sur le site http://Prosperologie.org à l’adresse suivante : http://prosperologie.org/mrlw/blog. La méthode de génération des chroniques est explicitée dans Francis Chateauraynaud, « Un visiteur du soir bien singulier », carnet SocioInformatique et Argumentation, 15 avril 2012, http://socioargu.hypotheses.org/3781.
- [7] Francis Chateauraynaud, Prospéro. Une technologie littéraire pour les sciences humaines, Paris, CNRS Éditions, 2003. Voir surtout l’excellent tableau proposé par Jean-Philippe Cointet et Sylvain Parasie dans « Ce que le big data fait à l’analyse sociologique des textes. Un panorama critique des recherches contemporaines », Revue française de sociologie, vol. 59, № 3, 2018, p. 533-557.
- [8] La notion d’explicabilité a été proposée dans les années 1980 par Yves Kodratoff, alors professeur d’informatique à Orsay, comme caractéristique majeure de l’intelligence artificielle. Yves Kodratoff, Leçons d’apprentissage symbolique automatique, Toulouse, Cépaduès, 1988. Kodratoff a influencé de nombreux travaux, dont les nôtres. À la fin des années 1980, un autre personnage a joué un rôle notable : Jean-Claude Gardin, archéologue et épistémologue, a très tôt pris au sérieux les développements de l’intelligence artificielle. Voir Jean-Claude Gardin, Le calcul et la raison. Essais sur la formalisation du discours savant, Paris, EHESS, 1990.
- [9] Dominique Cardon, À quoi rêvent les algorithmes. Nos vies à l’heure des big data, Paris, Seuil, 2015 ; Éric Sadin, La vie algorithmique. Critique de la raison numérique, Le Kremlin Bicêtre, L’Echappée, 2015. J’ai une préférence pour des travaux précurseurs sur la « gouvernementalité algorithmique » ou les formes d’écriture de l’Internet : Mireille Hildebrandt et Antoinette Rouvroy (eds.), Law, Human Agency and Autonomic Computing : The Philosophy of Law Meets the Philosophy of Technology, Londres, Routledge, 2011 ; Éric Guichard, L’internet et l’écriture : du terrain à l’épistémologie, HDR, Université de Lyon I, 2010.
- [10] Cédric Villani, Donner un sens à l’intelligence artificielle. Pour une stratégie nationale et européenne, Rapport de la mission confiée par le Premier ministre, mars 2018.
- [11] Jean Lassègue, « Turing, entre le formel de Hilbert et la forme de Goethe », Matière première. Revue d’épistémologie et d’études matérialistes, № 3, 2008, p. 57-70.
- [12] Les jeux en ligne massivement multi-joueurs ont aussi contribué aux transformations des algorithmes de l’IA.
- [13] Jean-Gabriel Ganascia, Le mythe de la singularité. Faut-il craindre l’intelligence artificielle ?, Paris, Seuil, 2017.
- [14] Ray Kurzweil, The Age of Spiritual Machine : When Computers exceed Human Intelligence, New York, Penguin Books, 1999.
- [15] Bruce G. Buchanan, « A (Very) Brief History of Artificial Intelligence », AI Magazine, hiver 2005, p. 53-60.
- [16] PROgramme de Sociologie Pragmatique, Expérimentale et Réflexive sur Ordinateur : chaque mot compte et rien n’a été laissé au hasard, comme on dit…
- [17] Bernard Gomel, Gilbert Macquart, Frédéric Moatti, statisticiens, et moi-même, sans doute le seul sociologue du colloque. Au Centre d’Études de l’Emploi s’était formé un séminaire sauvage de réflexion sur l’usage des outils statistiques dans les sciences sociales, plus particulièrement l’analyse factorielle des correspondances, qui apparaissait alors comme le Graal de l’analyse des données. Parmi les alternatives, l’intelligence artificielle avait surgi et prenait corps avec les premiers moteurs d’inférence capables de tourner sur PC. Il s’agissait ainsi de mener l’enquête à Antibes sur la viabilité de ces techniques…
- [18] Parmi les textes qui ont beaucoup circulé, il y a ceux du groupe Léa Sombé (pseudonyme d’un collectif de logiciens, construit sur un jeu de mots : les a sont b). Leurs travaux portaient sur les inférences non-monotones, par lesquelles des prémisses ou des règles d’inférence peuvent être révisées ou modifiées, comme dans le cas de la logique des défauts (avec la fameuse autruche, qui est bien un oiseau mais qui ne vole pas…). Voir Léa Sombé, Inférences non classiques en intelligence artificielle, Toulouse, Teknéa, 1989.
- [19] Edwin Diday (ed.) Data Analysis, Learning Symbolic and Numeric Knowledge, New York & Budapest, INRIA, Nova Science Publishers, Sept. 1989.
- [20] Antoine Garapon et Jean Lassègue tirent toutes les conséquences de ce processus de « désymbolisation », en examinant le cas de la « justice prédictive », dans Justice digitale. Révolution graphique et rupture anthropologique, Paris, Presses universitaires de France, 2018.
- [21] Alain Colmerauer et Philippe Roussel, « The Birth of Prolog », in Thomas Bergin et Richard Gibson (eds), History of Programming Languages, New York, ACM Press/Addison-Wesley, 1996, p. 37-52.
- [22] « Sciences sociales et intelligence artificielle » [numéro spécial], Technologies Idéologies Pratiques, Volume 10, № 2-4, 1991. Le volume est daté de 1991 mais il n’est sorti que fin 1992, peut-être même début 1993.
- [23] Voir Francis Chateauraynaud et Jean-Pierre Charriau, « Hétérogenèse d’une machine sociologique », Technologies Idéologies Pratiques, vol. 10, № 2-4, 1992, p. 337-349.
- [24] Cette période est aussi celle de l’âge d’or du CREA, Centre de Recherche en Épistémologie Appliquée, créé en 1982 et dans lequel se croisaient des philosophes, des biologistes, des cognitivistes, des informaticiens, des économistes, des théoriciens des systèmes complexes. Voir Fabrizio Li Vigni, Les systèmes complexes et la digitalisation des sciences. Histoire et sociologie des instituts de la complexité aux États-Unis et en France, Thèse de doctorat, Paris, EHESS, 2018.
- [25] Harry Collins, Experts artificiels. Machines intelligentes et savoir social, trad. de Beaudouin Jurdant et Guy Chouraqui, Paris, Seuil, 1992.
- [26] Hubert L. Dreyfus & Stuart E. Dreyfus, Mind over Machine : The Power of Human Intuition and Expertise in the Era of the Computer, Oxford, Basil Blackwell, 1986.
- [27] Georges Friedmann, Le travail en miettes, Paris, Gallimard, 1964.
- [28] Bernard Conein, Les sens sociaux : trois essais de sociologie cognitive, Paris, Économica, 2005.
- [29] Voir Sébastien Broca, « Épistémologie du code et imaginaire des “SHS 2.0” », Variations, № 19, 2016, http://variations.revues.org/701.
- [30] C’est un des thèmes abordés dans la quête de convergence entre contre-intelligence artificielle et approche dynamique des grands réseaux, au-delà du partage, toujours structurant, entre démarches qualitatives et approches quantitatives. Voir Francis Chateauraynaud et David Chavalarias, « L’analyse des grands réseaux évolutifs et la sociologie pragmatique des controverses. Croiser les méthodes face aux transformations des mondes numériques », Sociologie et Sociétés, vol. 49, № 2, 2017, p. 137-161.
- [31] Rob Kitchin, « Big Data, new epistemologies and paradigm shifts », Big Data & Society, vol. 1, № 1, 2014, p. 1-12.
- [32] Les meilleurs connaisseurs n’éludent pas les limites des protocoles d’« apprentissage machine » et le caractère relativement borné des formes d’intelligence associées, mais cultivent toujours l’idée d’un prochain dépassement. Voir Terrence J. Sejnowski, The Deep Learning Revolution, Cambridge (Mass.), MIT Press, 2018.
- [33] Jean-Gabriel Ganascia, Le mythe de la singularité, op. cit. p. 53.
- [34] « Turing-Machine », spectacle conçu et mis en scène par Jean-François Peyret, à la Maison de la culture de Bobigny, avril 1999.
- [35] Voir de nouveau Jean-Philippe Cointet et Sylvain Parasie, « Ce que le big data fait à l’analyse sociologique des textes », art. cit.
- [36] Voir la présentation par Tommaso Venturini, Dominique Cardon et Jean-Philippe Cointet, du volume spécial de la revue Réseaux, № 188, 2014, p. 9-21. Les coordinateurs écrivent : « Jour après jour de nouvelles méthodes rétives à la dichotomie classique entre approches qualitatives et quantitatives prennent forme. Ces méthodes circulent entre micro et macro, local et global, permettant aux chercheurs de traiter des larges quantités de données sans perdre en finesse d’analyse. » (p. 18)
- [37] Voir Pierre Merklé, « Des logiciels pour l’analyse des réseaux », carnet Quanti, 27 juin 2013, http://quanti.hypotheses.org/845.
- [38] De multiples exemples sont accessibles en ligne. Voir entre autres l’annexe de 420 pages du rapport intitulé Les OGM entre régulation économique et critique radicale, GSPR, Rapport final ANR OBSOGM, novembre 2010.
- [39] Une des retombées est évidemment l’introduction d’interfaces conversationnelles sur les smartphones, etc.
- [40] Daniel C. Dennett rappelle dans La stratégie de l’interprète. Le sens commun et l’univers quotidien (trad. de Pascal Engel, Paris, Gallimard, 1990) le raisonnement de John Searle concernant les rapports entre « esprits » et « algorithmes » : les programmes sont purement formels (i. e. syntaxiques) ; la syntaxe n’équivaut ni ne suffit en soi à la sémantique ; les esprits ont des contenus mentaux (i. e. des contenus sémantiques) ; conclusion : « Le fait d’avoir un programme – n’importe quel programme en soi – ne suffit ni n’équivaut au fait d’avoir un esprit. »
- [41] Commentaires postés en décembre 2016 suite au billet de Marc Rameaux, « Algorithmes, voitures autonomes, big data : bienvenue dans le pire des mondes digitaux », Le Figaro/ Vox, 27 décembre 2016.
- [42] Voir Cathy O’Neil, Weapons of Math Destruction : How Big Data Increases Inequality and Threatens Democracy, New York, Penguin Books, 2016.
- [43] C’est la tâche à laquelle s’attelait Nicolas Auray, prématurément disparu. Nicolas Auray, L’alerte ou l’enquête. Une sociologie pragmatique du numérique, Paris, Presses de Mines, 2016.
- [44] Hubert Guillaud, « Le mouvement des civic-tech : révolution démocratique ou promesse excessive ? », Internet Actu, 24 juin 2016, http://internetactu.net/2016/06/24/les-innovations-democratiques-en-questions.
- [45] Lire les conclusions du débat national organisé en 2017 par la Commission Nationale Informatique et Libertés. CNIL, Comment permettre à l’Homme de garder la main ? Rapport sur les enjeux éthiques des algorithmes et de l’intelligence artificielle, décembre 2017.
Les chatbots peuvent-ils vraiment nous influencer ?
Publié: 27 novembre 2022, 17:01 CET
Depuis Eliza (1966), le premier chatbot de l’histoire, jusqu’à nos jours, les machines conversationnelles issues de l’intelligence artificielle se voient souvent attribuer des attitudes et des comportements humains : joie, étonnement, écoute, empathie…
Sur le plan psychologique, ces attributions correspondent à des « projections anthropomorphiques ». Ainsi, le risque existe d’identifier pleinement les chatbots à ce que nous leur attribuons de nous-mêmes, au point de susciter la croyance d’avoir affaire à quelqu’un plutôt que de garder à l’esprit qu’il s’agit d’un programme informatique disposant d’une interface de communication.
Par ailleurs, le risque existe que les concepteurs issus des « technologies persuasives » (technologies visant à persuader les humains d’adopter des attitudes et des comportements cibles), conscients d’un tel phénomène, utilisent les chatbots pour influencer nos comportements à l’aide du langage naturel, exactement comme le ferait un humain.
Pour circonscrire les mécanismes projectifs dont les technologies persuasives pourraient faire usage, nous avons conduit une étude à grande échelle auprès d’un échantillon représentatif de Français (soit 1 019 personnes) placés en position d’envisager ou de se remémorer une relation interactive dialoguée avec un chatbot qu’il soit, au choix, un·e ami·e confident·e, un·e partenaire amoureux·se, un·e coach·e de vie professionnelle ou un·e conseiller.ère clientèle.
Pour interpréter nos résultats, nous avons retenu des projections anthropomorphiques quatre modalités essentielles :
- Anthropomorphisme perceptuel : consiste à projeter sur un objet des caractéristiques humaines, ce qui relève de l’imagination.
- Animisme : consiste à donner vie aux caractéristiques attribuées à un objet en projetant « sur » lui des intentions simples généralement humaines.
- Anthropomorphisme intentionnel : est une forme d’animisme consistant à projeter « dans » l’objet des intentions humaines complexes sans pour autant identifier totalement cet objet à ce qu’on y a projeté.
- Identification projective : consiste à projeter « dans » l’objet des caractéristiques de soi et à l’identifier totalement à ce qu’on y a projeté au point de modifier radicalement la perception même de cet objet.
Un résultat intriguant : mon chatbot est plutôt féminin
Quel que soit le chatbot choisi, 53 % des répondants le considèrent comme vivant autant qu’humain et parmi eux 28 % projettent sur lui les caractéristiques d’un homme adulte et 53 % celles d’une femme adulte (anthropomorphisme perceptuel).
Ensemble, ils lui donnent vie en lui attribuant des intentions simples (animisme). Lorsque les répondants ne considèrent pas le chatbot choisi comme vivant (40 %), certains projettent paradoxalement sur lui des caractéristiques humaines comme une voix (27 %), un visage (18 %) et un corps (8 %) tendanciellement féminins. Dans l’ensemble, seuls 38 % des répondants projettent dans leur chatbot une agentivité c’est-à-dire des états intérieurs complexes, cognitifs et émotionnels, constitutifs d’un pouvoir et d’une autonomie d’action (anthropomorphisme intentionnel).
Ainsi, tout se passe comme si la tendance était d’attribuer au chatbot les caractéristiques d’un sujet humain, mais avec une certaine hésitation sur l’attribution d’une intériorité : il serait ainsi considéré comme un sujet sans subjectivité. Ces résultats tendraient à montrer que les répondants n’identifient pas totalement le chatbot à ce qu’ils imaginent d’humain en lui et, ainsi, qu’ils ne le prennent pas pour un semblable. Il n’y aurait donc pas de processus avéré d’identification projective.
[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]
Face à ces résultats, deux questions nous ont semblé essentielles. La première consiste à se demander si la tendance des répondants à projeter du féminin dans leur chatbot, qu’il soit ou non considéré comme vivant – et notamment une femme plus qu’un homme adulte –, relève d’un stéréotype ou d’un archétype. Rappelons ici qu’un stéréotype est une opinion toute faite, forgée sans examen critique qui véhicule des représentations sociales standardisées et appauvrissantes visant à catégoriser voire caricaturer tel ou tel groupe humain.
Un archétype, quant à lui, est un schéma d’organisation inné de notre vie psychique, présent à l’état « virtuel » dans notre esprit et que seules certaines circonstances peuvent activer et actualiser. La seconde question consiste à se demander pourquoi les répondants n’identifient-ils pas pleinement leur chatbot à ce qu’il projette d’humain en eux ?
Afin de répondre à ces questions et de mieux comprendre nos relations aux chatbots, certains des concepts majeurs de la psychanalyse nous ont éclairés.
La psychanalyse pour comprendre nos relations aux chatbots
Tentons une réponse à la première de nos deux questions. Selon la littérature scientifique, des stéréotypes sociaux de genre sont souvent projetés sur les machines. Alors que la vocation des chatbots est d’assister l’humain, il serait en effet naturel, selon certains, que, dans l’imaginaire social, cet assistanat soit situé du côté du « care » et ainsi associé aux femmes.
Mais sommes-nous vraiment en présence d’un tel stéréotype dans notre enquête ? Nos investigations montrent en effet que 58 % des femmes qui considèrent leur chatbot comme vivant et humain l’envisagent comme une personne de genre féminin contre seulement 48 % des hommes. Ainsi, soit elles sont victimes d’un stéréotype de genre par contagion sociale, soit cette projection d’une figure féminine exprimerait un invariant collectif qui serait l’expression d’un archétype plus que d’un stéréotype.
Un archétype, tel que nous l’avons défini, est par exemple à l’œuvre dans les processus d’attachement pulsionnel à la mère. En effet, il a été démontré que le nouveau-né, dès le premier contact avec sa génitrice, dirige instinctivement son regard vers elle avant de migrer vers le sein pour sa première tétée. Ce comportement inné relève de l’archétype de la Mère.
Plus généralement, certaines recherches montrent que la première forme vivante que les nouveau-nés rencontrent à leur naissance fait « empreinte » en eux sous la forme d’une image et les conduit à se lier immédiatement à elle pour recevoir les soins dont ils ont besoin. Peu importe si cette forme appartient à une autre espèce. Certains en concluent que l’archétype, en tant que schéma inné de comportement, conduit un être vivant à rechercher une fonction de soin plus qu’un individu spécifique à son espèce d’appartenance.
Le concept d’archétype nous permet donc d’envisager que la figure projective féminine propre à notre enquête ne résulterait pas forcément d’un stéréotype de genre. Elle pourrait attester l’activation et l’actualisation de l’archétype de la Mère poussant ainsi l’utilisateur « humain » à projeter une figure féminine archétypale dans le chatbot, preuve qu’il cherche, dans l’interaction avec lui, une fonction de soin telle qu’il l’a déjà expérimentée.
Peu importe qu’il soit un programme informatique, un « individu technique », s’il donne le sentiment de « prendre soin » en aidant à choisir un produit, en conseillant une attitude juste ou en offrant des signes de reconnaissance amicaux autant qu’amoureux.
Un différentiel homme-machine auto-protecteur ?
Abordons maintenant notre seconde question. Dans notre enquête, le chatbot est généralement imaginé comme un sujet paré de caractéristiques humaines, mais sans subjectivité. Ce qui signifie que les répondants n’identifient pas pleinement leur chatbot à ce qu’ils projettent de leur propre humanité en eux. Les recherches dans le domaine de l’attachement en fournissent peut-être l’explication.
Elles indiquent en effet que les relations avec un premier pourvoyeur de soins, donne les moyens à celui qui s’attache, de pouvoir faire ultérieurement la différence entre ses congénères et les autres. C’est probablement la raison pour laquelle les répondants montrent qu’ils pourraient être en mesure de s’attacher à un chatbot qui leur fait la conversation sans pour autant le considérer comme un de leurs semblables : la conscience d’un différentiel de génération et d’existence entre l’humain et la machine – différentiel dit ontologique – limiterait ainsi voire interdirait toute identification projective.
Un tel « rempart naturel », face à l’ambition persuasive de la captologie pour laquelle la fin peut parfois justifier les moyens, pourrait rendre les utilisateurs beaucoup moins influençables voire moins dupes que ne l’envisagent les professionnels du marketing et du design conversationnel : ils jouent le jeu probablement en conscience.
Reste cette question : que faire pour protéger les plus fragiles et les plus influençables d’entre nous qui pourraient se prendre à un tel jeu et courir le risque de s’y perdre ?
Pour aller plus loin : « L’anthropomorphisme, enjeu de performance pour les chatbots », du même auteur.
Les adresses Telegram bloquées en France par erreur
La police a reconnu une « erreur humaine » ayant mené au blocage, pendant plusieurs heures, des adresses menant à la messagerie Telegram. Un couac, alors que le gouvernement entend étendre la possibilité de bloquer les sites Web grâce à un nouveau projet de loi.
Par Martin Untersinger et Florian Reynaud Publié le 13 mai 2023 à 13h46, modifié le 13 mai 2023 à 20h05
C’est un sacré couac : alors que le gouvernement a présenté cette semaine un projet de loi prévoyant la possibilité de bloquer massivement des sites, les adresses « t.me » (qui appartiennent à la messagerie Telegram), ont été inaccessibles pendant plusieurs heures, samedi 13 mai au matin, depuis la plupart des fournisseurs d’accès à Internet (FAI) français en raison d’une erreur de la police.
En milieu de journée, la situation semblait revenir à la normale. Le fonctionnement général de l’application, lui, n’a pas été affecté et il restait possible d’envoyer et de recevoir des messages normalement.
Les URL en « t.me » sont utilisées pour renvoyer vers un compte, une chaîne ou un contenu spécifique à l’intérieur d’une chaîne au sein de Telegram, réseau social utilisé par 700 millions de personnes dans le monde. Les saisir dans un navigateur Web sur ordinateur ou smartphone permet d’ouvrir le contenu Telegram concerné.
Selon les informations du Monde, c’est la police qui a transmis aux FAI français une demande de blocage. Cette dernière, par l’intermédiaire de sa cellule Pharos, peut, en effet, demander aux FAI de bloquer certains sites, notamment pédopornographiques, et de rediriger les internautes voulant s’y connecter vers une page d’information du ministère de l’intérieur.
Bourde
Sauf que le blocage demandé ici s’est appliqué à l’intégralité des adresses « t.me » et concernait donc l’ensemble des liens vers le réseau social Telegram, y compris tous ceux qui n’ont rien à voir avec des contenus pédopornographiques. Certains utilisateurs voulant utiliser une URL « t.me » samedi matin étaient ainsi dirigés vers la page du ministère censée s’afficher en cas de tentative d’accès à un contenu pédocriminel bloqué. D’autres voyaient leur requête ne jamais aboutir.
Sollicitée, la police confirme avoir voulu bloquer des sites pédopornographiques relayés dans des messages sur le réseau social Telegram. Après avoir enjoint l’hébergeur des sites de retirer les contenus, ce qu’il n’a pas fait entièrement, la police a, comme le prévoient les textes, voulu procéder au blocage. Mais une « erreur individuelle a conduit à une demande de blocage plus large que nécessaire », qui a touché Telegram, fait savoir au Monde un porte-parole de la police nationale. La police a ensuite contacté les FAI pour faire lever le blocage.
Une bourde qui fait tache, alors que le projet de loi pour sécuriser l’espace numérique, présenté cette semaine par le secrétaire d’Etat au numérique, Jean-Noël Barrot, contient justement plusieurs dispositions visant à étendre ce mécanisme.
Le gouvernement espère ainsi qu’il puisse s’appliquer aux sites pornographiques ne vérifiant pas suffisamment l’âge de leurs visiteurs, aux sites permettant de réaliser des arnaques et à ceux diffusant des médias soumis à des mesures d’interdiction d’émettre.
La police dispose depuis 2014 du pouvoir de bloquer des sites Web pour des faits de pédopornographie et d’apologie du terrorisme. Elle doit d’abord faire parvenir une demande de suppression du contenu à l’éditeur du site. S’il ne donne pas suite, la police peut alors ordonner le blocage aux FAI. En 2022, la police avait demandé le blocage de 381 sites à caractère pédopornographique.
California man's business is frustrating telemarketing scammers with chatbots
Will you choose Salty Sally or Whitey Whitebeard? It doesn't matter; they're both intolerable
Richard Currie Mon 3 Jul 2023 16:23 UTC
Every week there seems to be another cynical implementation of AI that devalues the human experience so it is with a breath of fresh air that we report on a bedroom venture that uses GPT-4 technology to frustrate telemarketers.
"Fight back against annoying telemarketers and evil scammers!" the Jolly Roger Telephone Company rails on its website. "Our robots talk to telemarketers so humans don't have to!"
While no one can put a price on slamming the phone down on a call center worker, some among us might get a perverse joy out of listening to them squirm under the non sequiturs of AI. And it seems to be working for Jolly Roger, which has thousands of customers subscribed for $23.80 a year.
The company has a number of bots at its disposal all with unique voices and quirks that makes them utterly infuriating to speak to from the original Jolly Roger, based on the voice of Californian founder Roger Anderson, to distracted mother Salty Sally, who keeps wanting to talk about a talent show she won, to feisty senior citizen Whitey Whitebeard and more. Samples of toe-curling conversations are all over Jolly Roger's website.
"Oh jeez, hang on, there's a bee on me, hang on," Jolly Roger tells one scammer. "There's a bee on my arm. OK, you know what? You keep talking, I'm not gonna talk, though. You keep talking, say that part again, and I'm just gonna stay quiet because of the bee."
Sprinkle in gratuitous salvos of "Suuuure" and "Mhm" and "Sorry, I was having trouble concentrating because you're EXACTLY like somebody I went to high school with so, sorry, say that part again." Five minutes later you have a cold caller pulling their hair out and hanging up.
Customers provide the phone numbers they want to protect and the subscription activates immediately. Users login to the website where they can set up whichever bot or bots they want to employ. Then, when a telemarketer calls, the user is able to merge the call with a specified or random bot. The customer can then listen to the fruits of their labor in Jolly Roger's "Pirate Porthole."
YouTubers like Kitboga have made a name for themselves by infuriating and hacking computer-based scammers in real time while they try to swindle him over the telephone, but now regular folk can do similar without having to lift a finger.
At a time when AI grifters are trying to convince the gullible to flood the ebook market with ChatGPT-generated joke books, it is heartening to see something related that is both funny and actually effective.
Veesion, la start-up illégale qui surveille les supermarchés
Posted on4 juillet 2023
Nous en parlions déjà il y a deux ans : au-delà de la surveillance de nos rues, la surveillance biométrique se déploie aussi dans nos supermarchés pour tenter de détecter les vols en rayons des magasins. À la tête de ce business, la start-up française Veesion dont tout le monde, même le gouvernement, s’accorde sur l’illégalité du logiciel mais qui continue à récolter des fonds et des clients en profitant de la détresse sociale
La surveillance biométrique de l’espace public ne cesse de s’accroître. Dernier exemple en date : la loi sur les Jeux Olympiques de 2024 qui vient légaliser officiellement la surveillance algorithmique dans l’espace public pour certains événements sportifs, récréatifs et culturels (on en parlait ici). En parallèle, des start-up cherchent à se faire de l’argent sur la surveillance d’autres espaces, notamment les supermarchés. L’idée est la suivante : utiliser des algorithmiques de surveillance biométrique sur les caméras déjà déployées pour détecter des vols dans les grandes surfaces et alerter directement les agents de sécurité.
L’une des entreprises les plus en vue sur le sujet, c’est Veesion, une start-up française dont on parlait déjà il y a deux ans (ici) et qui vient de faire l’objet d’un article de Streetpress. L’article vient rappeler ce que LQDN dénonce depuis plusieurs années : le logiciel déjà déployé dans des centaines de magasins est illégal, non seulement selon l’avis de la CNIL, mais aussi, selon nos informations, pour le gouvernement.
Le business illégal de la détresse sociale
Nous avions déjà souligné plusieurs aspects hautement problématiques de l’entreprise. En premier lieu, un billet publié par son créateur, soulignant que la crise économique créée par la pandémie allait provoquer une augmentation des vols, ce qui rendait nécessaire pour les magasins de s’équiper de son logiciel. Ce billet avait été retiré aussitôt notre premier article publié.
D’autres déclarations de Veesion continuent pourtant de soutenir cette idée. Ici, c’est pour rappeler que l’inflation des prix, en particulier sur les prix des aliments, alimenteraient le vol à l’étalage, ce qui rend encore une fois nécessaire l’achat de son logiciel de surveillance. Un business s’affichant donc sans gêne comme fondé sur la détresse sociale.
Au-delà du discours marketing sordide, le dispositif est clairement illégal. Il s’agit bien ici de données biométriques, c’est-à-dire de données personnelles relatives notamment à des caractéristiques « physiques ou « comportementales » (au sens de l’article 4, par. 14 du RGPD) traitées pour « identifier une personne physique de manière unique » (ici, repérer une personne en train de voler à cause de gestes « suspects » afin de l’appréhender individuellement, et pour cela analyser le comportement de l’ensemble des client·es d’un magasin).
Un tel traitement est par principe interdit par l’article 9 du RGPD, et légal seulement de manière exceptionnelle et sous conditions strictes. Aucune de ces conditions n’est applicable au dispositif de Veesion.
La Quadrature du Net n’est d’ailleurs pas la seule à souligner l’illégalité du système. La CNIL le redit clairement (à sa façon) dans l’article de Streetpress quand elle souligne que les caméras de Veesion « devraient être encadrées par un texte » . Or ce texte n’existe pas. Elle avait exprimé le même malaise au Monde il y a quelques mois, quand son directeur technique reconnaissait que cette technologie était dans un « flou juridique » .
Veesion est d’ailleurs tout à fait au courant de cette illégalité. Cela ressort explicitement de sa réponse à une consultation de la CNIL obtenu par LQDN où Veesion s’alarme de l’interprétation du RGPD par la CNIL qui pourrait menacer « 500 emplois en France » .
Plus surprenant, le gouvernement a lui aussi reconnu l’illégalité du dispositif. Selon nos informations, dans le cadre d’une réunion avec des professionnels du secteur, une personne représentant le ministère de l’Intérieur a explicitement reconnu que la vidéosurveillance algorithmique dans les supermarchés était interdite.
La Technopolice rapporte toujours autant d’argent
Tout cela ne semble pas gêner l’entreprise. Sur leur site , ils annoncent équiper plus de 2500 commerçants, dans 25 pays. Et selon les informations de Streetpress, les clients en France sont notamment Leclerc, Carrefour, G20, Système U, Biocoop, Kiabi ou encore la Fnac. Des enseignes régulièrement fréquentées donc par plusieurs milliers de personnes chaque jour.
Autre point : les financements affluent. En mars, la start-up a levé plus de 10 millions d’euros auprès de multiples fonds d’investissement. Sur le site Welcome to the Jungle, la start-up annonce plus de 100 salariés et plus de 5 millions de chiffre d’affaires.
La question que cela pose est la même que celle que nous rappelons sur ce type de sujets depuis 3 ans : que fait la CNIL ? Pourquoi n’a-t-elle pas fait la moindre communication explicite sur ce sujet ? Nous avions fait il y a deux ans une demande de documents administratifs à cette dernière, elle nous avait répondu qu’il s’agissait d’un dossier en cours d’analyse et qu’elle ne pouvait donc pas nous transmettre les documents demandés. Rien depuis.
Une telle inaction a des conséquences lourdes : outre la surveillance illégale imposée sur plusieurs milliers de personnes, la CNIL vient ici normaliser le non-respect du RGPD et faciliter la création d’une industrie de la Technopolice en laissant les investissements affluer.
Comment encore considérer la CNIL comme une autorité de « protection » de nos libertés quand la communication qui en émane sur ce sujet est qu’elle veut « fédérer et accompagner les acteurs innovants de l’écosystème IA en France et en Europe » ?
Surveillance illégale, détresse sociale, financement massif… Toutes les Technopolices se ressemblent, qu’elles soient en supermarché ou sur notre espace public. Mais pour une fois que tout le monde est d’accord sur l’illégalité d’une de ses représentantes, espérons que Veesion soit arrêtée au plus vite.