Daily Weekly Monthly

Daily Shaarli

July 8, 2023

Les chatbots peuvent-ils vraiment nous influencer ?
thumbnail

Les chatbots peuvent-ils vraiment nous influencer ?

Publié: 27 novembre 2022, 17:01 CET

Depuis Eliza (1966), le premier chatbot de l’histoire, jusqu’à nos jours, les machines conversationnelles issues de l’intelligence artificielle se voient souvent attribuer des attitudes et des comportements humains : joie, étonnement, écoute, empathie…

Sur le plan psychologique, ces attributions correspondent à des « projections anthropomorphiques ». Ainsi, le risque existe d’identifier pleinement les chatbots à ce que nous leur attribuons de nous-mêmes, au point de susciter la croyance d’avoir affaire à quelqu’un plutôt que de garder à l’esprit qu’il s’agit d’un programme informatique disposant d’une interface de communication.

Par ailleurs, le risque existe que les concepteurs issus des « technologies persuasives » (technologies visant à persuader les humains d’adopter des attitudes et des comportements cibles), conscients d’un tel phénomène, utilisent les chatbots pour influencer nos comportements à l’aide du langage naturel, exactement comme le ferait un humain.

Pour circonscrire les mécanismes projectifs dont les technologies persuasives pourraient faire usage, nous avons conduit une étude à grande échelle auprès d’un échantillon représentatif de Français (soit 1 019 personnes) placés en position d’envisager ou de se remémorer une relation interactive dialoguée avec un chatbot qu’il soit, au choix, un·e ami·e confident·e, un·e partenaire amoureux·se, un·e coach·e de vie professionnelle ou un·e conseiller.ère clientèle.

Pour interpréter nos résultats, nous avons retenu des projections anthropomorphiques quatre modalités essentielles :

  • Anthropomorphisme perceptuel : consiste à projeter sur un objet des caractéristiques humaines, ce qui relève de l’imagination.
  • Animisme : consiste à donner vie aux caractéristiques attribuées à un objet en projetant « sur » lui des intentions simples généralement humaines.
  • Anthropomorphisme intentionnel : est une forme d’animisme consistant à projeter « dans » l’objet des intentions humaines complexes sans pour autant identifier totalement cet objet à ce qu’on y a projeté.
  • Identification projective : consiste à projeter « dans » l’objet des caractéristiques de soi et à l’identifier totalement à ce qu’on y a projeté au point de modifier radicalement la perception même de cet objet.

Un résultat intriguant : mon chatbot est plutôt féminin

Quel que soit le chatbot choisi, 53 % des répondants le considèrent comme vivant autant qu’humain et parmi eux 28 % projettent sur lui les caractéristiques d’un homme adulte et 53 % celles d’une femme adulte (anthropomorphisme perceptuel).

Ensemble, ils lui donnent vie en lui attribuant des intentions simples (animisme). Lorsque les répondants ne considèrent pas le chatbot choisi comme vivant (40 %), certains projettent paradoxalement sur lui des caractéristiques humaines comme une voix (27 %), un visage (18 %) et un corps (8 %) tendanciellement féminins. Dans l’ensemble, seuls 38 % des répondants projettent dans leur chatbot une agentivité c’est-à-dire des états intérieurs complexes, cognitifs et émotionnels, constitutifs d’un pouvoir et d’une autonomie d’action (anthropomorphisme intentionnel).

Ainsi, tout se passe comme si la tendance était d’attribuer au chatbot les caractéristiques d’un sujet humain, mais avec une certaine hésitation sur l’attribution d’une intériorité : il serait ainsi considéré comme un sujet sans subjectivité. Ces résultats tendraient à montrer que les répondants n’identifient pas totalement le chatbot à ce qu’ils imaginent d’humain en lui et, ainsi, qu’ils ne le prennent pas pour un semblable. Il n’y aurait donc pas de processus avéré d’identification projective.

[Près de 80 000 lecteurs font confiance à la newsletter de The Conversation pour mieux comprendre les grands enjeux du monde. Abonnez-vous aujourd’hui]

Face à ces résultats, deux questions nous ont semblé essentielles. La première consiste à se demander si la tendance des répondants à projeter du féminin dans leur chatbot, qu’il soit ou non considéré comme vivant – et notamment une femme plus qu’un homme adulte –, relève d’un stéréotype ou d’un archétype. Rappelons ici qu’un stéréotype est une opinion toute faite, forgée sans examen critique qui véhicule des représentations sociales standardisées et appauvrissantes visant à catégoriser voire caricaturer tel ou tel groupe humain.

Un archétype, quant à lui, est un schéma d’organisation inné de notre vie psychique, présent à l’état « virtuel » dans notre esprit et que seules certaines circonstances peuvent activer et actualiser. La seconde question consiste à se demander pourquoi les répondants n’identifient-ils pas pleinement leur chatbot à ce qu’il projette d’humain en eux ?

Afin de répondre à ces questions et de mieux comprendre nos relations aux chatbots, certains des concepts majeurs de la psychanalyse nous ont éclairés.

La psychanalyse pour comprendre nos relations aux chatbots

Tentons une réponse à la première de nos deux questions. Selon la littérature scientifique, des stéréotypes sociaux de genre sont souvent projetés sur les machines. Alors que la vocation des chatbots est d’assister l’humain, il serait en effet naturel, selon certains, que, dans l’imaginaire social, cet assistanat soit situé du côté du « care » et ainsi associé aux femmes.

Mais sommes-nous vraiment en présence d’un tel stéréotype dans notre enquête ? Nos investigations montrent en effet que 58 % des femmes qui considèrent leur chatbot comme vivant et humain l’envisagent comme une personne de genre féminin contre seulement 48 % des hommes. Ainsi, soit elles sont victimes d’un stéréotype de genre par contagion sociale, soit cette projection d’une figure féminine exprimerait un invariant collectif qui serait l’expression d’un archétype plus que d’un stéréotype.

Un archétype, tel que nous l’avons défini, est par exemple à l’œuvre dans les processus d’attachement pulsionnel à la mère. En effet, il a été démontré que le nouveau-né, dès le premier contact avec sa génitrice, dirige instinctivement son regard vers elle avant de migrer vers le sein pour sa première tétée. Ce comportement inné relève de l’archétype de la Mère.

Plus généralement, certaines recherches montrent que la première forme vivante que les nouveau-nés rencontrent à leur naissance fait « empreinte » en eux sous la forme d’une image et les conduit à se lier immédiatement à elle pour recevoir les soins dont ils ont besoin. Peu importe si cette forme appartient à une autre espèce. Certains en concluent que l’archétype, en tant que schéma inné de comportement, conduit un être vivant à rechercher une fonction de soin plus qu’un individu spécifique à son espèce d’appartenance.

Le concept d’archétype nous permet donc d’envisager que la figure projective féminine propre à notre enquête ne résulterait pas forcément d’un stéréotype de genre. Elle pourrait attester l’activation et l’actualisation de l’archétype de la Mère poussant ainsi l’utilisateur « humain » à projeter une figure féminine archétypale dans le chatbot, preuve qu’il cherche, dans l’interaction avec lui, une fonction de soin telle qu’il l’a déjà expérimentée.

Peu importe qu’il soit un programme informatique, un « individu technique », s’il donne le sentiment de « prendre soin » en aidant à choisir un produit, en conseillant une attitude juste ou en offrant des signes de reconnaissance amicaux autant qu’amoureux.

Un différentiel homme-machine auto-protecteur ?

Abordons maintenant notre seconde question. Dans notre enquête, le chatbot est généralement imaginé comme un sujet paré de caractéristiques humaines, mais sans subjectivité. Ce qui signifie que les répondants n’identifient pas pleinement leur chatbot à ce qu’ils projettent de leur propre humanité en eux. Les recherches dans le domaine de l’attachement en fournissent peut-être l’explication.

Elles indiquent en effet que les relations avec un premier pourvoyeur de soins, donne les moyens à celui qui s’attache, de pouvoir faire ultérieurement la différence entre ses congénères et les autres. C’est probablement la raison pour laquelle les répondants montrent qu’ils pourraient être en mesure de s’attacher à un chatbot qui leur fait la conversation sans pour autant le considérer comme un de leurs semblables : la conscience d’un différentiel de génération et d’existence entre l’humain et la machine – différentiel dit ontologique – limiterait ainsi voire interdirait toute identification projective.

Un tel « rempart naturel », face à l’ambition persuasive de la captologie pour laquelle la fin peut parfois justifier les moyens, pourrait rendre les utilisateurs beaucoup moins influençables voire moins dupes que ne l’envisagent les professionnels du marketing et du design conversationnel : ils jouent le jeu probablement en conscience.

Reste cette question : que faire pour protéger les plus fragiles et les plus influençables d’entre nous qui pourraient se prendre à un tel jeu et courir le risque de s’y perdre ?

Pour aller plus loin : « L’anthropomorphisme, enjeu de performance pour les chatbots », du même auteur.

« La France est l’un des pays les plus envoûtés par le mysticisme (...) - CQFD, mensuel de critique et d'expérimentation sociales
thumbnail

« La France est l’un des pays les plus envoûtés par le mysticisme technosécuritaire »

Entretien avec Olivier Tesquet

Activation des objets connectés à distance, surveillance des journalistes, expérimentation de la reconnaissance faciale… Depuis quelques mois, les projets de lois liberticides se multiplient. Et même si tous n’aboutissent pas, le discours technosécuritaire est de plus en plus hégémonique. Entretien.

Début juin, le Sénat adoptait l’article 3 de la loi Justice, qui prévoit la possibilité d’activer à distance des objets connectés (téléphone, ordinateur…) pour récupérer des informations dans le cadre d’enquêtes1. Dans la foulée, il tentait de repêcher des dispositions sécuritaires écartées de la loi JO 20242 en validant, le 12 juin, l’expérimentation sur trois ans de la reconnaissance faciale en temps réel dans l’espace public. Au niveau européen, le Media Freedom Act, officiellement en faveur de la liberté de la presse, permettra de piéger les téléphones des journalistes au moyen de logiciels espions afin de les surveiller3. On fait le point avec Olivier Tesquet, journaliste à Télérama spécialisé dans les technologies numériques et la surveillance, auteur de plusieurs ouvrages sur le sujet4.

On pensait avoir échappé à la reconnaissance faciale, écartée de la loi JO 2024. Elle revient par une autre porte ?

« Dans le cadre de la loi JO 2024, la ligne rouge concernant la reconnaissance faciale s’était révélée plus difficile à franchir que prévu pour le gouvernement. En adoptant cette proposition de loi visant à créer un cadre d’expérimentation pour la reconnaissance faciale, le Sénat prépare le terrain en fabriquant de l’acceptabilité. Et même si cette proposition de loi a peu de chance d’être votée par l’Assemblée, c’est un calcul stratégique : on banalise les discours, les arguments et les technologies en question, on fabrique du consentement et l’on prépare les esprits au déploiement de ces technologies comme s’il était inéluctable.

« Quand les technologies sont sorties de la boîte, c’est extrêmement difficile de les y remettre »

C’était la même histoire avec l’usage des drones dans le cadre du maintien de l’ordre. L’ancien préfet de police Didier Lallement les utilisait sur le terrain, le Conseil d’État a d’abord dit “non”, suivi par le Conseil constitutionnel qui a censuré ces dispositions dans la loi Sécurité globale. Mais ils ont finalement réussi à en légaliser l’usage par le biais d’un autre véhicule législatif, la loi sur la responsabilité pénale. Il y a un “effet cliquet” : quand les technologies sont sorties de la boîte, c’est extrêmement difficile de les y remettre. »

Les arguments semblent toujours les mêmes : la lutte antiterroriste, et la nécessité d’encadrer des technologies « déjà-là ».

« Ce sont deux éléments assez stables de l’obsession technosécuritaire : la légalisation a posteriori, où on légifère à l’envers afin d’autoriser des technologies déjà en usage ; et la lutte contre le terrorisme. Ce sont deux arguments-massues auxquels il est très difficile de s’opposer, et qui sont utilisés quasi systématiquement lorsqu’il s’agit du déploiement de technologies sécuritaires, alors même que rien ne prouve qu’elles soient efficaces par rapport à leurs objectifs.

« On prépare les esprits au déploiement de ces technologies comme s’il était inéluctable »

Ce qui est encore plus curieux, c’est que moins une technologie fonctionne, plus on va tenter de la perfectionner et plus on va la déployer dans des versions encore plus intrusives : on impose la vidéosurveillance partout et, face aux doutes et critiques, on passe à la vidéosurveillance algorithmique puis à la reconnaissance faciale, sans savoir si elles sont efficaces. On est sortis du domaine de la rationalité scientifique pour rentrer dans celui de l’irrationalité quasi religieuse. »

À qui profite cette croyance dans le pouvoir magique de la technologie ?

« Elle profite évidemment aux industriels qui fabriquent ces technologies, qui en tirent d’importants bénéfices5. Ensuite, pour les politiques, le discours sécuritaire est devenu un rituel d’accession au pouvoir, un élément stable de leurs programmes, car c’est un discours rémunérateur. L’actuel maire de Nice, Christian Estrosi, en est un exemple chimiquement pur : il a fait campagne sur la sécurité, a fait de Nice une ville pionnière dans la vidéosurveillance, et entretient ce discours comme une forme de rente lui garantissant une longévité politique. C’est le genre de programme qui permet de prétendre agir, avec des installations visibles et valorisables, et qu’importe si la technologie n’a pas fait la preuve de son efficacité, voire a fait la démonstration de son inefficacité. »

Dans l’émission *C Ce soir* à laquelle tu as participé, la spécialiste des enjeux géopolitiques des technologies Asma Mallah expliquait qu’on est passé d’un droit à la sûreté à un droit à la sécurité6. Quelle est la différence ?

« La Déclaration des droits de l’homme et du citoyen de 1789 affirme le droit à la sûreté, c’est-à-dire le droit d’être protégé contre l’arbitraire de l’État. Depuis une quarantaine d’années, celui-ci a été travesti par les gouvernements successifs, droite et gauche confondues, en “droit à la sécurité”, qui est la possibilité pour l’État de violer de manière arbitraire les libertés des citoyens. »

Dans les considérants de la dissolution des Soulèvements de la Terre, on retrouve notamment pour argument le fait de laisser son téléphone mobile chez soi ou de le mettre en « mode avion » afin d’éviter le bornage. Est-il devenu interdit de se protéger ?

« C’est un exemple supplémentaire de la manière dont l’État utilise la notion floue de terrorisme à des fins politiques ; ici, la répression contre les mouvements écologistes qui, même si elle n’est pas nouvelle (rappelons-nous la débauche de moyens technologiques pour pas grand-chose à Bure), s’aggrave. On va vers une criminalisation de la furtivité : l’utilisation de certains outils, comme Tails ou une messagerie chiffrée, est considérée comme suspecte. C’est comme quand, en manifestation, apporter du sérum physiologique ou se protéger physiquement deviennent des éléments incriminants. D’un côté, le pouvoir se raidit, devient de plus en plus violent, se dote d’outils de plus en plus intrusifs ; de l’autre, on dénie aux citoyens la possibilité de se protéger contre l’arbitraire de ce pouvoir. »

Au niveau européen, le contrôle technologique des frontières semble faire exception à toute réglementation…

« Historiquement, les stratégies de surveillance de la police, même avant l’irruption de la technologie, ont toujours ciblé les catégories de population considérées comme “dangereuses” : les pauvres, les nomades, les ouvriers, les vagabonds… et aujourd’hui, les personnes exilées. Et l’Union européenne se comporte comme un laboratoire de recherche et de développement technosécuritaire, qui installe et teste littéralement in vivo ces dispositifs7 sur des personnes auxquelles on dénie déjà un certain nombre de droits fondamentaux. L’AI Act (règlement sur l’intelligence artificielle) en est un bon exemple. Adopté par le Parlement européen mi-juin afin de réglementer les systèmes de surveillance algorithmique, notamment en les classant en fonction des “risques” qu’ils posent, il renonce à agir sur les technologies sécuritaires déjà utilisées aux frontières.8 »

Mis bout à bout, tout cela dessine un contexte inquiétant. C’est comme si rien ne pouvait contrer la logique technosécuritaire à l’œuvre.

« En 2008, des personnalités de tous bords politiques s’étaient indignées du projet Edvige, qui visait à ficher les opinions politiques, syndicales et religieuses des Français à partir de l’âge de 13 ans. Aujourd’hui, même si certains tirent la sonnette d’alarme9, plus grand monde ne prend position. La digue est en train de céder, et la France fait partie des pays les plus envoûtés par cette espèce de mysticisme technosécuritaire, comme le chef de file de cette course en avant. C’est pour cela qu’il faut poser collectivement des diagnostics et imposer un débat politique – et non technique – sur ce sujet. Il faut s’organiser, faire du bruit et, comme disait Günther Anders, inquiéter son voisin comme soi-même. »


1 Le projet de loi d'orientation et de programmation de la justice (LOPJ), actuellement en discussion à l'Assemblée, prévoit notamment l'activation à distance des caméras, des micros et de la géolocalisation d'objets connectés, pour toute personne impliquée dans un crime ou délit puni d'au moins 10 ans de prison.

2 Voir « Olympiades du cyberflicage », CQFD n° 218 (mars 2023).

3 . Voir l'article d'Olivier Tesquet « L'espionnage des journalistes bientôt autorisé par une loi européenne ? », Télérama (21/06/2023).

4 Notamment À la trace (2020) et État d'urgence technologique (2021), aux éditions Premier Parallèle.

5 Voir l'article « Vidéosurveillance biométrique : derrière l'adoption du texte, la victoire d'un lobby », site La Quadrature du Net (05/04/2023).

6 . « I.A. : vers une société de surveillance ? », C Ce soir (France 5, 15/06/23).

7 Citons ItFlows (prédiction des flux migratoires) et iBorderCtrl (reconnaissance des émotions humaines lors des contrôles).

8 « “AI Act” : comment l'UE investit déjà dans des intelligences artificielles à “haut risque” pour contrôler ses frontières », Le Monde (22/06/2023).

9 Dans son rapport annuel publié mi-juin, la Commission nationale de contrôle des techniques de renseignement (CNCTR) s'inquiète des progrès de l'espionnage des milieux politiques et syndicaux. Voir l'article « Les services de renseignement s'intéressent de plus en plus aux militants », Politis (16/06/2023).