Une impression troublante, mais largement partagée
Lorsque nous interagissons avec une intelligence artificielle conversationnelle, il est fréquent d’avoir l’impression qu’elle « comprend », qu’elle « réfléchit », voire qu’elle « nous écoute ». Nous lui parlons spontanément comme à une personne et interprétons ses réponses comme intentionnelles, cohérentes et émotionnellement ajustées.
L’anthropomorphisme désigne
l’attribution de caractéristiques humaines à un non-humain
(Spatola, 2019)
Par exemple des intentions, des émotions, des capacités de compréhension ou de raisonnement à des entités qui n’en disposent pas. Dans le cas de l’intelligence artificielle, cette projection est particulièrement marquée et fait l’objet de nombreux travaux de recherche.
Avant d’interroger les effets de cette confusion, notamment dans le contexte scolaire, il est essentiel d’en comprendre les mécanismes.
Un réflexe cognitif normal, largement documenté
Comme le souligne Mushiaki à propos de cet animisme — défini par le Dictionnaire Le Robert comme une « attitude consistant à attribuer aux choses une âme analogue à l’âme humaine » — il s’agit d’une « tendance universelle », et non d’une spécificité culturelle shintoïste ou bouddhiste (2013).
Ce réflexe est d’autant plus fort lorsque le système en question est désigné comme « intelligent ». Le terme même d’intelligence artificielle suggère des capacités associées, dans l’expérience humaine, à l’intention, à la compréhension et au jugement. Nous avons ainsi naturellement tendance à attribuer des intentions humaines à tout système qui agit de manière autonome, produit des réponses cohérentes et interagit de façon réactive avec son environnement.
L’intelligence artificielle réunit précisément ces caractéristiques — tant dans son fonctionnement que dans la manière dont elle est nommée — ce qui explique la force de la projection anthropomorphique dans les interactions quotidiennes avec ces outils.
Le rôle central du langage
Or, pour les humains, le langage n’est jamais perçu comme neutre. Il est étroitement associé à la pensée, à l’intention et à la relation sociale. Dès lors qu’un système s’exprime de manière fluide, contextualisée et structurée, nous avons tendance à le considérer comme un interlocuteur, même lorsque nous savons rationnellement qu’il s’agit d’une machine.
Ce décalage entre ce que nous savons intellectuellement du fonctionnement des systèmes d’intelligence artificielle et ce que nous percevons intuitivement constitue l’un des ressorts majeurs de ce que Tondu appelle « l’anthropomorphisme de projection », c’est-à-dire la tendance naturelle de notre esprit à attribuer des propriétés humaines à des entités non humaines (Tondu, 2023).
Une illusion renforcée par la cohérence des réponses
Pourtant, cohérence formelle et compréhension du sens ne sont pas équivalentes. L’IA ne comprend pas au sens humain du terme ; elle génère des réponses plausibles à partir de corrélations statistiques. C’est précisément cette apparence de rationalité qui alimente l’anthropomorphisme, bien plus que la performance technique elle-même.
Le rôle du design des interfaces
Les interfaces conversationnelles sont conçues pour être fluides, accessibles et engageantes. L’usage de pronoms personnels, un ton neutre ou bienveillant, ainsi qu’une interaction sans jugement apparent contribuent à créer une expérience perçue comme relationnelle plutôt que strictement technique.
Il est important de le préciser : ce choix de design n’est pas trompeur en soi. Il amplifie simplement un réflexe cognitif déjà présent chez les utilisateurs.
De réflexe cognitif à enjeu éducatif
Attribuer des caractéristiques humaines à l’IA n’est ni une naïveté, ni un manque de compétence, mais un réflexe cognitif normal, largement documenté par la recherche en psychologie et sciences sociales. Cependant, les chercheurs alertent : « notre fascination pour l’efficacité de ces systèmes peut entraîner une série de "cécités", d’occultations de caractéristiques anthropologiques fondamentales » (Lambert, 2024).
L’enjeu n’est donc pas d’éliminer toute projection humaine, mais de :
- prendre conscience de ce mécanisme,
- en comprendre les causes,
- apprendre à le réguler dans des contextes professionnels et éducatifs.
Références bibliographiques
- Spatola : Spatola, N. (2019). L’interaction HommeRobot, de l’anthropomorphisme à l’humanisation., L’Année psychologique, 119(4), 515563.
- Mushiaki : Mushiaki, S. (2013). Ethica ex Machina : Issues in roboe-thics., Journal international de bioéthique, (243), 15-28.
- Tondu : Tondu, B. (2023). Anthropomorphisme de projection et anthropomorphisme de réalisation en robotique. e-Phaïstos, XI(1). https://journals.openedition.org/ephaistos/10925
- Lambert, D. (2024). Retrouver l’humain au cœur de l’IA et de la robotique, et lui redonner toute sa place. Revue CONFLUENCE : Sciences & Humanités, (6).
- Le Robert. Animisme. Dictionnaire en ligne, Éditions Le Robert.
Cet article a été rédigé à l’aide de l’intelligence artificielle.