Comprendre l’IA

Quand les machines nous semblent humaines

Pourquoi avons-nous l’impression que l’IA est humaine ?

Une impression troublante, mais largement partagée

Lorsque nous interagissons avec une intelligence artificielle conversationnelle, il est fréquent d’avoir l’impression qu’elle « comprend », qu’elle « réfléchit », voire qu’elle « nous écoute ». Nous lui parlons spontanément comme à une personne et interprétons ses réponses comme intentionnelles, cohérentes et émotionnellement ajustées.

Cette impression n’a rien d’anecdotique. Elle correspond à un phénomène bien identifié : l’anthropomorphisme de l’IA.

L’anthropomorphisme désigne

l’attribution de caractéristiques humaines à un non-humain
(Spatola, 2019)

Par exemple des intentions, des émotions, des capacités de compréhension ou de raisonnement à des entités qui n’en disposent pas. Dans le cas de l’intelligence artificielle, cette projection est particulièrement marquée et fait l’objet de nombreux travaux de recherche.
Avant d’interroger les effets de cette confusion, notamment dans le contexte scolaire, il est essentiel d’en comprendre les mécanismes.

Un réflexe cognitif normal, largement documenté

Les recherches en sciences cognitives montrent que l’anthropomorphisme n’est pas une erreur de raisonnement, mais un mécanisme explicatif fondamental du fonctionnement humain.

Comme le souligne Mushiaki à propos de cet animisme — défini par le Dictionnaire Le Robert comme une « attitude consistant à attribuer aux choses une âme analogue à l’âme humaine » — il s’agit d’une « tendance universelle », et non d’une spécificité culturelle shintoïste ou bouddhiste (2013).
Ce réflexe est d’autant plus fort lorsque le système en question est désigné comme « intelligent ». Le terme même d’intelligence artificielle suggère des capacités associées, dans l’expérience humaine, à l’intention, à la compréhension et au jugement. Nous avons ainsi naturellement tendance à attribuer des intentions humaines à tout système qui agit de manière autonome, produit des réponses cohérentes et interagit de façon réactive avec son environnement.
L’intelligence artificielle réunit précisément ces caractéristiques — tant dans son fonctionnement que dans la manière dont elle est nommée — ce qui explique la force de la projection anthropomorphique dans les interactions quotidiennes avec ces outils.

Le rôle central du langage

L’IA générative s’appuie sur un levier particulièrement puissant : le langage naturel.

Or, pour les humains, le langage n’est jamais perçu comme neutre. Il est étroitement associé à la pensée, à l’intention et à la relation sociale. Dès lors qu’un système s’exprime de manière fluide, contextualisée et structurée, nous avons tendance à le considérer comme un interlocuteur, même lorsque nous savons rationnellement qu’il s’agit d’une machine.
Ce décalage entre ce que nous savons intellectuellement du fonctionnement des systèmes d’intelligence artificielle et ce que nous percevons intuitivement constitue l’un des ressorts majeurs de ce que Tondu appelle « l’anthropomorphisme de projection », c’est-à-dire la tendance naturelle de notre esprit à attribuer des propriétés humaines à des entités non humaines (Tondu, 2023).

Une illusion renforcée par la cohérence des réponses

Les systèmes d’IA produisent des réponses grammaticalement correctes, logiquement organisées et adaptées au contexte d’usage. Cette cohérence linguistique donne l’illusion d’un raisonnement, voire d’une compréhension réelle.

Pourtant, cohérence formelle et compréhension du sens ne sont pas équivalentes. L’IA ne comprend pas au sens humain du terme ; elle génère des réponses plausibles à partir de corrélations statistiques. C’est précisément cette apparence de rationalité qui alimente l’anthropomorphisme, bien plus que la performance technique elle-même.

Le rôle du design des interfaces

Les interfaces conversationnelles sont conçues pour être fluides, accessibles et engageantes. L’usage de pronoms personnels, un ton neutre ou bienveillant, ainsi qu’une interaction sans jugement apparent contribuent à créer une expérience perçue comme relationnelle plutôt que strictement technique.
Il est important de le préciser : ce choix de design n’est pas trompeur en soi. Il amplifie simplement un réflexe cognitif déjà présent chez les utilisateurs.

De réflexe cognitif à enjeu éducatif

Attribuer des caractéristiques humaines à l’IA n’est ni une naïveté, ni un manque de compétence, mais un réflexe cognitif normal, largement documenté par la recherche en psychologie et sciences sociales. Cependant, les chercheurs alertent : « notre fascination pour l’efficacité de ces systèmes peut entraîner une série de "cécités", d’occultations de caractéristiques anthropologiques fondamentales » (Lambert, 2024).

L’enjeu n’est donc pas d’éliminer toute projection humaine, mais de :

  • prendre conscience de ce mécanisme,
  • en comprendre les causes,
  • apprendre à le réguler dans des contextes professionnels et éducatifs.
Le prochain article montrera pourquoi ce réflexe devient un enjeu éducatif majeur, en particulier à l’école, où se construisent les représentations, l’esprit critique et le rapport aux technologies.

Références bibliographiques

Cet article a été rédigé à l’aide de l’intelligence artificielle.

Vous devez être identifés pour accéder aux ressources téléchargeables