Une tentative de définition de l’intelligence
La question de savoir si un grand modèle de langage (LLM), tel que celui basé sur l’architecture GPT, fait preuve d’intelligence ou s’il s’agit simplement d’un algorithme qui en est dénué, est complexe et suscite de nombreux débats passionnés au sein de la communauté des chercheurs dans ce domaine.
Il semble donc, en préambule, important d’essayer de définir ce que nous entendons par « intelligence ».
Point de vue n° 1 : les LLM font preuve d’intelligence
Laissons le soin, dans ce qui suit, à ChatGPT-3.5 d’argumenter lui-même pourquoi on peut considérer qu’un grand modèle de langage (LLM) est doté d’intelligence. Pour cela posons lui la question via le prompt suivant :
- Agis en tant qu’expert en intelligence artificielle.
- Je suis rédacteur d’un blog de vulgarisation sur l’IA.
- Peux-tu répondre à cette question d’une manière argumentée : Est-ce-qu’un LLM fait preuve d’intelligence ou s’agit-il uniquement d’un algorithme ?
Extrait de la réponse de ChatGPT-3.5 :
Les LLM mobilisent trois compétences révélatrices d’une forme d’intelligence.
- Capacité à comprendre et à générer du texte
Les LLM sont capables de comprendre et de générer du texte de manière cohérente et contextuellement appropriée. Ils peuvent répondre à des questions, rédiger des articles, des poèmes, des paroles de chansons et même du code informatique. Cette capacité à interagir avec le langage de manière fluide et naturelle est souvent perçue comme une manifestation de l’intelligence. - Capacité à apprendre à partir de grandes quantités de données
Les LLM sont généralement pré-entraînés sur de vastes ensembles de données textuelles, ce qui leur permet d’acquérir des connaissances sur divers sujets et styles linguistiques. Ils peuvent utiliser ces connaissances pour répondre à des questions ou générer du texte dans des domaines où ils n’ont pas été explicitement programmés. Cette capacité à apprendre de manière autonome à partir des données est une caractéristique essentielle de l’intelligence. - Adaptabilité et généralisation
Les LLM peuvent également être capables de généraliser à partir de ce qu’ils ont appris pour aborder de nouveaux domaines ou tâches. Par exemple, un LLM entraîné sur des articles scientifiques pourrait être en mesure de répondre à des questions sur des sujets qu’il n’a pas spécifiquement rencontrés lors de son entraînement. Cette capacité à appliquer des connaissances préalables à de nouvelles situations est une caractéristique clé de l’intelligence humaine.
Point de vue n° 2 : les LLM sont des algorithmes dénués d’intelligence
Le point de vue de Yann Le Cun, chercheur français qui est l’un des plus grands spécialistes en IA et considéré comme l’inventeur du « Deep learning » (prix Alan Turing 2018) est éclairant à plus d’un titre.
Quand quelque chose ou quelqu’un est capable de parler, on lui attribue généralement de l’intelligence, mais c’est une erreur. On peut manipuler la langue sans penser, sans être intelligent. Et c’est un peu le problème de ces systèmes : ils sont très volubiles, très fluides, très corrects grammaticalement, mais ce qu’ils racontent n’est pas toujours vrai.
Yann Le Cun
Ainsi, selon Yann le Cun, les modèles de LLM s’appuyant sur une prédiction autorégressive peuvent difficilement être qualifiés d’intelligent principalement pour deux raisons :
- La réponse générée par l’IA n’est pas planifiée
La machine n’a pas réfléchi à l’avance à ce qu’elle allait dire car elle produit un mot après l’autre de manière autorégressive.
Yann Le Cun - L’IA n’a pas conscience du monde et n’a pas de compréhension de la réalité sous-jacente
Ces systèmes compensent leur faiblesse de raisonnement par l’accumulation de connaissances tirées de tous les textes possibles d’internet (…). Mais leur connaissance du monde, du monde physique en particulier, est extrêmement réduite : ils n’ont aucune notion de l’existence de la réalité car ils sont purement entraînés sur des textes. Or la grande majorité de l’intelligence humaine est non linguistique car elle s’appuie sur notre expérience du monde réel ; un sens commun que n’ont pas les machines.
Yann Le Cun
En résumé, les grands modèles de langage ne font que manipuler des statistiques et des modèles probabilistes : ils n’ont pas de véritable compréhension ou conscience de ce qu’ils génèrent. Ils fonctionnent sur la base de modèles mathématiques et de calculs informatiques sans avoir de conscience de soi ou de perception de leur environnement.
Ainsi, selon ce point de vue, les LLM seraient simplement des algorithmes sophistiqués traitant des données d’entrée pour produire des résultats, sans véritable « intelligence » au sens traditionnel du terme.
À vous de conclure
La question de savoir si un LLM fait preuve d’intelligence ou s’il s’agit simplement d’un algorithme dépend fondamentalement de la définition de l’intelligence que l’on choisit d’adopter.
Si l’on considère que l’intelligence consiste essentiellement en la capacité de traiter l’information de manière complexe et de produire des résultats utiles, alors les LLM peuvent être considérés comme faisant preuve d’une certaine forme d’intelligence.
En revanche, si l’on définit l’intelligence en termes de conscience de soi et du monde, de compréhension profonde et de capacité à prendre des décisions morales, alors les LLM ne répondent pas à ces critères et demeurent seulement des outils algorithmiques avancés.
Il est fort à parier que l’évolution des technologies dans les prochaines années et les progrès qui en découleront nous amèneront à nous questionner à nouveau d’une manière encore plus aigüe sur la forme d’intelligence dont pourraient faire preuve les LLM. Pour le moment, les capacités émergentes des LLM (savoir traduire, résumer, créer, calculer, raisonner, etc.) sont très loin ne serait-ce que d’égaler l’intelligence humaine, mais elles en revêtent déjà quelques uns des attributs.
À vous de juger !