Lorem ipsum dolor sit amet, consectetur adipiscing elit. Ut elit tellus, luctus nec ullamcorper mattis, pulvinar dapibus leo.
En 1964, le sociologue de la littérature Robert Escarpit publiait une nouvelle à succès aux accents science-fictionnelle : le Litteratron qui mettait en scène les instigateurs d’une innovation technique basée sur le traitement automatique du langage. Cette “machine à mots” était capable de traiter des volumes massifs de données textuelles afin d’en “extraire la quintessence” et d’en produire de nouvelles. Un ordinateur en somme doté de programmes d’analyse lexicométrique et capable de générer, à partir de ce qu’on appellerait aujourd’hui de la reconnaissance de pattern et du machine learning, des textes taillés sur mesure pour leur récepteur. Publié 10 à peine après l’acte de naissance de l’intelligence artificielle (la conférence de Darthmouth de 1956), il n’avait certainement pas échappé à Robert Escarpit que le traitement automatique du langage naturel figurait parmi les principaux horizons d’attente de la jeune science computationnelle.
Il sera des années plus tard, dans des écrits scientifiques fondateur des Sciences de l’Infoirmation et de la Communication naissante, un penseur critique de cette « raison artificielle » à laquelle il adressa
le rêve cybernétique s’efface devant l’épreuve du langage.
Presque 60 ans après la publication du Litteratron, la réalité semble rattraper la science-fiction et la récente livraison en 2020 de la 3 ème version du modèle de langage naturel GPT 3 de la société OpenAI semble clairement actualiser les visions d’Escarpit tout en contredisant l’impossibilité d’automatiser la production de discours
Alors que s’affrontèrent pendant presque 50 ans les tenant d’une approche symbolique de l’IA et d’une approche “connexionniste”
Les premiers succès de l’IA et cuex plus tardifs des systèmes experts restaient éloigné du langage « naturelle » et butait d’une certaine manière sur
Le retour des réseau de neuronne, comme le titrait l’excellent article de Cardon et, est bel et bien entrain de devenir et le modèle GPT3 en fournit l’une des illustration les plus
Mais que permet fondamentalement GPT3 ? Il s’agit sans aucun doute d’un des modèles de langage naturel le plus perfectionné au monde, entraîné par des volumes de données aux limites indiscernables et développé avec les techniques les plus récentes de l’apprentissage machine basé sur les réseaux de neurones artificiels. Doté de quelque 175 milliards de paramètres, les assistant vocaux comme SIRI ou CORTEN font pâles figures face aux incroyables performances du système GPT3.
Parmi ses applications, le chatGPT ouvert au grand public depuis décembre 2022 connaît déjà un retentissement international. Il est d’une certaine manière la preuve de concept d’OpenAI dévoilant au grand public, et avec l’effet d’une bombe dans bien des secteurs, la manifeste capacité de GPT à automatiser l’interprétation et la génération du langage “naturel”. Il serait cependant réducteur de ne voir dans ce système de traitement automatisé du langage naturel qu’un simple agent conversationnel tant il siège au coeur de la grande ambition de la société californienne : concevoir, déployer et implémenter la première forme d’intelligence artificielle générale (IAG).