CONTRIBUTION / OPINION. Malgré les progrès impressionnants de l'Intelligence artificielle, sa capacité à épouser toutes les subtilités du langage humain et sa finesse émotionnelle n'est pas pour demain.
Comme chacun le sait, les termes de syntaxe et de sémantique désignent (outre vocabulaire et grammaire) deux des piliers d’une langue parlée et écrite et en particulier notre propre lexique dont je me suis permis de faire l’éloge du fait des graves menaces civilisationnelles dont nous médecins, sommes devenus spectateurs impuissants.
L’IA est du même ordre, mais elle pose une autre question, et elle est de taille, car c’est l’humanité entière qui est visée. Après une période de latence de quelques années, il a fallu que soit lancée récemment son application « grand public », le ChatGPT, et qu’alors la machine médiatique fasse éclater au grand jour l’imminence du bouleversement socioprofessionnel copernicien, à l’instar des précédentes métamorphoses qui ont scandé l’Histoire occidentale de la modernité : imprimerie, machine à vapeur, industrie textile. Il faut, en effet, sans aucun doute s’inquiéter, mais, je le pense, nous avons les moyens de résister avec calme par des arguments de bon sens.
C’est par cet avis optimiste que j’avais terminé ma précédente tribune, m’appuyant sur le fait anatomo-physiologique que la machine ne possède pas les centres limbiques préfrontaux du cerveau humain, sans oublier la base existentielle : l’IA est non seulement un cerveau artificiel, elle est tout simplement privée d’un corps sensible. Sa mémoire gigantesque et fulgurante nous domine sans aucun doute, et dans ses futures versions on nous dit même qu’elle disposera d’une aptitude à reproduire un certain degré de conscience au moyen de la reconnaissance linguistique à la base de son fonctionnement. En fait, aujourd’hui, aucun ordinateur n’est conscient de ce qu’il fait, et (avouons-le) trop souvent, nous non plus… On nous dit aussi que le robot parviendra même à reproduire des émotions. Défi difficilement crédible quand on sait que nos humaines émotions ont pour origine les effluves issues de notre propre corps, récepteur de toutes les sollicitations (voire les agressions) sociétales et environnementales.
Les capteurs viscéraux, visuels, auditifs et tactiles encodent les messages par vagues de micropulsions électriques, lesquelles sont traitées par notre l’hippocampe et ses noyaux annexes pour en final être décodées en pensées par une « plateforme autobiographique », laquelle, grâce à la conjugaison de notre conscience et de notre mémoire des expériences vécues, produit les sentiments, dernière étape qui conduit aux jugements et aux décisions selon le degré de volonté de chacun. Ainsi est composée la pensée complexe qui nous permet de maîtriser nos émotions et finalement façonne notre personnalité.
La machine reproduira-t-elle l’ensemble de l’intelligence humaine avec un tel raffinement, alors qu’elle puise ses informations dans l’abondante littérature scientifique et romanesque et non pas à partir d’une expérience vécue ? Prenons-la donc au mot et argumentons-la sur son terrain de prédilection : sa fonction GPT (Generative Pre-trained Transformer).
IA et syntaxe, un couple idéal ?
C’est là que se niche le leurre. Le rapport généré par chatGPT4 est déjà (en attendant plus encore) un modèle de perfection syntaxique au point de tromper la vigilance d’un professeur ou même d’un éditeur. Un style au polissage sans âme et une orthographe sans la moindre faute (rarissime de nos jours) auraient pourtant de quoi alerter.
Le mot provient du latin syntaxis, lui-même emprunté au grec ancien sùntaxis qui signifie ordre ou arrangement. Le dictionnaire de l’Académie française définit ainsi le terme : « arrangement des mots et construction des propositions dans la phrase selon les règles de la grammaire ». En bref, la syntaxe, c’est la règle de base qui régit la construction des mots et des phrases. C’est un cadre désincarné qui ne préjuge ni du style ni du fond de la pensée de celui qui cherche à se faire comprendre à l’écrit comme à l’oral. Il faut savoir que la syntaxe n’a pas la même importance dans toutes les langues, elle est particulièrement importante dans celle de Molière, c’est ce qui fait sa difficulté d’apprentissage pour un anglophone ou un germanophone et explique aussi le désastre de la malheureuse méthode globale imposée dans nos écoles primaires. Car le principe de l’apprentissage repose sur « les coutures » entre unités linguistiques qui composent la phrase. Un mot mal choisi, un oubli peut rendre la phrase inintelligible ou altérer son sens. Disons dès maintenant que la syntaxe est le vestibule de la sémantique.
Le logiciel conversationnel est-il capable de franchir ce premier obstacle ? Oui, et avec dextérité, puisqu’il opère sur un corpus de textes qu’il ratisse mécaniquement au moyen de l’algorithme d’apprentissage lexical pour lequel il a été programmé. Il procède par une analyse mathématique de corrélations probables, mais il n’a pas les moyens de s’interroger sur le sens des mots qu’il emploie, et encore moins d’y réfléchir. Il lui suffit alors de conjuguer sélection, mimétisme et plagiat en fonction du déclenchement de la question précise qui lui a été posée. Ainsi, selon la question que vous posez, il peut par exemple prévoir que vous allez utiliser le mot fracture sans en avoir jamais vu ou subi. À la différence d’un enfant auquel on apprend à parler en lui montrant l’image d’un éléphant, associe l’image au mot, sans que son cerveau balaye une base de données désincarnée. La machine réagit selon un modèle mathématique avec une entrée dont il sortira une prédiction. Par exemple combler les trous dans une phrase : « les médecins introduisent dans le_____ (corps) qu’ils connaissent mal, des _____(produits) qu’ils ne connaissent pas du tout »… (Voltaire).
Et même si les logiciels conversationnels dits multimodaux seront capables d’associer mots et images, il n’empêche que dans notre exemple de l’apprentissage du petit enfant, ils ne seront pas passés par la case visite au Zoo ! Autrement dit, le logiciel entretient une apparence, sans l’essentiel : le contenu ressenti. Si donc on s’en tient à la seule syntaxe, l’IA franchit l’obstacle haut la main, et pour reprendre la métaphore du couple, disons que voilà un mariage apparemment harmonieux ! Mais, attention au réveil brutal : le petit matin des désillusions qui conduisent tout droit au divorce pour seul motif d’un manque de profondeur sémantique, ce qui, de mon point de vue, est un grief juridiquement recevable !
IA et sémantique, un couple authentique ?
C’est dans la branche sémantique du langage que l’IA rencontre plus de difficulté à nous fournir la juste signification de sa tâche générative. Dans la langue française, la performance informatique est double : extraire la bonne réponse à la question posée par l’utilisateur, et en faire la traduction puisque les bases de données sont majoritairement anglophones et spécialement dans le champ scientifique.
L’Académie française donne comme définition : « Le sens, la signification des éléments d’une langue ». Le terme est emprunté au grec ancien sêmantikos : « qui signifie ». Or le sens d’un mot dépend justement de son contexte culturel.
La machine qui, rappelons-le, ne réfléchit pas, est-elle capable d’effectuer ce tour de force, alors que sa compétence s’exerce uniquement dans le champ syntaxique ? De fait, le choix sémantique dépend du contexte de l’unité lexicale dans laquelle il est saisi, ce qui implique un choix entre ses sens abstrait ou figuré, et c’est beaucoup le cas en langue française. Ce sont les mots environnants qui lui fournissent les indices sémantiques de repérage d’un mot clé. Ainsi, le mot « fracture » a le sens anatomique que nous lui donnons. Mais, on peut également lui attribuer un autre sens tel la devenue célèbre « fracture sociale ». Le choix d’un mot dépend aussi de ses traits distinctifs : le mot « prothèse » est l’exemple type. Si dans le contexte lexical où il se déploie, le robot ne fait pas la distinction entre prothèse articulaire et prothèse pour amputation, il fournira une réponse inintelligible, en tous cas à un usager occasionnel. On pourrait multiplier les exemples qui démontrent qu’en matière de sémantique le robot avance dans une jungle quasi amazonienne.
Ces quelques exemples démontrent que si l’IA peut résoudre des problèmes abstraits complexes, de son côté l’IH*** fait face à des situations vécues. Face à un mot ambigu dont le sens est double, une phrase mal fagotée, elle les réintègre spontanément dans leur contexte sans que l’unité lexicale dans laquelle ils se situent soit incomprise. En revanche, dans la même situation, l’IA est dans l’incapacité d’effectuer d’elle-même la correction puisqu’elle est sous l’emprise carcérale de son logiciel.
De plus, pour chacun d’entre nous, un mot, une phrase sont la partie émergée de notre histoire individuelle, inséparable de notre corps. La partie immergée est le poids cognitif acquis engrangé dans notre cerveau. Pour l’IA, un mot, une phrase ne sont que des repères linguistiques. Étant désincarnée, elle évolue sous le régime tyrannique de l’emprunt lexical qu’elle restitue sans conscience grâce à sa puissance de calcul, et à une association d’algorithmes.
À l’opposé, l’être humain et son intelligence sont toujours engagés dans une situation où les faits sont en place, et c’est adossé à ces faits concrets qu’intervient sa « plateforme autobiographique » pour comprendre, mesurer et agir avec des critères moraux et éthiques que la société lui a inculqués.
Conclusions :
Comparer intelligence artificielle et intelligence humaine, par le biais du langage, est une façon enrichissante d’explorer le fonctionnement de notre propre pensée, la manière dont elle se construit et les moyens de l’exprimer.
L’IA est une entité incorporelle (inhumaine et non divine) parce que sans engagement, sans responsabilité. Elle est donc dépourvue de tout sens moral (amoralité pas immoralité) auquel s’ajoute évidemment une absence de conscience éthique, puisque désincarnée.
Mais l’IA est un formidable adjoint. Utilisons-la comme un outil pédagogique et un assistant dont il faut contrôler les tâches qui lui sont confiées, comme nous le faisons habituellement avec nos collaborateurs.
Jean-Yves DE LA CAFFINIERE