Depuis le lancement de ChatGPT le 30 novembre 2022, l’IA générative s’impose à grande vitesse dans nos téléphones et nos ordinateurs. Ses applications potentielles sont légion, tout comme ses zones d’ombre. Cette technologie est déjà considérée comme une impasse par un de ses créateurs.
Dan Israel et Martine Orange
eLe 30 novembre 2022 est une de ces dates qui ont tout chamboulé dans le rapport du grand public à la révolution numérique. Ce jour-là, l’entreprise OpenAI a rendu accessible à toutes et tous son robot conversationnel ChatGPT. En quelques mois, ce chatbot est devenu le symbole du succès de l’IA générative, qui s’impose toujours plus dans nos vies. Avec ses concurrents Llama, Gemini, Claude ou le petit nouveau chinois DeepSeek, ChatGPT donne le la d’une transformation explosive de nos rapports avec les machines.
Comment fonctionne cette technologie, dont les bases théoriques ont été jetées dès la fin des années 1950 ? Pourquoi produit-elle des erreurs de façon incompressible, poussant l’inventeur de sa forme moderne à la considérer d’ores et déjà comme une impasse ? Quels en sont les promesses ? et les dangers ? Tentative d’exploration des entrailles de la machine.
Des outils devenus omniprésents
En une poignée d’années, les programmes d’intelligence artificielle générative, capables de simuler le langage, le son et les images, se sont imposés dans notre vie numérique. Ils ont pris d’assaut les téléphones et les ordinateurs, pour un grand nombre d’usages : recherche et organisation d’informations, rédaction ou synthèse, aide aux devoirs, assistance administrative au sens large, mais aussi transcription écrite de documents sonores, traduction à la volée, génération automatique de sous-titres, création musicale de bonne facture, clonage de voix…
« En cinq ou six ans, les progrès sont très impressionnants, témoigne Morgan Blangeois, doctorant à l’université Clermont-Auvergne, qui prépare une thèse sur les bouleversements provoqués par l’IA générative dans le secteur des services numériques. En matière de traduction, la machine sait désormais résoudre facilement le classique exemple du mot “bank”, qui, en anglais, peut vouloir dire, selon le contexte, “banque” ou “rive” d’une rivière » – tout comme elle ne se trompe plus sur les divers sens du mot « avocat ».
Agrandir l’image : Illustration 1© Illustration Simon Toupet / Mediapart
« Un cas d’usage est bien établi : c’est l’assistance au codage, avec l’outil GitHub Copilot, explique le jeune chercheur. Il permet de compléter les actions du développeur, de débuguer, d’aller bien plus vite dans la production de codes. C’est déjà au point qu’un développeur m’a confié essayer de se “déperfuser” de cet outil. »
« Si on sait maîtriser les outils d’IA, dans certains domaines, ils sont déjà plus puissants que l’humain, pointe Laurence Devillers, professeure à Sorbonne-Université/CNRS, chercheuse en intelligence artificielle et spécialiste des questions d’éthique dans ce domaine. Si on soumet des millions de clichés de radiologie à une IA prédictive, la machine saura les interpréter, chercher des signaux faibles pour repérer des pathologies qui pourraient échapper à un radiologue. »
Dans tous les domaines scientifiques, les applications possibles sont immenses. Ce n’est pas pour rien que le prix Nobel de Chimie 2024 vient d’être décerné à deux chercheurs de Google DeepMind, John Jumper et Demis Hassabis, pour le développement de leur outil AlphaFold, qui permet depuis 2020 de prédire la structure de protéines. Il y a quelques mois, un outil d’IA a aussi permis de déchiffrer une partie d’un papyrus complètement carbonisé lors de l’éruption du Vésuve en 79, à Herculanum, près de Pompéi.
Les déclinaisons à venir, dans tous les domaines, sont désormais innombrables. Et les inquiétudes des travailleurs et travailleuses qui craignent de se voir remplacé·es sont grandes. Le collectif de traducteurs est traductrices En chair et en os décrit par exemple un univers professionnel où l’arrivée en masse de ces nouveaux outils fait déjà de sérieux dégâts.
Des bases scientifiques posées depuis plus de soixante-cinq ans
Tenir dans sa poche un robot conversationnel parlant un français parfait (autant que l’anglais, l’allemand, le japonais…) est désormais une banalité, mais c’est le fruit d’une très longue marche. ChatGPT et ses concurrents de l’IA générative sont l’aboutissement du système des LLM (« large language models », « grands modèles de langage »), qui génèrent une phrase en se basant sur la plus grande probabilité statistique que tel mot aille derrière tel autre (« bleu »s’intègrera probablement après « le ciel est… »).
Nourris par des quantités colossales de données (récupérées sans trop s’embarrasser des droits de leurs autrices et auteurs originaux), les chabtbots obtiennent des résultats d’un très bon niveau pour imiter le langage courant et simuler des raisonnements ou des synthèses. Mais rien ne fonctionnerait sans les réseaux de neurones artificiels, à la base de ce modèle.
Or, le premier réseau de neurones a été inventé en… 1958. « Les concepts de base sont là très tôt, sourit Jean-Gabriel Ganascia, professeur à la faculté des sciences de Sorbonne-Université, informaticien, spécialiste d’intelligence artificielle. L’apprentissage par renforcement, base des méthode utilisées encore aujourd’hui, a été mis au point dès 1959, et l’apprentissage des réseaux de neurones date de 1986, il a même valu le prix Nobel 2024 à Geoffrey Hinton. Mais tout cela était poussif : les ordinateurs peu puissants ne permettaient pas d’obtenir des résultats convaincants, et les recherches dans ce champ se sont arrêtées. »
La résurrection de ces méthodes, qui n’aurait pas eu lieu sans l’explosion de la puissance des ordinateurs et l’effondrement de leur coût, est due à un Français, le chercheur Yann Le Cun, aujourd’hui vice-président de Meta, qui pilote sa stratégie en matière d’IA et continue à faire de la recherche.
À partir de 2010, avec ses collègues Geoffrey Hinton et Yoshua Bengio, il remet au goût du jour « l’apprentissage profond », dont il est un des pionniers depuis les années 1970, en démontrant que cette méthode donne désormais d’excellents résultats. Toute la branche de l’IA le suit à partir de 2012-2013. En 2014, la génération d’images devient possible. En 2016, le logiciel Alphago (développé par la même société qu’AlphaFold) bat le Sud-Coréen Lee Sedol, un joueur de go légendaire.
Puis en 2017, Google invente le modèle « Transformer » (le « T » de ChatGPT), qui simplifie en profondeur les techniques de calcul nécessaires pour imiter le langage humain. L’année suivante, Google propose Bert, le premier LLM efficace, et Le Cun, Hinton et Bengio reçoivent le prix Turing, la plus haute récompense de l’informatique.
Une machine sans opinion ni conscience
En 2023, le prix Nobel Geoffrey Hinton a démissionné de son poste chez Google pour pouvoir relayer plus librement ses craintes au sujet de l’IA, dont il a contribué à créer la forme moderne. Au New York Times, il a dit son inquiétude devant l’avalanche d’infox et d’images truquées dont il anticipe le déferlement.
Dans une autre interview lors de sa remise de prix, il a dessiné un monde où la destruction d’emplois serait inévitable, face aux machines capables de traduire, de créer et de parler comme des humains. Surtout, il a exprimé son angoisse devant « ces choses » qui pourraient « devenir incontrôlables et prendre le contrôle » de la civilisation, nous enjoignant de « trouver s’il existe une manière de faire face à cette menace ».
Cette menace, régulièrement décrite par ceux-là mêmes qui contribuent au développement de l’IA, est aussi omniprésente dans la vulgate des grands patrons de la Silicon Valley, qui entretiennent en même temps le rêve transhumaniste d’un homme « augmenté » par la machine.
Tous guettent l’irruption d’une « IA générale » et à la « singularité technologique » : le moment où l’intelligence des machines dépassera celle des humains, prélude qui mènerait à l’« IA forte », autrement dit l’avènement d’une machine dotée de conscience, précipitant peut-être la chute de la civilisation humaine.

Agrandir l’image : Illustration 2Lors d'un événement organisé par SoftBank Group à Tokyo le 3 février 2025. SoftBank Group a convenu avec OpenAI d'établir une entreprise pour développer et vendre un système d'intelligence artificielle avancé aux grandes entreprises japonaises. © Photo Morio Taga / Jiji Press / Abaca
Tous les acteurs importants de la tech brandissent ce scénario ambivalent, entre ferveur millénariste et peur de l’apocalypse numérique. Et certains croient le voir advenir : en 2022, Blake Lemoine, un ingénieur de Google, est devenu célèbre pour avoir cru, en conversant avec un robot maison, discuter avec une entité intelligente, consciente et sensible.
Dan Israel et Martine Orange
eLe 30 novembre 2022 est une de ces dates qui ont tout chamboulé dans le rapport du grand public à la révolution numérique. Ce jour-là, l’entreprise OpenAI a rendu accessible à toutes et tous son robot conversationnel ChatGPT. En quelques mois, ce chatbot est devenu le symbole du succès de l’IA générative, qui s’impose toujours plus dans nos vies. Avec ses concurrents Llama, Gemini, Claude ou le petit nouveau chinois DeepSeek, ChatGPT donne le la d’une transformation explosive de nos rapports avec les machines.
Comment fonctionne cette technologie, dont les bases théoriques ont été jetées dès la fin des années 1950 ? Pourquoi produit-elle des erreurs de façon incompressible, poussant l’inventeur de sa forme moderne à la considérer d’ores et déjà comme une impasse ? Quels en sont les promesses ? et les dangers ? Tentative d’exploration des entrailles de la machine.
Des outils devenus omniprésents
En une poignée d’années, les programmes d’intelligence artificielle générative, capables de simuler le langage, le son et les images, se sont imposés dans notre vie numérique. Ils ont pris d’assaut les téléphones et les ordinateurs, pour un grand nombre d’usages : recherche et organisation d’informations, rédaction ou synthèse, aide aux devoirs, assistance administrative au sens large, mais aussi transcription écrite de documents sonores, traduction à la volée, génération automatique de sous-titres, création musicale de bonne facture, clonage de voix…
« En cinq ou six ans, les progrès sont très impressionnants, témoigne Morgan Blangeois, doctorant à l’université Clermont-Auvergne, qui prépare une thèse sur les bouleversements provoqués par l’IA générative dans le secteur des services numériques. En matière de traduction, la machine sait désormais résoudre facilement le classique exemple du mot “bank”, qui, en anglais, peut vouloir dire, selon le contexte, “banque” ou “rive” d’une rivière » – tout comme elle ne se trompe plus sur les divers sens du mot « avocat ».

« Un cas d’usage est bien établi : c’est l’assistance au codage, avec l’outil GitHub Copilot, explique le jeune chercheur. Il permet de compléter les actions du développeur, de débuguer, d’aller bien plus vite dans la production de codes. C’est déjà au point qu’un développeur m’a confié essayer de se “déperfuser” de cet outil. »
« Si on sait maîtriser les outils d’IA, dans certains domaines, ils sont déjà plus puissants que l’humain, pointe Laurence Devillers, professeure à Sorbonne-Université/CNRS, chercheuse en intelligence artificielle et spécialiste des questions d’éthique dans ce domaine. Si on soumet des millions de clichés de radiologie à une IA prédictive, la machine saura les interpréter, chercher des signaux faibles pour repérer des pathologies qui pourraient échapper à un radiologue. »
Dans tous les domaines scientifiques, les applications possibles sont immenses. Ce n’est pas pour rien que le prix Nobel de Chimie 2024 vient d’être décerné à deux chercheurs de Google DeepMind, John Jumper et Demis Hassabis, pour le développement de leur outil AlphaFold, qui permet depuis 2020 de prédire la structure de protéines. Il y a quelques mois, un outil d’IA a aussi permis de déchiffrer une partie d’un papyrus complètement carbonisé lors de l’éruption du Vésuve en 79, à Herculanum, près de Pompéi.
Les déclinaisons à venir, dans tous les domaines, sont désormais innombrables. Et les inquiétudes des travailleurs et travailleuses qui craignent de se voir remplacé·es sont grandes. Le collectif de traducteurs est traductrices En chair et en os décrit par exemple un univers professionnel où l’arrivée en masse de ces nouveaux outils fait déjà de sérieux dégâts.
Des bases scientifiques posées depuis plus de soixante-cinq ans
Tenir dans sa poche un robot conversationnel parlant un français parfait (autant que l’anglais, l’allemand, le japonais…) est désormais une banalité, mais c’est le fruit d’une très longue marche. ChatGPT et ses concurrents de l’IA générative sont l’aboutissement du système des LLM (« large language models », « grands modèles de langage »), qui génèrent une phrase en se basant sur la plus grande probabilité statistique que tel mot aille derrière tel autre (« bleu »s’intègrera probablement après « le ciel est… »).
Nourris par des quantités colossales de données (récupérées sans trop s’embarrasser des droits de leurs autrices et auteurs originaux), les chabtbots obtiennent des résultats d’un très bon niveau pour imiter le langage courant et simuler des raisonnements ou des synthèses. Mais rien ne fonctionnerait sans les réseaux de neurones artificiels, à la base de ce modèle.
Tout cela était poussif : les ordinateurs peu puissants ne permettaient pas d’obtenir des résultats convaincants, et les recherches dans ce champ se sont arrêtées.
Jean-Gabriel Ganascia, professeur à Sorbonne-UniversitéLa résurrection de ces méthodes, qui n’aurait pas eu lieu sans l’explosion de la puissance des ordinateurs et l’effondrement de leur coût, est due à un Français, le chercheur Yann Le Cun, aujourd’hui vice-président de Meta, qui pilote sa stratégie en matière d’IA et continue à faire de la recherche.
À partir de 2010, avec ses collègues Geoffrey Hinton et Yoshua Bengio, il remet au goût du jour « l’apprentissage profond », dont il est un des pionniers depuis les années 1970, en démontrant que cette méthode donne désormais d’excellents résultats. Toute la branche de l’IA le suit à partir de 2012-2013. En 2014, la génération d’images devient possible. En 2016, le logiciel Alphago (développé par la même société qu’AlphaFold) bat le Sud-Coréen Lee Sedol, un joueur de go légendaire.
Puis en 2017, Google invente le modèle « Transformer » (le « T » de ChatGPT), qui simplifie en profondeur les techniques de calcul nécessaires pour imiter le langage humain. L’année suivante, Google propose Bert, le premier LLM efficace, et Le Cun, Hinton et Bengio reçoivent le prix Turing, la plus haute récompense de l’informatique.
Une machine sans opinion ni conscience
En 2023, le prix Nobel Geoffrey Hinton a démissionné de son poste chez Google pour pouvoir relayer plus librement ses craintes au sujet de l’IA, dont il a contribué à créer la forme moderne. Au New York Times, il a dit son inquiétude devant l’avalanche d’infox et d’images truquées dont il anticipe le déferlement.
Dans une autre interview lors de sa remise de prix, il a dessiné un monde où la destruction d’emplois serait inévitable, face aux machines capables de traduire, de créer et de parler comme des humains. Surtout, il a exprimé son angoisse devant « ces choses » qui pourraient « devenir incontrôlables et prendre le contrôle » de la civilisation, nous enjoignant de « trouver s’il existe une manière de faire face à cette menace ».
Cette menace, régulièrement décrite par ceux-là mêmes qui contribuent au développement de l’IA, est aussi omniprésente dans la vulgate des grands patrons de la Silicon Valley, qui entretiennent en même temps le rêve transhumaniste d’un homme « augmenté » par la machine.
Tous guettent l’irruption d’une « IA générale » et à la « singularité technologique » : le moment où l’intelligence des machines dépassera celle des humains, prélude qui mènerait à l’« IA forte », autrement dit l’avènement d’une machine dotée de conscience, précipitant peut-être la chute de la civilisation humaine.

Agrandir l’image : Illustration 2Lors d'un événement organisé par SoftBank Group à Tokyo le 3 février 2025. SoftBank Group a convenu avec OpenAI d'établir une entreprise pour développer et vendre un système d'intelligence artificielle avancé aux grandes entreprises japonaises. © Photo Morio Taga / Jiji Press / Abaca
Tous les acteurs importants de la tech brandissent ce scénario ambivalent, entre ferveur millénariste et peur de l’apocalypse numérique. Et certains croient le voir advenir : en 2022, Blake Lemoine, un ingénieur de Google, est devenu célèbre pour avoir cru, en conversant avec un robot maison, discuter avec une entité intelligente, consciente et sensible.
Personne ne peut garantir que ce qui sort de la machine est factuel, non toxique, compréhensible.
Yann Le Cun, un des « pères » de l’IA
Commentaire