DÉBAT EXCLUSIF. L'auteur de Sapiens Yuval Noah Harari et le chercheur Yann Le Cun s'opposent sur l'IA. Stimulant.
Propos recueillis par Héloïse Pons et Guillaume Grallet


L'historien Yuval Noah Harari (à g.) et le chercheur Yann Le Cun (à dr.). © Vicens Gimenez/SP et Kimberky Wang/SP
C'est le sujet du moment, qui préoccupe aussi bien Xi Jinping que Joe Biden. Vladimir Poutine lui-même a déclaré, en 2017, que le pays qui serait leader dans le domaine de l'intelligence artificielle deviendrait celui qui dominerait le monde. Si l'Histoire a montré à quel point les intentions du maître du Kremlin étaient pour le moins belliqueuses, il est aujourd'hui impossible d'ignorer les avancées de l'intelligence artificielle. Capable de faciliter l'observation spatiale ou la mise au point de matériaux, de permettre la représentation du repliement des protéines comme de phagocyter celle de la vérité, avec la multiplication de visuels s'inspirant de l'actualité plus vrais que nature.
Que penser de cette montée en puissance sans doute la plus spectaculaire depuis l'apparition de l'expression « intelligence artificielle », en 1956, à la conférence de Dartmouth ? Sur le papier, tout oppose Yann Le Cun et Yuval Noah Harari. L'un est chercheur, l'autre est historien. Le premier ne voit aucune raison de s'affoler de l'émergence de cette discipline, alors que l'autre craint qu'elle n'entraîne l'effondrement de notre civilisation. Yuval Noah Harari a d'ailleurs signé la lettre ouverte lancée par le think tank The Future of Life, comme près de 30 000 chercheurs, réclamant une pause de six mois dans le développement d'outils plus puissants que GPT-4, le modèle de langage qui a accéléré l'adoption en un temps record de ChatGPT, quand Yann Le Cun n'a vu dans cet appel qu'une levée de boucliers de prophètes de malheur.
La rencontre proposée par Le Point et réalisée en visioconférence entre New York et Jérusalem a permis au directeur de la recherche fondamentale en IA chez Meta, par ailleurs Prix Turing, l'équivalent du prix Nobel en informatique, et auteur de Quand la machine apprend (Odile Jacob), et à celui qui a signé les best-sellers Sapiens. Une brève histoire de l'humanité et 21 Leçons pour le XXIe siècle (Albin Michel) de confronter leurs points de vue sur les promesses, les dangers et l'avenir de l'IA. Spoiler : nous n'avons pas réussi à les mettre d'accord.

Pour aller plus loin. « Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond », de Yann Le Cun (Odile Jacob « Poches », 2023).« Homo deus. Une brève histoire du futur », de Yuval Noah Harari (Albin Michel, 2017).
Yann Le Cun
•8 juillet 1960 Naissance à Soisy-sous-Montmorency (Val-d'Oise).
•1987 Doctorat à l'université Pierre-et-Marie-Curie.
•1988 Développe des techniques d'apprentissage supervisé chez AT & T Bell.
•2003 Professeur à l'université de New York.
•2013 Crée le laboratoire de recherche en IA de Facebook (Meta) à New York, à Menlo Park et, depuis 2015, à Paris.
•2015-2016 Chaire au Collège de France.
•2019 Prix Turing, l'équivalent du Nobel en informatique.
Yuval Noah Harari
•24 février 1976 Naissance en Israël.
•2002 Doctorat en histoire à l'université d'Oxford.
•Depuis 2005 Professeur à l'Université hébraïque de Jérusalem.
•2014 Publie « Sapiens. Une brève histoire de l'humanité », vendu à plus de 23 millions d'exemplaires.
•2017 « Homo deus. Une brève histoire du futur ».
•2018 « 21 Leçons pour le XXIe siècle ».
•2020 Docteur honoris causa de l'Université libre de Bruxelles.
Le Point : Commençons par le plus important : quelle est votre définition de l'intelligence ?
Yann Le Cun : L'intelligence, c'est être capable de percevoir une situation, puis de planifier une séquence d'actions et d'agir pour atteindre un but.
Yuval Noah Harari : L'intelligence est la capacité à résoudre des problèmes. Les humains qui découvrent comment aller sur la Lune tout comme les organismes unicellulaires en quête de nourriture font preuve d'intelligence. Ce n'est pas la même chose que la conscience. Chez l'homme, elles sont mélangées. La conscience est la capacité de ressentir la douleur, le plaisir, l'amour, la haine. Les humains utilisent parfois la conscience pour résoudre des problèmes, mais de nombreux organismes, comme les plantes et les micro-organismes, en résolvent sans avoir de conscience. Les machines aussi peuvent être intelligentes et résoudre des problèmes sans avoir de sentiments.
Yann Le Cun : Pas encore, mais cela arrivera.
Une machine intelligente, dotée de sentiments, vraiment ? Mais à quelle échéance ?
Yann Le Cun : C'est très difficile de dire combien de temps cela prendra. Mais il ne fait aucun doute pour moi qu'il y aura des machines au moins aussi intelligentes que les humains. Et, si elles ont la capacité de fixer des objectifs, elles auront aussi un équivalent de nos sentiments humains, car très souvent les émotions ne sont qu'une anticipation des résultats. Pour planifier, il faut pouvoir anticiper si le résultat sera bon ou mauvais, et c'est l'une des principales causes des émotions. En tant qu'humains, si nous prévoyons qu'une situation risque d'être dangereuse, nous ressentons de la peur, ce qui nous incite à explorer différentes options pour échapper à la situation dangereuse. Si les machines peuvent le faire, elles auront des émotions.
Mais on est, semble-t-il, encore bien loin de la machine consciente, qui avait été évoquée par le mathématicien britannique Alan Turing dès les années 1950…
Yuval Noah Harari : C'est possible, mais pas inévitable. La conscience est la capacité d'éprouver des sentiments, il est donc tout à fait possible que les machines acquièrent une conscience. Mais elles pourraient aussi progresser selon un mode d'évolution différent, développer d'autres types d'intelligence, supérieurs à l'intelligence humaine, qui n'impliquent aucun sentiment. C'est déjà le cas dans des domaines limités comme les échecs ou le jeu de go. AlphaGo [le logiciel mis au point par DeepMind et qui a battu en 2016 à Séoul le joueur Lee Sedol, considéré comme un des meilleurs du monde, NDLR] ne ressent pas de joie lorsqu'il gagne la partie, et pourtant il est plus intelligent que les humains à ce jeu. Avec une intelligence artificielle générale, notre intelligence pourrait être dépassée de loin par des machines sans émotion.
Yann Le Cun : Il y aura certainement beaucoup de systèmes que nous qualifierons d'intelligents. Il en existe déjà, par exemple un joueur de go ou même un système de conduite automatique. Ils n'ont pas d'émotions mais, en fin de compte, si l'on veut qu'ils acquièrent un certain niveau d'autonomie et travaillent en essayant de satisfaire un objectif, alors on les dotera probablement d'un équivalent d'émotions, parce qu'ils devront être capables de prédire quel sera le résultat d'une séquence particulière d'actions.
ChatGPT, qui s'approprie notre langue, si essentielle dans le contrat social, est-il périlleux ?
Yann Le Cun : Je ne pense pas que ce robot conversationnel soit dangereux pour le moment. Il pourrait le devenir s'il est conçu de manière fermée, à l'abri de tous les regards. Le moyen de progresser avec les grands modèles de langage est de les rendre ouverts, open source. C'est une bonne idée du point de vue économique, mais aussi du point de vue de la sécurité et de la recherche. Mais imaginons un avenir où l'on puisse tous avoir un agent intelligent sous notre contrôle : c'est comme si, tout à coup, une équipe de personnes plus intelligentes que nous travaillait sous nos ordres, pour nous rendre plus efficaces, productifs et créatifs. Nous nous adresserons à ces agents intelligents de manière très naturelle, comme dans le film Her. En tant qu'ancien directeur industriel et professeur d'université, j'essaie de ne travailler qu'avec des personnes plus intelligentes que moi. C'est donc un bon moyen de réussir. On ne devrait donc pas se sentir menacé par ça, mais renforcé. C'est le début d'une Renaissance, une nouvelle ère des Lumières.
Yuval Noah Harari : La question est de savoir entre les mains de qui elle se trouve. Ça peut être merveilleux mais, si l'IA tombe entre de mauvaises mains, elle peut aussi détruire la démocratie. La source de la démocratie est la conversation entre les personnes et, s'il existe ces agents capables de tenir une conversation mieux que n'importe quel humain, déployés au service d'acteurs irresponsables, un scénario catastrophe peut se dessiner. Si la conversation entre les personnes est piratée ou détournée, ce que l'IA est maintenant tout à fait capable de faire, cela détruira les fondements du système démocratique. Et, tout comme nous avons assisté à une course à l'attention sur les réseaux sociaux il y a dix ans, on a maintenant affaire à une course à l'intimité ; or l'intimité est beaucoup plus puissante que l'attention. Si vous pouvez faire en sorte que quelqu'un fasse confiance à votre IA, vous devenez surpuissant. Plus besoin de faire vos recherches sur Google (c'est pour cela que Google a peur), vous demandez à votre IA. Plus besoin de journaux, votre IA pourra vous donner les actualités ! Peut-être que, dans 95 % des cas, elle sert vos intérêts, ce qui vous permet de lui faire confiance et de créer un lien très étroit avec elle. Et puis, de temps en temps, elle oriente vos opinions politiques dans la direction qui lui a été donnée par les personnes qui l'ont conçue. Ce que nous avons vu avec les algorithmes de recommandation n'est rien comparé au pouvoir de ces IA de changer l'opinion des gens, depuis les produits à acheter jusqu'aux politiciens pour lesquels voter.
Est-il plus dangereux d'avoir un assistant intelligent qui donne 95 % de bons conseils qu'un assistant qui multiplie les « hallucinations » [le terme utilisé par les scientifiques à propos des déclarations de machines sans prise avec le réel, NDLR] ?
Yann Le Cun : Les systèmes actuels sont de très bons assistants à l'écriture, mais pas des sources d'information fiables. Au cours des deux à cinq prochaines années, la conception du système va faire des progrès pour créer des IA plus factuelles. À terme, ces systèmes seront plus fiables que n'importe quel autre moyen de recherche d'informations. Prenons la conduite autonome : actuellement, les systèmes d'aide à la conduite sont assez fiables sur l'autoroute, mais pas partout, et vous êtes censé garder les mains sur le volant à tout moment. Avec les modèles linguistiques autorégressifs, vous êtes censé garder vos mains sur le clavier à tout moment parce qu'ils pourraient dire des choses stupides. Ils n'ont pas de bon sens, même s'ils ont accumulé une énorme quantité de connaissances et qu'ils peuvent les régurgiter. Mais ce sera comme pour les voitures : les gens accepteront des voitures complètement autonomes lorsqu'elles seront nettement plus fiables que les humains.
Propos recueillis par Héloïse Pons et Guillaume Grallet


L'historien Yuval Noah Harari (à g.) et le chercheur Yann Le Cun (à dr.). © Vicens Gimenez/SP et Kimberky Wang/SP
C'est le sujet du moment, qui préoccupe aussi bien Xi Jinping que Joe Biden. Vladimir Poutine lui-même a déclaré, en 2017, que le pays qui serait leader dans le domaine de l'intelligence artificielle deviendrait celui qui dominerait le monde. Si l'Histoire a montré à quel point les intentions du maître du Kremlin étaient pour le moins belliqueuses, il est aujourd'hui impossible d'ignorer les avancées de l'intelligence artificielle. Capable de faciliter l'observation spatiale ou la mise au point de matériaux, de permettre la représentation du repliement des protéines comme de phagocyter celle de la vérité, avec la multiplication de visuels s'inspirant de l'actualité plus vrais que nature.
Que penser de cette montée en puissance sans doute la plus spectaculaire depuis l'apparition de l'expression « intelligence artificielle », en 1956, à la conférence de Dartmouth ? Sur le papier, tout oppose Yann Le Cun et Yuval Noah Harari. L'un est chercheur, l'autre est historien. Le premier ne voit aucune raison de s'affoler de l'émergence de cette discipline, alors que l'autre craint qu'elle n'entraîne l'effondrement de notre civilisation. Yuval Noah Harari a d'ailleurs signé la lettre ouverte lancée par le think tank The Future of Life, comme près de 30 000 chercheurs, réclamant une pause de six mois dans le développement d'outils plus puissants que GPT-4, le modèle de langage qui a accéléré l'adoption en un temps record de ChatGPT, quand Yann Le Cun n'a vu dans cet appel qu'une levée de boucliers de prophètes de malheur.
La rencontre proposée par Le Point et réalisée en visioconférence entre New York et Jérusalem a permis au directeur de la recherche fondamentale en IA chez Meta, par ailleurs Prix Turing, l'équivalent du prix Nobel en informatique, et auteur de Quand la machine apprend (Odile Jacob), et à celui qui a signé les best-sellers Sapiens. Une brève histoire de l'humanité et 21 Leçons pour le XXIe siècle (Albin Michel) de confronter leurs points de vue sur les promesses, les dangers et l'avenir de l'IA. Spoiler : nous n'avons pas réussi à les mettre d'accord.

Pour aller plus loin. « Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond », de Yann Le Cun (Odile Jacob « Poches », 2023).« Homo deus. Une brève histoire du futur », de Yuval Noah Harari (Albin Michel, 2017).
Yann Le Cun
•8 juillet 1960 Naissance à Soisy-sous-Montmorency (Val-d'Oise).
•1987 Doctorat à l'université Pierre-et-Marie-Curie.
•1988 Développe des techniques d'apprentissage supervisé chez AT & T Bell.
•2003 Professeur à l'université de New York.
•2013 Crée le laboratoire de recherche en IA de Facebook (Meta) à New York, à Menlo Park et, depuis 2015, à Paris.
•2015-2016 Chaire au Collège de France.
•2019 Prix Turing, l'équivalent du Nobel en informatique.
Yuval Noah Harari
•24 février 1976 Naissance en Israël.
•2002 Doctorat en histoire à l'université d'Oxford.
•Depuis 2005 Professeur à l'Université hébraïque de Jérusalem.
•2014 Publie « Sapiens. Une brève histoire de l'humanité », vendu à plus de 23 millions d'exemplaires.
•2017 « Homo deus. Une brève histoire du futur ».
•2018 « 21 Leçons pour le XXIe siècle ».
•2020 Docteur honoris causa de l'Université libre de Bruxelles.
Le Point : Commençons par le plus important : quelle est votre définition de l'intelligence ?
Yann Le Cun : L'intelligence, c'est être capable de percevoir une situation, puis de planifier une séquence d'actions et d'agir pour atteindre un but.
Yuval Noah Harari : L'intelligence est la capacité à résoudre des problèmes. Les humains qui découvrent comment aller sur la Lune tout comme les organismes unicellulaires en quête de nourriture font preuve d'intelligence. Ce n'est pas la même chose que la conscience. Chez l'homme, elles sont mélangées. La conscience est la capacité de ressentir la douleur, le plaisir, l'amour, la haine. Les humains utilisent parfois la conscience pour résoudre des problèmes, mais de nombreux organismes, comme les plantes et les micro-organismes, en résolvent sans avoir de conscience. Les machines aussi peuvent être intelligentes et résoudre des problèmes sans avoir de sentiments.
Yann Le Cun : Pas encore, mais cela arrivera.
Une machine intelligente, dotée de sentiments, vraiment ? Mais à quelle échéance ?
Yann Le Cun : C'est très difficile de dire combien de temps cela prendra. Mais il ne fait aucun doute pour moi qu'il y aura des machines au moins aussi intelligentes que les humains. Et, si elles ont la capacité de fixer des objectifs, elles auront aussi un équivalent de nos sentiments humains, car très souvent les émotions ne sont qu'une anticipation des résultats. Pour planifier, il faut pouvoir anticiper si le résultat sera bon ou mauvais, et c'est l'une des principales causes des émotions. En tant qu'humains, si nous prévoyons qu'une situation risque d'être dangereuse, nous ressentons de la peur, ce qui nous incite à explorer différentes options pour échapper à la situation dangereuse. Si les machines peuvent le faire, elles auront des émotions.
Mais on est, semble-t-il, encore bien loin de la machine consciente, qui avait été évoquée par le mathématicien britannique Alan Turing dès les années 1950…
Yuval Noah Harari : C'est possible, mais pas inévitable. La conscience est la capacité d'éprouver des sentiments, il est donc tout à fait possible que les machines acquièrent une conscience. Mais elles pourraient aussi progresser selon un mode d'évolution différent, développer d'autres types d'intelligence, supérieurs à l'intelligence humaine, qui n'impliquent aucun sentiment. C'est déjà le cas dans des domaines limités comme les échecs ou le jeu de go. AlphaGo [le logiciel mis au point par DeepMind et qui a battu en 2016 à Séoul le joueur Lee Sedol, considéré comme un des meilleurs du monde, NDLR] ne ressent pas de joie lorsqu'il gagne la partie, et pourtant il est plus intelligent que les humains à ce jeu. Avec une intelligence artificielle générale, notre intelligence pourrait être dépassée de loin par des machines sans émotion.
Yann Le Cun : Il y aura certainement beaucoup de systèmes que nous qualifierons d'intelligents. Il en existe déjà, par exemple un joueur de go ou même un système de conduite automatique. Ils n'ont pas d'émotions mais, en fin de compte, si l'on veut qu'ils acquièrent un certain niveau d'autonomie et travaillent en essayant de satisfaire un objectif, alors on les dotera probablement d'un équivalent d'émotions, parce qu'ils devront être capables de prédire quel sera le résultat d'une séquence particulière d'actions.
ChatGPT, qui s'approprie notre langue, si essentielle dans le contrat social, est-il périlleux ?
Yann Le Cun : Je ne pense pas que ce robot conversationnel soit dangereux pour le moment. Il pourrait le devenir s'il est conçu de manière fermée, à l'abri de tous les regards. Le moyen de progresser avec les grands modèles de langage est de les rendre ouverts, open source. C'est une bonne idée du point de vue économique, mais aussi du point de vue de la sécurité et de la recherche. Mais imaginons un avenir où l'on puisse tous avoir un agent intelligent sous notre contrôle : c'est comme si, tout à coup, une équipe de personnes plus intelligentes que nous travaillait sous nos ordres, pour nous rendre plus efficaces, productifs et créatifs. Nous nous adresserons à ces agents intelligents de manière très naturelle, comme dans le film Her. En tant qu'ancien directeur industriel et professeur d'université, j'essaie de ne travailler qu'avec des personnes plus intelligentes que moi. C'est donc un bon moyen de réussir. On ne devrait donc pas se sentir menacé par ça, mais renforcé. C'est le début d'une Renaissance, une nouvelle ère des Lumières.
Yuval Noah Harari : La question est de savoir entre les mains de qui elle se trouve. Ça peut être merveilleux mais, si l'IA tombe entre de mauvaises mains, elle peut aussi détruire la démocratie. La source de la démocratie est la conversation entre les personnes et, s'il existe ces agents capables de tenir une conversation mieux que n'importe quel humain, déployés au service d'acteurs irresponsables, un scénario catastrophe peut se dessiner. Si la conversation entre les personnes est piratée ou détournée, ce que l'IA est maintenant tout à fait capable de faire, cela détruira les fondements du système démocratique. Et, tout comme nous avons assisté à une course à l'attention sur les réseaux sociaux il y a dix ans, on a maintenant affaire à une course à l'intimité ; or l'intimité est beaucoup plus puissante que l'attention. Si vous pouvez faire en sorte que quelqu'un fasse confiance à votre IA, vous devenez surpuissant. Plus besoin de faire vos recherches sur Google (c'est pour cela que Google a peur), vous demandez à votre IA. Plus besoin de journaux, votre IA pourra vous donner les actualités ! Peut-être que, dans 95 % des cas, elle sert vos intérêts, ce qui vous permet de lui faire confiance et de créer un lien très étroit avec elle. Et puis, de temps en temps, elle oriente vos opinions politiques dans la direction qui lui a été donnée par les personnes qui l'ont conçue. Ce que nous avons vu avec les algorithmes de recommandation n'est rien comparé au pouvoir de ces IA de changer l'opinion des gens, depuis les produits à acheter jusqu'aux politiciens pour lesquels voter.
Est-il plus dangereux d'avoir un assistant intelligent qui donne 95 % de bons conseils qu'un assistant qui multiplie les « hallucinations » [le terme utilisé par les scientifiques à propos des déclarations de machines sans prise avec le réel, NDLR] ?
Yann Le Cun : Les systèmes actuels sont de très bons assistants à l'écriture, mais pas des sources d'information fiables. Au cours des deux à cinq prochaines années, la conception du système va faire des progrès pour créer des IA plus factuelles. À terme, ces systèmes seront plus fiables que n'importe quel autre moyen de recherche d'informations. Prenons la conduite autonome : actuellement, les systèmes d'aide à la conduite sont assez fiables sur l'autoroute, mais pas partout, et vous êtes censé garder les mains sur le volant à tout moment. Avec les modèles linguistiques autorégressifs, vous êtes censé garder vos mains sur le clavier à tout moment parce qu'ils pourraient dire des choses stupides. Ils n'ont pas de bon sens, même s'ils ont accumulé une énorme quantité de connaissances et qu'ils peuvent les régurgiter. Mais ce sera comme pour les voitures : les gens accepteront des voitures complètement autonomes lorsqu'elles seront nettement plus fiables que les humains.
Commentaire