Que faut-il penser des évolutions de l’IA, du projet transhumaniste, d’Elon Musk, de la géopolitique des puissances internationales, de l’eugénisme, de la morale judéo-chrétienne et de la guerre des intelligences ? Nous avons proposé à deux intellectuels contemporains d’en discuter à bâtons rompus.
Sami BIASONI, Stéphane SIMON, Laurent Alexandre
F.P. : Les transhumanistes veulent changer notre futur, augmenter les capacités humaines, nous rendre immortels, proposer des bébés à la carte, coloniser le cosmos, développer l’IA et la fusionner éventuellement avec nos neurones… On le constate, nous sommes à un tournant civilisationnel. L’humanité telle que nous la connaissons est-elle en danger ?
Laurent Alexandre : L’IA va accélérer l’aventure humaine et rapidement nous transformer en Homo Deus. Donc oui, ce ne sera pas un long fleuve tranquille.
Sami Biasoni :Il convient d’éviter de céder à de nouvelles tentations millénaristes vis-à-vis du transhumanisme et de l’intelligence artificielle. On peut certes entrevoir une forme d’accélération de l’histoire technologique, mais l’immortalité, la colonisation du cosmos, l’hybridation cognitive ne sont pas des suites irrémédiables du développement technologique contemporain. Il s’agit de ruptures potentielles profondes qui peuvent advenir dans un futur envisageable, très lointain, ou ne jamais se réaliser. En la matière règne l’imprédictibilité des événements. La marche du progrès n’est ni linéaire ni extrapolable à partir des connaissances actuelles. Pour reprendre une formule du physicien Ilya Prigogine : « Le futur n’est pas donné. »
F.P. : Elon Musk a prévenu récemment : « L’IA est le plus grand risque qui nous menace en tant que civilisation. » Pensez-vous le patron de Neuralink sincèrement inquiet ?
Laurent Alexandre : La stratégie d’Elon Musk est illisible. Il demande un moratoire de six mois sur le développement de GPT-5 et au même moment, il prépare une IA ultra-intelligente xAI qui comprendra selon lui tellement bien le cosmos qu'elle nous respectera. La logique m’échappe. Une chose est claire : la totalité des experts est convaincue que l’IA va dépasser le cerveau humain. Le patron de NVIDIA, le principal producteur de microprocesseurs destinés à alimenter l’IA, affirme qu’elle sera dans dix ans 1 million de fois plus puissante que ChatGPT. Le débat sur notre dépassement est tranché et s’est déplacé sur le risque que l’IA soit hostile ou non et il n’y a aucun consensus sur ce point.
Sami Biasoni : L’attitude quelque peu alarmiste de nombreux entrepreneurs et experts de l’IA relève à la fois d’une prophylaxie nécessaire – étant donné les progrès rapides constatés ces dernières années en la matière – et d’une forme de catastrophisme intéressé. Procéder ainsi permet en effet de mobiliser les décideurs publics avec plus de célérité que si devait s’écouler le temps politique ordinaire. Mais cela a comme inconvénient de susciter une inquiétude peu propice à la tenue d’un débat sain dans la société civile. D’une manière générale, la radicalité des propos sied mal à nos systèmes démocratiques. Sans attendre une hypothétique accélération massive du niveau des IA disponibles vers ce que l’on nomme notamment « l’IA forte » (IA consciente), il faut dès à présent traiter de questions très concrètes et ce, à l’échelle globale : la valorisation des données d’apprentissage, l’auditabilité des modèles utilisés ou encore le recours à des agents conversationnels autonomes lors des campagnes électorales sont autant de sujets essentiels encore mal défrichés d’un point de vue réglementaire. En parallèle, il convient de mettre en place les conditions d’une réflexion fondamentale transdisciplinaire à l’échelle mondiale, de manière à commencer le plus tôt possible à établir les bases éthiques qui nous permettront d’envisager au mieux les ruptures qui pourraient se produire.
F.P. : En tout état de cause, nous entrons dans une période de brouillard civilisationnel, nous savons que nous entrons dans une nouvelle ère de l’humanité, que j’appellerais la posthumanité. Comment appréhender cette phase de transition ?
Laurent Alexandre : D’abord en changeant nos élites. Les six derniers philosophes avec qui j’ai débattu de ChatGPT ont fini par m’avouer qu’ils n’avaient jamais utilisé cette IA révolutionnaire. Comment comprendre et gérer la rapide transformation de l’humanité en ne connaissant rien à ces technologies ? Les élites ont été irresponsables en retardant la prise de conscience de la tornade cognitive. Face à l’IA, les politiciens sont comme une poule qui a trouvé un couteau. Il n’y a pas de domaine où la faiblesse technologique des politiciens est aussi troublante que la régulation de l’IA. Cela explique les décisions en apparence bienveillantes et en réalité désastreuses qui sont prises, à Bruxelles et à Paris, dans le pilotage de la révolution technologique. Ce n’est pas un hasard si aucun GAFAM n’est européen.
Sami Biasoni : Non, nous ne le savons pas. Je dois le répéter : la posthumanité requiert des ruptures qui n’ont pas encore eu lieu et qui pourraient, pour certaines, ne pas avoir lieu à l’échelle perceptible de notre civilisation. Parmi ces ruptures : l’accession par l’IA à un certain niveau de conscience, l’ordinateur quantique ou encore l’hybridation cognitive ne sont qu’à l’état prototypal. Pour le moment, il n’est pas acquis que ces évolutions technologiques puissent survenir hors des laboratoires de recherche. Toutefois, il faut le reconnaître, des progrès majeurs et rapides se produisent dans l’ensemble de ces domaines. Nous devons aussi nous préparer à une compétition économique féroce qui, elle, ne manquera pas de survenir. Ne pas promouvoir de champions français ou européens constituerait une erreur stratégique historique. En la matière, nous avons collectivement fort à faire.
F.P. : Peut-on freiner les progrès en matière d’IA et, d’une manière générale, faut-il interdire ou freiner les progrès technologiques ?
Laurent Alexandre : Freiner le progrès technologique est impossible, notamment parce que les gens veulent devenir immortels. Et l’IA va engager l’euthanasie de la mort. Le fondateur de ChatGPT, Sam Altman, a pour objectif de fabriquer une IA supérieure à l’intelligence humaine. Nous entrons dans un monde où la production d’IA sera infinie. Pour Sam Altman, le chemin qui va mener ChatGPT vers la superintelligence est l’épisode le plus important de l’histoire : « Réussir la transition vers un monde doté d'une superintelligence est peut-être le projet le plus important, le plus prometteur et le plus effrayant de l'histoire de l'humanité. Nous pouvons imaginer un monde dans lequel l'humanité s'épanouit à un degré qu'il est probablement impossible pour aucun d'entre nous de visualiser pleinement pour le moment. » Cette puissance immense a des conséquences anthropologiques majeures pour notre espèce : les transhumanistes veulent en profiter pour tuer la mort plus vite que prévu. « Plutôt transhumains que morts » devient notre devise. Je suis frappé par la vitesse à laquelle l’incroyable puissance de ChatGPT relance la course à l’immortalité et je trouve amusant qu’un conflit de générations arrive à ce sujet ! Le transhumaniste américain Zoltan Istvan explique que le combat contre la mort va fracturer les progressistes, notamment entre les plus jeunes et les plus âgés. Ray Kurzweil, vice-président de Google, a déclaré le 23 mars 2023 que la mort de la mort pourrait arriver dès 2029 grâce à l’IA forte. Cette quête de l’immortalité est un facteur d’accélération de la montée en puissance de l’IA, car combattre la mort en nécessitera beaucoup.
Sami Biasoni : L’optimisme absolu des Lumières vis-à-vis du progrès technique semble aujourd’hui relever d’une position philosophique intenable, tant les meurtrissures du XXe siècle paraissent encore vivaces. Pour autant, le déclinisme et le décroissantisme de certaines postures contemporaines ne me paraissent pas aptes à nous permettre d’affronter plus adéquatement l’avenir qui se dessine, surtout si des ruptures majeures surviennent. Il faut en la matière envisager la technique avec Heidegger. Pour le philosophe allemand, penser que l’on puisse fondamentalement freiner l’essor de la technique est un leurre, de même qu’il est fallacieux de penser la nature profonde du progrès technique hors du positionnement de l’homme par rapport au monde. Ce qu’il faut rechercher c’est la Gelassenheit, c’est-à-dire la « sérénité » à l’égard de la transcendance relative au progrès technique et à son inéluctabilité. Nous saurons, en temps utile, encadrer ce qu’il se produira de fâcheux si nous prônons une juste acceptation de la marche des choses dès aujourd’hui. Avant qu’elle ne soit en mesure de nous menacer, l’IA apportera d’incroyables bienfaits en matière de médecine, de gestion énergétique et de libération de l’exploitation humaine par le travail.
F.P. : On voit du reste que pour avancer, les technophiles parlent toujours de « réparer » l’homme… mais derrière ces positions prudentes et bienveillantes, c’est souvent d’« augmentation » qu’il s’agit. La lutte contre la maladie est-elle le cheval de Troie des transhumanismes ?
Laurent Alexandre :Soyons honnêtes. La médecine passera rapidement d’une logique de réparation des maladies à la phase d’augmentation de nos capacités. Le médecin qui répare, c’est une relique du passé. À titre personnel, en tant que médecin formé au début des années 80, je suis à la médecine qui arrive ce qu’un maréchal-ferrant était en 1900 à l’industrie automobile naissante.
Sami Biasoni : Si le transhumanisme avait deux chevaux de Troie, il s’agirait en effet de la réduction, voire de la disparition de la maladie et de la souffrance d’une part ; d’autre part, et peu s’en rendent compte, de la promotion néoprogressiste de la libre définition des individus hors du champ des déterminismes biologiques. Les revendications les plus radicales relatives au genre pavent en effet la voie d’un monde où l’individu aurait le privilège de définir ce qu’il souhaite être au mépris de ce qu’éprouvent les autres à son endroit. En déniant les particularismes naturels liés à la condition humaine, l’antispécisme anticipe aussi, malgré lui peut-être, les revendications d’égalité d’une post-humanité techniquement hybridée. Enfin, il faut comprendre que lorsque nous débattons de l’éthique de la PMA, bientôt de la GPA, et de l’euthanasie, nous préparons là encore nos sociétés à accepter une forme d’antinaturalité dans ce qu’il y a de plus fondamental dans l’aventure humaine : la procréation et la mort.
F.P. : Sur ABC News, le 16 mars 2023, la journaliste Rebecca Jarvis a demandé à Sam Altman s’il appuierait sur le bouton « stop » s’il y avait 5 % de chances que l’IA détruise le monde. Le créateur de ChatGPT a répondu « non ». Les promoteurs de l’IA ne jouent-ils pas les apprentis sorciers ?
Laurent Alexandre : Les transhumanistes pensent qu’il est de notre devoir de développer des IA puissantes pour conquérir l’univers puis empêcher sa mort. Pour eux, c’est une course contre la montre. Il faut faire vite et accepter quelques risques. Ils sont très cohérents.
Sami Biasoni : Dans cette même interview, il dit aussi être attentif aux dangers que représente l’IA. Selon lui, le risque majeur est humain aujourd’hui, il ne provient pas de l’outil lui-même. Ce sont les usages qui l’inquiètent au premier chef : la possibilité de campagnes massives de désinformation ou de cyberattaques automatisées à grande échelle constitue des menaces réelles à court terme. Contrairement à l’arme nucléaire, dont les conséquences néfastes étaient connues dès la conception, il est trop tôt et trop spéculatif de croire en une menace imminente, consubstantielle à l’IA elle-même. Comme je l’ai indiqué, il serait toutefois naïf de négliger la survenue potentielle d’un danger important. Nous devons nous préparer, certes, mais loin des nécessités dangereuses de l’urgence, dans le relatif confort de l’anticipation. L’IA nous propose un dilemme moral, à ce stade soutenable : celui de la compensation d’un risque lointain, mais important s’il survient, par des avantages certains à courte et moyenne échéances. Voilà les termes du débat.
Sami BIASONI, Stéphane SIMON, Laurent Alexandre
F.P. : Les transhumanistes veulent changer notre futur, augmenter les capacités humaines, nous rendre immortels, proposer des bébés à la carte, coloniser le cosmos, développer l’IA et la fusionner éventuellement avec nos neurones… On le constate, nous sommes à un tournant civilisationnel. L’humanité telle que nous la connaissons est-elle en danger ?
Laurent Alexandre : L’IA va accélérer l’aventure humaine et rapidement nous transformer en Homo Deus. Donc oui, ce ne sera pas un long fleuve tranquille.
Sami Biasoni :Il convient d’éviter de céder à de nouvelles tentations millénaristes vis-à-vis du transhumanisme et de l’intelligence artificielle. On peut certes entrevoir une forme d’accélération de l’histoire technologique, mais l’immortalité, la colonisation du cosmos, l’hybridation cognitive ne sont pas des suites irrémédiables du développement technologique contemporain. Il s’agit de ruptures potentielles profondes qui peuvent advenir dans un futur envisageable, très lointain, ou ne jamais se réaliser. En la matière règne l’imprédictibilité des événements. La marche du progrès n’est ni linéaire ni extrapolable à partir des connaissances actuelles. Pour reprendre une formule du physicien Ilya Prigogine : « Le futur n’est pas donné. »
F.P. : Elon Musk a prévenu récemment : « L’IA est le plus grand risque qui nous menace en tant que civilisation. » Pensez-vous le patron de Neuralink sincèrement inquiet ?
Laurent Alexandre : La stratégie d’Elon Musk est illisible. Il demande un moratoire de six mois sur le développement de GPT-5 et au même moment, il prépare une IA ultra-intelligente xAI qui comprendra selon lui tellement bien le cosmos qu'elle nous respectera. La logique m’échappe. Une chose est claire : la totalité des experts est convaincue que l’IA va dépasser le cerveau humain. Le patron de NVIDIA, le principal producteur de microprocesseurs destinés à alimenter l’IA, affirme qu’elle sera dans dix ans 1 million de fois plus puissante que ChatGPT. Le débat sur notre dépassement est tranché et s’est déplacé sur le risque que l’IA soit hostile ou non et il n’y a aucun consensus sur ce point.
Sami Biasoni : L’attitude quelque peu alarmiste de nombreux entrepreneurs et experts de l’IA relève à la fois d’une prophylaxie nécessaire – étant donné les progrès rapides constatés ces dernières années en la matière – et d’une forme de catastrophisme intéressé. Procéder ainsi permet en effet de mobiliser les décideurs publics avec plus de célérité que si devait s’écouler le temps politique ordinaire. Mais cela a comme inconvénient de susciter une inquiétude peu propice à la tenue d’un débat sain dans la société civile. D’une manière générale, la radicalité des propos sied mal à nos systèmes démocratiques. Sans attendre une hypothétique accélération massive du niveau des IA disponibles vers ce que l’on nomme notamment « l’IA forte » (IA consciente), il faut dès à présent traiter de questions très concrètes et ce, à l’échelle globale : la valorisation des données d’apprentissage, l’auditabilité des modèles utilisés ou encore le recours à des agents conversationnels autonomes lors des campagnes électorales sont autant de sujets essentiels encore mal défrichés d’un point de vue réglementaire. En parallèle, il convient de mettre en place les conditions d’une réflexion fondamentale transdisciplinaire à l’échelle mondiale, de manière à commencer le plus tôt possible à établir les bases éthiques qui nous permettront d’envisager au mieux les ruptures qui pourraient se produire.
F.P. : En tout état de cause, nous entrons dans une période de brouillard civilisationnel, nous savons que nous entrons dans une nouvelle ère de l’humanité, que j’appellerais la posthumanité. Comment appréhender cette phase de transition ?
Laurent Alexandre : D’abord en changeant nos élites. Les six derniers philosophes avec qui j’ai débattu de ChatGPT ont fini par m’avouer qu’ils n’avaient jamais utilisé cette IA révolutionnaire. Comment comprendre et gérer la rapide transformation de l’humanité en ne connaissant rien à ces technologies ? Les élites ont été irresponsables en retardant la prise de conscience de la tornade cognitive. Face à l’IA, les politiciens sont comme une poule qui a trouvé un couteau. Il n’y a pas de domaine où la faiblesse technologique des politiciens est aussi troublante que la régulation de l’IA. Cela explique les décisions en apparence bienveillantes et en réalité désastreuses qui sont prises, à Bruxelles et à Paris, dans le pilotage de la révolution technologique. Ce n’est pas un hasard si aucun GAFAM n’est européen.
Sami Biasoni : Non, nous ne le savons pas. Je dois le répéter : la posthumanité requiert des ruptures qui n’ont pas encore eu lieu et qui pourraient, pour certaines, ne pas avoir lieu à l’échelle perceptible de notre civilisation. Parmi ces ruptures : l’accession par l’IA à un certain niveau de conscience, l’ordinateur quantique ou encore l’hybridation cognitive ne sont qu’à l’état prototypal. Pour le moment, il n’est pas acquis que ces évolutions technologiques puissent survenir hors des laboratoires de recherche. Toutefois, il faut le reconnaître, des progrès majeurs et rapides se produisent dans l’ensemble de ces domaines. Nous devons aussi nous préparer à une compétition économique féroce qui, elle, ne manquera pas de survenir. Ne pas promouvoir de champions français ou européens constituerait une erreur stratégique historique. En la matière, nous avons collectivement fort à faire.
F.P. : Peut-on freiner les progrès en matière d’IA et, d’une manière générale, faut-il interdire ou freiner les progrès technologiques ?
Laurent Alexandre : Freiner le progrès technologique est impossible, notamment parce que les gens veulent devenir immortels. Et l’IA va engager l’euthanasie de la mort. Le fondateur de ChatGPT, Sam Altman, a pour objectif de fabriquer une IA supérieure à l’intelligence humaine. Nous entrons dans un monde où la production d’IA sera infinie. Pour Sam Altman, le chemin qui va mener ChatGPT vers la superintelligence est l’épisode le plus important de l’histoire : « Réussir la transition vers un monde doté d'une superintelligence est peut-être le projet le plus important, le plus prometteur et le plus effrayant de l'histoire de l'humanité. Nous pouvons imaginer un monde dans lequel l'humanité s'épanouit à un degré qu'il est probablement impossible pour aucun d'entre nous de visualiser pleinement pour le moment. » Cette puissance immense a des conséquences anthropologiques majeures pour notre espèce : les transhumanistes veulent en profiter pour tuer la mort plus vite que prévu. « Plutôt transhumains que morts » devient notre devise. Je suis frappé par la vitesse à laquelle l’incroyable puissance de ChatGPT relance la course à l’immortalité et je trouve amusant qu’un conflit de générations arrive à ce sujet ! Le transhumaniste américain Zoltan Istvan explique que le combat contre la mort va fracturer les progressistes, notamment entre les plus jeunes et les plus âgés. Ray Kurzweil, vice-président de Google, a déclaré le 23 mars 2023 que la mort de la mort pourrait arriver dès 2029 grâce à l’IA forte. Cette quête de l’immortalité est un facteur d’accélération de la montée en puissance de l’IA, car combattre la mort en nécessitera beaucoup.
Sami Biasoni : L’optimisme absolu des Lumières vis-à-vis du progrès technique semble aujourd’hui relever d’une position philosophique intenable, tant les meurtrissures du XXe siècle paraissent encore vivaces. Pour autant, le déclinisme et le décroissantisme de certaines postures contemporaines ne me paraissent pas aptes à nous permettre d’affronter plus adéquatement l’avenir qui se dessine, surtout si des ruptures majeures surviennent. Il faut en la matière envisager la technique avec Heidegger. Pour le philosophe allemand, penser que l’on puisse fondamentalement freiner l’essor de la technique est un leurre, de même qu’il est fallacieux de penser la nature profonde du progrès technique hors du positionnement de l’homme par rapport au monde. Ce qu’il faut rechercher c’est la Gelassenheit, c’est-à-dire la « sérénité » à l’égard de la transcendance relative au progrès technique et à son inéluctabilité. Nous saurons, en temps utile, encadrer ce qu’il se produira de fâcheux si nous prônons une juste acceptation de la marche des choses dès aujourd’hui. Avant qu’elle ne soit en mesure de nous menacer, l’IA apportera d’incroyables bienfaits en matière de médecine, de gestion énergétique et de libération de l’exploitation humaine par le travail.
F.P. : On voit du reste que pour avancer, les technophiles parlent toujours de « réparer » l’homme… mais derrière ces positions prudentes et bienveillantes, c’est souvent d’« augmentation » qu’il s’agit. La lutte contre la maladie est-elle le cheval de Troie des transhumanismes ?
Laurent Alexandre :Soyons honnêtes. La médecine passera rapidement d’une logique de réparation des maladies à la phase d’augmentation de nos capacités. Le médecin qui répare, c’est une relique du passé. À titre personnel, en tant que médecin formé au début des années 80, je suis à la médecine qui arrive ce qu’un maréchal-ferrant était en 1900 à l’industrie automobile naissante.
Sami Biasoni : Si le transhumanisme avait deux chevaux de Troie, il s’agirait en effet de la réduction, voire de la disparition de la maladie et de la souffrance d’une part ; d’autre part, et peu s’en rendent compte, de la promotion néoprogressiste de la libre définition des individus hors du champ des déterminismes biologiques. Les revendications les plus radicales relatives au genre pavent en effet la voie d’un monde où l’individu aurait le privilège de définir ce qu’il souhaite être au mépris de ce qu’éprouvent les autres à son endroit. En déniant les particularismes naturels liés à la condition humaine, l’antispécisme anticipe aussi, malgré lui peut-être, les revendications d’égalité d’une post-humanité techniquement hybridée. Enfin, il faut comprendre que lorsque nous débattons de l’éthique de la PMA, bientôt de la GPA, et de l’euthanasie, nous préparons là encore nos sociétés à accepter une forme d’antinaturalité dans ce qu’il y a de plus fondamental dans l’aventure humaine : la procréation et la mort.
F.P. : Sur ABC News, le 16 mars 2023, la journaliste Rebecca Jarvis a demandé à Sam Altman s’il appuierait sur le bouton « stop » s’il y avait 5 % de chances que l’IA détruise le monde. Le créateur de ChatGPT a répondu « non ». Les promoteurs de l’IA ne jouent-ils pas les apprentis sorciers ?
Laurent Alexandre : Les transhumanistes pensent qu’il est de notre devoir de développer des IA puissantes pour conquérir l’univers puis empêcher sa mort. Pour eux, c’est une course contre la montre. Il faut faire vite et accepter quelques risques. Ils sont très cohérents.
Sami Biasoni : Dans cette même interview, il dit aussi être attentif aux dangers que représente l’IA. Selon lui, le risque majeur est humain aujourd’hui, il ne provient pas de l’outil lui-même. Ce sont les usages qui l’inquiètent au premier chef : la possibilité de campagnes massives de désinformation ou de cyberattaques automatisées à grande échelle constitue des menaces réelles à court terme. Contrairement à l’arme nucléaire, dont les conséquences néfastes étaient connues dès la conception, il est trop tôt et trop spéculatif de croire en une menace imminente, consubstantielle à l’IA elle-même. Comme je l’ai indiqué, il serait toutefois naïf de négliger la survenue potentielle d’un danger important. Nous devons nous préparer, certes, mais loin des nécessités dangereuses de l’urgence, dans le relatif confort de l’anticipation. L’IA nous propose un dilemme moral, à ce stade soutenable : celui de la compensation d’un risque lointain, mais important s’il survient, par des avantages certains à courte et moyenne échéances. Voilà les termes du débat.
Commentaire