Jean-Gabriel Ganascia, professeur d’informatique à l’université Pierre-et-Marie-Curie, est l’un des principaux spécialistes français de l’intelligence artificielle. Ses recherches actuelles portent sur le versant littéraire des humanités numériques, la philosophie computationnelle et l’éthique des technologies de l’information et de la communication.
LA TRIBUNE - Comment définir, de façon simple, l'intelligence artificielle [IA] ?
Jean-Gabriel Ganascia - L'intelligence artificielle consiste à faire exécuter par une machine des opérations que nous faisons avec notre intelligence. De façon encore plus simple, cela veut dire calculer, démontrer des théorèmes, résoudre des problèmes, jouer, traduire, parler, reconnaître une voix, la liste serait longue. La création officielle de l'IA date de 1955, avec le projet d'école d'été de John McCarthy, au cours de laquelle il propose de jeter les fondements d'une nouvelle discipline qui partirait de « la conjecture selon laquelle chaque aspect de l'apprentissage ainsi que n'importe quel trait de l'intelligence pourrait, en principe, être décomposé en modules si élémentaires qu'une machine pourrait les simuler ».
Mais l'IA est le fruit d'une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul. Elle devient tangible dès la première moitié du xixe siècle avec Charles Babbage, qui conçoit les plans du premier ordinateur avec sa jeune assistante, l'énigmatique Ada Lovelace, fille du poète Byron, selon laquelle une telle machine ne se limiterait pas à effectuer des calculs mathématiques, mais serait en mesure d'opérer sur des mots ou de la musique. Quelques années plus tard, dans les années 1869, un économiste, William Stanley Jevons, réalise, avec des moyens purement mécaniques, un « piano logique » qui simule des raisonnements en ayant recours à l'algèbre de Boole.
L'idée prend de l'ampleur au xxe siècle, dans les années 1940, avant même la construction des premiers ordinateurs électroniques, au moment de la création de la cybernétique qui étudie, avec des automates, la régulation des systèmes complexes. Cette approche aborde de multiples domaines et dépasse la seule question de la régulation des machines. Elle va notamment influencer la psychologie et l'anthropologie : ainsi, l'école de Palo Alto, fondée par Gregory Bateson, s'appuie beaucoup sur la cybernétique.
Alan Turing va aller plus loin encore. Après avoir posé les fondements de ce qui deviendra l'informatique en 1936, il invente, pendant la guerre, le dispositif permettant de décrypter les messages émis par la machine à coder allemande Enigma. Après cette découverte, Turing se pose la question de savoir ce que penser veut dire, pour une machine. Il imagine alors le test d'intelligence des machines qualifié, depuis, comme étant le « test de Turing » : une machine est dite « intelligente » si elle peut faire illusion en se faisant passer pour un être humain au cours d'un chat, c'est-à-dire d'un échange écrit, par l'intermédiaire de machines.
Après que de grandes espérances, comme celle de la traduction automatique ou du jeu d'échecs, ont été un peu « refroidies », l'IA ne se développe réellement qu'au cours des années 1970, lorsque l'on comprend qu'il ne suffit pas de faire de la logique, mais qu'il faut relier la psychologie, la linguistique et l'informatique. Elle accroît sa popularité ensuite avec l'apparition des « systèmes experts », c'est-à-dire des logiciels visant à simuler le raisonnement dans un champ du savoir restreint, en ayant recours à la connaissance d'hommes de métier pour résoudre des problèmes précis. Ces derniers rencontrent un succès énorme dans les années 1980 avant que l'IA necroise sa course avec le développement du Web.
Aujourd'hui l'IA, c'est quoi ?
L'intelligence artificielle est partout dans nos vies : dans la reconnaissance de la parole, des visages ou des empreintes digitales, dans les apprentissages machines, dans l'hypertexte, les moteurs de recherche, la traduction automatique, les logiciels de recommandation, etc. Tout ce qui est Web comporte de l'IA. Mais il y a aussi de l'IA dans votre téléphone portable, dans la voiture autonome, dans les drones...
Aujourd'hui, quels sont les pays ou les organisations le plus en pointe dans ce domaine ?
Les États-Unis en premier lieu, parce que la discipline s'y est développée beaucoup plus rapidement qu'ailleurs. Pour une simple raison, c'est que les Américains se posent surtout la question du comment, moins du pourquoi, leur côté plus pragmatique les fait avancer plus vite. Au Royaume-Uni aussi, parce qu'ils avaient une tradition logique et informatique forte : n'oublions pas que Charles Babbage, l'inventeur du premier ordinateur, est anglais et qu'il en va de même d'Alan Turing, le précurseur de l'intelligence artificielle.
Au Japon, l'IA s'est développée sous l'impulsion du projet d'ordinateur de cinquième génération, dans lequel les ingénieurs japonais ont souhaité intégrer de l'IA. Ils voulaient concevoir une nouvelle génération de machines intégrant des langages capables d'opérer des déductions logiques. À cette fin, ils ont opté pour le langage Prolog, PROgrammation en LOGique, inventé par un Français, Alain Colmerauer. En France, précisément, malgré de vraies compétences, l'IA a longtemps été méprisée. En Chine, il n'y a rien eu pendant des années, mais les Chinois ont ensuite beaucoup investi en se concentrant notamment sur les questions d'apprentissage machine et sur les applications pour le traitement des masses de données, les mégadonnées.
Connaît-on vraiment les avancées de la recherche dans ces différentes régions ? Des programmes de recherche cachés pourraient-ils exister ?
La recherche a beaucoup changé. Elle avait un côté invisible, caché, restreinte à des cercles d'initiés. Puis des organisations plus étatiques, ont pris le relais, surtout après la Seconde Guerre mondiale. Aujourd'hui, la recherche est financée au plan international. Les communautés de chercheurs sont interdisciplinaires, multinationales. Les financements sont multipartites, privés et publics. On sait donc ce qui se passe. Il y aura toujours des petits groupes construisant des virus informatiques, mais on ne fait pas d'avancées majeures en restant tout seul dans son coin.
Les risques liés à l'IA relèvent-ils alors du fantasme ?
Il faut, je crois, avant tout faire attention aux applications, à la dépendance qu'elles engendrent dans la vie de tous les jours et aux changements sociaux qu'elles induisent. La délégation de certaines tâches aux machines a nécessairement des effets secondaires. Les systèmes informatiques offrent de nouvelles opportunités, tout en en condamnant d'autres. Ainsi, Uber permet de trouver un taxi à proximité, de suivre le parcours de la voiture avant qu'il arrive, puis après, de le noter... De même, on peut craindre que la nature mutualiste des assurances disparaisse progressivement avec le traitement de grandes masses de données qui permettent d'anticiper le risque avec une très grande précision ; en effet, des acteurs promettant des polices d'assurance beaucoup moins coûteuses feront alors leur apparition sur le marché...
Et le débat récent autour des robots tueurs ?
Les questions autour des « robots tueurs » qui reviennent sans cesse constituent à mes yeux un faux débat. Le but d'une guerre est avant tout de résoudre un conflit. Or, je ne crois pas que les drones, qui engendrent déjà et engendreront immanquablement des bavures, seront en mesure de les résoudre. Une série d'articles parus aux États-Unis en montrent les limites en décrivant toutes les erreurs et les méprises auxquelles l'emploi de drones militaires a conduit. De même, les robots autonomes qui sélectionneront eux-mêmes leurs cibles et commanderont le tir vont générer trop d'hostilité pour s'imposer. À cela, il faut ajouter que ces armes autonomes requièrent des critères objectivables. Or, comment définir formellement un « ennemi » de façon à construire un algorithme qui l'identifie ? C'est là une question d'autant plus délicate que nous avons de plus en plus affaire à des guerres asymétriques où les combattants ne portent pas d'uniforme.
LA TRIBUNE - Comment définir, de façon simple, l'intelligence artificielle [IA] ?
Jean-Gabriel Ganascia - L'intelligence artificielle consiste à faire exécuter par une machine des opérations que nous faisons avec notre intelligence. De façon encore plus simple, cela veut dire calculer, démontrer des théorèmes, résoudre des problèmes, jouer, traduire, parler, reconnaître une voix, la liste serait longue. La création officielle de l'IA date de 1955, avec le projet d'école d'été de John McCarthy, au cours de laquelle il propose de jeter les fondements d'une nouvelle discipline qui partirait de « la conjecture selon laquelle chaque aspect de l'apprentissage ainsi que n'importe quel trait de l'intelligence pourrait, en principe, être décomposé en modules si élémentaires qu'une machine pourrait les simuler ».
Mais l'IA est le fruit d'une réflexion qui commence bien avant la création des ordinateurs. Elle émane de philosophes comme Leibniz et Hobbes qui affirment que la pensée se réduit à un calcul. Elle devient tangible dès la première moitié du xixe siècle avec Charles Babbage, qui conçoit les plans du premier ordinateur avec sa jeune assistante, l'énigmatique Ada Lovelace, fille du poète Byron, selon laquelle une telle machine ne se limiterait pas à effectuer des calculs mathématiques, mais serait en mesure d'opérer sur des mots ou de la musique. Quelques années plus tard, dans les années 1869, un économiste, William Stanley Jevons, réalise, avec des moyens purement mécaniques, un « piano logique » qui simule des raisonnements en ayant recours à l'algèbre de Boole.
L'idée prend de l'ampleur au xxe siècle, dans les années 1940, avant même la construction des premiers ordinateurs électroniques, au moment de la création de la cybernétique qui étudie, avec des automates, la régulation des systèmes complexes. Cette approche aborde de multiples domaines et dépasse la seule question de la régulation des machines. Elle va notamment influencer la psychologie et l'anthropologie : ainsi, l'école de Palo Alto, fondée par Gregory Bateson, s'appuie beaucoup sur la cybernétique.
Alan Turing va aller plus loin encore. Après avoir posé les fondements de ce qui deviendra l'informatique en 1936, il invente, pendant la guerre, le dispositif permettant de décrypter les messages émis par la machine à coder allemande Enigma. Après cette découverte, Turing se pose la question de savoir ce que penser veut dire, pour une machine. Il imagine alors le test d'intelligence des machines qualifié, depuis, comme étant le « test de Turing » : une machine est dite « intelligente » si elle peut faire illusion en se faisant passer pour un être humain au cours d'un chat, c'est-à-dire d'un échange écrit, par l'intermédiaire de machines.
Après que de grandes espérances, comme celle de la traduction automatique ou du jeu d'échecs, ont été un peu « refroidies », l'IA ne se développe réellement qu'au cours des années 1970, lorsque l'on comprend qu'il ne suffit pas de faire de la logique, mais qu'il faut relier la psychologie, la linguistique et l'informatique. Elle accroît sa popularité ensuite avec l'apparition des « systèmes experts », c'est-à-dire des logiciels visant à simuler le raisonnement dans un champ du savoir restreint, en ayant recours à la connaissance d'hommes de métier pour résoudre des problèmes précis. Ces derniers rencontrent un succès énorme dans les années 1980 avant que l'IA necroise sa course avec le développement du Web.
Aujourd'hui l'IA, c'est quoi ?
L'intelligence artificielle est partout dans nos vies : dans la reconnaissance de la parole, des visages ou des empreintes digitales, dans les apprentissages machines, dans l'hypertexte, les moteurs de recherche, la traduction automatique, les logiciels de recommandation, etc. Tout ce qui est Web comporte de l'IA. Mais il y a aussi de l'IA dans votre téléphone portable, dans la voiture autonome, dans les drones...
Aujourd'hui, quels sont les pays ou les organisations le plus en pointe dans ce domaine ?
Les États-Unis en premier lieu, parce que la discipline s'y est développée beaucoup plus rapidement qu'ailleurs. Pour une simple raison, c'est que les Américains se posent surtout la question du comment, moins du pourquoi, leur côté plus pragmatique les fait avancer plus vite. Au Royaume-Uni aussi, parce qu'ils avaient une tradition logique et informatique forte : n'oublions pas que Charles Babbage, l'inventeur du premier ordinateur, est anglais et qu'il en va de même d'Alan Turing, le précurseur de l'intelligence artificielle.
Au Japon, l'IA s'est développée sous l'impulsion du projet d'ordinateur de cinquième génération, dans lequel les ingénieurs japonais ont souhaité intégrer de l'IA. Ils voulaient concevoir une nouvelle génération de machines intégrant des langages capables d'opérer des déductions logiques. À cette fin, ils ont opté pour le langage Prolog, PROgrammation en LOGique, inventé par un Français, Alain Colmerauer. En France, précisément, malgré de vraies compétences, l'IA a longtemps été méprisée. En Chine, il n'y a rien eu pendant des années, mais les Chinois ont ensuite beaucoup investi en se concentrant notamment sur les questions d'apprentissage machine et sur les applications pour le traitement des masses de données, les mégadonnées.
Connaît-on vraiment les avancées de la recherche dans ces différentes régions ? Des programmes de recherche cachés pourraient-ils exister ?
La recherche a beaucoup changé. Elle avait un côté invisible, caché, restreinte à des cercles d'initiés. Puis des organisations plus étatiques, ont pris le relais, surtout après la Seconde Guerre mondiale. Aujourd'hui, la recherche est financée au plan international. Les communautés de chercheurs sont interdisciplinaires, multinationales. Les financements sont multipartites, privés et publics. On sait donc ce qui se passe. Il y aura toujours des petits groupes construisant des virus informatiques, mais on ne fait pas d'avancées majeures en restant tout seul dans son coin.
Les risques liés à l'IA relèvent-ils alors du fantasme ?
Il faut, je crois, avant tout faire attention aux applications, à la dépendance qu'elles engendrent dans la vie de tous les jours et aux changements sociaux qu'elles induisent. La délégation de certaines tâches aux machines a nécessairement des effets secondaires. Les systèmes informatiques offrent de nouvelles opportunités, tout en en condamnant d'autres. Ainsi, Uber permet de trouver un taxi à proximité, de suivre le parcours de la voiture avant qu'il arrive, puis après, de le noter... De même, on peut craindre que la nature mutualiste des assurances disparaisse progressivement avec le traitement de grandes masses de données qui permettent d'anticiper le risque avec une très grande précision ; en effet, des acteurs promettant des polices d'assurance beaucoup moins coûteuses feront alors leur apparition sur le marché...
Et le débat récent autour des robots tueurs ?
Les questions autour des « robots tueurs » qui reviennent sans cesse constituent à mes yeux un faux débat. Le but d'une guerre est avant tout de résoudre un conflit. Or, je ne crois pas que les drones, qui engendrent déjà et engendreront immanquablement des bavures, seront en mesure de les résoudre. Une série d'articles parus aux États-Unis en montrent les limites en décrivant toutes les erreurs et les méprises auxquelles l'emploi de drones militaires a conduit. De même, les robots autonomes qui sélectionneront eux-mêmes leurs cibles et commanderont le tir vont générer trop d'hostilité pour s'imposer. À cela, il faut ajouter que ces armes autonomes requièrent des critères objectivables. Or, comment définir formellement un « ennemi » de façon à construire un algorithme qui l'identifie ? C'est là une question d'autant plus délicate que nous avons de plus en plus affaire à des guerres asymétriques où les combattants ne portent pas d'uniforme.
Commentaire