Annonce

Réduire
Aucune annonce.

Aux sources de l’intelligence artificielle

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Aux sources de l’intelligence artificielle


    L’ouvrage « Quand la machine apprend », de Yann Le Cun, permet de décoder certains mystères de l’intelligence artificielle, en s’intéressant au fonctionnement des neurones du cerveau... humain.

    Santiago Artozqui (En attendant Nadeau)

    DèsDès les premières pages de son livre (dont la première édition parut à l’automne 2019 à la veille de la pandémie que nous savons), Yann Le Cun fait une mise au point : « Aujourd’hui, un système de deep learning n’est pas capable de raisonnement logique. [La machine] exécute sans avoir la moindre idée de ce qu’elle fait, et possède moins de sens commun qu’un chat de gouttière. »

    Il est important de le comprendre, et tout l’objet de cet ouvrage est de nous aider à saisir pourquoi cette affirmation est vraie, dans quelle mesure elle le sera à l’avenir, et de quoi l’on parle exactement lorsqu’on évoque les risques liés à « l’émergence des intelligences artificielles ».

    Agrandir l’image : Illustration 1Yann Le Cun. © Alain Jocard / AFP

    Après un résumé historique qui nous permet de suivre pas à pas l’évolution de la discipline, comment les idées sont venues aux trois ou quatre chercheurs qui ont créé celle-ci de toutes pièces, les impasses, les premiers succès, les deux longues traversées du désert, le retour en grâce et la reconnaissance actuelle, on entre dans le vif du sujet : comment ça marche ?

    Autant l’annoncer d’emblée, le livre de Yann Le Cun est dense, très documenté, et même si chaque concept est expliqué avec pédagogie, il vaut mieux avoir un vernis de culture mathématique pour en tirer pleinement profit [1]. En effet, à l’inverse de la plupart des ouvrages de vulgarisation, Quand la machine apprend ne recourt aux métaphores qu’avec parcimonie ; chaque fois qu’il est possible de présenter une notion d’une façon plus scientifique, l’auteur ne s’en prive pas, et tant mieux !

    Leur manque une « représentation du monde »


    Parce qu’ainsi, nous sommes en mesure de comprendre en pratique comment la machine « voit » les données (une image, un son…), comment elle parvient à « interpréter » ce qui s’y trouve, comment on programme l’algorithme ou plutôt les algorithmes qui vont lui permettre d’apprendre à exécuter telle ou telle tâche. Outre la satisfaction intellectuelle qu’elle procure, cette compréhension du fonctionnement réel de ces IA ferme la porte à toute une série de fantasmes dérivés de 2001, l’Odyssée de l’espace, dont on saisit dès lors l’inanité intrinsèque.

    Rassurons d’emblée les plus anxieux, aujourd’hui, les intelligences artificielles n’ont absolument aucune chance de prendre le contrôle de l’humanité ni de faire quoi que ce soit qui s’en approche de près ou de loin. Pourquoi ? Parce qu’il leur manque une « représentation du monde », c’est-à-dire un ensemble de connaissances sous-jacentes qui nous semblent, à nous humains, tellement évidentes que nous n’avons même pas conscience de leur existence.

    Yann Le Cun, chercheur associé au géant Meta (Facebook) qui a obtenu le prix Turing en 2018, donne un exemple très frappant de la chose dans le domaine de la compréhension du langage et de la traduction : la résolution du « schéma de Winograd ».

    Considérons les deux phrases suivantes : « La sculpture ne rentre pas dans la boîte parce qu’elle est trop grande » et « La sculpture ne rentre pas dans la boîte parce qu’elle est trop petite ». Dans la première, « elle » renvoie à la sculpture, et dans la seconde, à la boîte. Mais c’est votre représentation interne du monde qui vous a permis de le comprendre à la lecture, sans aucune ambiguïté. La machine, qui n’est pas dotée de ce « bon sens », n’a aucun critère pour trancher. Et il en va de même pour un milliard de choses.

    Comprendre d’instinct


    Quand vous lancez une balle à un enfant de huit ans, il tend le bras pour l’attraper, mais cela suppose que son cerveau est capable de prévoir la trajectoire de cette balle, c’est-à-dire de comprendre d’instinct la physique qui régit notre monde. Si la balle se mettait subitement à faire des zigzags, il serait stupéfait, parce que cela entrerait en contradiction avec sa représentation du monde.

    En revanche, si l’on veut enseigner à un robot à attraper une balle, il faut lui fournir les moyens de calculer la trajectoire d’un objet en fonction de son poids, des obstacles qu’il pourrait rencontrer (par exemple si vous la faites rebondir sur un mur en l’envoyant), de sa nature (une boule de pétanque ne rebondit pas comme une balle de tennis), etc.

    Bref, il faut fournir à la machine une représentation complète du monde si l’on veut qu’elle puisse interagir efficacement avec lui. Bien sûr, si l’on circonscrit sa sphère d’action à un environnement très délimité, on peut laisser la machine interagir avec cet environnement et apprendre d’elle-même les lois qui le régissent. C’est ce qui se produit dans le cas du jeu de go, ou des échecs. L’algorithme joue des millions de parties contre lui-même : au début, il choisit des coups au hasard, puis au bout d’un certain nombre de millions d’essais infructueux, il apprend quelles sont les meilleures stratégies à adopter pour gagner une partie.

    C’est ce qu’on appelle « l’apprentissage par renforcement [2] ». Mais dans le monde réel, c’est une autre paire de manches. En effet, c’est une méthode qui ne fonctionne pas du tout dans le cas de la voiture autonome, par exemple. On ne peut pas lancer un véhicule dans les rues d’une ville et le laisser apprendre de ses erreurs jusqu’à maîtriser la conduite en milieu urbain, sous peine de provoquer les dégâts qu’on imagine.
    Yann Le Cun interrogé par Léa Salamé sur France Inter, le 12 avril 2023. © France Inter
    Il faut donc adopter d’autres stratégies, les chercheurs y travaillent, et dans le cas de la conduite autonome, ils font des progrès. Il est assez probable que des véhicules autonomes puissent circuler dans quelques années.

    En revanche, dominer le monde et soumettre l’humanité à sa volonté reste encore loin de ce que les IA sont en mesure de faire. Pour l’instant, les chercheurs se concentrent sur des objectifs plus humbles, comme leur faire reconnaître un panneau « stop » quand il a été abîmé, ou qu’il est partiellement masqué. On est encore très loin d’une représentation globale du monde.

    L’autre grande crainte, plus légitime, est sociale. En effet, et l’on commence déjà à le constater, des emplois qui semblaient autrefois à l’abri d’une quelconque automatisation sont à présent menacés. Le Cun aborde la question, et y répond en deux points.

    Premièrement, toutes les révolutions technologiques ont supprimé des emplois, certes, mais elles en ont créé d’autres. Aujourd’hui, par exemple, des millions de personnes gagnent leur vie en publiant des vidéos sur YouTube, un métier qui n’existait pas il y a vingt ans.

    Réfléchir collectivement


    Deuxièmement, l’argument précédent ne signifie pas qu’il faille laisser les choses suivre leur cours sans rien faire : les politiques, en particulier, doivent prendre le problème à bras-le-corps, et accompagner cette évolution technologique en investissant dans l’éducation, la formation continue, la recherche, en facilitant les passerelles entre l’université et l’industrie, etc. Il s’agit de réfléchir collectivement, en tant que société, à la façon de tirer le meilleur parti de ces gains de productivité et d’en faire un vecteur de progrès social.

    Par ailleurs, cette réflexion ne peut faire abstraction de l’établissement d’un cadre éthique dans lequel nos sociétés puissent se reconnaître. On comprend bien que le simple syntagme « armes autonomes » permet de lancer le débat.

    Et ChatGPT, dans tout ça ? Eh bien, ce robot conversationnel, que Yann Le Cun qualifie (dans l’entretien avec Léa Salamé sur France Inter ci-dessus) de « bonne ingénierie […] pas révolutionnaire », est davantage une mise en forme spectaculaire de certaines des idées développées par les chercheurs en matière de reconnaissance du langage que la naissance d’une intelligence non humaine et consciente. Si vous voyez un magicien tirer un lapin de son chapeau, cela n’entraîne pas nécessairement que ledit magicien a la faculté de créer des lapins à partir du néant. Quand la machine apprend permettra à chacun de s’en convaincre.

    ----------

    [1] En gros, il faut savoir ce qu’est une fonction et une dérivée. Des notions qu’on apprend en terminale scientifique, et que la plupart des lecteurs de ce genre de livres connaissent déjà.

    [2] Cette méthode n’est pas la plus répandue en matière d’apprentissage profond. La plupart des algorithmes sont entraînés avec un« apprentissage supervisé », lequel « repose sur une architecture dont les paramètres s’ajustent progressivement pour approcher la tâche demandée ». « L’apprentissage par renforcement » consiste à entraîner la machine sans lui donner la réponse qu’on attend d’elle, mais en lui indiquant simplement si celle qu’elle fournit est correcte ou non. Dans un cas comme dans l’autre, des millions, voire des milliards d’exemples (respectivement d’essais) sont nécessaires.

    *

    Yann Le Cun

    Quand la machine apprend. La révolution des neurones artificiels et de l’apprentissage profond

    Éditions Odile Jacob, 400 pages, 22,90 €


    وألعن من لم يماشي الزمان ،و يقنع بالعيش عيش الحجر

  • #2
    Ça reste des algorithmes, jamais une intelligence. Une vraie intelligence est une conscience. Des algorithmes qui exécutent des fonctions particulieres. Une vraie intélligence ne peut jamais etre artificielle.

    Peut etre c'est l'oeil singulier du Dajjal et son systeme. Une vision linaire des problemes de la vie.

    Commentaire


    • #3
      Issabrahimi je partage ton point de vue.
      Les machines ne pourront jamais avoir cette sorte "d'intrication quantique" qu'a l'esprit avec l'au-delà.
      J'aime surfer sur la vague du chaos.

      Commentaire

      Chargement...
      X