Annonce

Réduire
Aucune annonce.

Dangers de l’intelligence artificielle- Passe d'armes entre Musk et Zuckerberg

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Dangers de l’intelligence artificielle- Passe d'armes entre Musk et Zuckerberg

    L'intelligence artificielle représente-t-elle un danger pour l'humanité ? Les milliardaires de la Silicon Valley Elon Musk (SpaceX, Tesla) et Mark Zuckerberg (Facebook) ne sont pas du tout d'accord, comme l'illustrent leurs échanges sur les réseaux sociaux.


    Mi-juillet, Elon Musk a estimé que «l'intelligence artificielle (était) la plus grande menace pour notre civilisation», lors d'une conférence devant des gouverneurs aux Etats-Unis, ajoutant que les «gens devraient être très inquiets». Il a alors plaidé pour l'introduction d'une «régulation» préventive de l'intelligence artificielle, citant des dangers comme «des robots tuant des gens dans la rue» ou «déclenchant des guerres en manipulant l'information».

    Ces propos sont «irresponsables», a rétorqué dimanche le patron de Facebook, Mark Zuckerberg, interrogé par un internaute lors d'un direct sur le réseau social. Sur ce sujet, «je suis optimiste», a-t-il ajouté. Selon lui, «dans les 5 ou 10 ans qui viennent, l'intelligence artificielle permettra d'apporter des améliorations dans nos vies», citant la santé ou la conduite autonome.

    Lundi soir, réaction cinglante d'Elon Musk sur Twitter, aux propos de Mark Zuckerberg : «Sa compréhension du sujet est limitée.» Les géants de la Silicon Valley investissent tous massivement dans l'intelligence artificielle, y compris les entreprises détenues par Elon Musk et Mark Zuckerberg. Facebook utilise notamment l'intelligence artificielle pour évacuer les contenus problématiques sur le réseau social, et emploie des ingénieurs spécialisés dans l'intelligence artificielle pour travailler à des projets futuristes, comme la communication par la pensée.

    Ce n'est pas la première fois qu'Elon Musk émet des doutes sur les développements tous azimuts de l'intelligence artificielle, par crainte qu'elle ne se retourne contre les hommes. Il a ainsi participé à la création d'un cabinet de recherche pour développer une intelligence artificielle «humaine». Fin mars, il a annoncé la création d'une nouvelle société, appelée Neuralink, dédiée à ce projet d'interface cerveau-ordinateur.
    ELWATAN
    The truth is incontrovertible, malice may attack it, ignorance may deride it, but in the end; there it is.” Winston Churchill

  • #2
    et nous on en pense quoi ?
    on en est ou exactement au niveau de la réflexion sur le sujet ..
    ارحم من في الارض يرحمك من في السماء
    On se fatigue de voir la bêtise triompher sans combat.(Albert Camus)

    Commentaire


    • #3
      on en est ou exactement au niveau de la réflexion sur le sujet ..
      du hidjab du bikini
      et autres intelligences du genre

      et y aura toujours un ingenieux pour te dire que IA est inscrite dans l unique livre
      on vous l a dit bandes de mecreants
      The truth is incontrovertible, malice may attack it, ignorance may deride it, but in the end; there it is.” Winston Churchill

      Commentaire


      • #4





        Commentaire


        • #5
          Quel rapport entre l'intelligence artificielle et ces clercs chiites ?
          D'ailleurs les iraniens sont très bon en recherche fondamentale
          On peut aussi trouver des millions de vidéos d'Américains qui racontent des conneries
          En passant, statistiquement et proportionnellement ,il y a bien plus d'imbéciles aux usa que dans le monde musulman.Ils arrivent tout de même a avoir des élites de très hautes qualités
          Pour revenir au sujet ,certains affirment que l'I.A sera la bombe atomique du prochain monde ,le premier qui la domptera ..dominera la terre

          Commentaire


          • #6
            Pourquoi Stephen Hawking et Bill Gates ont peur de l'intelligence artificielle

            Annonces catastrophistes, films d’anticipation ou de science-fiction, ou plus simplement arrivée imminente de technologies prêtes à boulever notre quotidien : les Intelligences Artificielles, ou IA, sont partout.

            A tel point que des scientifiques de renom, tel le célèbre physicien Stephen Hawking, voient en l’avènement de ces technologies un danger pour la race humaine. Pourtant, à écouter les spécialistes, la science est encore loin, voire très loin, de créer des machines plus intelligentes que l’être humain. Alors qu’est-ce, finalement, qu’une intelligence artificielle ?

            En un peu plus d’un demi siècle d’existence, le champ de l’intelligence artificielle a considérablement évolué. Le terme apparait dès 1956, lorsque le logicien John McCarthy et le mathématicien Marvin Lee Minsky organisent une université d’été où ils présentent, pour la première fois, une nouvelle discipline : l’intelligence artificielle. Ce nouveau champ d’étude “avait pour objet d’étudier l’intelligence avec les moyens de l’artificiel , explique Jean-Gabriel Ganascia, chercheur au Laboratoire d’informatique de Paris 6 (CNRS/UPMC),* et ce avec les techniques nouvelles qu’étaient les ordinateurs. * Ça partait d’une conjecture selon laquelle tous les aspects de l’intelligence pouvaient être décomposés de façon si élémentaire qu’on pouvait les reproduire sur une machine ” :


            Quand il s’agit de définir ce qu’est l’IA, la réponse est éminemment complexe, même pour les spécialistes du sujet. “L’intelligence artificielle essaye de reproduire des fonctions qu’on attribue à des entités intelligentes vivantes, précise Yann LeCun, responsable du centre FAIR, le Facebook artificial intelligence research. Quelquefois ces machines dépassent en performance les humains, comme aux échecs. Après, sont-elles plus intelligentes ? Non, elles sont juste très spécialisées. Il est difficile de répondre à cette question parce qu’on considère l’intelligence comme une capacité non seulement à résoudre un problème particulier, mais aussi à avoir une intelligence générale. *”*

            "L'apprentissage automatique, essence de l'IA"

            _Contrairement aux idées reçues sur les IA, les chercheurs sont à des décennies de comprendre comment construire une machine dotée de cette fameuse intelligence générale. “_Non seulement on en est très loin, mais on n’a absolument aucune idée de comment le faire* ”, assure Yann LeCun, joint par téléphone lors d'un déplacement aux Etats-Unis. Une intelligence artificielle, en l’état actuel des connaissances, est ainsi incapable d’apprendre par elle-même sans être supervisée :


            La nouvelle vague d’intérêt autour de l’IA repose donc beaucoup sur l’apprentissage automatique. “Par le passé, les chercheurs qui travaillaient sur l’IA se reposaient beaucoup moins sur cette technique d’apprentissage, et essayaient de construire, un peu à la main, des systèmes capables de raisonner, de manipuler des faits, de faire des déductions logiques, etc. En fait, il s’est avéré qu'il était extrêmement difficile d’abord de représenter la connaissance sous forme biologique et par ailleurs d’écrire des règles qui permettent de faire du raisonnement ”, retrace Yann LeCun. Ces techniques fonctionnent en effet pour des objectifs très simples, mais ne marchent plus dès lors que les chercheurs souhaitent construire une machine qui, par exemple, reconnaît les images ou encore la parole. “D’une certaine manière, l’apprentissage automatique c’est l’essence de l’intelligence artificielle. C’est ce qui explique l’engouement récent pour l’IA : les techniques d’apprentissage se sont beaucoup améliorées ”.

            Watson, l'IA d'IBM, a affronté des adversaires dans le jeu télévisé "Jeopardy"... et gagné.
            Watson, l'IA d'IBM, a affronté des adversaires dans le jeu télévisé "Jeopardy"... et gagné.•
            "Cela fait très longtemps que l’on effectue de l’apprentissage machine, estime quant à lui Jean-Gabriel Ganascia. Ce sont des machines qui sont capables de tirer des données de leurs expériences, c’est-à-dire analyser des informations passées .” Pour autant, ces machines restent des mécanismes dénués de conscience propre, ou d’autonomie morale, au sens étymologique du terme, c’est-à-dire “qui se donne sa propre loi”. “Le but de l’intelligence artificielle n’était pas de reproduire un cerveau, * poursuit Jean-Gabriel Ganascia, mais de reproduire les capacités cognitives humaines* ” :


            Une question de bon sens

            La première Loi de Moore a théorisé une évolution constante des capacités de calcul des ordinateurs. Mais c’est la rapidité d’apprentissage des machines qui augmente consécutivement, et non pas la capacité d’apprentissage :

            De fait, malgré des capacités techniques toujours plus importantes, les chercheurs en IA peinent à doter les machines de ce que l’on appelle le “sens commun”.

            Ce qu’on ne sait pas faire, ce sont des machines qui ont le sens commun. Si vous fermez les yeux et que je vous dis : “Paul se lève, prend la bouteille d’eau et sort de la pièce ”, il y a plein d'inférences que vous pouvez faire, qui sont dues au sens commun. Savoir que vous êtes probablement en intérieur, dans une pièce ; qu’il faut ouvrir une porte pour sortir ; que la bouteille d’eau n’est plus dans la pièce parce qu’un objet ne peut être qu’à un endroit à la fois ; que vous n’êtes plus dans la pièce non plus ; que vous vous êtes probablement levé pour sortir de la pièce… Il y a énormément d’inférences que l’on peut faire quand on s’imagine cette séquence d’actions, qui sont dues à notre connaissance du monde. Les machines n’ont pas ce sens commun, le fait que la bouteille n’est plus dans la pièce, c’est quelque chose que la machine aura à apprendre par expérience. *Yann LeCun *

            Singulière singularité

            A en croire les chercheurs, les effrayantes IA du cinéma vont donc rester encore longtemps cantonnées à leur genre : la science-fiction. On est encore très loin du HAL 9000 de 2001, l’Odyssée de l’espace , de la bienveillante entité Samantha de Her , ou encore d’Ava, la curieuse androïde du plus récent* Ex Machina* .


            Alors pourquoi des personnalités telles Bill Gates, Stephen Hawking ou encore Elon Musk s’inquiétent-elles de la possible émergence d’une intelligence artificielle, susceptible de détruire l’espèce humaine ?

            Les formes primitives d'intelligence artificielle que nous avons déjà se sont montrées très utiles. Mais je pense que le développement d'une intelligence artificielle complète pourrait mettre fin à la race humaine. Stephen Hawking

            Pour vérifier l’émergence d’une intelligence artificielle, il est communément admis que celle-ci devrait être capable de passer le test de Turing, imaginé en 1950 par le fameux cryptologue Alan Turing. Pour réussir cette expérience, une machine doit parvenir à échanger avec un être humain sans que ce dernier ne réalise qu’il est en train de discuter avec un ordinateur et non avec un de ses pairs. De l’avis même des chercheurs, ce test n’a pourtant pas grand intérêt : les chatbot, des systèmes de conversation qui paraissent humains mais ne font que reproduire des petits segments de phrases qu’ils ont repérés un peu partout et qu’ils régurgitent au bon moment, seront ainsi bientôt à même de passer le test. “*Ç a semble intelligent,* explique Yann Lecun, parce que ces phrases ont été écrites par des humains à l’origine. Mais c’est une ruse. C’est pour ça qu’on pense que ça n’est pas un bon test.”

            En réalité, si nombre de personnes croient en l’émergence plus ou moins immédiate d’une IA, ça n’est pas tant grâce au test de Turing qu’en raison du concept de “singularité technologique” :


            Ce point de singularité où l'évolution technologique serait telle que le progrès ne serait plus tant l'oeuvre des humains que celle des IA, reste donc fortement improbable. D’autant que, comme l’affirme Yann LeCun, cette hypothèse omet des limites physiques qui vont contrecarrer cette croissance technologique exponentielle :


            On est encore très loin du fameux Skynet de Terminator ou des IA de Matrix, dont le but partagé est d’oblitérer la race humaine. “Dans tous les romans de science-fiction, on voit les robots qui se rebellent parce qu’ils veulent prendre le pouvoir ou deviennent meurtriers parce qu’on menace de les déconnecter, poursuit Yann Lecun. Tout ça vient d’une espèce de projection des qualités et des défauts humains dans les IA. Il leur est prêté un instinct de préservation, de la jalousie ou un désir de puissance alors qu’il n’y aucune raison que ce soit présent dans les machines intelligentes. Ces qualités et ces défauts sont présents chez les humains parce que l’évolution nous a construits de cette manière afin que l’espèce survive. Mais nous n'avons aucune raison de construire ce genre de comportements dans les machines. *”*

            IA-éthique

            “Ceci dit il y a relativement peu de doutes sur le fait que le progrès technologique va être accéléré par l’avènement de l’intelligence artificielle. C’est déjà un peu le cas”, précise le chercheur du FAIR.

            Cette irruption programmée de l’IA dans notre vie de tous les jours va, surtout, rapidement poser des questions d’ordre éthique. François Charpillet, directeur de recherche à l’INRIA, juge nécessaire de s’interroger sur l’impact de la robotique sur l’humanité. “ll faut savoir être pragmatique et en phase avec la portée de la technologie telle qu’elle est aujourd’hui. La question que se posent les gens c’est : “ Est-ce que les robots vont nous prendre notre travail ?”. Je m’intéresse à la robotique d’assistance à la personne en perte d’autonomie et cela pose en effet des questions d’éthique. Pas celles de savoir si le robot doit obéir à l’humain, mais de savoir quel sera l’impact de l’introduction de ces nouvelles technologies dans la vie de tous les jours. La question est de savoir si on peut remplacer l’environnement humain par des machines, c'est beaucoup plus terre à terre que celle des lois de la robotique d’Asimov .”


            Si par exemple une voiture sans chauffeur a un accident, qui en sera tenu responsable ? Dans le cas où un accident est inévitable et va fatalement faire une victime, de quelle façon réagira l'intelligence artificielle ? En fonction de quels critères "choisira"-t-elle la victime ? Ces questions ont été abordées à maintes reprises dans la science-fiction (notamment par Isaac Asimov), et elles interrogent nécessairement les spécialistes.

            Cette question de l’éthique dans la recherche est devenue si récurrente que plusieurs centaines de chercheurs, dont Yann LeCun, ont signé une lettre ouverte pour appeler à la mise en place de règles censées orienter la recherche en IA pour “servir le bien-être de l’humanité ”. Jean-Gabriel Ganascia :


            Une IA complémentaire

            A en croire les spécialistes de l’intelligence artificielle, la machine consciente et autonome tient plus du fantasme, de la projection fantaisiste, que d’une imminente réalité. L’IA est à envisager comme une assistance aux problèmes humains :


            A l’heure actuelle, les technologies les plus représentatives de ce que sont les IA restent les systèmes de reconnaissance d’images ou de compréhension du langage naturel. Mais dans un futur proche, à une échelle de 10 à 15 ans, nous devrions voir apparaître, à en croire Yann LeCun, de nouvelles machines “qui vont révolutionner la société ” :


            Des voitures qui se conduisent seules, des assistants personnels artificiels, des traducteurs automatiques en temps réel ? La science-fiction, parfois, ne semble pas si loin. C3PO n’a qu'à bien se tenir.


            (Avec la participation d'Hélène Combis-Schlumberger)

            Pierre Ropert
            The truth is incontrovertible, malice may attack it, ignorance may deride it, but in the end; there it is.” Winston Churchill

            Commentaire

            Chargement...
            X