Annonce

Réduire
Aucune annonce.

Stephen Hawking : l'Intelligence Artificielle, pire erreur de l'humanité

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • Stephen Hawking : l'Intelligence Artificielle, pire erreur de l'humanité

    Il faut absolument lire cette tribune (publiée dans The Independant) que le mathématicien/physicien de Cambridge co-signe avec des collègues de Berkeley et du MIT.

    Que disent-ils ? Qu'il n'y a "aucune loi physique empêchant que des particules soient organisées de manière à réaliser des opérations plus avancées que celles que réalise le cerveau humain". Traduction : l'intelligence artificielle dépassera bientôt la nôtre.

    Conséquence : "On peut tout à fait imaginer qu'une telle technologie domine les marchés financiers ou la recherche, manipule ceux qui nous dirigent et développe des armes que nous ne pourrons même pas comprendre". Oh p... !

    Ce qui fait flipper Stephen et ses amis : bien que nous soyons en face de potentiellement la pire menace (ou la plus grande opportunité) pour l'humanité, aucune recherche ambitieuse n'est lancée sur 1) qui contrôle l'Intelligence Artificielle et surtout 2) si l'Intelligence Artficielle "can be controlled at all" ! Et vous qui n'aviez peur que de Sergueï Brin.


    SCIENCE - Le scientifique britannique co-signe une tribune dans laquelle il alerte sur la potentielle menace pour l’humanité que constituerait l’invention de l’intelligence artificielle…

    L'intelligence artificielle fait fantasmer et trembler. D'Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série «Battlestar Galactica», les possibles dangers pour l'homme d'une machine intelligente ont déjà été explorés dans d'innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l'intelligence artificielle, la science rejoint la science-fiction.
    «Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»

    «Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme, écrit l'éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire».

    «On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu'on ne peut pas même comprendre», poursuit le scientifique. «L'incidence à court-terme de l'intelligence artificielle dépend de qui la contrôle, mais l'impact à long-terme dépend de la possibilité réelle de la contrôler.» Stephen Hawking déplore le manque de recherche sérieuse sur ces questions, «alors que nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»





    L'ordinateur Deep Blue d'IBM a battu pour la première fois le champion d'échecs russe Garry Kasparov en 1996

    éco matin
    Dernière modification par haddou, 06 mai 2014, 08h12.

  • #2
    Le sujet n'est pas nouveau, à vrai dire, et revient de façon récurrente de puis un certain nombre d'années. La gravité d'un tel risque serait réelle si on arrivait, d'une manière ou d'une autre, à doter les machines d'un embryon de conscience, ou de volonté à tout le moins. En l'absence d'une telle prouesse, l'Intelligence artificielle devrait rester maîtrisable, c'est à dire qu'elle demeurera dépendante de la programmation humaine.

    En revanche, les hommes ne sont jamais à l'abri de leur propre folie, puisque même dans l'état actuel du développement de l'IA, les risques existent et ils sont le fait de l'homme (virus informatiques, logiciels malveillants, etc.). Un autre danger pourrait venir des militaires qui, laissant gérer leurs stratégies par l'IA, pourraient déclencher des processus aux conséquences fâcheuses...
    كلّ إناءٍ بما فيه يَنضَح

    Commentaire


    • #3
      très intéressant, et surtout, réconfortant, et oui je suis du même avis et on m'a souvent rétorqué, même ici sur FA, que c'etait tout simplement "impossible" qu'il y ait une intelligence autre qu'humaine (dans le sens commun du terme, car on ne sait même pas définir ce qu'est l'intelligence).

      Lombardia:
      Le sujet n'est pas nouveau, à vrai dire, et revient de façon récurrente de puis un certain nombre d'années. La gravité d'un tel risque serait réelle si on arrivait, d'une manière ou d'une autre, à doter les machines d'un embryon de conscience, ou de volonté à tout le moins. En l'absence d'une telle prouesse, l'Intelligence artificielle devrait rester maîtrisable, c'est à dire qu'elle demeurera dépendante de la programmation humaine.
      on n'en est plus à ce stade, des algorithmes évolutifs et totalement autonomes dans leurs logique et évolution il y en a à la pelle. on est au stade de l’efficacité en généralisant ( des fois c'est la robustesse dont il s'agit ), le meilleur qui se conçoit de nos jour butte contre la problématique de la généralisation. pour illustrer, on peut programmer un cerveau de fourmi qui interagit avec d'autres cerveau artificiels pour mener des taches qu'on observe chez les fourmi et solutionner les même problèmes que ceux rencontrés par ces fourmis, mais on n'arrive pas à créer des cerveau qui répondent à tous les problèmes à la fois et en toutes circonstances. ce qui ne demande encore qu'un "travail de fourmi" mais qui est parfaitement réalisable.

      La question d'absence de volonté ne change rien dans le fait que ça peut être grave, plus intelligent que l'humain, et éventuellement dangereux pour l'humain comme le sont pour ce dernier les virus dépourvu de libre arbitre et de conscience.
      Dernière modification par GLP, 09 mai 2014, 04h41.
      ----| GLP © production 1886 - 2016 . All rights reserved |----

      Commentaire


      • #4
        Bonjour

        Envoyé par GLP
        La question d'absence de volonté ne change rien dans le fait que ça peut être grave, plus intelligent que l'humain, et éventuellement dangereux pour l'humain comme le sont pour ce dernier les virus dépourvu de libre arbitre et de conscience.
        Certes, et j'y ai fait allusion, mais ce qu'il faut souligner ici c'est que cette dangerosité ne provient pas pour l'instant de l'agent logiciel, en tant que tel, mais de l'intention humaine qui est derrière sa programmation. C'est parce que cette intention est malveillante que l'action de l'agent l'est aussi. Il n'empêche que cette action, aussi autonome soit-elle, reste tributaire de sa programmation.

        Ce que Hawking appréhende est d'un tout autre ordre. C'est que l'agent logiciel puisse totalement échapper au contrôle humain, et éventuellement prendre le contrôle sur l'humain. Nous n'en sommes pas encore là, n'est-ce pas ?
        كلّ إناءٍ بما فيه يَنضَح

        Commentaire


        • #5
          Hmmm, la rubrique en question est de la meme veine que son dernier opus rédigé avec Mlodinow. Pas que j'osasse critiquer, mais Stephen a pour habitude de perdre ses paris.
          usd 100 de moins dans le larfeuille du Charcoté.
          Mais peut-etre qu'ils sont déjà parmi nous et que c'est l'EZ keys qui a pris le controle de Hawking...waaaay waaaay waaaay.

          Commentaire


          • #6
            les projections sont très sensées
            c'est tout a fait possible !
            C'est une alerte tant que nous avons des chercheurs qui alertent et qui ne font pas just DZma3ahoum ou bark ça va encore, les dérives viennent de la carence d’intégrité ... et le manque de culture générale de certains chercheurs eux mêmes ...

            Commentaire


            • #7
              Salut,
              Lombradia
              Certes, et j'y ai fait allusion, mais ce qu'il faut souligner ici c'est que cette dangerosité ne provient pas pour l'instant de l'agent logiciel, en tant que tel, mais de l'intention humaine qui est derrière sa programmation. C'est parce que cette intention est malveillante que l'action de l'agent l'est aussi. Il n'empêche que cette action, aussi autonome soit-elle, reste tributaire de sa programmation.
              Par conception, les algorithmes dit intelligent sont indépendants de la volonté du programmateur / utilisateur final, dans le sens ou leur évolution est totalement incontrôlé, la seule chose pré contrôlée est le problème à résoudre, mais on n'a absolument aucun contrôle sur la façon de le résoudre, c'est justement le but et ce qui fait leur force, c'etait nécessaire pour s'affranchir de devoir coder la façon de le résoudre d'une façon statique, et profiter justement de l'aspect dynamique de la recherche de solution, de sorte à exploiter au maximum les capacités et rapidité des processeurs qui leur permettra de chercher et essayer des millions de configuration, de valeurs de variables ...ect choses qui sont pratiquement impossible à coder statistiquement.

              C'est sur cette base qu'on peut s'attendre à ce que ce "logiciel" peut bien trouver, indépendamment de l'intention de son concepteur, une solution à un problème donné qui serait dangereuse pour l'utilisateur (ou l'humain en général), pour y remédier, on a besoin de lui intégrer une procédure en parallèle qui calculerait toutes les possibilités de nuisance à l'utilisateur ( par le même système intelligent) . le problème, c'est qu'on ne peut jamais dire à l'avance, que pour X logiciel, il y a 0% de risque d'avoir une solution qui soit dangereuse; on ne peut qu'être sur que s'il y en a une on finira par la trouver.

              Je voudrai préciser que la dangerosité dont il s'agit réellement, n'est pas de même nature que celle dont beaucoup de films / livres l'ont imaginé, il ne s'agit pas d'un logiciel qui, en évoluant, deviendrait adversaire à l'humain ( avec l'intention de le nuir), mais il s'agit plutôt d'un logiciel qui en évoluant dans le but de servir le besoin de l'humain pour lequel il l'a crée, produit un résultat qui est dangereux pour cet humain, sans que celui ci n'ait les moyens (intelligence, capacités de calculs ...ect) pour les détecter comme étant dangereux, et donc adopte ces solutions dangereuses à son dépend.
              Dernière modification par GLP, 11 mai 2014, 01h25.
              ----| GLP © production 1886 - 2016 . All rights reserved |----

              Commentaire

              Chargement...
              X