Il faut absolument lire cette tribune (publiée dans The Independant) que le mathématicien/physicien de Cambridge co-signe avec des collègues de Berkeley et du MIT.
Que disent-ils ? Qu'il n'y a "aucune loi physique empêchant que des particules soient organisées de manière à réaliser des opérations plus avancées que celles que réalise le cerveau humain". Traduction : l'intelligence artificielle dépassera bientôt la nôtre.
Conséquence : "On peut tout à fait imaginer qu'une telle technologie domine les marchés financiers ou la recherche, manipule ceux qui nous dirigent et développe des armes que nous ne pourrons même pas comprendre". Oh p... !
Ce qui fait flipper Stephen et ses amis : bien que nous soyons en face de potentiellement la pire menace (ou la plus grande opportunité) pour l'humanité, aucune recherche ambitieuse n'est lancée sur 1) qui contrôle l'Intelligence Artificielle et surtout 2) si l'Intelligence Artficielle "can be controlled at all" ! Et vous qui n'aviez peur que de Sergueï Brin.
SCIENCE - Le scientifique britannique co-signe une tribune dans laquelle il alerte sur la potentielle menace pour l’humanité que constituerait l’invention de l’intelligence artificielle…
L'intelligence artificielle fait fantasmer et trembler. D'Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série «Battlestar Galactica», les possibles dangers pour l'homme d'une machine intelligente ont déjà été explorés dans d'innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l'intelligence artificielle, la science rejoint la science-fiction.
«Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»
«Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme, écrit l'éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire».
«On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu'on ne peut pas même comprendre», poursuit le scientifique. «L'incidence à court-terme de l'intelligence artificielle dépend de qui la contrôle, mais l'impact à long-terme dépend de la possibilité réelle de la contrôler.» Stephen Hawking déplore le manque de recherche sérieuse sur ces questions, «alors que nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»
L'ordinateur Deep Blue d'IBM a battu pour la première fois le champion d'échecs russe Garry Kasparov en 1996
éco matin
Que disent-ils ? Qu'il n'y a "aucune loi physique empêchant que des particules soient organisées de manière à réaliser des opérations plus avancées que celles que réalise le cerveau humain". Traduction : l'intelligence artificielle dépassera bientôt la nôtre.
Conséquence : "On peut tout à fait imaginer qu'une telle technologie domine les marchés financiers ou la recherche, manipule ceux qui nous dirigent et développe des armes que nous ne pourrons même pas comprendre". Oh p... !
Ce qui fait flipper Stephen et ses amis : bien que nous soyons en face de potentiellement la pire menace (ou la plus grande opportunité) pour l'humanité, aucune recherche ambitieuse n'est lancée sur 1) qui contrôle l'Intelligence Artificielle et surtout 2) si l'Intelligence Artficielle "can be controlled at all" ! Et vous qui n'aviez peur que de Sergueï Brin.
SCIENCE - Le scientifique britannique co-signe une tribune dans laquelle il alerte sur la potentielle menace pour l’humanité que constituerait l’invention de l’intelligence artificielle…
L'intelligence artificielle fait fantasmer et trembler. D'Isaac Asimov à Transcendence avec Johnny Depp et Morgan Freeman, en passant par la série «Battlestar Galactica», les possibles dangers pour l'homme d'une machine intelligente ont déjà été explorés dans d'innombrables variations. Mais quand Stephen Hawking prend la plume pour alerter des dangers de l'intelligence artificielle, la science rejoint la science-fiction.
«Nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»
«Réussir à créer une intelligence artificielle serait le plus grand événement dans l'histoire de l'homme, écrit l'éminent physicien britannique, connu pour sa recherche sur les trous noirs. Mais ce pourrait aussi être le dernier, prévient-il dans une tribune cosignée dans le journal The Independent.» Citant les voitures auto-pilotées, les assistants personnels comme Siri ou les armes autonomes qui décideraient de tuer sur un champ de bataille sans intervention humaine, Stephen Hawking avertit que ne pas prendre au sérieux ce qui est encore de la science-fiction pourrait être «la plus grave erreur de notre histoire».
«On peut imaginer que cette technologie déjoue les marchés financiers, dépasse les chercheurs humains, manipule les dirigeants humains et développe des armes qu'on ne peut pas même comprendre», poursuit le scientifique. «L'incidence à court-terme de l'intelligence artificielle dépend de qui la contrôle, mais l'impact à long-terme dépend de la possibilité réelle de la contrôler.» Stephen Hawking déplore le manque de recherche sérieuse sur ces questions, «alors que nous sommes face à la meilleure, ou la pire chose qui puisse arriver à l'humanité»
L'ordinateur Deep Blue d'IBM a battu pour la première fois le champion d'échecs russe Garry Kasparov en 1996
éco matin
Commentaire