PDA

Voir la version complète : Intelligence artificielle


Absent6
26/06/2007, 15h01
L'intelligence artificielle (terme créé par John McCarthy), souvent abrégée avec le sigle IA, est définie par l’un de ses créateurs, Marvin Lee Minsky, comme « la construction de programmes informatiques qui s’adonnent à des tâches qui sont, pour l’instant, accomplies de façon plus satisfaisante par des êtres humains car elles demandent des processus mentaux de haut niveau tels que : l’apprentissage perceptuel, l’organisation de la mémoire et le raisonnement critique ».

Tout servomécanisme est lui aussi qualifiable « d'intelligent », et les services marketing ne se privent pas d'utiliser cette terminologie pour les produits les plus divers : appareil photo, lave-linge, lave-vaisselle, etc.

Pour les sciences cognitives, tout robot possède un certain degré d'« intelligence » à partir du moment où il est capable de s'adapter à l'environnement et résoudre des problèmes. Les limites sont toutefois difficiles à établir. Ainsi, selon certains informaticiens, un programme qui joue aux jeux d'échecs comporte une intelligence, mais limitée à un environnement très restreint. Pour d'autres informaticiens, cet environnement est même tellement pauvre qu'on ne peut accepter le qualificatif d'intelligent pour ces programmes.

Il existe différentes définitions de l’intelligence artificielle, car :

*L’adjectif artificielle est assurément aisé à comprendre : ce type d’intelligence est le résultat d’un processus créé par l’homme, plutôt que d’un processus naturel biologique et évolutionnaire,
*En revanche, la notion d'intelligence est difficile à cerner :
-La capacité d’acquérir et de retenir les connaissances, d’apprendre ou de comprendre grâce à l’expérience.
-L’utilisation de la faculté de raisonnement pour résoudre des problèmes, et pour répondre rapidement et de manière appropriée à une nouvelle situation, etc.
Les problèmes soulevés par l’intelligence artificielle concernent des domaines divers comme :

*l’ingénierie, notamment pour la construction des robots,
*les sciences de la cognition humaine (neurosciences cognitives, psychologie cognitive, ...)
*la philosophie de l'esprit pour les questions associées à la connaissance et à la conscience.
Il existe en revanche un consensus de séparation entre :

l'intelligence artificielle faible
l'intelligence artificielle forte
détaillées ci-dessous.

Absent6
26/06/2007, 15h03
Le concept d’intelligence artificielle forte fait référence à une machine capable non seulement de produire un comportement intelligent, mais d’éprouver une impression d'une réelle conscience de soi, de « vrais sentiments » (quoi qu’on puisse mettre derrière ces mots), et une compréhension de ses propres raisonnements.

L’intelligence artificielle forte a servi de moteur à la discipline, mais a également suscité de nombreux débats. En se fondant sur le constat que la conscience a un support biologique et donc matériel, la plupart des scientifiques ne voient pas d’obstacle de principe à créer un jour une intelligence consciente sur un support matériel autre que biologique. Selon les tenants de l'IA forte, si à l'heure actuelle il n'y a pas d'ordinateurs ou de robots aussi intelligents que l'être humain, ce n'est pas un problème d'outil mais de conception. Il n'y aurait aucune limite fonctionnelle (un ordinateur est une machine de Turing universelle avec pour seules limites les limites de la calculabilité), il n'y aurait que des limites liées à l'aptitude humaine à concevoir le programme approprié.

Estimation de faisabilité

Cette estimation très grossière est surtout destinée à préciser les ordres de grandeur en présence.

Un ordinateur typique de 1970 effectuait 107 opérations logiques par seconde, et occupait donc - géométriquement - une sorte de milieu entre une balance de Roberval (1 opération logique par seconde) et le cerveau humain (grossièrement 2 x 1014 opérations logiques par seconde, car formé de 2 x 1012 neurones ne pouvant chacun commuter plus de 100 fois par seconde).

En 2005, un microprocesseur typique traite 64 bits en parallèle (128 dans le cas de machines à double cœur) à une vitesse typique de 2 GHz, ce qui place en puissance brute dans les 1011 opérations logiques. En ce qui concerne ces machines destinées au particulier, l'écart s'est donc nettement réduit. En ce qui concerne les machines comme Blue gene, il a même changé de sens.

Le matériel (informatique) est maintenant présent. Du logiciel à la mesure de ce matériel reste à développer. En effet, l'important n'est pas de raisonner plus vite, en traitant plus de données, ou en mémorisant plus de choses que le cerveau humain, l'important est de traiter les informations de manière appropriée.

L'IA souligne la difficulté à expliciter toutes les connaissances utiles à la résolution d'un problème complexe. Certaines connaissances dites implicites sont acquises par l'expérience et mal formalisables. Par exemple, qu'est-ce qui distingue un visage familier de deux cents autres ? Nous ne savons clairement l'exprimer.

L'apprentissage de ces connaissances implicites par l'expérience semble une voie prometteuse (voir Réseau de neurones). Néanmoins, un autre type de complexité apparaît, la complexité structurelle. Comment mettre en relations des modules spécialisés pour traiter un certain type d'informations, par exemple un système de reconnaissance des formes visuelles, un système de reconnaissance de la parole, un système lié à la motivation, à la coordination motrice, au langage, etc etc. En revanche, une fois un tel système conçu et un apprentissage par l'expérience réalisé, l'intelligence du robot pourrait probablement être dupliquée en grand nombre d'exemplaires.

How to get there from here ? (article plus ancien sur le sujet, en anglais)

Absent6
26/06/2007, 15h07
Les principales opinions soutenues pour répondre à la question d’une intelligence artificielle consciente sont les suivantes :

Impossible : la conscience serait le propre des organismes vivants, et elle serait liée à la nature des systèmes biologiques. Cette position est défendue principalement par des philosophes et des religieux.
Problème : Elle rappelle toutefois toutes les controverses passées entre vitalistes et matérialistes, l'histoire ayant à plusieurs reprises infirmé les positions des premiers.
Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle serait fondée sur des processus quantiques. Cette position est défendue notamment par Roger Penrose. Des algorithmes quantiques sont théoriquement capables de mener à bien des calculs hors de l'atteinte pratique des calculateurs conventionnels (complexité en N ln N au lieu de N2, par exemple, sous réserve d'existence du calculateur approprié). Au delà de la rapidité, le fait qu'un ordinateur quantique ne soit pas une machine de Turing (non fondée sur un système formel) ouvre des possibilités qui - selon cet auteur - sont fondamentalement interdites aux machines de Turing.
Problème : On ne dispose pas encore pour le moment d'algorithmes d'IA à mettre en œuvre dessus. Tout cela reste donc spéculatif.
Impossible avec des machines manipulant des symboles comme les ordinateurs actuels, mais possible avec des systèmes dont l’organisation matérielle mimerait le fonctionnement du cerveau humain, par exemple avec des circuits électroniques spécialisés reproduisant le fonctionnement des neurones.
Problème : Le système en question répondant exactement de la même façon que sa simulation sur ordinateur - toujours possible - au nom de quel principe leur assigner une différence ?
Impossible avec les algorithmes classiques manipulant des symboles (logique formelle), car de nombreuses connaissances sont difficiles à expliciter mais possible avec un apprentissage par l'expérience de ces connaissances à l'aide d'outils tels que des réseaux de neurones formels, dont l'organisation logique et non matérielle s'inspire des neurones biologiques, et utilisés avec du matériel informatique conventionnel.
Problème : si du matériel informatique conventionnel est utilisé pour réaliser un réseau de neurones, alors il est possible de réaliser l'IA avec les ordinateurs classiques manipulant des symboles (puisque ce sont les mêmes machines, voir Thèse de Church-Turing). Cette position parait donc incohérente. Toutefois, ses défenseurs (thèse de l'IA forte) arguent que l'impossibilité en question est liée à notre inaptitude à tout programmer de manière explicite, elle n'a rien à voir avec une impossibilité théorique. Par ailleurs, ce que fait un ordinateur, un système à base d'échanges de bouts de papier dans une salle immense peut le simuler quelques milliards de fois plus lentement. Or il peut rester difficile à admettre que cet échange de bouts de papiers « ait une conscience ». Voir Chambre chinoise. Selon les tenants de l'IA forte, cela ne pose toutefois pas de problème.
Il nous manque apparemment encore quelques paradigmes pour sortir de ces impasses.

Des auteurs comme Hofstadter (mais déjà avant lui Arthur C. Clarke ou Alan Turing) expriment par ailleurs un doute sur la possibilité de faire la différence entre une intelligence artificielle qui éprouverait réellement une conscience, et une autre qui simulerait exactement ce comportement. Après tout, nous ne pouvons même pas être certains que d’autres consciences que la nôtre (chez des humains s’entend) éprouvent réellement quoi que ce soit. On retrouve là le problème connu du solipsisme en philosophie.

Voir test de Turing.

Travaux complémentaires
Le mathématicien de la physique Roger Penrose pense que la conscience viendrait de l'exploitation de phénomènes quantiques dans le cerveau (voir microtubules), empêchant la simulation réaliste de plus de quelques dizaines de neurones sur un ordinateur normal, d’où les résultats encore très partiels de l’IA. Il restait jusqu’à présent isolé sur cette question; un autre chercheur a présenté depuis une thèse de même esprit quoique moins radicale : Andrei Kirilyuk
Cette spéculation reste néanmoins marginale par rapport aux travaux des neurosciences. L'action de phénomènes quantiques est évidente dans le cas de la rétine (quelques quanta de lumière seulement suffisent à une perception) ou de l'odorat, mais elle ne constitue pas une condition préalable à un traitement efficace de l'information. En effet, le traitement de l'information effectué par le cerveau est relativement robuste et ne dépend pas de l'état quantique de chaque molécule, ni même de la présence ou de la connexion de neurones isolés.
Cela dit, l’intelligence artificielle est loin de se limiter aux seuls réseaux de neurones, qui ne sont généralement utilisés que comme classifieurs. Les techniques de résolution générale de problèmes et la logique des prédicats, entre autres, ont fourni des résultats spectaculaires et sont exploités par les ingénieurs dans de nombreux domaines.

Culture populaire :
Le thème d’une machine capable d’éprouver une conscience et des sentiments — ou en tout cas de faire comme si — constitue un grand classique de la science-fiction, notamment dans la série de romans d’Isaac Asimov sur les robots. Ce sujet a toutefois été exploité très tôt, comme dans le récit des aventures de Pinocchio, publié en 1881, où une marionnette capable d’éprouver de l’amour pour son créateur, cherche à devenir un vrai petit garçon. Cette trame a fortement inspiré le film A.I. Intelligence artificielle, réalisé par Steven Spielberg, sur la base des idées de Stanley Kubrick. L'œuvre de Dan Simmons, notamment le cycle d'Hypérion, contient également des exposés et des développements sur le sujet. Autre œuvre majeure de la science fiction sur ce thème, Destination vide, de Frank Herbert, met en scène de manière fascinante l'émergence d'une intelligence artificielle forte.

Absent6
26/06/2007, 15h14
La notion d’intelligence artificielle faible constitue une approche pragmatique d’ingénieur : chercher à construire des systèmes de plus en plus autonomes (pour réduire le coût de leur supervision), des algorithmes capables de résoudre des problèmes d’une certaine classe, etc. Mais, cette fois, la machine simule l'intelligence, elle semble agir comme si elle était intelligente. On en voit des exemples concrets avec les programmes qui tentent de passer le test de Turing, comme Eliza. Ces programmes parviennent à imiter de façon grossière le comportement d'humains face à d'autres humains lors d'un dialogue. Ces programmes "semblent" intelligents, mais ne le sont pas. Les tenants de l'IA forte admettent qu'il y a bien dans ce cas une simulation de comportements intelligents, mais qu'il est aisé de le découvrir et qu'on ne peut donc généraliser. En effet, si on ne peut différencier expérimentalement 2 comportements intelligents, celui d'une machine et celui d'un humain, comment peut-on prétendre que les 2 choses ont des propriétés différentes ? Le terme même de "simulation de l'intelligence" est contesté et devrait, toujours selon eux, être remplacé par "reproduction de l'intelligence".

Les tenants de l'IA faible arguent que la plupart des techniques actuelles d’intelligence artificielle sont inspirées de leur paradigme. Ce serait par exemple la démarche utilisée par IBM dans son projet nommé Autonomic computing. La controverse persiste néanmoins avec les tenants de l'IA forte qui contestent cette interprétation.

Simple évolution, donc, et non révolution : l’intelligence artificielle s’inscrit à ce compte dans la droite succession de ce qu’ont été la recherche opérationnelle dans les années 1960, le process control dans les années 1970, l’aide à la décision dans les années 1980 et le data mining dans les années 1990. Et, qui plus est, avec une certaine continuité.

Il s'agit surtout d'intelligence humaine reconstituée, et de programmation d'un apprentissage.

Courants de pensée
La cybernétique naissante des années quarante revendiquait très clairement son caractère pluridisciplinaire et se nourrissait des contributions les plus diverses : neurophysiologie, psychologie, logique, sciences sociales… Et c’est tout naturellement qu’elle envisagea deux approches des systèmes, deux approches reprises par les sciences cognitives et de ce fait l’intelligence artificielle :

une approche par la décomposition (du haut vers le bas),
une approche de construction globaliste ou systémique (du bas vers le haut).
Ces deux approches, plutôt complémentaires que contradictoires, sont respectivement à la base des hypothèses de travail que constituent le cognitivisme et le connexionnisme. Elles tendent aujourd'hui (2005) à opérer leur fusion.


Cognitivisme
Le cognitivisme considère que le vivant, tel un ordinateur (bien que par des procédés évidemment très différents), manipule essentiellement des symboles élémentaires. Dans son livre La société de l’esprit, Marvin Minsky, s’appuyant sur des observations du psychologue Jean Piaget envisage le processus cognitif comme une compétition d’agents fournissant des réponses partielles et dont les avis sont arbitrés par d’autres agents. Il cite les exemples suivants de Piaget :

L’enfant croit d’abord que plus le niveau d’eau est élevé dans un verre, plus il y a d’eau dans ce verre. Après avoir joué avec des transvasements successifs, il intègre le fait que la notion de hauteur du liquide dans le verre entre en compétition avec celle du diamètre du verre, et arbitre de son mieux entre les deux.
Il vit ensuite une expérience analogue en manipulant de la pâte à modeler : la réduction de plusieurs objets temporairement représentés à une même boule de pâte l’incite à dégager un concept de conservation de la quantité de matière.
Au bout du compte, ces jeux d’enfants se révèlent essentiels à la formation de l’esprit, qui dégagent quelques règles pour arbitrer les différents éléments d’appréciation qu’il rencontre, par essais et erreurs.

Le site Automates Intelligents rend compte avec une grande régularité des découvertes concernant cette approche spécifique.


Connexionnisme
Le connexionnisme, se référant aux processus auto-organisationnels, envisage la cognition comme le résultat d’une interaction globale des parties élémentaires d’un système. On ne peut nier que le chien dispose d'une sorte de connaissance des équations différentielles du mouvement, puisqu’il arrive à attraper un bâton au vol. Et pas davantage qu’un chat ait aussi une sorte de connaissance de la loi de chute des corps, puisqu’il se comporte comme s’il savait à partir de quelle hauteur il ne doit plus essayer de sauter directement pour se diriger vers le sol. Cette faculté qui évoque un peu l’intuition des philosophes se caractériserait par la prise en compte et la consolidation d’éléments perceptifs dont aucun pris isolément n’atteint le seuil de la conscience, ou en tout cas n’y déclenche d’interprétation particulière.


Synthèse
Des sites comme Automates Intelligents rendent compte régulièrement (entre autres sujets) des découvertes propres à ces deux approches, et de plus en plus à leur synthèse. Il y est signalé que trois concepts reviennent de façon récurrente dans la plupart des travaux :

redondance (le système est peu sensible à des pannes ponctuelles)
"ré-entrance" (les composants s'informent en permanence entre eux; cette notion diffère de la réentrance en programmation)
sélection (au fil du temps, les comportements efficaces sont dégagés et renforcés)

Absent6
26/06/2007, 15h18
On peut envisager de demander les services suivants, ensemble ou séparément, à un dispositif d’intelligence artificielle :

Interface vocale : se faire comprendre en lui parlant,
Assistance par des machines dans les tâches dangereuses, ou demandant une grande précision,
Aide aux diagnostics médicaux (bien qu’un tensiomètre, qui remplit cette fonction, ne soit considéré par personne comme une application de l’intelligence artificielle),
Résolution de problèmes complexes, sous réserve de quantifier ce mot,
Traduction automatique, si possible en temps réel ou très légèrement différé, comme dans le film « Dune »,
Intégration automatique d’informations provenant de sources hétérogènes,
Etc.
En l’état, les réalisations actuelles de l’intelligence artificielle peuvent être regroupées en différents domaines, tels que:

Les systèmes experts,
L’apprentissage automatique,
Le traitement automatique des langues,
La reconnaissance des formes, des visages et la vision en général...
Au fil du temps, certains langages de programmation se sont avérés plus commodes que d’autres pour écrire des applications d’intelligence artificielle. Parmi ceux-ci, Lisp et Prolog furent sans doute les plus médiatisés. Lisp constituait une solution ingénieuse pour faire de l’intelligence artificielle en FORTRAN. ELIZA (le premier chatterbot, donc pas de la « véritable » intelligence artificielle) tenait en trois pages de SNOBOL.

On utilise aussi, plus pour des raisons de disponibilité et de performance que de commodité, des langages classiques tels que C ou C++. Lisp a eu pour sa part une série de successeurs plus ou moins inspirés de lui, dont le langage Scheme.

Des programmes de démonstration de théorèmes géométriques simples ont existé dès les années 1960; et des logiciels aussi triviaux que Maple et Mathematica effectuent aujourd’hui des travaux d’intégration symbolique qui il y a trente ans encore étaient du ressort d’un étudiant de mathématiques supérieures. Mais ces programmes ne savent pas plus qu’ils effectuent des démonstrations géométriques ou algébriques que Deep Blue ne savait qu’il jouait aux échecs (ou un programme de facturation qu’il calcule une facture). Ces cas représentent donc plus des opérations intellectuelles assistées par ordinateur faisant appel à la puissance de calcul que de l'intelligence artificielle à proprement parler.

Dans l’informatique ludique (les jeux vidéo), l’Intelligence Artificielle (IA) se développe. En effet les nouvelles générations de cartes vidéo traitent un grand nombre d’opérations auparavant dévolues au processeur. Le processeur est donc moins sollicité pour l’affichage et les programmeurs peuvent utiliser sa puissance pour développer des systèmes d’IA plus perfectionnés.

L’intelligence artificielle a connu un essor important pendant les années 1960 et 70, mais à la suite de résultats décevants par rapport aux budgets investis, son succès s’estompa dès le milieu des années 1980.

D’après certains auteurs, les perspectives de l’intelligence artificielle pourraient avoir des inconvénients, si par exemple les machines devenaient plus intelligentes que les humains, et finissaient par les dominer, voire (pour les plus pessimistes) les exterminer, de la même façon que nous cherchons à exterminer certaines séquences d’ARN (les virus) alors que nous sommes construits à partir d'ADN, un proche derivee de l'ARN. On reconnaît bien entendu le thème du film Terminator, mais des directeurs de société techniquement très compétents, comme Bill Joy de la société Sun, affirment considérer le risque comme réel à long terme.

Toutes ces possibilités futures ont fait l’objet de quantités de romans de science-fiction, tels ceux d’Isaac Asimov ou William Gibson en passant par Arthur C. Clarke.

Absent6
26/06/2007, 15h22
Une description spectaculaire d’un possible avenir de l’intelligence artificielle a été faite par le professeur I. J. Good :

« Supposons qu’existe une machine surpassant en intelligence tout ce dont est capable un homme, aussi brillant soit-il. La conception de telles machines faisant partie des activités intellectuelles, cette machine pourrait à son tour créer des machines meilleures qu’elle-même; cela aurait sans nul doute pour effet une réaction en chaîne de développement de l’intelligence, pendant que l’intelligence humaine resterait presque sur place. Il en résulte que la machine ultra intelligente sera la dernière invention que l’homme aura besoin de faire, à condition que ladite machine soit assez docile pour constamment lui obéir. »

La situation en question, correspondant à un changement qualitatif du principe même de progrès, a été nommée par quelques auteurs « La Singularité »

Good estimait à un peu plus d'une chance sur deux la mise au point d'une telle machine avant la fin du XXe siècle. La prédiction, en 2007, ne s’est pas (encore?) réalisée, mais avait imprégné le public : le cours de l’action IBM quadrupla (bien que les dividendes trimestriels versés restassent à très peu de chose près les mêmes) dans les mois qui suivirent la victoire de Deep Blue sur Gary Kasparov. Une large partie du grand public était en effet persuadée qu’IBM venait de mettre au point le vecteur d’une telle explosion de l’intelligence et que cette compagnie en tirerait profit. L’espoir fut bien entendu déçu : une fois sa victoire acquise, Deep Blue, simple calculateur évaluant 200 millions de positions à la seconde, sans conscience du jeu lui-même, fut reconverti en machine classique utilisée pour le data mining. Nous sommes probablement encore très loin d’une machine possédant ce que nous nommons de l'intelligence générale, et tout autant d’une machine possédant la base de connaissances de n’importe quel chercheur, si humble soit-il.

En revanche, un programme "comprenant" un langage naturel et connecté à l'Internet serait théoriquement susceptible de construire, petit à petit, une sorte de base de connaissances. Nous ignorons cependant tout aujourd'hui (2007) tant de la structure optimale à choisir pour une telle base que du temps nécessaire à en rassembler et à en agencer le contenu.


Dans la fiction
*Colossus : the Forbin project 1969, d’après le roman de Dennis Feltham Jones de 1967 (un système d’IA militaire états-unien contacte son homologue russe pour qu’ils coopèrent à leur mission commune, éviter la guerre nucléaire... en neutralisant les humains !) a probablement fourni l’idée de départ de Terminator.
*Metropolis de Fritz Lang (1927), où, dans un monde futuriste, les robots et les humains ne parviennent plus à coexister ;
*2001, l'odyssée de l'espace de Stanley Kubrick, la lutte entre HAL et Dave ;
*D.A.R.Y.L., Daryl est un enfant amnésique recueilli sur une route. Mais finalement, le gouvernement cherche à détruire le data analyzing robot youth lifeform ;
*La trilogie des Terminator avec Arnold Schwarzenegger, où Skynet cherche à éliminer l’espèce humaine
*Ghost in the Shell, où une IA s’éveille à la conscience ;
*La trilogie des Matrix où les machines asservissent les humains ;
*A.I. Intelligence artificielle de Steven Spielberg, inspiré de la nouvelle de Brian Aldiss Les Supertoys durent tout l'été. Le personnage central est certainement un aboutissement ultime - mais pour l’instant seulement imaginaire - de l’intelligence artificielle : un enfant-robot doué d’émotions et de sentiments ;
*I, Robot avec Will Smith, inspiré de l’œuvre de Isaac Asimov et thème semblable au film AI ;
*Blade Runner de Ridley Scott (1981), où des hommes-robots reviennent sur terre après une mission spatiale (mais n’acceptent pas la mise à l’arrêt suite au succès de leur mission) ;
*WarGames de John Badham (1983) avec Matthew Broderick, où David est un pirate informatique qui par défi parvient à contourner les systèmes de sécurité les plus sophistiqués et à maîtriser la dernière génération des jeux informatiques. Mais quand l'inconscient pénètre sans être repéré au cœur de l'ordinateur militaire du Pentagone, ministère de la défense américaine (Department of Defense ou DoD), il initie par jeu une confrontation d'ampleur mondiale (le système était prévu à la base par son créateur pour simuler des jeux de guerre mais il ne comprend pas qu’il est maintenant réellement connecté)
*Code Lyoko, ou une intelligence artificielle nommée XANA acquiert une conscience et tente de conquérir le monde réel par l'intermédiaire d'un monde virtuel, puis du Réseau mondial

Cookies