Annonce

Réduire
Aucune annonce.

L’informatique et l’intelligence artificielle nous rendront-ils stupides ?

Réduire
X
 
  • Filtre
  • Heure
  • Afficher
Tout nettoyer
nouveaux messages

  • L’informatique et l’intelligence artificielle nous rendront-ils stupides ?

    L’informatique et l’intelligence artificielle ne nous rendront pas stupides mais modifient notre façon d’apprendre et notre relation à la connaissance.

    La récente victoire d’AlphaGo sur Lee Sedol, le grand champion de go, a soulevé l’émotion des gazettes en plaçant la question de l’intelligence artificielle au cœur des analyses. L’ordinateur va-t-il dépasser l’humain ? Quelles sont ses limites ? Comment pallier les risques systémiques d’un monde dominé par la machine ? Quelles seront les responsabilités en cas d’accident provoqué par un ordinateur ? … Les questions et réactions soulevées à cette occasion ne sont finalement pas si différentes, dans leur essence, de celles présentes dans les écrits de science-fiction d’I. Asimov, A.E. Van Vogt et autre P.K. Dick. Elles sont posées à l’occasion de la victoire d’AlphaGo… comme elles l’avaient déjà été il y a quelques années avec le Deep Blue d’IBM, vainqueur du champion d’échec G. Kasparov, ou, plus récemment, dans un registre très différent, lors des expériences, en circulation, des premières voitures connectées sans chauffeur.

    Loin de conduire à nous focaliser sur l’intelligence artificielle, cet événement devrait au contraire nous conduire à renverser la perspective de commentaires convenus qui, quand ils se sont pas des marronniers journalistiques, relèvent souvent d’une technophobie rituelle. Car l’enjeu est probablement moins l’intelligence artificielle et les performances de l’ordinateur que la place, la nature et la manière dont, à l’heure du numérique, l’intelligence humaine évolue en s’instrumentant.

    « Google nous rend-il stupides ? » était d’ailleurs, de manière provocante si ce n’est prémonitoire (Google est le promoteur d’AlphaGo ), le titre que Nicolas Carr avait donné à un de ses ouvrages. Il s’y demandait si l’intérêt incomparable que nous tirons du numérique – et, pourrions nous ajouter, de l’intelligence artificielle – ne nous amenait pas, incidemment, à sacrifier notre aptitude à développer des pensées approfondies. Il trouvait d’ailleurs, dans les récents travaux de neurobiologie, plusieurs arguments majeurs.
    Physiologiquement parlant, en effet, notre cerveau n’est pas figé mais se transforme et se ré-agence selon les activités mentales qui le sollicitent. Les technologies de l’information et de la communication (TIC) ne modifient donc pas seulement nos usages et nos manières d’agir, elles peuvent aussi nous affecter en profondeur. L’acquisition rapide d’éléments d’information synthétiques provenant de nombreuses sources fragmentent notre perception et favorisent une activité mentale multitâche, très différente de la concentration requise par la lecture d’un livre ou la vision d’un film dans une salle de cinéma par exemple. En utilisant les ordinateurs connectés comme des substituts à la mémoire personnelle, nous ne libérons pas uniquement notre cerveau pour d’autres tâches, nous appauvrissons aussi notre capacité d’expérience, d’apprentissage et de sagesse, en contournant les processus neurologiques internes de consolidation de cette mémoire.
    La situation n’est pas, de ce point de vue, radicalement nouvelle. L’homme (ou la femme) l’a déjà affrontée, dans son histoire, avec le développement des différentes « technologies de l’esprit » qui ont été utilisées, au fil du temps, pour trouver et classifier l’information, formuler et exprimer des idées, partager savoir -faire et connaissances, mesurer et calculer, accroître les possibilités de mémorisation. Qu’il s’agisse d’horloges, de cartes géographiques, d’abaques, d’écriture, d’imprimerie ou, il y a encore moins longtemps, de la machine à écrire et de la calculatrice, chacune, à son époque, a bouleversé la manière dont l’individu appréhende la connaissance et son rapport au monde.

    Depuis le cadran solaire, le cadre abstrait du temps divisé est devenu pour tous, depuis plusieurs millénaires, la matrice des interactions sociales comme de la conception et l’organisation individuelle des actions. De même, la représentation de l’espace portée par les cartes géographiques – et plus récemment les GPS – structure la manière dont nous nous situons par rapport aux autres, dont nous nous déplaçons et nous représentons la société, les territoires et les relations sociales. Sans même évoquer les technologies support de l’écriture et de la retranscription du langage.
    Des premiers cadrans solaires, des premières cartes et des premiers papyrus aux technologies numériques et à AlphaGo, les dynamiques ne sont donc, au fond, peut-être pas si différentes. La nouveauté radicale affrontée aujourd’hui tient sans doute à la masse des informations et données que les TIC rendent disponibles et permettent de traiter. Par l’ampleur des capacités de référencement, de recherche et de computation, elles transforment profondément la structure des connaissances. Elles favorisent notamment les compétences d«’information sur l’information » et de supervision, au détriment des capacités d’approfondissement, de concentration et de pensée discursive.

    L’ordinateur est ainsi plus qu’un simple outil que l’on a programmé, dont l’intelligence artificielle deviendrait progressivement autonome et prendrait le pas sur l’humain en le gouvernant, à l’image du Hal de 2001 l’Odyssée de l’Espace. C’est surtout une machine qui, comme toutes les technologies, façonnent les comportements en exerçant une influence subtile sur ses utilisateurs. En passant du stylo à l’ordinateur et au traitement de texte, du crayon et du papier aux calculateurs, ce n’est pas seulement le support qui change, mais aussi la manière même d’écrire, de penser, de réfléchir, de calculer de se concentrer, de faire travailler son imagination et sa mémoire et de dérouler le fil d’une pensée.

    Mais une telle évolution est contrastée et il ne faut pas y voir simplement, comme on le lit trop souvent, la dégradation des formes du savoir et de l’apprentissage. Paradoxalement, par exemple, le recours grandissant au numérique via les ordinateurs, les tablettes et les smartphones s’accompagne d’une augmentation du temps consacré à la lecture et à la pratique de l’écriture. Par contre, cette pratique de l’écrit est très différente. La capacité de parcourir un texte et d’écrire des messages courts s’avérant plus importante que la compréhension ou la mémorisation de documents complets ou des efforts de rédaction plus soutenus. Google est emblématique car il favorise une approche parcellaire où la supervision et le repérage des bonnes informations se développe au détriment de l’approfondissement, de l’attention et de la concentration. En facilitant la recherche d’informations, le Web devient ainsi une technologie de l’oubli où mémoriser de longues références et effectuer des opérations compliquées constitue une perte de temps car la mémoire et les capacités cognitives de traitement peuvent être externalisées et accessibles à tout moment : quel besoin de se souvenir ou d’apprendre par cœur des références, quelle nécessité de travailler le calcul mental quand l’information ou le résultat peut être retrouvé d’un geste. Ce faisant, c’est cependant bien la manière même dont s’est construite notre culture collective faite de transmission et de discussion qui est remise en cause.

    L’utilisation grandissante d’applications et d’algorithmes omniprésents sur nos ordinateurs et nos smartphones ne conduit pas à déposséder les individus de leurs compétences cognitives : elle pousse sans doute au contraire les individus à utiliser les fonctionnalités associées aux algorithmes pour trier, calculer et mesurer davantage. Par contre, c’est sans doute, comme pour la lecture, l’aptitude à la supervision des données et à l’identification des outils qui compte désormais davantage que savoir effectuer tout seul cette même fonction.

    Cette situation pose très clairement les ambiguïtés de notre rapport à l’Internet et à l’informatique. C’est justement parce qu’elles sont d’une utilité incomparable que leurs applications nous sont indispensables. C’est leur omniprésence même dans les activités quotidiennes et professionnelles qui stimule les formes intenses d’activité mentale multitâches. Nous acceptons être interrompus, parce que chaque interruption nous apporte une information précieuse ; nous nous appuyons sur des prothèses cognitives que sont smartphones et ordinateurs connectés car leur utilisation nous permet de nous concentrer sur d’autres registres d‘activité et d’appréhender des savoirs et des connaissances bien plus larges et approfondies, bien plus rapidement que ce n’était le cas jusque-là.

    L’usage d’applications informatiques, quelles qu’elles soient, s’inscrit toujours dans des codes et des séquences d’instructions préétablis, en formatant et structurant les processus personnels désordonnés de l’exploration intellectuelle. M. Volle voit d’ailleurs dans de telles évolutions ce qui lui semble constituer un moment historique de la société industrielle qui passe d’un monde organisé autour de la gestion de la main d’œuvre à une société structurée par les « cerveaux d’œuvre ». Nous programmons nos ordinateurs mais, en contrepartie, ils nous prédéterminent donc également d’une certaine manière.

    Références :
    Nicholas Carr (2010), The Shallows – What the Internet Is Doing to Our Brains ? Ed. Norton & Company.
    Claude Rochet et Michel Volle (2015), L’intelligence iconomique, les nouveaux modèles d’affaires de la III° révolution industrielle, De Boeck Université, Louvain

    contreponits
Chargement...
X