Accueil > MULTIMEDIA > Gordon Moore s’exprime sur sa loi

Gordon Moore s’exprime sur sa loi

jeudi 14 avril 2005, par nassim

À la veille des 40 ans de sa célèbre loi statistique, Gordon Moore dresse un bilan des progrès réalisés en matière de processeurs. P-DG d’Intel de 1975 à 1987, il évoque également l’avenir du fondeur et de l’industrie technologique américaine.

CNET News.com : Quelle est l’origine de la loi de Moore (*) ?
Pour les 35 ans du magazine Electronics (magazine américain aujourd’hui disparu, Ndlr),

Gordon Moore

son rédacteur en chef m’avait demandé de rédiger un article sur l’avenir des composants de semi-conducteurs pour les dix années à venir. Je voulais faire passer l’idée que les circuits intégrés seraient la solution pour faire baisser les coûts. J’ai donc effectué une extrapolation. Le plus grand circuit disponible à l’époque contenait une trentaine de composants. J’ai repris l’historique et j’ai constaté que nous étions passés de quatre composants à huit, puis à seize et, qu’en fait, leur nombre doublait quasiment chaque année. Je ne pensais pas que cette observation serait particulièrement juste ; j’essayais juste de faire comprendre que les composants allaient devenir de plus en plus complexes et de moins en moins chers. Il s’est avéré que ma prévision était bien plus précise que ce que j’aurais pu imaginer.

L’un de mes amis (le professeur Carver Mead de Cal Tech, si je me souviens bien) a baptisé ce postulat "la loi de Moore" et le nom est resté. J’ai mis environ vingt ans avant de pouvoir prononcer ces mots, mais aujourd’hui, je m’y suis fait.

En 1975, j’ai remis à jour la loi de Moore et nous la suivons quasiment à la lettre depuis. Aujourd’hui, nous sommes même un peu en avance sur elle, car le nombre de composants double en moins de deux ans.

Imaginiez-vous l’impact que cela aurait ?
J’ai relu mon article de l’époque et j’ai remarqué que je parlais de choses comme les PC dans les foyers. J’ai été surpris d’avoir écrit cela. Je n’avais pas réalisé que je les avais prédits dès 1965. Je crois que j’ai aussi parlé des montres électroniques [...].

La cadence va-t-elle ralentir, ou de nouveaux composants permettront-ils à l’industrie d’aller encore plus loin ?
Eh bien tout d’abord, je n’ai jamais pu me projeter au-delà de deux ou trois générations sans trouver un seuil qui paraissait relativement infranchissable.

Quel que soit le matériau composé, une limite physique fondamentale empêche de miniaturiser à l’extrême. Et avant même de l’atteindre, vous vous heurterez à une limite d’une manière ou d’une autre qui inversera la tendance. Je l’ai déjà inversée une fois, puisqu’au lieu de doubler chaque année, la cadence a doublé tous les deux ans. Peut-être allons-nous ralentir jusqu’à doubler le nombre de composants tous les trois à quatre ans. Après cela, nous aurons des processeurs vraiment plus gros. Il y a donc une fin. À ce moment-là, nous aurons plusieurs milliards de transistors sur un circuit intégré.

Quelque chose pourrait-il remplacer le silicium un jour ?
Il y a tout ce qui touche aux boîtes quantiques et à la nanotechnologie, ce genre de choses... J’admets être un peu sceptique sur les chances de voir ces technologies remplacer le silicium traditionnel. Elles permettent de fabriquer des transistors minuscules qui offrent une fréquence potentiellement très élevée. Mais permettent-elles de connecter un milliard de ces transistors ensemble ? C’est là le vrai problème ; il ne s’agit pas simplement de fabriquer un petit transistor.

Selon moi, les technologies que l’on a mises au point autour des circuits intégrés représentent un moyen capital pour créer des microstructures complexes. Elles trouvent en fait des applications dans de nombreux autres domaines. Notamment les microsystèmes électromécaniques (MEMS) et les puces à ADN. Certains de ces appareils à microfluides sont comme de petits laboratoires chimiques sur un processeur. [Le silicium] est un composant très puissant qui va être utilisé partout, et je ne vois rien de comparable se profiler en ayant une véritable chance de le remplacer.

Cela ne veut pas dire que les progrès réalisés ne seront pas pris en compte dans des produits. On pourrait imaginer d’incorporer des nanotubes de carbone aux diverses couches métalliques, par exemple, mais je ne crois pas qu’il s’agisse d’une alternative [aux transistors en silicium]. En matière d’électronique numérique, nous avons un investissement total cumulé de quelques milliards [de dollars] en recherche et développement.

Combien de fois a-t-on prédit la fin de la loi de Moore, et avez-vous craint que cela se vérifie ?
Ces dix dernières années, j’ai lu de nombreux articles à ce sujet. À une époque, j’ai cru qu’on ne pourrait probablement pas aller au-delà d’un micron. Mais les choses ont progressé tellement vite que finalement, ce n’était pas une limite. Puis, j’ai pensé qu’on ne pourrait pas dépasser un quart de micron, mais là encore, j’ai eu tort. Aujourd’hui, nous sommes en dessous d’un dixième de micron. Nous faisons un soixante-cinquième de micron et je ne vois pas la tendance s’arrêter, à court terme en tous cas.

À quoi cette puissance de calcul accrue va-t-elle servir ?
Pour certains problèmes scientifiques importants, les gens sont vraiment limités par les performances des systèmes informatiques actuels. J’en discutais avec Barbara Block, professeur à Stanford, qui place des puces d’identification sur les animaux marins. Les machines collectent toutes les données, et elle se retrouve complètement submergée par la quantité d’informations obtenues. C’est le cas pour de nombreux domaines scientifiques : les données sont produites beaucoup plus rapidement qu’elles ne peuvent être assimilées.

Lorsque vous regardez en arrière, quels sont les produits qui vous ont le plus impressionné ?
Certains auxquels je pense ne sont pas forcément de beaux ouvrages, mais ils se sont avérés économiquement viables. La première mémoire RAM dynamique que nous avons conçue chez Intel, la 1103, serait à ranger dans cette catégorie. Cette mémoire DRAM de 1 Ko a été le premier de nos produits qui a vraiment généré d’importantes recettes. Je mettrais également le tout premier microprocesseur dans cette catégorie. Il était très lent, mais faisait le travail qu’on attendait de lui. Beaucoup d’autres choses depuis ont eu une grande importance sur le plan économique. J’ai tendance à les considérer comme des produits qui ont davantage été le fruit d’une évolution.

La puissance de calcul supplémentaire obtenue selon le principe de la loi de Moore nous permettra-t-elle, un jour, d’avoir des ordinateurs dotés d’une intelligence quasi humaine ?
Le mode de fonctionnement de l’intelligence humaine est selon moi très différent de celui des ordinateurs Von Neumann (**). Je ne pense pas que la route que nous suivons aujourd’hui va mener à quelque chose qui ressemble de près ou de loin à l’intelligence humaine.

Par contre, nous finirons par changer notre approche et par faire des choses qui se rapprocheront bien davantage du mode biologique, d’où de grandes chances d’aboutir à quelque chose qui ressemble à s’y méprendre à l’intelligence humaine. Mais je ne crois vraiment pas qu’il s’agisse d’une approche simple. La puissance dont nous aurions besoin pour faire tout ce que réalise le cerveau humain, est probablement plus importante que ce que nous pouvons générer sur Terre avec notre approche actuelle.

Alors que les processeurs deviennent de moins en moins chers, c’est le contraire avec les usines de fabrication... Cela peut-il être un problème pour l’industrie ?
Dans les années 1960, les usines étaient relativement bon marché, alors cela ne posait pas vraiment problème. Le coût a commencé à devenir important dans les années 1980 (avant cela, les facteurs clés étaient la main-d’œuvre et l’ingénierie). Une usine aujourd’hui coûte entre 2,5 et 3 milliards de dollars. En revanche, le nombre de produits qui en sort est beaucoup plus important. Lorsque Intel a démarré en 1968, nous étions leaders en matière de galettes de silicium 2 pouces (50 mm). Aujourd’hui, nous avons des galettes de 12 pouces (300 mm), soit un diamètre six fois plus important pour une surface 36 fois plus grande... Sur une seule galette, vous pouvez donc intégrer beaucoup plus de choses, et obtenir un rendement beaucoup plus important.

Paul Otellini sera dès le mois prochain le nouveau P-DG d’Intel, mais Andy Grove (cofondateur et P-DG de 1987 à 1998) continue d’être très présent dans les esprits. Pourriez-vous parler de sa carrière ?
Andy dit que je suis le seul patron qu’il ait jamais eu. Si c’est le cas, je ne pense pas qu’il ait jamais vraiment eu de patron. (Rires) Je l’ai embauché à sa sortie de l’université chez Fairchild et il a rapidement gravi les échelons, jusqu’à devenir directeur adjoint du laboratoire. Lorsque je lui ai annoncé que je quittais Fairchild Semiconductors (l’un des principaux fabricants de semi-conducteurs américains), il m’a dit qu’il m’accompagnait.

Andy est une personne unique. Il a changé d’orientation professionnelle plusieurs fois. Lorsqu’il est arrivé chez Intel, nous pensions qu’il occuperait probablement un poste de type directeur de recherche. Puis il s’est beaucoup intéressé au mode de fonctionnement des entreprises, a décroché son doctorat et a même rédigé des ouvrages techniques sur le management. Quand j’ai quitté mon poste de P-DG, il m’a remplacé et est devenu le porte-parole de l’industrie. Lorsqu’il en a eu assez d’être P-DG et est devenu président, il a commencé à travailler avec les gouvernements et a dû abandonner ce qu’il faisait précédemment. Il a effectué de l’excellent travail.

Quel conseil donneriez-vous à Paul Otellini, si ce n’est déjà fait ?
Eh bien, il ne m’a pas demandé mon avis. (Rires) Je pense que la récente réorganisation d’Intel autour des plates-formes reflète, dans une certaine mesure, la vision de Paul quant au mode de fonctionnement qu’il souhaite à l’avenir. C’est une direction importante à suivre, car selon les marchés, les besoins diffèrent. Cette orientation leur assure d’obtenir l’attention appropriée. Ce changement est arrivé à point nommé.

Paul est différent dans le sens où il est le premier P-DG d’Intel à n’être pas ingénieur. Mais ses compétences techniques sont plus avancées que les miennes à ce stade. Il a dirigé la division micro-ordinateurs pendant un moment, où il a eu de nombreux contacts avec les clients.

Êtes-vous optimiste quant à l’avenir de l’industrie technologique américaine ?
La Silicon Valley continue d’être un endroit formidable pour lancer une entreprise dans les domaines de l’informatique ou de la biotechnologie. Tout le monde est sur place. Son grand problème est que tout y est cher, en particulier les maisons. Il est difficile de convaincre des jeunes gens de s’y installer. Même avec les récessions que nous avons connues, le prix des habitations continue d’augmenter ; je ne comprends d’ailleurs pas comment c’est possible.

Le caractère unique du lieu n’est plus aussi marqué qu’il l’était au début. Aujourd’hui, beaucoup d’autres endroits nous concurrencent sur le plan technologique. Je pense que cela représente un vrai défi pour les États-Unis en termes de compétitivité. Notre système éducatif n’est pas à la hauteur, notamment de la maternelle au lycée. Nos universités restent en revanche formidables.

Nous subissons une forte concurrence mondiale... Je pense notamment à la Chine : nous commençons à peine à voir l’impact qu’aura sur les autres pays une population de 1,1 ou 1,2 milliard de personnes. Nous verrons comment évolueront les choses dans les vingt prochaines années. Les États-Unis seront encore un acteur majeur, mais je ne crois pas que nous conserverons la position que nous avons occupée ces vingt dernières années. Nous devrons mettre les bouchées doubles. La Chine forme dix fois plus d’ingénieurs, elle consomme une quantité de plus en plus importante des ressources mondiales et ses technologies progressent très rapidement. Il s’agit d’une société où règne un fort esprit d’entreprise.

Source : zdnet.fr

(*) Loi statistique selon laquelle la densité des circuits imprimés dans le silicium double tous les 18 mois.

(**) John von Neumann est l’un des fondateurs de l’informatique moderne. Rêvant de mettre au point un cerveau artificiel, il s’est intéressé aux calculateurs et a décrit la structure générale des ordinateurs, qui n’a pas changé depuis.