• Loi de Moore et processeurs - Article du Huffpost Mars 2016 par G. Rozières.

    LOI DE MOORE

     

    TECHNO - C'est la fin d'une époque. Une époque où la puissance de calcul des processeurs qui font marcher nos ordinateurs et smartphones a permis un boom technologique et économique sans précédent. 2016 signera en effet la fin de la loi de Moore. Kézako? Une loi qui affirme que le nombre de transistors, l'élément principal qui compose les processeurs, double tous les deux ans. Et avec eux double également la puissance de nos appareils. Mais si cette époque bénie prend fin, cela ne veut pas dire que la technologie va stagner, loin de là. Cet arrêt pourrait même être une bonne chose pour vous.

    On ne devrait pas vraiment parler de loi, mais plutôt d'une prédiction réalisée par Gordon Moore, un informaticien co-fondateur d'Intel, il y a plus de 40 ans. Elle s'est révélée étonnamment exacte pendant tout ce temps, mais arrive à son terme. Intel a en effet annoncé le 23 mars que le doublement de la puissance de ses futurs processeurs n'aurait pas lieu dans deux ans, mais dans deux ans et demi. Ce mois-ci, le consortium qui regroupe les grands constructeurs de puces électroniques a également acté la fin de la loi de Moore, alors que leur feuille de route était calquée dessus depuis plus de 20 ans.

    Avant de comprendre pourquoi cette tendance prend fin et ce que cela implique pour le futur de vos smartphones, il faut bien comprendre à quel point cette progression a été explosive. Et l'importance capitale de cette explosion de la capacité des processeurs ces dernières décennies. Un transistor, c'est une sorte d'interrupteur électronique, souvent construit en silicium, qui ressemble à ça:

    loi de moore

    Croissance insolente

    Depuis son invention en 1947, sa taille a beaucoup diminué. Ce qui fait que l'on peut en mettre plus dans un même espace (par exemple, un petit circuit imprimé). Ainsi, dans le premier microprocesseur fabriqué par Intel en 1971, on trouvait 2300 transistors. Cela permettait à l'ordinateur qui fonctionnait grâce à cette puce d'effectuer 90.000 opérations à la seconde. Actuellement, le processeur d'un ordinateur de bureau haut de gamme compte plus de 700 millions de transistors.

    Cette progression exponentielle a permis d'augmenter considérablement la puissance de calcul. Car plus le temps passe et plus ce doublement de la puissance tous les deux ans est délirant. Ce gif, réalisé par MotherJones, permet de mieux comprendre cette courbe exponentielle. Si le nombre de calculs par secondes rendus possibles par les processeurs représentent des litres d'eau, voici le temps qu'il faudrait pour remplir le lac Michigan.

    loi de moore

    Comme vous pouvez- le voir, le lac semble rester désespérément vide de 1940 à 2012, puis se remplit en moins de 13 ans. Mais tout ça, c'est fini. Enfin, la croissance va continuer, mais moins vite. C'était déjà d'ailleurs un peu le cas. Au cours des années 2000, la puissance des processeurs a atteint un pallier physique. On a alors divisé le processeur en plusieurs "coeurs" (les fameux "quadcore" que vous voyez souvent en description des ordinateurs et smartphones) pour continuer de suivre la loi de Moore, qui est finalement plutôt une prophétie auto-réalisatrice qu'une loi physique..

    La fin d'une fuite en avant

    Mais ces dernières années, même cette astuce ne suffit plus. Les transistors sont tellement petits (14 nanomètres, soit près de 10 fois plus petit que le virus de la grippe) qu'ils sont de plus en plus chers à produire et donc moins rentables.

    Surtout, à cette échelle si petite, les électrons, qui servent à transporter les informations entre les différents éléments électroniques, commencent à faire n'importe quoi et à passer d'un transistor à l'autre sans qu'on leur demande (c'estl'effet tunnel).

    Faut-il pour autant se faire du soucis sur la fin de cette croissance qui ferait envie à n'importe quel chef d'Etat? Pas vraiment. En fait, les utilisateurs devraient même en sortir gagnant, eux qui depuis des années ont l'impression qu'il faut changer de machine très rapidement.

    C'est un problème que nous avons tous connus. Quand votre ordinateur ou smartphone commence à se faire vieux (ce qui, dans le monde de l'informatique, veut dire au maximum 5 ans), il aura même du mal à réaliser des tâches qu'il pouvait pourtant effectuer à l'époque. Par exemple, les sites internet évoluent, et de nouvelles fonctionnalités sont ajoutées (lecture de vidéo, images interactives, etc). Sauf que la page devient plus difficile à afficher pour un vieil ordinateur.

    "Avant, avec cette croissance exponentielle de la puissance, il n'y avait pas vraiment besoin d'optimiser les logiciels. Les concepteurs faisaient peu attention à cela et attendaient qu'une nouvelle puce deux fois plus puissante soit disponible", explique au HuffPost Pierre Boulet, professeur d'informatique à l'université de Lille.

    La batterie et l'énergie, le nouveau nerf de la guerre

    "Maintenant, c'est un peu comme l'industrie de la voiture. La puissance des voitures ne change plus trop, mais il y a de nombreuses améliorations sur les nouveaux modèles", précise le chercheur.

    "Depuis quelques années, certains commencent à se rendre compte qu'il y a un problème de consommation d'énergie", estime Pierre Boulet. Un problème qui touche à la fois les gigantesques datacenters de Google ou Facebook (qui consomment énormément) et les millions d'utilisateurs de ces smartphones aux écrans de plus en plus imposants mais à l'autonomie de plus en plus fragile.

    Ainsi, pour économiser l'énergie et donc les batteries dans les smartphones, les puces électroniques contiennent maintenant de nombreux circuits dédiés à des tâches particulières (GPS, antenne, gestion de la 3D, etc) afin de ne pas utiliser toute la puissance du processeur à tout moment. Une tendance qui devrait continuer à mesure que l'augmentation de puissance brute devient compliquée, fin de la loi de Moore oblige.

    En dehors de l'alimentation, les entreprises tentent également d'améliorer les autres aspects de l'informatique entourant, et parfois limitant la puissance de calcul. Comme la mémoire. En juillet, Intel a dévoilé un nouveau type de mémoire 1000 fois plus rapide que la mémoire flash qui équipe nos smartphones. "Il y a beaucoup de temps perdu par le processeur et les logiciels à attendre la mémoire. Mais si un tel changement serait énorme, il n'est pas constant. Une fois la nouvelle technologie mise en place, elle ne progressera plus beaucoup dans les années à venir", affirme Pierre Boulet.

    L'après silicium

    L'industrie du silicium ne se contente pas d'un arrêt de la loi de Moore et d'une optimisation constante de ce qui se fait actuellement. Même si l'augmentation du nombre de transistors sera plus faible, elle va continuer pendant des années. De nouvelles techniques sont mises au point et testées pour diminuer encore la taille des transistors, voire créer des processeurs en 3D avec plusieurs couches de composants.

    De nombreux chercheurs et entreprises sont même déjà à la recherche de la technologie qui remplacera le microprocesseur qui a fait le succès des Microsoft, Google, Apple et Facebook, bref, de la bien nommée Silicon Valley. Car on l'oublie, mais la loi de Moore a certes révolutionné notre monde et de nombreux domaines (l'informatique est quasiment partout, de nos maisons à nos poches en passant par nos voitures), mais ce n'est qu'une technologie parmi d'autres. Ainsi, de nombreuses pistes sont expérimentées, depuis des années, pour trouver la technologie qui remplacera le transistor en silicium.

    loi de moore
    Sur ce graphique, la courbe violette pourrait représenter l'évolution de la puissance des processeurs et la verte celle d'une technologie encore à parfaire.

    De nombreuses équipes, dont IBM, travaillent par exemple sur des nanotubes de carbone qui pourraient être jusqu'à 10 fois plus petits que les meilleurs transistors actuels tout en gardant leur efficacité. D'autres tentent d'utiliser la biologie, en utilisant des protéines à la place des électrons pour transmettre les informations.

    La (longue) route vers l'ordinateur quantique

    Mais quoi qu'il arrive, à force de diminuer la taille, le transistor ne pourra pas être plus petit qu'un atome. L'une des pistes les plus sérieuses, explorée depuis les années 1990, c'est l'ordinateur quantique. "C'est la seule solution si on veut aller au delà de la limite de l'atome", explique Pierre Boulet.

    Pour faire (très) simple, l'idée est de transporter les principes de l'informatique au niveau de l'infiniment petit (le champ d'action de la physique quantique). Dans un processeur classique, chaque transistor peut être ouvert ou fermé. Ce sont les fameux bits, les "1 et 0" de l'informatique. Avec un ordinateur quantique, chaque "bit quantique" (qubit) pourra avoir la valeur 1, 0 ou... les deux. Le pourquoi du comment est compliqué, mais un tel changement pourrait démultiplier la puissance de calcul.

    Sauf qu'il y a un problème. "Certains algorithmes et programmes en bénéficieraient, d'autres non. Mais dans tous les cas il faudrait repartir de zéro sur tous les logiciels", explique Pierre Boulet. Une révolution qu'on a du mal à imaginer, tant de choses ayant déjà été créées sur les fondations du sacro-saint transistor et de feu la loi de Moore. Même si leur nombre n'augmente plus aussi vite, il faudra encore compter pendant de nombreuses années sur le silicium.


  • Commentaires

    Aucun commentaire pour le moment

    Suivre le flux RSS des commentaires


    Ajouter un commentaire

    Nom / Pseudo :

    E-mail (facultatif) :

    Site Web (facultatif) :

    Commentaire :