De l’ordinateur à l’intelligence collaborative
L’intégration d’un nombre toujours plus grand de composants sur un circuit intégré va atteindre ses limites. Quelle sera la technologie de remplacement ? Remplacer l’électron par le photon permettrait à l’ordinateur de fonctionner mille fois plus rapidement. Reste à mettre au point le » transistor à photons « . Certains dispositifs existent en laboratoire, sans piste encore très sérieuse pour une industrialisation. C’est l’intelligence collaborative, coopération informelle entre un milliard d’utilisateurs, déjà amorcée, qui sera dans quinze ans la pièce maîtresse de l’évolution de l’informatique.
La première phase du développement de l’informatique (1960−1980) s’est construite autour de gros ordinateurs centraux. Ces ordinateurs traitent quelques centaines de sources de données avec des temps de réponse qui s’expriment d’abord en mois puis en semaines. C’est l’ère de la domination d’IBM. La deuxième phase (1980−2000) a été caractérisée par la création d’îlots d’ordinateurs qui traitent des millions de sources de données. Les temps de réponse s’expriment en semaines ou en journées. C’est l’ère de la domination d’Intel et de Microsoft. Ces très nombreux îlots dispersés ne communiquent pas facilement entre eux. La phase actuelle (2000−2020) se caractérise par l’ajout de données multimédias avec des milliards de sources d’informations. Grâce à la connectivité mondiale de l’Internet, le temps de réponse est de l’ordre de la seconde. Le fonctionnement devient quasiment du temps réel. C’est l’ère dont le modèle est Google.
De l’analogique au numérique
En 1960, toutes les informations (textes, téléphone, photos, musiques, télévision) sont stockées et transmises sous forme analogique. À partir de 2000, la plupart des informations sont stockées et transmises sous forme numérique : le courrier électronique a remplacé la lettre papier ou le fax, le Compact Disc puis le mp3 ont remplacé le disque vinyle, la photographie argentique a été balayée par le stockage de fichiers numériques au format jpeg, le son est transmis numérisé par le téléphone mobile et la télévision analogique vit ses derniers jours remplacée par la télévision numérique sur le satellite ou la télévision numérique terrestre (TNT).
Les limites de la miniaturisation
Une transformation radicale
La transformation de données analogiques vers un codage numérique nécessite des calculateurs très rapides pour compresser et décompresser les données. Des centaines de millions d’ordinateurs peu coûteux tout au long de la chaîne de création, de traitement, de diffusion et de restitution de ces informations ont permis cette transformation radicale.
Les progrès du matériel que nous observons depuis quarante-cinq ans ont une seule cause : l’intégration d’un nombre toujours plus grand de composants sur un circuit intégré. La taille du circuit intégré a peu évolué : quelques centimètres carrés. L’accroissement du nombre de composants dans un circuit est obtenu principalement par une réduction de la taille des gravures – moins de 70 nanomètres en 2007 -, inférieure à la longueur d’onde de l’ultraviolet. Il est évident que cette miniaturisation a une limite. S’il fallait 1019 atomes pour représenter un bit d’information, un trou sur une carte perforée de l’IBM 1620 de mes débuts en 1964, il ne faut plus que 105 atomes pour un bit sur un DVD et seulement quelques dizaines d’atomes dans l’ADN. Une limite réaliste pour la technologie employée est aux alentours de 1 000 atomes. Cette limite sera atteinte vers 2015. La miniaturisation, principal moteur du développement du matériel, va donc disparaître. Les signes avant-coureurs sont déjà là. La puissance des microprocesseurs, autrefois exprimée en méga ou giga-hertz/seconde, a fait place depuis quelques années à des numéros marketing : l’Intel core 2 duo T7100 fonctionne à 1,8 GHz et le Celeron D331 à 2,66 Ghz. Comme la fréquence de fonctionnement ne peut plus croître très facilement, les constructeurs multiplient le nombre de processeurs (coeur) sur le même circuit. On voit donc apparaître les doubles-coeurs (dual core) puis les quadri et bientôt les octo… Cependant deux processeurs ne sont généralement pas équivalents à un processeur de puissance double.
Plusieurs approches encore expérimentales
La loi de Moore
Plus l’intégration augmente, plus la taille des transistors diminue et plus les performances s’améliorent. Le coût marginal de production d’un circuit est à peu près constant – quelques euros. À performances constantes, le coût d’un microprocesseur ou de la mémoire est divisé par 10 tous les quatre ans. C’est la fameuse loi édictée en 1965 par Gordon Moore, cofondateur d’Intel.
Il convient donc de se poser la question, au-delà de l’emploi massif des multiprocesseurs, de l’éventuelle technologie de remplacement. L’ordinateur biologique est un rêve d’auteur de science-fiction. Les deux approches CC [Chemical computing] ou SOMC [Electron transport through single organic molecules] restent au niveau de la recherche fondamentale. Une idée plus réaliste consisterait à remplacer l’électron par le photon. Un ordinateur à photons pourrait fonctionner au moins 1 000 fois plus rapidement qu’un ordinateur à électrons. Cependant, il faut un » transistor à photons » pour espérer réaliser un jour des ordinateurs photoniques. Certains dispositifs existent en laboratoire et permettent d’espérer une solution. Cependant, comme il n’y a pas de piste très sérieuse pour une industrialisation, il est donc plus que probable que nous continuerons au-delà de l’an 2020 avec la technologie actuelle basée sur l’électron.
Tout connecter à tout
Le temps des normes propriétaires est révolu |
Le développement des technologies numériques a complètement changé le paysage informatique. Les réseaux spécialisés, optimisés pour un seul média, sont remplacés par une infrastructure unique réduite à son rôle le plus élémentaire : la connectivité. Fondée sur les technologies de l’informatique et les standards de l’Internet, cette infrastructure permet maintenant de tout connecter à tout, partout. Elle a donné naissance à une gigantesque communauté d’un milliard d’utilisateurs. Toutes les innovations technologiques et tous les nouveaux développements sont passés au crible de ce milliard d’utilisateurs, expérimentateurs ou développeurs. Un processus de sélection » darwinien » remplace les décisions de comités techniques souvent biaisées par la politique ou l’incompétence. Cette formidable coopération mondiale a déjà produit les meilleurs logiciels, ceux qui font tourner l’Internet, imposé ses choix comme le MP3 pour la diffusion de la musique ou le mpeg4 pour la télévision. Le temps où des fournisseurs pouvaient protéger leurs » empires » par des normes propriétaires est désormais révolu. L’influence de cette coopération informelle entre un milliard d’utilisateurs est beaucoup moins visible que la performance du matériel mais sera beaucoup plus importante pour l’évolution de l’informatique.