Pourquoi et comment le monde devient numérique - (Chaire d'Innovation technologique Liliane Bettencourt)

Après avoir rappelé les très nombreux effets du passage au numérique et l’ignorance généralisée de ses causes, j’ai présenté ma vision sous la forme d’une conjonction de quatre points :

1. L’idée de numériser de façon homogène toutes sortes de données et de phénomènes.
2. Les fantastiques progrès de la machine à informations, faite de circuits et logiciels.
3. Ceux de la science et de la technologie de son utilisation.
4. L’existence d’un espace d’innovation sans frein.

L’idée de numérisation systématique est née dans les années 1950, avec une contribution fondamentale de Shannon qui a défini son sens et ses limites. La numérisation permet de s’affranchir de l’ancestrale dépendance d’une information vis-à-vis de son support : papier pour l’écriture, disque vinyle pour le son, film argentique pour l’image, etc. Une fois numérisées, toutes les informations prennent la forme unique de suites de nombres. On peut alors leur appliquer deux types d’algorithmes combinables avec une totale liberté :

— des algorithmes génériques, indépendants du contenu, pour stocker, copier, comprimer (faiblement), encrypter et transporter l’information sans aucune perte, ce qui est impossible avec les représentations analogiques classiques.

— des algorithmes spécifiques à un type de données : compression forte et amélioration d’images et de sons, recherche dans les textes, recherche de chemins optimaux dans des graphes, algorithmes géométriques en robotique ou en imagerie médicale, algorithmes de calcul scientifique, la liste est interminable.

La possibilité d’appliquer effectivement ces algorithmes à bas coût repose sur les progrès exponentiels des circuits électroniques et les avancées scientifiques dans leur conception et dans celle des logiciels. Plutôt que le terme « ordinateur », qui évoque trop précisément l’utilisation d’un clavier et d’un écran, j’utilise le terme général de « machine à information ». En effet, la plupart des circuits et logiciels sont maintenant enfouis dans des objets de toutes sortes, de façon invisible à l’utilisateur.

Insistons sur le point 4 ci-dessus, l’espace d’innovation sans frein : dans des sciences physiques ou biologiques, il y a souvent loin de l’idée à la réalisation. Tout progrès demande d’abord la compréhension d’un monde préexistant extrêmement complexe. En informatique, la situation est bien différente. L’évolution des machines à informations et de leurs applications ne se heurte pas à la complexité de la nature, puisqu’elle en synthétise en quelque sorte une autre. La distance entre l’idée et l’application est très courte, et la vraie limite à l’expansion des innovations numériques est celle de l’imagination humaine. De nombreux exemples sont fournis par la profusion d’idées nouvelles contribuant à l’expansion du Web : pour l’innovation majeure qu’est le moteur de recherches, il a suffi de quelques mois pour passer de l’idée à la mise en service.

Dans les sciences, le numérique conduit à une révolution généralisée, qui poursuit celle réalisée par l’introduction des mathématiques. En effet, l’informatique étend la notion mathématique de mise en équations en la notion bien plus générale de mise en calculs, et amplifie les possibilités très limitées du calcul manuel par celles quasi infinies du calcul automatique.

La leçon s’est terminée par l’expression de l’inquiétude sur les insuffisances massives de l’enseignement, et de façon plus générale de l’information scientifique et technique dans ce domaine crucial pour l’avenir.