illustration des pouvoirs de l'abstraction mathématique@SHUTTERSTOCK - GETTY IMAGES

Les super-pouvoirs de l’abstraction : le Top 5 des concepts mathématiques

N’ayons pas peur des mots, les maths sont l’outil le plus puissant jamais inventé par l’humain. Nous avons demandé à un panel de spécialistes quels sont, à leurs yeux, les concepts mathématiques les plus forts. Voici les cinq superhéros conceptuels qu’ils ont retenus. Leurs pouvoirs sont sans limites.

par Clémentine Laurens,

1. LES VERTIGINEUSES INFINI-CATÉGORIES

Elles bâtissent des ponts entre des domaines éloignés

“C’est à la fois la chose mathématique la plus triviale et la plus profonde qui soit”, s’amuse André Joyal, professeur émérite à l’université du Québec, à Montréal, grand spécialiste du sujet. Car une catégorie, ce n’est rien d’autre qu’une collection d’objets et de flèches qui les relient. “Je pense qu’on a initialement introduit cette définition pour simplifier la description de certaines choses. C’était une façon d’organiser des connaissances.”

La puissance du concept ne va commencer à se révéler qu’à la fin des années 1950, lorsque le mathématicien néerlandais Daniel Kan en formalise les contours, avec la notion de “foncteur adjoint” et celle d’“extension de Kan”. “C’est à partir de là que se développe une véritable théorie des catégories, estime Denis-Charles Cisinski, mathématicien à l’université de Ratisbonne, en Allemagne. Ce n’est plus un simple langage pour décrire d’autres théories : on peut élaborer de nouveaux objets, faire des calculs avec…” Leur pouvoir ? “Elles permettent de considérer une structure mathématique comme un membre d’une collectivité plus vaste, explique André Joyal. C’est une sorte de socialisme : pour étudier les propriétés d’une structure qui nous intéresse, on étudie ses interactions avec d’autres structures apparentées.”

Des nombres entiers aux espaces géométriques en passant par les ensembles, tous les objets mathématiques ont leur catégorie. Ce vocabulaire et ces outils communs permettent de créer des ponts inattendus et fertiles entre des domaines a priori très éloignés. Et le tout de façon dynamique, puisque les catégories contiennent non seulement les objets, mais aussi les fameuses flèches qui permettent de les mettre en relation. Plus fort encore, souligne Denis-Charles Cisinski : “Les catégories parlent de tout… y compris d’elles-mêmes ! Il existe une catégorie des catégories.” Cette dimension réflexive permet donc d’utiliser les outils et les connaissances de la théorie des catégories pour comprendre les catégories elles-mêmes.

Et le vertige ne s’arrête pas là… Depuis une quinzaine d’années, les catégories se fondent dans un concept encore plus puissant : les ­nfini-catégories. “C’est à peu près la même chose que les catégories, sauf que l’ensemble des flèches est plus riche, qu’il donne plus d’informations”, explique André Joyal, qui a démontré des résultats fondamentaux sur ces objets dans les années 1980 et 1990. Les infini-catégories permettent de bien identifier des objets ayant les mêmes propriétés pour transposer des résultats mathématiques d’un domaine à un autre. “Ce n’est pas évident de savoir pour quel type d’énoncé on va pouvoir interchanger des objets identifiables, souligne Denis-Charles Cisinski. Dans le monde des infini-catégories, toutes les manières d’identifier ont le même statut. D’un point de vue externe, ça ressemble énormément à de la théorie des catégories classique. Mais cela a un pouvoir d’expression beaucoup plus grand.” “L’enjeu, c’est de faire migrer les mathématiciens vers ce nouveau langage plus sophistiqué”, lance Bernard Le Stum, de l’université de Rennes. Alors, oui, cela exige un gros effort initial d’abstraction. Mais le jeu en vaut la chandelle, assure le chercheur : “Je suis persuadé que cela va devenir incontournable.”

2. LA FASCINANTE ÉVOLUTION DE SCHRAMM-LOEWNER

Elle maîtrise les changements d'état de la matière

Que se passe-t-il à 100 °C, quand l’eau se met à bouillir ? Et à 0 °C, quand elle se transforme en glace ? Comment modéliser mathématiquement ces transitions de phase qui apparaissent à certaines températures critiques ? “C’est un grand problème de physique statistique”, souligne le physicien et spécialiste de géométrie aléatoire Denis Bernard. Au début des années 2000, l’introduction par le mathématicien Oded Schramm d’un objet révolutionnaire, appelé désormais évolution de Schramm-Loewner, ou SLE, a tout bouleversé.

“Le SLE, c’est juste une collection de courbes qu’on dessine aléatoirement dans le plan, et qui ont la propriété de ne pas se recouper, de ne pas faire de boucles”, résume le probabiliste Wendelin Werner, lauréat de la médaille Fields en 2006 pour ses travaux sur le sujet. Or ces courbes permettent de représenter mathématiquement les structures géométriques qui sous-tendent certaines transitions de phase dans des systèmes “plats”, à deux dimensions (un peu comme si le matériau était confiné dans un plan). “Souvent, la compréhension de phénomènes physiques est liée à la compréhension des structures géométriques sous-jacentes aux systèmes qu’on étudie”, pointe Denis Bernard. Qui admire le super-pouvoir du SLE : “De nombreuses prédictions qui avaient été faites par les physiciens ont enfin pu être démontrées rigoureusement grâce à cet outil. Et au passage, cela a ouvert de nouveaux champs d’application en stimulant l’imagination des gens et en fournissant de nouveaux outils.”

L’objet a par exemple été décisif pour l’étude du “modèle d’Ising à deux dimensions”, qui décrit comment l’aimantation de certains métaux varie avec leur température. Ce qui intéresse les physiciens, c’est de comprendre précisément comment l’aimantation tend vers 0 dans des métaux à deux dimensions au fur et à mesure que la température augmente. “Lorsqu’on est largement en dessous de la température critique, le système est figé ; quand on est largement au-dessus, au contraire, il semble complètement chaotique. Et le SLE permet d’étudier les symétries intéressantes qui apparaissent précisément à la température critique”, explique Yilin Wang, chercheuse en probabilités et analyse complexe à l’IHES. Un véritable tour de force.

Et c’est d’autant plus impressionnant que cette puissance est universelle. “Le SLE apparaît naturellement quand on regarde des comportements limites dans les modèles de phénomènes extrêmement variés, détaille Jean-Christophe Breton, chercheur en probabilités à l’université de Rennes. C’est cela qui le rend si remarquable et intéressant.”

3 LA MYSTÉRIEUSE FONCTION DE RIEMANN

Elle embrasse d’un coup tous les nombres premiers

C’est une vieille connaissance. Le mathématicien Leonhard Euler la fait apparaître pour la première fois au milieu du XVIIIe siècle : une somme de nombres qui prend la forme 1/1k + 1/2k + 1/3k… … et ainsi de suite, à l’infini, où est un nombre entier supérieur ou égal à 2. D’une part, le prodige suisse réussit à calculer les valeurs de cette fonction pour tous les nombres pairs – pour k = 2, par exemple, elle vaut 1 + 1/4 + 1/9 + 1/16 + … = pi2/6. Surtout, il démontre que cette fonction peut se réécrire sous la forme d’un produit infini, en faisant intervenir tous les nombres premiers, l’un après l’autre.

La fonction touche là au cœur vibrant de l’arithmétique : depuis l’Antiquité, les mathématiciens savent que ces nombres premiers, qui ne sont divisibles que par 1 et par eux-mêmes, sont les briques élémentaires à partir desquels se construisent tous les entiers – chacun s’écrit sous la forme d’un produit de nombres premiers, et cette écriture a le bon goût d’être unique. “Mais les nombres premiers restent méconnus”, souligne Florent Jouve, chercheur en théorie des nombres. En particulier, leur répartition dans la suite des entiers nous échappe encore. Et c’est justement pour cela que la fonction imaginée par Euler, et baptisée zêta, va devenir une star des mathématiques. Il faudra attendre que Bernhard Riemann, un siècle plus tard, la prolonge bien au-delà des seules valeurs entières – k peut maintenant être n’importe quel nombre “complexe”, à l’exception de la valeur 1. “Il a eu l’idée d’étudier cette fonction à l’aide de nouveaux outils analytiques, à une époque où émergeait l’analyse complexe, raconte le mathématicien. établissant grâce à cela un lien explicite entre la répartition des nombres premiers et les endroits où la fonction zêta s’annule.” De ce lien est née la célèbre “hypothèse de Riemann”, qui permet d’embrasser en un seul geste tous les nombres premiers. La fonction zêta semble avoir le mystérieux pouvoir de dompter leur répartition au sein des autres nombres. “Si on arrivait à démontrer cette hypothèse, des quantités de résultats en découleraient”, soupire Florent Jouve. Car zêta apparaît partout. “Dès qu’on veut compter des nombres premiers, elle intervient, confirme Cécile Dartyge, chercheuse en théorie analytique des nombres à l’institut Élie-Cartan de Lorraine. Mais on la retrouve aussi dans d’autres problèmes de théorie des nombres : lorsqu’on cherche à compter les diviseurs d’un entier ou quand on veut utiliser certains outils analytiques…” Seulement voilà : l’étude des “zéros de zêta”, ces nombres complexes dans lesquels la fonction s’annule, s’est avérée ardue. Très ardue. “La meilleure estimation qu’on ait d’une zone dans laquelle on est sûr qu’il n’y a pas de zéro de la fonction zêta date de 1958 !, s’exclame la chercheuse. On n’a pas réussi à l’améliorer depuis.”

Pourquoi est-ce si difficile ? Parce qu’en prolongeant zêta comme l’a fait Riemann, on acquiert certes la possibilité d’utiliser des outils issus d’un autre domaine (l’analyse complexe), mais on perd l’expression de la fonction sous la forme d’une somme infinie. “On n’a plus un vrai objet bien explicite à manipuler, c’est beaucoup plus caché”, résume Florent Jouve. Tous les mathématiciens sont convaincus que l’hypothèse de Riemann est juste – les tests numériques et l’intuition liée aux connaissances actueles vont dans ce sens. Mais cela reste à démontrer… “Un véritable mur”, selon Florent Jouve. 

En attendant, le super-pouvoir de cette fonction continue de fasciner. En 2014, à la question d’un journaliste lui demandant ce qu’il ferait s’il pouvait revenir à la vie dans quelques siècles, le grand mathématicien John Horton Conway répondait : “J’aimerais certainement savoir si l’hypothèse de Riemann a été démontrée.”

4. LES INFAILLIBLES TYPES

Ils fondent un langage rigoureux et intuitif 

C’est une querelle centenaire, et un sujet de recherche toujours brûlant : sur quelles fondations, quels principes de base, doit-on construire les mathématiques ? Quel socle leur donner ? Et dans cette course aux fondements, l’un des concurrents, la théorie des types, est en train de prendre un sérieux avantage. Un avantage techno­logique. Car cette théorie renforce un lien fertile entre les mathémati­ques et l’informatique.

Dans cette théorie, tous les objets sont étiquetés en fonction de leur nature : il y a le type “entiers”, le type “fonctions”, le type “courbes”… Le type d’un objet n’est pas une propriété : il fait partie intégrante de sa définition ; c’est une étiquette qui lui est consubstantielle. Et l’une des spécificités de ce langage, c’est qu’une démonstration est considérée comme un objet mathématique à part entière, dont le type est l’énoncé mathématique qu’elle prouve. “Les types posent les mathématiques comme un tout structuré, en différenciant les objets suivant leur nature”, explique Hugo Herbelin, chercheur en théorie de la démonstration à l’Inria. Or, poursuit-il, “en programmation, c’est extrêmement naturel d’avoir des types. Cela évite notamment de faire des erreurs en manipulant ensemble des choses qui ne sont pas compatibles – comme des entiers et des listes de nombres par exemple. Mais, même conceptuellement, c’est important : un arbre binaire, ce n’est pas pareil qu’un nombre entier, alors pourquoi devrait-on les coder dans une structure commune ?”

Dans la quête des fondements, c’est là un des atouts majeurs de la théorie des types par rapport à ses concurrents, notamment la redoutable théorie des ensembles, qui compte beaucoup d’adeptes : elle coïncide avec l’intuition mathématique, la manière dont informaticiens et mathématiciens pensent aux objets. 

De quoi structurer des “assistants à la preuve”, ces programmes capables de vérifier automatiquement la validité d’une démonstration. Leur intérêt est double. D’abord, il n’y a presque aucun risque qu’un ordinateur laisse passer une erreur cachée dans une démonstration, même longue et technique – le risque est en tout cas bien moindre qu’avec une vérification par un être humain. Mais surtout, formaliser un résultat ou une preuve pour l’expliquer à une machine oblige les mathématiciens à bien comprendre leurs propres travaux, à organiser leur pensée et leurs démonstrations de manière optimale. “Ce qu’on veut faire, ce n’est pas seulement s’assurer que les résultats sont corrects, c’est comprendre les mathématiques. Il faut donc à tout prix conserver le lien avec l’intuition”, abonde le spécialiste des mathématiques formalisées Riccardo Brasca, chercheur à l’université Paris Cité. Un bon assistant à la preuve doit donc être fondé sur un langage informatique dans lequel on peut écrire “comme au tableau”, insiste-t-il : “Quand les humains écrivent des maths, ils font beaucoup d’approximations de notation, ce n’est pas du tout précis au sens de la syntaxe mathématique.” Grâce au langage des types qui conjugue le besoin de rigueur et de précision de la machine avec l’impératif d’intuition et de visualisation des chercheurs, l’ordinateur peut gérer ces approximations et “deviner” beaucoup de choses implicites, comme le font les humains quand ils lisent une démonstration écrite sur papier. L’arrivée des assistants à la preuve – voire de l’intelligence artificielle – promet de profonds bouleversements dans le champ de la recherche. Et Thierry Coquand, chercheur en théorie de la démonstration à l’université de Göteborg, en Suède, qui a développé un des plus puissants logiciels de vérification automatique, le prédit : “L’avènement des assistants à la preuve sera un excellent moyen de tester, et éventuellement d’améliorer, la théorie des types comme fondement des mathématiques.”

5. LA DÉROUTANTE COURBE ELLIPTIQUE

Elle protège tous nos secrets lors de nos échanges numériques

Personne n’aurait imaginé, il y a un demi-siècle, que cet objet deviendrait si central dans notre vie quotidienne. Il agit, caché, dès que l’on navigue sur Internet, que l’on converse sur une application de messagerie instantanée ou qu’on fournit un mandat de prélèvement bancaire. C’est grâce à lui que l’on s’assure de l’authenticité et de la sécurité de quasiment tous nos échanges numériques.

À première vue, pourtant, c’est un objet relativement banal : une courbe elliptique, c’est une courbe plane, lisse, qui correspond à un certain type d’équation – sa forme ressemble un peu à celle d’une goutte qui se forme sur un plafond ou qui s’en détache. “Les courbes elliptiques ont commencé à acquérir des superpouvoirs au début des années 1980, quand on a compris que la démonstration du grand théorème de Fermat – un très célèbre problème de théorie des nombres – se ramenait à un problème sur ces courbes, raconte Sylvain Duquesne, chercheur en cryptographie à l’Irmar, à Rennes. C’est à partir de ce moment-là qu’elles ont été massivement étudiées.” Et leur aura s’est encore renforcée quelques années plus tard, lorsque des applications en cryptographie ont été découvertes. “C’était une surprise totale !”, se souvient Neal Koblitz, professeur de mathématiques à l’université de Washington, à Seattle, à l’origine, avec Victor Miller, de la cryptographie à base de courbes elliptiques, l’ECC, pour Elliptic Curve Cryptography.

Leur secret ? Il est possible de définir une addition entre les points d’une courbe elliptique : la « somme » de deux points correspond systématiquement à un troisième, sur la courbe. C’est cette structure, dite “de groupe”, qui leur donne leur pouvoir cryptographique. “L’avantage des courbes elliptiques, détaille Sylvain Duquesne, c’est qu’on ne leur connaît pas d’autres propriétés exploitables en cryptographie. Cela garantit la sécurité de l’ECC.” Autrement dit, ces courbes n’ont ni trop de structure – auquel cas des hackers pourraient imaginer des attaques pour contourner la protection qu’elles confèrent –, ni trop peu – sinon on ne pourrait rien en faire du tout. Et l’avantage, c’est que leur flou structurel est si épais qu’il garantit de hauts niveaux de sécurité sans qu’il soit nécessaire de faire des opérations trop longues. “Ce que je trouve beau dans cette histoire, confie Sylvain Duquesne, c’est qu’à l’origine, les courbes elliptiques ont été développées et étudiées dans le cadre de recherches très théoriques… Et qu’aujourd’hui elles sont partout autour de nous !” On sait que les courbes elliptiques, si puissantes soient-elles, ne résisteraient pas aux attaques d’un ordinateur quantique. Mais elles vont rester longtemps au cœur de la cryptographie. “L’enjeu est maintenant de développer des systèmes hybrides, mélangeant ECC et cryptographie post-quantique”, estime Neal Koblitz.

Abonnez-vous et ne manquez aucun numéro
Chaque mois,dans votre boîte aux lettres
Toutes les archives,accessibles en ligne
La version numérique,avec l'appli Epsiloon
Un espace abonné,pour gérer mon compte