La Magie de l’Analyse

La deuxième partie de mon documentaire sur la magie des mathématiques de prépa est sur Internet ! Si vous ne savez pas de quoi je parle, en voici la bande-annonce :

Comme je l’ai fait pour la première partie, je vais plus ou moins raconter à nouveau ce qu’il y a dans le documentaire, mais avec des détours et des raccourcis en plus ! Et comme dans le documentaire, je vais essayer de vous montrer que la magie de l’analyse repose sur la maîtrise de l’infini par la rigueur et la créativité mathématique.

Le Nombre $\pi$

Même si ce n’était pas la principale motivation de l’invention de l’analyse, l’Histoire de notre connaissance de $\pi$ est intimement liée à nos progrès en l’analyse. Et bien que je ne puisse pas m’attendre à ce que vous soyez familiers avec l’analyse, j’ose espérer que vous avez entendu parler de $\pi$…

C’est le ratio de la circonférence du cercle par son diamètre, c’est ça ?

Oui. Mais, malgré cette définition incroyablement simple, $\pi$ est magnifiquement insaisissable ! C’est parce qu’il se trouve que $\pi$ est une sorte d’entité qui vit en dehors du monde de l’algèbre… Je sais que ce que je dis a l’air bien mystérieux, mais il y a en fait une façon mathématique de le dire : $\pi$ n’est pas algébrique.

Et donc, comment peut-on saisir ce nombre ?

Difficilement ! En Égypte ancienne, $\pi$ était approché par $3,16$. À Babylone, il l’était par $3,125$. Dans la Bible, il apparaît égal à $3$. Mais l’approximation la plus drôle (ou la plus honteuse) de $\pi$ dans l’Histoire des mathématiques est celle de l’état de l’Indiana aux États-Unis, en 1897. L’Indiana a bien failli passer une loi forçant $\pi$ à valoir $3,2$ ! Mais le truc avec $\pi$, c’est qu’il ne répond pas des lois humaines. Pis, $\pi$ ne dépend pas de votre idéologie ou de votre religion. Il transcende même les lois physiques. Autrement dit, je peux vous l’affirmer, toute civilisation intelligente, humaine ou non, dans notre univers ou ailleurs, a rencontré $\pi$ (ou, plutôt, $\tau = 2\pi$). Plus que tout autre élément de culture, $\pi$ est universel, comme je l’explique ci-dessous.

Attends un peu… Tu ne viens pas de dire que $\pi$ n’appartenait pas à l’algèbre ?

Oui je l’ai dit.

Comment donc peut-on connaître sa valeur ?

Voilà une excellente question ! Et la réponse vient de la magie de l’analyse. En gros, je dirais que l’analyse est l’art de faire des approximations justes. Voilà qui requiert beaucoup de rigueur, mais aussi beaucoup d’imagination et de créativité. Et c’est pour ça que j’adore l’analyse : ça consiste à trouver des formalisations rigoureuses de notre intuition. Ainsi, l’analyse confirme parfois notre intuition. Mais le plus souvent, l’analyse va plutôt nous permettre de rejeter notre intuition, et de mettre le doigt sur là où elle coince. En fait, ce que j’apprécie tout particulièrement de l’analyse est sa capacité à souligner les limites de notre intuition, et ainsi à nous forcer à redoubler d’imagination et de créativité !

Et donc, comment peut-on connaître la valeur de $\pi$ ?

La première personne à adresser convenablement ce défi est, selon moi, le plus grand génie de toute l’Antiquité : Archimède of Syracuse. Archimède a non seulement trouvé une très bonne approximation de $\pi$, mais, et c’est le plus important, il a surtout prouvé que son approximation était « juste ». En effet, contrairement à tous les autres, Archimède a aussi prouvé que son approximation à 3 décimale était la bonne : Archimède écrivit $\pi \approx 3.14$ (en fait non… mais il l’aurait écrit s’il savait compter en base 10…). Et surtout, il sut que cette approximation ne serait jamais remise en question.

Comment l’a-t-il prouvé ?

Il utilisa une méthode dite d’exhaustion. En bref, il encadra la valeur de $\pi$ par deux suites de nombres qui convergent vers $\pi$. C’est ce que j’explique ci-dessous :

En plus de donner la bonne approximation, Archimède sous-entendit une description exacte de $\pi$, qui correspond à appliquer la méthode d’exhaustion à l’infini !

Euh… Ça ne m’a pas l’aire d’être une « belle » description de $\pi$…

C’est vrai. Mais pendant 2 000 ans, personne n’a su faire mieux. Personne, jusqu’au génie hindou Madhava. Contrairement à l’approche alambiquée d’Archimède, Madhava trouva une description relativement directe de $\pi$, en utilisant une magnifique astuce.

C’est quoi cette astuce ??

Madhava écrivit $\pi$ comme le résultat d’une somme infinie de termes simples :

Qu’est-ce que ça veut dire ?

Ça veut dire que plus j’ajoute de termes, plus je me rapproche de la vraie valeur de $\pi$. Autrement dit, l’erreur de notre approximation diminue et tend vers zéro. En termes mathématiques modernes, on dit que la série $4-^4/_3+^4/_5-^4/_7+…$ a une limite, et que cette limite est $\pi$.

Mais ça ne serait pas mieux d’avoir une description de $\pi$ sans infini ?

Ça serait mieux, oui. Mais ce n’est pas possible. C’est ce que je sous-entendais quand je disais que $\pi$ n’appartenait pas au monde de l’algèbre.

La Dérivée

Si l’utilisation de l’infini pour décrire un nombre comme $\pi$ vous trouble, vous n’êtes pas seuls. Tout au long de l’Histoire, et aujourd’hui encore, de grands esprits (comme Gauss à l’époque ou Wildberger aujourd’hui) ont refusé l’existence même de l’infini. Néanmoins, que l’infini existe ou non, son utilisation en analyse n’en reste pas moins essentielle. Pour comprendre ce que je veux dire, il faut revenir au 17ème siècle en Europe, lorsque le père de la science moderne, Isaac Newton, a suggéré d’inclure l’infini dans les mathématiques et la physique.

Newton(fr)

C’est-à-dire ?

Si vous courez 10 kilomètres en une demi-heure et 5 dans l’autre demi-heure, alors vous aurez couru 15 kilomètres en une heure. La formule $v=d/t$ dit alors que votre vitesse est de 15 kilomètres par heure. Réponse juste, oui. Mais pour Newton, réponse insatisfaisante. Après tout, il ne s’agissait que de la mesure d’une vitesse moyenne après une heure de course. Newton voulut une description plus précise de la vitesse. Par exemple, quelle était votre vitesse exacte après 20 minutes de course ?

Ben, ce n’est pas quand je courais à 10 kilomètres par demi-heure, soit 20 kilomètres par heure ?

C’est ce que j’ai dit plus haut en effet. Mais a priori, Newton dirait que cette donnée est en fait la vitesse moyenne sur une demi-heure de course. Alors, oui, cette vitesse moyenne sur une demi-heure est sans doute plus juste que la vitesse moyenne sur une heure. Mais Newton savait que l’on pouvait être encore plus précis — au moins en principe. Pour ce faire, il diminua la fenêtre de temps sur laquelle la vitesse est moyennée. Il argua que plus courte était cette fenêtre, plus juste serait le calcul de la vitesse. Pis, à la limite où la fenêtre de temps devenait infiniment petite, Newton prétendit que la vitesse moyenne calculée n’était alors plus une approximation. Ou plutôt, elle devenait une approximation infiniment juste.

En termes modernes, on dirait que Newton calculait ainsi la variation de votre position au cours du temps. Cette variation est appelée la dérivée. Cette dérivée est depuis devenue omniprésente en physique, en mécanique, en économie, en biologie, en chimie, en écologie… bref, partout. C’est parce que, peu importe ce que vous étudiez, vous allez vouloir comprendre la manière dont certains paramètres d’une expérience affectent l’issue de l’expérience : La croissance économique réduit-elle le chômage ? Le paludisme va-t-il disparaître si l’on utilise plus d’anti-moustiques ? Comment le climat va-t-il évoluer si le taux de CO2 augmente ? Les réponses à ces questions se reposent alors naturellement sur le langage de la dérivée.

Vous pouvez en savoir plus avec mes articles (en anglais) sur la dérivée et sur les lois de Newton.

Si Newton a largement été crédité (de façon d’ailleurs méritée) pour ses mathématiques, l’allemand Gottfried Leibniz, qui était le premier à publier sur la dérivée (et sur l’intégrale), ne l’a pas été. Newton affirma que Leibniz lui avait volé ses idées. Et malheureusement pour Leibniz, Newton était bien placé politiquement. En fait, Newton était le président de la Royal Society, qui était en charge de « l’investigation » sur l’invention de la dérivée… Surprise, surprise : la Royal Society a choisi d’attribuer l’entièreté des crédits à Newton!

En bout de ligne, toutefois, parce que Leibniz était un ami des Bernoulli, ses mathématiques et son nom sont restés dans l’Histoire. En fait, aujourd’hui, notre utilisation de la dérivée repose davantage sur les notations rigoureuses de Leibniz que sur les notions maladroites de « fluxions » de Newton.

Attends un peu… C’est qui, les Bernoulli ?

Les Bernoulli sont en gros la seule dynastie de l’Histoire des mathématiques. Ils ont régné sur le monde mathématique depuis Bâle, en Suisse. Ils ont accueilli à bras ouvert l’analyse de Leibniz, l’ont améliorée et l’ont propagée à travers l’Europe. Mais, ce qui aura peut-être été encore plus important, c’est que les Bernoulli se sont chargés de l’éducation d’un futur géant des mathématiques, le grand, très grand Leonhard Euler…

Séries Infinies

Il est difficile d’exagérer l’importance d’Euler dans le développement des mathématiques. Sans lui, on serait peut-être encore en train de découvrir la machine à vapeur…

Euler(fr)

Tu le survendrais pas un peu ?

Oui, sans doute. Mais le truc avec Euler, c’est qu’il publia tant de mémoires de qualité qu’il devint une référence sur laquelle tous les autres mathématiciens se reposaient. Comme Laplace le dit, « lisez Euler, lisez Euler, c’est notre maître à tous ». Du coup, rapidement, tous les mathématiciens commencèrent à utiliser les notations d’Euler. Et tout à coup, enfin, tous parlèrent le même langage, ce qui, sans aucun doute, était un tournant dans l’histoire des progrès en mathématiques !

Okay… Mais il a fait quoi, Euler ?

Cent livres ne suffiraient pas pour répondre à cette question ! Mais, ici, j’aimerais vous parler de deux de ses contributions, qui ont toutes deux à voir avec les séries.

C’est quoi une série ?

C’est juste un terme technique pour parler de sommes infinies, comme celle de Madhava.

Pourquoi on les appelle pas juste sommes infinies alors ?

Euh… Aucune idée. En tout cas, à l’époque d’Euler, Madhava (et Leibniz) avait déjà montré le potentiel des séries pour décrire des nombres comme $\pi$. Euler alla plus loin encore. Entre autres, il prouva que la série $1+^1/_{2^2}$+$^1/_{3^2}+^1/_{4^2}$+$^1/_{5^2}+…$ était exactement égale à $\pi^2/6$!

Que… que… quoi ?

Oui, je sais, c’est très surprenant ! Euler prouva aussi que $1+^1/_{2^4}$+$^1/_{3^4}+^1/_{4^4}$+$^1/_{5^4}+…$=$\pi^4/90$!

Que… que… quoi ?

Et oui ! Mais il y a encore plus fou ! Regardez cette mystérieuse vidéo du génial Mickaël Launay sur MicMaths

En jouant avec des séries, Euler avait obtenu l’égalité $1+2+3+4+5+… $=$ -1/12$.

Mais c’est clairement faux !

Euh… Je ne sais pas. Les physiciens l’utilisent depuis plus d’un demi-siècle, et il y a plusieurs manières différentes de retrouver cette égalité incroyable !

Plus généralement, Euler étudia en long en large et en travers les séries de la forme $1+^1/_{2^s}+^1/_{3^s}+^1/_{4^s}+^1/_{5^s}+…$, où $s$ est un nombre comme -1, 2 or 4. Le plus surprenant, c’est qu’Euler prouva que ces séries étaient intimement liées aux nombres premiers, puisqu’elles s’écrivent comme le produit des $(1-p^{-s})^{-1}$ pour tous les nombres premiers $p$.

Je ne suis pas sûr de tout comprendre…

Ne vous en faites pas. Les détails importent peu pour nous. Ce qui compte, c’est que les séries relativement simples à gauche sont intimement reliées aux nombres premiers, car elles peuvent être réécrites sous la forme d’un produit indexé par les nombres premiers. Cette remarque est aujourd’hui au coeur du plus prestigieux problème ouvert des mathématiques. J’y reviendrai sous peu…

Tu veux parler de quoi maintenant ?

Pour l’instant, je veux vous parler d’une autre contribution géniale d’Euler. Euler remarqua que bien des fonctions bien connues à l’apparence compliquée, comme le sinus, le cosinus ou l’exponentielle, peuvent en fait être écrits comme des sommes infinies de puissances de $x$. Par exemple, $e^x = 1+\frac{x}{1}+\frac{x^2}{1 \cdot 2}+ \frac{x^3}{1 \cdot 2 \cdot 3}+…$ C’est déjà assez fou en soi (quoiqu’une preuve plus rigoureuse devra attendre Taylor et Lagrange). Mais Euler prouva quelque chose d’encore plus merveilleux.

Qu’est-ce qu’il a prouvé ?

En remplaçant $x$ par $it$ (où $i$ est la fameuse racine carrée de $-1$), et en jouant avec les séries infinies, Euler prouva que l’exponentielle (complexe) était une sorte de généralisation du sinus et du cosinus. Étrangement, à l’aide de la magie des manipulations abstraites des séries infinies, Euler réussit à prouver que $e^{it}=\cos(t)+i \sin(t)$. Si vous ne comprenez pas cette formule, ne vous inquiétez pas. Mais croyez-moi. Cette formule est époustouflante !

Ah oui, aussi, je suis dans l’obligation de dire qu’Euler s’amusa à remplacer $t$ par $\pi$. Cette équation devint alors $e^{i\pi} + 1 = 0$. Voilà qui est souvent appelée la plus belle équation des mathématique. Et il y a une bonne raison à cela : cette équation lie enfin les nombres les plus importants, qui, avant Euler, semblaient appartenir à des univers différents. Qui plus est, cette équation le fait de la plus merveilleuse façon qu’il soit, avec exactement une addition, une multiplication et une exponentiation. Prodigieux ! Et voilà une raison de plus pour laquelle Euler est si fabuleux !

Vous pouvez en savoir plus avec mon article sur l’identité d’Euler.

Équations Différentielles

Bon, en fait, ce qui rend l’identité d’Euler si incontournable n’est pas tant sa beauté ; c’est plutôt la simplicité de sa dérivée. Comme vous l’avez peut-être appris, la dérivée de $e^t$ est $e^t$. Autrement dit, la fonction $e^t$ est solution de l’équation différentielle $\dot x = x$. Mais ce qui est peut-être encore plus intéressant est le fait que la fonction $e^{it}$ est solution de l’équation différentielle $\ddot x = -x$.

Autrement dit, la propriété fondamentale des fonctions $e^{kt}$ est qu’elles sont les vecteurs propres de l’opérateur linéaire qu’est la dérivation $x \mapsto \dot x$, dont les valeurs propres $k$ occupent tout le plan complexe.
C’est une jolie propriété…

Oui, et surtout, c’est une propriété incroyablement utile ! En effet, au fur et à mesure que les mathématiciens étudièrent les lois de Newton, l’importance des équations différentielles a atteint le 7ème ciel. Littéralement.

Qu’est-ce que tu veux dire?

Pour commencer, il faut que je vous parle des lois de Newton. Elles disent que l’accélération d’un objet dépend des forces qui agissent sur l’objet. Mais ces forces ont souvent tendance à dépendre la position de l’objet. Par exemple, plus un objet est proche d’un objet massif, plus la gravité agit sur lui. Du coup, l’accélération est fonction des forces, qui sont fonctions de la position. Et donc, la position d’un objet détermine son accélération. Mais l’accélération, c’est précisément la dérivée seconde de la position. Ça veut dire qu’elle détermine les positions futures de l’objet. Et donc, globalement, la position d’un object détermine ses positions futures. La traduction mathématique de cette phrase est une équation différentielle, dont les solutions décrivent justement les positions futures de l’objet en question.

Donc, plus généralement, une équation différentielle est une équation qui lie une variable et ses dérivées… c’est ça ?

Exactement! Et, de façon cruciale, prédire le futur revient à résoudre une équation différentielle. Du coup, aujourd’hui, ces équations différentielles sont très incontournables dans toute l’ingénierie, comme par exemple pour lancer des fusées et atteindre le 7ème ciel, mais aussi dans des domaines d’applications plus surprenants comme les prédictions géopolitiques ! Et pourtant, l’étude mathématique des équations différentielles est souvent pleine de mystères, et vient accompagnée de conséquences profondes, fondamentales et philosophiquement troublantes.

Tu parles de quoi ?

Avant de trouver des solutions à une équation (compliquée), les mathématiciens vont généralement d’abord se demander si l’équation a au moins une solution pour commencer. Et si oui, combien ?

Pourquoi est-ce important ?

Et bien, on s’attend à ce que l’équation différentielle prédise un futur… et, dans l’idéal, ça serait pas mal si elle n’en prédisait qu’un seul. La pire science est celle qui ne fait aucune prédiction, ou, pire encore, qui prédit une chose et son opposé !

Je vois… Et donc, les équations différentielles ont-elles une unique solution ?

En général, non. Cependant, au 19ème siècle, le grand Augustin-Louis Cauchy, ainsi que d’autres (Lipschitz, Picard and Lindelöf), ont prouvé que les équations différentielles à la Newton avaient, en général, une unique solution.

Cauchy(fr)

Et ça, c’est tout sauf anecdotique !

Comment ça ?

Le théorème de Cauchy dit que les lois de Newton prédisent un et un seul futur.

Et donc ?

Vous ne voyez pas ? Ça veut dire que le monde est totalement prédéterminé. Rien ne peut changer le futur. Ni moi. Ni vous. Ni nos libre-arbitres. Ni même Dieu !

L’Analyse Complexe

Je vais revenir sur l’identité d’Euler, une fois de plus. Ça devrait vous troubler de savoir que les physiciens l’utilisent, même si elle requiert le nombre imaginaire $i$. En fait, dans bien des cas, les physiciens pourraient résoudre leurs problèmes sans $i$. Mais ce serait idiot de ne pas utiliser l’exponentielle complexe d’Euler $e^{it}$ car, après tout, bien qu’abstraite, l’expression $e^{it}$ est incroyablement simple. Elle permet de surcroît une interprétation géométrique des équations différentielles. Et puis surtout, elle facilite grandement les manipulations algébriques. Aussi étrange que cela puisse paraître, les nombres imaginaires et complexes simplifient tout !

Vraiment ?

En fait, il y a 100 ans, par défaut, « les nombres » étaient « les nombres complexes », et non « les nombres réels ». C’est entre autre parce que Gauss et Cauchy ont grandement simplifié de nombreux domaines, comme la cartographie ou la mécanique des fluides, en utilisant ces nombres complexes. Les détails sont un poil techniques, ce que j’aimerais que vous reteniez, c’est que les nombres complexes ont des propriétés très remarquables.

C’est parce qu’une fonction dérivable au sens complexe est une fonction $f$ qui peut être localement approchée par une expression linéaire $f(z+h) \approx f(z) + h f'(z)$. Or, multiplier $h$ par $f'(z)$ correspond à appliquer au point $h$ une rotation d’angle $\arg f'(z)$ et une homothétie de rapport $|f'(z)|$. En particulier, ça consiste en une transformation qui préserve localement les angles. Pour cette raison, globalement, une forme dans le plan complexe transformée par cette fonction $f$ devient une autre forme dont les angles sont tous les mêmes. La fonction $f$ est alors dite conforme ou holomorphe. Et en fait, tout au long du 19ème siècle, on considérait que de telles transformations holomorphes étaient des fonctions « naturelles ».
« Des propriétés remarquables » ? Qu’est-ce que tu veux dire ?

L’une de ces propriétés remarquables est le fait qu’une connaissance locale d’une fonction dérivable au sens complexe suffit à la déterminer globalement. C’est comme si on pouvait déduire toute la culture Américaine de celle de la ville de Montpelier (pas celle dans le Languedoc-Roussillon, mais celle dans le New Hampshire). C’est vraiment surprenant. Ce n’est pas du tout vrai pour des fonctions dérivables au sens réel. Mais, étonnamment, c’est vrai pour des fonctions complexes. Et ça, ça a des implications majeures.

Comme quoi ?

Vous vous souvenez de la série d’Euler $1+^1/_{2^s}+^1/_{3^s}+^1/_{4^s}+^1/_{5^s}+…$? Au 19ème siècle, le grand Bernhard Riemann remarqua que ces séries, qui sont intimement reliées aux nombres premiers, pouvaient être bien mieux comprises si on considéraient qu’il s’agissait de fonctions complexes. En particulier, Riemann prouva que ces séries n’étaient que la partie émergée d’une fonction $\zeta$, dérivable au sens complexe, que l’on appelle désormais la fonction zéta de Riemann. En prouvant notamment que $\zeta(-1) = -^1/_{12}$, Riemann fournit une autre raison d’affirmer que la série infinie $1+2+3+4+…$ est intimement reliée à $-^1/_{12}$. Mais il y a mieux. En poussant plus loin les réflexions d’Euler, Riemann prouva que les solutions $s$ de l’équation $\zeta(s) = 0$, appelées zéros de la fonction zéta, sont intimement liés à la distribution des nombres premiers. Voilà qui l’amena vers une conjecture profonde…

Est-ce que tu parles de l’hypothèse de Riemann ?

En effet ! Selon les avis des experts, l’hypothèse de Riemann est aujourd’hui le problème ouvert le plus prestigieux des mathématiques. Les plus grands mathématiciens depuis Riemann, et ça inclut entre autres Hilbert, Hardy et Turing, ont venu leur âme (parfois quasiment littéralement) dans l’espoir de le résoudre. Comme le disent plusieurs mathématiciens, quiconque résoudra l’hypothèse de Riemann deviendra l’égal des Newton, Euler et autres Gauss — sinon mieux.

Qu’est-ce que l’hypothèse de Riemann ?

Riemann conjectura que les zéros étaient tous sur la droite $s= ^1/_2+it$ (à l’exception des zéros dits « triviaux »). Prouver que Riemann avait raison est l’un des plus grands problèmes des maths, car ceci expliquerait l’apparente imprévisibilité des nombres premiers.

Pourquoi ?

Comme Marcus du Sautoy l’explique très bien dans le documentaire La musique des nombres premiers, chaque zéro de la fonction zéta est une sorte d’instrument qui joue une note. D’une certaine manière, l’intensité d’une note est son éloignement vis-à-vis de la droite de Riemann. Toutes les notes jouées par tous les zéros s’ajoutent alors pour produire la symphonie de la distribution des nombres premiers. Or on n’a entendu aucune structure particulière dans cette symphonie. Bien au contraire, il semblerait que les nombres premiers sont distribués quasi-aléatoirement. En un certain sens, ceci veut dire que l’on « n’entend » aucun des notes des zéros de la fonction zéta de Riemann. Et ça, selon Riemann et d’autres, c’est probablement parce que les zéros jouent tous leurs notes avec la même intensité.

J’espère que les puristes excuseront les grosses approximations de mes explications. Pour une introduction plus complète, je vous invite à regarder cette superbe explication par James Grime ou cette interview d’Edward Frenkel (tout ça est en anglais).
L’analogie musicale est amusante…

Ce n’est presque pas une analogie, en fait ! Si les fonctions qui décrivent la distribution des nombres premiers peuvent être décomposées en notes plus simples, il en est en fait de même pour les notes de la musique. En fait, comprendre comment décomposer naturellement le son en des notes plus simples et plus fondamentales est une autre des grandes découvertes des mathématiques du 19ème siècle. Et cette découverte est celle du français Joseph Fourier.

Il a prouvé quoi, ce Fourier ?

Fourier a prouvé que tout son est en fait une superposition d’exponentielles complexes $e^{i \omega t}$. Incroyable ! Premièrement, ça veut dire que les sons « réels » se décomposent naturellement en des composantes complexes ! Mais j’imagine que vous commencez à vous y habituer…

Euh… Je ne dirais pas ça…

Vous finirez par y être ! Deuxièmement, la décomposition de Fourier a une quantité monstrueuse d’applications, des compressions MP3 et JPG à l’étude de la résonance ou de la mécanique quantique, en passant par l’étude cosmologique de la distribution de la matière dans l’univers et par les mathématiques pures aussi. Troisièmement, enfin, l’analyse de Fourier est incroyablement troublante conceptuellement. En gros, elle dit que toute fonction, périodique ou non, est somme de fonctions périodiques… Et ça, ça a l’air clairement faux. Et pourtant, en fait, c’est (quasiment) vrai.

Je dis « quasiment » car il y a des détails de décroissance suffisamment rapide à l’infini et de dérivabilité à considérer… Mais je veux quand même insister un poil sur ce dernier point, car il me semble que c’est le truc le plus contre-intuitif que je connaisse en mathématiques. En effet, considérons une fonction continue $f : \mathbb R \rightarrow \mathbb C$ dont le carré est intégrable (i.e. $\int |f|^2 <\infty$). On peut voir cette fonction dans le plan complexe comme un chemin qui part et finit à l'origine. Et bien, l'analyse de Fourier dit que ce chemin est une somme infinie de cercles. C'est complètement débile... mais vrai ! Pour en savoir plus, je vous invite à lire mon article (en anglais) sur la dynamique quantique de la fonction d’onde.

Topologie

Les études de Gauss, Cauchy et Riemann sur les fonctions dérivables au sens complexe ont montré l’importance de la distinction entre les propriétés « globales » et les propriétés « locales ».

Qu’est-ce que tu veux dire ?

Une fonction dérivable est une fonction qui peut être facilement approchée, typiquement par des approximations linéaires ou paraboliques, comme indiqué ci-dessous :

Mais, et c’est important de le noter, de telles approximations linéaires ou paraboliques doivent être faites à un endroit précis, et elles ne sont valides qu’autour de cet endroit. C’est ce que je veux dire quand j’affirme que les dérivées ne fournissent qu’une information locale. Par exemple, si je vous donne la spécialité culinaire de Montpelier, New Hampshire, je serai en train de vous donner une information qui n’est valide qu’à Montpelier. Ce sera sans doute une bonne approximation des goûts culinaires du New Hampshire, mais ça ne pourra pas être généralisé à tous les États-Unis — et encore moins au monde entier.

À moins de savoir, comme on l’a vu précédemment, que la fonction à approcher est une fonction dérivable $f$ au sens complexe et de connaître ses dérivées $f(z)$, $f'(z)$, $f »(z)$, $f^{(3)}(z)$… en un point $z$.
Quid des propriétés globales ?

Et bien, Riemann a réussi à montrer l’importance des propriétés globales des fonctions et des formes géométriques dans l’étude des équations. Par exemple, Riemann a prouvé que les solutions complexes d’une équation comme $y^2 = x^3-x$ représentaient une surface dite de Riemann. Riemann montra aussi que l’étude globale de cette surface — en particulier de ses « trous » — pouvait nous permettre de mieux comprendre les équations. Mais il aura fallu un autre géant des mathématiques pour systématiser et révolutionner notre compréhension des liens entre propriétés locales et globales des fonctions et des surfaces.

Tu parles de qui ?

Je parle du génie français Henri Poincaré. Dans une série de mémoires appelés l’Analysis Situs, Poincaré introduisit une nouvelle forme de mathématiques que l’on appelle depuis la topologie (algébrique). Ce faisant, Poincaré définit le concept fondamental d’homéomorphisme. Ainsi, deux formes géométriques sont dites homéomorphiques si chacune peut être déformée continument en l’autre. Deux telles formes partagent alors des propriétés globales similaires, à tel point qu’elles peuvent être considérées globalement « topologiquement » identiques. Mais chercher ces déformations continues peut être bien compliqué. Le génie de Poincaré fut de ramener ce problème continu à un problème algébrique très discret.

Euh… Tout ça a l’air vachement compliqué…

C’est vrai… Laissez-moi donc raconter quelque chose d’un poil plus simple. L’une des grandes idées de Poincaré fut de généraliser l’étude des surfaces de Riemann à celles d’objet de plus grandes dimensions, notamment celles d’espace à 3 dimensions comme notre univers. Avec une approche très abstraite, Poincaré réussit à formuler mathématiquement la question fondamentale suivante : quelle est la forme de l’univers ?

À la fin du 5ème supplément de son mémoire sur l’analysis situs, Poincaré fut un peu gêné, alors qu’il cherchait à lister toutes les formes possibles de notre univers. En particulier, il se demanda si les structures algébriques qu’il avait créées suffisaient à distinguer les formes des univers. Toutefois, avec une clairvoyance audacieuse, il prédit que « ceci nous amènerait trop loin ».

Sa question était-elle si difficile ?

Et comment ! Cette question est aujourd’hui appelée la conjecture de Poincaré. Il aura fallu l’effort combiné de grands cerveaux du 20ème siècle, comme ceux de William Thurston et Richard Hamilton, et un chef d’oeuvre du mathématicien russe Grigori Perelman pour enfin donner une réponse à la conjecture de Poincaré. Alas, au début du 21ème siècle, nous avons enfin su lister toutes les formes possibles d’un univers à dimension 3… Pas mal ! Mais malheureusement, l’univers qu’Einstein aura révélé se trouve être un espace-temps de dimension 4 — sinon plus !

Vous pouvez en savoir plus avec mon article sur la conjecture de Poincaré.
Arggg… Et donc, quelles sont les différentes formes possibles d’un univers de dimension 4 ?

Voilà une question largement hors de notre portée aujourd’hui, et il va peut-être falloir tout un autre siècle de recherche mathématique pour y répondre !

Waw… Et donc, est-ce que la topologie de Poincaré est un échec ?

Clairement pas ! La topologie est devenue depuis l’une des branches les plus importantes des mathématiques. Au fond, il s’agit de l’étude du concept de proximité, appliqué à la description de n’importe quelle forme géométrique. Et puisque tout concept d’approximation repose au préalable sur celui de proximité, l’analyse a fini par trouver en la topologie l’essence de ce qu’elle étudie. En fait, dans les années qui ont suivi la publication de Poincaré, des concepts plus rigoureux et plus généraux de topologie ont été inventé et ont conduit au riche développement de l’analyse fonctionnelle, avec des contributions de divers autres génies comme David Hilbert, Stephan Banach et surtout Nicolas Bourbaki, dans un nouveau style de mathématiques très 20ème siècle. Et il y a mieux encore !

Mieux encore ?

Ce qui est assez fou est l’utilité de la topologie en théorie des nombres. En réutilisant des travaux d’Oscar Zariski, d’André Weil et de bien d’autres, le géant Alexandre Grothendieck, récemment décédé, a développé des topologies très abstraites pour structurer les systèmes d’équations. Ceci lui permit de développer la même sorte de théories pour les équations en nombres entiers que celles de Poincaré pour les formes géométriques. De telles techniques ont conduit à de nouvelles questions plus profondes, que les mathématiciens explorent encore aujourd’hui.

Tout ceci a l’air complètement détaché du monde réel…

Il faut souvent des décennies pour que des idées en mathématiques pures se propagent dans d’autres domaines. Mais, croyez-moi, la topologie a clairement de très nombreuses applications. Les concepts d’ouverts, de compacité, de complétude et de connectivité apparaissent maintenant en économie, en biologie, en chimie, en cosmologie, en théorie des cordes, et dans bien d’autres disciplines !

Concluons

Au lieu de récapituler le développement incroyable de l’analyse dont on a parlé dans cet article, de $\pi$ aux sommes infinies, de la dérivée aux équations différentielles, de l’analyse complexe à la topologie, permettez-moi de conclure avec un court essai sur l’importance des mathématiques pour tous.

Et bien, c’est clairement utile en ingénierie… Mais pour les autres ?

À l’école, vous avez peut-être appris qu’une fonction est continu si son graphe peut être dessiné sans lever le crayon. Cette approche intuitive du concept de continuité semble être une bonne définition. Et bien non. Il aura fallu des siècles de développements mathématiques par les plus grands esprits de l’Histoire pour y arriver, mais les mathématiciens ont fini par réussir à poser des fondations (relativement) solides pour le concept de continuité. De l’extérieur, ceci peut sembler être un effort monumentalement inutile.

Oui ! Était-ce vraiment nécessaire ?

Et bien, pendant longtemps, des mathématiciens comme Newton et Euler ne travaillaient pas avec une telle rigueur. Comme beaucoup, ils se contentaient de leur intuition et de concepts approximatifs. Mais, alors que les mathématiques progressaient, beaucoup de résultats paradoxaux ont été découverts, et des mathématiciens plus rigoureux comme Gauss, Cauchy ou Weierstrass ont décidé qu’il était temps de trouver des fondations plus solides. Après des nombreuses percées créatrices, ils se sont assurés (ou du moins, ils ont essayé de s’assurer) que les mathématiques auraient toujours un sens.

Ça valait le coup ?

Clairement. Non seulement ils ont su résoudre de nombreux paradoxes, mais, et c’est le plus important, leurs efforts laborieux ont conduit à de nouvelles découvertes, comme in fine la topologie ! Plus que tout, l’Histoire de l’analyse est une très belle illustration des bienfaits à longs termes de la rigueur. Cette rigueur est ce qui certifie qu’un monument grandiloquent passera le test du temps, au lieu de nécessiter des réparations récurrentes pour éviter son effondrement. Ça demande beaucoup de temps et de travail à court terme, mais conduit à des résultats spectaculaires dans la durée.

Et donc, ton argument…

Mon argument, c’est qu’apprendre les mathématiques, ce n’est pas (ou du moins, ça ne devrait pas être) apprendre son contenu. Ne vous y détrompez pas, les mathématiques sont magnifiques. Ça vaut le coup de connaître les maths. Mais le principal bénéfice de l’apprentissage des mathématiques est plutôt l’apprentissage d’un haut niveau de rigueur que seules les mathématiques (et peut-être l’informatique) requièrent. Cette rigueur consiste à s’assurer que nous comprenons toutes les étapes d’un raisonnement, et que nous sommes capables de détecter des failles quand il y en a ; elle consiste aussi à savoir si l’on comprend vraiment quelque chose. Et c’est crucial. Comme le disait le physicien Richard Feynman, « le premier principe est qu’il vous faut ne pas vous duper vous-mêmes – et vous êtes la personne la plus facile à duper. » La rigueur est l’art de ne pas se duper ; et les mathématiques sont l’une des trop rares disciplines qui la poussent à son extrême.

C’est pour ça que les mathématiques sont dures. Mais c’est aussi pour ça qu’elles sont si gratifiantes.

More on Science4All

La Magie de l'Algèbre La Magie de l'Algèbre
By | Updated:2016-02 | Views: 308
La magie de l'algèbre repose sur l'abstraction, et l'abstraction, c'est juste l'art d'oublier. En retraçant l'histoire de l'algèbre depuis ses racines jusqu'à ses développements récents, cet article raconte les innombrables sauts conceptuels qui ont conduit à la compréhension du monde d'aujourd'hui, et qui reposent sur cet art d'oublier.

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *