• 1 heure
  • Facile
Connectez-vous ou inscrivez-vous gratuitement pour bénéficier de toutes les fonctionnalités de ce cours !

Introduction du cours

Bonjour,

Aujourd'hui, je vais vous parler de la fonction exponentielle. Le but de ce tuto va être de montrer qu'il y a plusieurs façons de définir l'exponentielle et qu'à partir de chaque définition on peut retrouver les autres. De plus ce tuto se veut un approfondissement et donne des idées générales en mathématiques.

A qui s'adresse ce tuto ?
Il faut avoir déjà entendu parler de la fonction exponentielle, car je ne vais pas tout reprendre. Je suppose que vous connaissez ses propriétés élémentaires. Moi, je vais vous en donner différentes démonstrations et des approfondissements pour ceux qui veulent en savoir plus, quel que soit leur niveau scolaire. Uniquement par intérêt pour les mathématiques. Pour suivre, il faut avoir des notions d'analyse : savoir étudier les fonctions réelles, savoir manipuler un minimum la dérivation et les suites, et si possible les intégrales. Les propriétés seront rappelées quand cela sera nécessaire.

A quoi ça sert ?
Mais pourquoi voulez-vous toujours que ça serve à quelque chose ? :lol: Comme vous l'avez remarqué, mon but n'est pas de faire un cours classique avec mes mots, mais d'approfondir, de vous montrer des nouvelles notions qui apportent une vision différente des choses. Si vous trouvez cela intéressant, vous n'aurez aucun mal à lire le tuto. Je vous laisse d'ailleurs des notes dans un but uniquement culturel, qui vous permettront de connaitre le nom des notions utilisées si vous souhaitez aller voir plus loin par vous même (wikipédia, livre). Et si au contraire, ce genre de choses est une vraie torture, le tuto ne vous sera en rien utile. Je suis sûr qu'il y aura d'autres tutos sur le sujet qui vous conviendront mieux.

Et alors, pourquoi ne fais-tu pas plutôt un tuto qui explique la fonction exponentielle depuis le début ?
C'est mon tuto, c'est moi qui décide :colere2:
Le principal problème, actuellement, c'est qu'il n'y a pas assez de tutos de maths. Du coup, je suis obligé de supposer des choses connues, qui arriveront sûrement plus tard sur le site. N'oubliez pas qu'en mathématiques, si on reprend à chaque fois tout à partir de zéro, on n'avance pas. Pour l'instant, je fais comme ça, et cela ne conviendra sûrement pas à tout le monde.

Assez parlé, on commence les choses sérieuses.

Première approche

Je commence par la construction en tant que solution d'une équation différentielle. Ne fuyez pas quand je dis cela, il n'est pas nécessaire d'avoir des connaissances sur les équations différentielles pour suivre cette partie. Je vais retrouver des propriétés que vous avez certainement déjà vues.

Définition

La définition que je vous donne est la suivante :
La fonction exponentielle, notée $\exp$, est l'unique fonction $f$ dérivable sur $\mathbb{R}$ qui vérifie $f'(x)=f(x)$ pour tout $x\in\mathbb{R}$ et $f(0)=1$.
On dit aussi qu'elle est l'unique solution de l'équation différentielle $y'=y$ sur $\mathbb{R}$ prenant la valeur $1$ en $0$.

Tout de suite, si vous êtes rigoureux, quelque chose devrait vous choquer dans cette définition. Une telle fonction existe-t-elle ? Mon équation différentielle a-t-elle une solution ? Il pourrait très bien n'y en avoir aucune, dans ce cas ma définition ne sert à rien. Ou il pourrait y en avoir plusieurs, à ce moment-là je n'aurais pas défini LA fonction exponentielle. Et en plus, il faudrait dans ce cas préciser un peu mieux à quoi elle ressemble, non ? C'est là tout le problème, il va falloir construire la fonction et montrer qu'il n'y en a qu'une seule. Et c'est difficile, je ne vais pas faire les choses dans l'ordre.

Propriétés

Je suppose d'abord que l'exponentielle existe et est unique comme dans ma définition. Ce sont les seules choses que je sais dessus. Nous allons voir que cette définition suffit déjà à montrer des propriétés intéressantes de l'exponentielle.

Continuité

D'abord, j'ai supposé que la fonction est dérivable sur tout $\mathbb{R}$. Et comme $\exp'=\exp$, alors $\exp'$ est continue aussi, et dérivable, car égale à $\exp$ ! En fait $\exp$ peut être dérivée autant de fois qu'on le veut, toutes ses dérivées étant égales à elle même.

Notez qu'une fonction quelconque n'est pas nécessairement continue sur tout son intervalle de définition, ni dérivable (penser à $x\mapsto\sqrt{x}$ non dérivable en $0$ mais définie sur les réels positifs), et que si sa dérivée existe, celle-ci n'est pas nécessairement continue, ni dérivable, et ainsi de suite... La fonction exponentielle a donc une propriété assez forte, on peut la dériver autant de fois qu'on veut. C'est pratique, cela évite de se poser trop de questions sur la dérivabilité des fonctions qui font intervenir l'exponentielle. Pour information, on dit qu'elle est de classe $\mathcal{C}^{\infty}$ sur $\mathbb{R}$. Plus précisément, de classe $\mathcal{C}^n$ sur un intervalle $I$ signifie « on peut la dériver $n$ fois de suite et la dérivée $n$-ième est continue sur $I$ ». $\mathcal{C}^{\infty}$ signifie $\mathcal{C}^n$ pour $n$ aussi grand qu'on veut.

A partir de maintenant il est sous-entendu que j'étudie la fonction sur $\mathbb{R}$ tout entier.

Signe

Je vais commencer par étudier le signe de la fonction, ce qui devrait être assez facile puisque celui ci est directement relié au signe de la dérivée.

Je vais d'abord montrer que la fonction ne s'annule pas. Pour cela, il y a une astuce qu'on ne peut pas forcément deviner tout seul. Il s'agit de définir la fonction $g$ sur $\mathbb{R}$ par
$g : x\mapsto \exp(x) \times \exp(-x)$
et je vais dériver $g$ en utilisant les propriétés de $\exp$. La dérivée de $x\mapsto \exp(-x)$ est $x\mapsto -\exp'(-x)$ et quand on dérive on obtient :
$g'(x) = \exp'(x)\exp(-x) + \exp(x)(-\exp'(-x)) = \exp'(x)\exp(-x) - \exp(x)\exp'(-x)$
Oui, mais comme $\exp'(x) = \exp(x)$, on en déduit immédiatement
$g'(x)=0$
Cela prouve que $g$ est constante, égale à $g(0)=\exp(0)\exp(-0)=1$. C'est-à-dire, pour tout $x$,
$\exp(x)\exp(-x)=1$
Cette formule prouve que $\exp(x)$ n'est jamais nul et donne même la relation :
$\exp(-x)=\frac{1}{\exp(x)}$

Mais que peut-on dire d'une fonction continue qui ne s'annule pas ? Et bien, elle est de signe constant ! En effet, si elle prenait des valeurs positives et des valeurs négatives alors la fonction, qui est continue, serait bien obligée de passer par $0$ pour relier ces deux valeurs... Il s'agit du théorème des valeurs intermédiaires qui, même si on le sent intuitivement, se démontre.

Et ici comme $\exp(0)$ est strictement positive, on en déduit que l'exponentielle est strictement positive sur $\mathbb{R}$. Sa dérivée est aussi strictement positive, donc l'exponentielle est strictement croissante.

Je vous passe l'étude complète de la fonction (limites, tangentes...), c'est facile quand vous connaissez les propriétés élémentaires. Et si vous avez déjà entendu parler de l'exponentielle, comme je le suppose, vous connaissez forcément sa tête. De toute façon je vous redonne les propriétés quand j'en ai besoin.

Exponentielle d'une somme

Je vais maintenant démontrer une propriété qui sera étudiée de façon plus approfondie dans la partie suivante. Elle dit que l'exponentielle vérifie, pour $x, y\in\mathbb{R}$ :
$\exp(x+y)=\exp(x)\times\exp(y)$

Pour cela, il y a une astuce du même genre que précédemment. Il s'agit de définir la fonction $g_y$ par :
$g_y(x) = \frac{\exp(x+y)}{\exp(x)}$
ce qui a bien un sens car on a dit que $\exp$ ne s'annulait pas. Et on va dériver $g_y$. Il suffit d'appliquer proprement la formule de dérivation d'un quotient :
$g_y'(x) = \frac{\exp'(x+y)\exp(x) - \exp(x+y)\exp'(x)}{\exp(x)^2}$
Et comme $\exp'=\exp$, on trouve immédiatement $g_y'(x)=0$ partout. Cela signifie que la fonction $g_y$ est constante. Il suffit de prendre sa valeur en $0$. C'est
$g_y(0) = \frac{\exp(y)}{\exp(0)} = \exp(y)$
Ensuite, l'égalité valable pour tout $x\in\mathbb{R}$, $g_y(x)=g_y(0)=\exp(y)$ se réécrit immédiatement :
$\exp(x+y)=\exp(x)\exp(y)$
Elle est vraie tous $x,y\in\mathbb{R}$, c'est donc la propriété que l'on voulait. Remarquez qu'on a d'abord fixé $y$, puis travaillé sur $x$, mais cet ordre n'a aucune importance puisqu'on peut choisir $x$ et $y$ de façon indépendante, et donc montrer la propriété pour tous $x,y\in\mathbb{R}$.

Construction par le logarithme

J'ai démontré des choses sur l'exponentielle, mais je n'ai toujours pas dit à quoi ressemblait cette fonction. Je l'ai seulement caractérisé par une de ses propriétés. Je vous propose ici une vraie construction. Mais elle a ses défauts. Il s'agit de commencer par le logarithme, qui est la fonction réciproque de l'exponentielle.

Pour rappel, la fonction exponentielle est définie sur $\mathbb{R}$ à valeur dans $]0,+\infty[$, est continue, avec les limites
$\lim_{x\rightarrow -\infty} \exp(x) = 0$ et
$\lim_{x\rightarrow +\infty} \exp(x) = +\infty$
On dit alors qu'elle réalise une bijection de $\mathbb{R}$ vers $]0,+\infty[$. Intuitivement cela signifie que tous les réels de $]0,+\infty[$ sont atteints une et une seule fois par l'exponentielle. Et on appelle logarithme la fonction réciproque : si je me donne un $y\in]0,+\infty[$, son logarithme est cet unique $x$ tel que $\exp(x)=y$. Cela définit une nouvelle fonction de $]0,+\infty[$ dans $\mathbb{R}$. On dit que le logarithme est la fonction réciproque de l'exponentielle. Mais je peux aussi dire que l'exponentielle est la fonction réciproque du logarithme, c'est pratique. Je vais donc commencer par le logarithme.

Construction du logarithme

On définit la fonction logarithme sur $]0,+\infty[$ par :
$\ln(x) = \int_1^x \frac{\mathrm{d}t}{t}$
Cela donne, d'après les propriétés élémentaires des intégrales et primitives, que la fonction logarithme vérifie $\ln(1)=0$, elle est dérivable et
$\ln'(x) = \frac{1}{x}$

Par une étude de fonction, on voit que la dérivée est strictement positive donc le logarithme est strictement croissant. Il est continu, et on peut montrer qu'il tend vers $-\infty$ en $0$ et vers $+\infty$ en $+\infty$. On dit qu'il réalise une bijection de $]0,+\infty[$ vers $\mathbb{R}$ et on peut introduire sa fonction réciproque, qu'on appelle fonction exponentielle.

On calcule maintenant la dérivée de l'exponentielle, en sachant seulement que c'est la réciproque du logarithme. Pour cela on prend $x,a\in\mathbb{R}$ et on regarde :
$\frac{\exp(x)-\exp(a)}{x-a}$
Comme $\exp$ est une bijection, il existe des nombres $y,b\in\mathbb{R}$ tels que $x=\ln(y), a=\ln(b)$ et on est ramené à
$\frac{y-b}{\ln(y)-\ln(b)}$
Or, comme $\ln$ est dérivable, on sait que, quand $y$ tend vers $b$, la quantité
$\frac{\ln(y)-\ln(b)}{y-b}$
tend vers $\ln'(b) = 1/b$
Et c'est exactement l'inverse de la quantité d'au-dessus. De plus comme $\ln$ (et $\exp$) est continue, il revient au même de dire que $x$ tend vers $a$ ou que $y$ tend vers $b$.

Ainsi :
$\lim_{x\rightarrow a}\frac{\exp(x)-\exp(a)}{x-a} = \lim_{y\rightarrow b} \frac{y-b}{\ln(y)-\ln(b)} = \frac{1}{\ln'(b)} = b$
Or, $a=\ln(b)$ c'est-à-dire $b=\exp(a)$. La limite calculée montre que $\exp'(a)=b=\exp(a)$. On retrouve que la fonction exponentielle est solution d'une équation différentielle. De plus $\exp(0)=1$ car $\ln(1)=0$.

Intérêt

Cette construction se base sur le théorème suivant : toute fonction continue sur un intervalle y admet des primitives. Comme la fonction inverse est continue sur $]0,+\infty[$, on peut définir correctement le logarithme comme au dessus. En théorie, la construction est très rigoureuse, en d'autres termes "ça marche" et j'ai construit explicitement l'exponentielle. Mais vous, savez-vous construire explicitement les intégrales ? Si vous ne savez pas, vous n'êtes pas plus avancés. :p Et ce n'est pas facile, je ne vais pas vous l'expliquer ici. Voilà pourquoi cette construction n'est pas si utile que cela.

Notez qu'au passage, j'ai calculé la dérivée de l'exponentielle en connaissant celle du logarithme. Cela se généralise : on peut facilement calculer la dérivée de l'inverse d'une bijection.
Soit $g$ une bijection dérivable, d'un intervalle $I$ vers $J$, telle que $g'$ ne s'annule pas sur $I$. Alors $g^{-1}$ la réciproque est dérivable et pour $b\in J$$(g^{-1})'(b) = \frac{1}{g'\circ g^{-1}(b)}$

Preuve rapide : on prend $y,b\in J$, on pose $x=g^{-1}(y), a=g^{-1}(b)$ alors $x,a\in I$ et $g(x)=y, g(a)=b$. On calcule $(g^{-1})'(b)$ en faisant tendre $y$ vers $b$ dans
$\frac{g^{-1}(y)-g^{-1}(b)}{y-b} = \frac{x-a}{g(x)-g(a)}$
Alors $x$ tend vers $a$ et le terme de droite vers
$(g^{-1})'(b)=\frac{1}{g'(a)}=\frac{1}{g'\circ g^{-1}(b)}$

Je vous laisse appliquer vous même cette formule soit au logarithme soit à l'exponentielle, on retombe sur les résultats connus.

La fonction qui transforme les sommes en produits

J'ai démontré dans la partie précédente que la fonction exponentielle vérifie $\exp(x+y)=\exp(x)\exp(y)$ pour $x, y \in \mathbb{R}$. Mais cette propriété peut-elle servir de définition ? Je vais l'étudier plus précisément. Je vais montrer qu'il n'y a qu'une seule fonction qui la vérifie, ce qui permettra de définir l'exponentielle comme l'unique fonction ayant cette propriété. Et en même temps, je vais voir qu'avec, on peut démontrer beaucoup de choses et voir à quoi ressemble l'exponentielle.

Définition

Je vous la donne maintenant. La fonction exponentielle est l'unique fonction $f$ qui vérifié pour tous $x,y\in\mathbb{R}$$f(x+y) = f(x)\times f(y)$
dérivable en $0$ et telle que $f'(0)=1$.

Comme je vous l'ai dit, je vais montrer qu'il n'y a qu'une seule fonction qui vérifie cette propriété. Soit donc $f$ une telle fonction, nous allons chercher tout ce que nous pouvons dire sur $f$ jusqu'à arriver à la conclusion que $f$ est définie de façon unique. Ce sera alors celle-là, l'exponentielle.

Dérivation

Je vais d'abord montrer que $f$ est dérivable partout. Mais d'abord, j'ai besoin d'un petit résultat intermédiaire.

Préliminaire : valeur en $0$

Si on remplace $x$ et $y$ par $0$, on obtient $f(0+0)=f(0)f(0)$ soit $f(0)=f(0)^2$$f(0)$ est alors solution de l'équation de degré 2 $x^2-x=0$. Et depuis que vous avez appris à les résoudre, vous adorez ces équations, non ?

Citation : des lycéens

Facile ! on pose $a=1,b=-1,c=0$ et on est ramené à l'équation $ax^2+bx+c = 0$ dont les solutions sont, si $b^2-4ac \geq 0$ :
$x=\frac{-b\pm\sqrt{b^2-4ac}}{2a}$
qui donne ici, après un calcul difficile, $0$ et $1$

Non, non et non ! :colere2: J'ai vu de mes propres yeux des élèves de lycée utiliser cette méthode pour résoudre une équation si simple. On commence toujours par regarder la tête de l'équation, et on utilise la méthode générale du discriminant seulement si elle a l'air trop compliquée ! Ici $0$ et $1$ sont évidemment solutions, et comme on en a deux au degré 2, ce sont les deux seules. Il reste à déterminer laquelle de ces valeurs convient pour $f(0)$.

Que se passe-t-il si $f(0) = 0$ ? Je peux vous montrer que $f$ est partout nulle :
$f(x) = f(x+0) = f(x)f(0) = 0$
En particulier, $f$ est dérivable et sa dérivée vaut $0$ partout. Ce qui est exclu car on a dans la définition $f'(0)=1$.
Cela permet de conclure que la solution $f(0)=0$ doit être éliminée, et donc que $f(0)=1$.

Il est tout aussi facile de montrer que $f$ ne s'annule jamais en un point $x_0$, sinon elle est partout nulle. Si on avait $f(x_0)=0$, on aurait pour tout $x$$f(x) = f((x-x_0)+x_0) = f(x-x_0)f(x_0) = 0$
Enfin, je vous dis que $f$ est strictement positive car
$f(x)=f(x/2+x/2)=f(x/2)^2 > 0$
le carré étant positif et $f(x/2)\neq0$.

Calcul de la dérivée

Ces préliminaires et la définition sont suffisants pour montrer que $f$ est dérivable partout, de dérivée égale à elle même. Il faut seulement se souvenir de la définition de la dérivée de $f$ en $x$. C'est, quand elle existe, la limite pour $h\rightarrow 0$ de
$\frac{f(x+h)-f(x)}{h}$
Mais, comme $f$ transforme les sommes en produit, ceci peut s'écrire
$\frac{f(x)f(h) - f(x)}{h} = f(x)\frac{f(h)-1}{h}$
Et là, on reconnait à droite
$\frac{f(h)-1}{h} = \frac{f(h)-f(0)}{h}$ qui tend précisément vers $f'(0) = 1$. Donc on conclut
$\lim_{h\rightarrow 0} \frac{f(x+h)-f(x)}{h}=f(x)$
Ceci prouve que $f'(x)=f(x)$ pour tout $x\in\mathbb{R}$. De plus $f'(0)=1$ est dans la définition.

On retombe sur nos pieds, on a retrouvé la définition donnée dans la première partie ! Je pourrais m'arrêter là et dire : $f$ est la fonction $\exp$ de la première partie. Mais ma première partie ne prouvait pas clairement l'unicité, donc je vais la faire ici et étudier plus profondément $f$. Malgré tout j'ai prouvé que deux définitions de l'exponentielle étaient équivalentes. Que l'on accepte l'une ou l'autre, la deuxième est une conséquence de la première, et tout résultat démontré à partir d'une définition peut être démontré à partir de l'autre.

Au passage, $f$ est continue sur tout $\mathbb{R}$ car elle y est dérivable.

Une extension de la fonction puissance

Je vais regarder de plus près ce que nous dit la propriété $f(x+y)=f(x)\times f(y)$ et quelles sont ses conséquences immédiates.

Valeurs sur $\mathbb{N}$

Je commence par étudier la fonction sur les nombres entiers, ce qui est assez facile. Je pose $e=f(1)$. On ne sait à ce stade rien sur $e$ si ce n'est que c'est un réel strictement positif. Je peux ensuite calculer $f(2)$ :
$f(2) = f(1+1) = f(1)f(1) = e\cdot e = e^2$ puis
$f(3) = f(2+1) = f(2)f(1) = e^2\cdot e = e^3$$\dots$$f(n) = f((n-1)+1) = f(n-1)f(1) = e^{n-1}\cdot e = e^n$
Les trois petits points cachent un raisonnement par récurrence, mais tout le monde a compris comment ça marche. $f$ est une fonction puissance sur $\mathbb{N}$.

Je vous fais remarquer aussi que je n'ai pas encore dit $\exp(n)=e^n$, ce sont deux choses différentes. A gauche j'ai la fonction exponentielle qui est définie sur tous les réels, c'est une fonction donc je mets le $n$ entre parenthèses. A droite, il s'agit seulement de la notation puissance pour $e=f(1)$, car écrire $e^x$ n'a pas (encore) de sens pour un $x$ quelconque. Il ne faut pas confondre exponentielle et puissance de $e$ tant que je n'ai pas prouvé que cela revenait au même, ce qui arrivera d'ici la fin de cette partie.

Valeurs sur $\mathbb{Z}$

Enfin, il faut aussi voir que
$f(0)=1=f(n-n)=f(n)f(-n)$ donc
$f(-n) = \frac{1}{f(n)}$ donc
$f(-n) = \frac{1}{e^n} = e^{-n}$
Finalement, si $n$ est négatif, la formule $f(n)=e^n$ est encore vraie. C'est-à-dire, elle est vraie pour tous les entiers relatifs, et cela prouve que $f$ coïncide sur $\mathbb{Z}$ avec les puissances de $e$.

Valeurs sur $\mathbb{Q}$

Je commence par introduire $r$ un rationnel, il s'écrit $r = \frac{p}{q}$ avec $p\in\mathbb{Z}, q\in\mathbb{N}, q\neq 0$. Que vaut $f(r)$ ?

Par le même raisonnement que dans $\mathbb{N}$, on voit facilement que
$f\left(\frac{p}{q}\right) = f\left(\frac{1}{q}\right)^p$ car
$f\left(\frac{p}{q}\right) = f\left(\frac{1}{q} + \frac{1}{q} + \cdots + \frac{1}{q}\right) = f\left(\frac{1}{q}\right)\times f\left(\frac{1}{q}\right)\times\cdots\times f\left(\frac{1}{q}\right) = f\left(\frac{1}{q}\right)^p$ (il y a $p$ termes)

Il reste à calculer $f(1/q)$, sachant qu'il vérifie, en appliquant la propriété ci-dessus à $p = q$ :
$f\left(\frac{1}{q}\right)^q = f\left(\frac{q}{q}\right) = f(1) = e$

Autrement dit, $f(1/q)$ est une racine $q$-ième de $e$. Cela a un sens précis ! Rappelez-vous en effet comment on définit la racine carré (ce qui correspond au cas $q=2$). On montre que la fonction $x\mapsto x^2$ est continue et strictement croissante de $[0,+\infty[$ dans $[0,+\infty[$, ce qui se voit bien. Un théorème nous affirme donc que c'est une bijection, c'est-à-dire, pour tout réel $y \geq 0$ il existe une unique $x\geq 0$ tel que $x^2=y$. $x$ est alors appelé la racine carré de $y$, et il n'y en a qu'une seule.

Ici, le raisonnement est exactement le même pour la racine $q$-ième car la fonction $x\mapsto x^q$ est aussi continue et strictement croissante. Souvenez-vous juste que $q$ est un entier plus grand que $1$.

On peut donc poser $f(1/q)=e^{1/q}$ qui va vérifier
$\left(e^{1/q}\right)^q = e$ et par suite
$f\left(\frac{p}{q}\right) = e^{p/q} = \left(e^{1/q}\right)^p$
De plus cela donne un sens précis à la notation puissance (d'un réel positif) avec un exposant rationnel, au cas où vous ne saviez pas ce que cela représente.

Maintenant on est content, on fait une petite pause, on reprend notre souffle... Pourquoi ? Je cherchais à prouver l'unicité de la solution de $f(x+y)=f(x)\times f(y)$ et $f'(0)=1$. Je viens de démontrer que, si on se limite à des $x,y$ rationnels, il ne peut y en avoir qu'une seule. C'est celle qui étend la fonction puissance de $e$. En plus de montrer l'unicité, on voit à quoi ressemble l'exponentielle sur les rationnels ! Il nous reste une dernière étape, et pas des moindre : le passage à tous les nombres réels. Mais au fait, que savez-vous sur les réels ? ^^

Valeurs sur $\mathbb{R}$

Un réel quelconque ne peut pas toujours s'écrire comme un quotient de deux entiers. Par contre, on a une propriété très importante. Et quand je dis très importante, c'est qu'on peut la voir comme une construction des réels. Il est limite d'une suite de rationnels. Prenons par exemple $\sqrt{2} \approx 1,414213\dots$
La suite de rationnels apparait facilement comme la suite des développements décimaux :
$\begin{array}{l}u_0 = 1\\u_1 = 1,4\\u_2 = 1,41\\u_3 = 1,414\\u_4=1,4142\\\dots\end{array}$

Pour tout réel $x$, je construis la suite de rationnels : au rang $n$, $u_n$ est le développement décimal de $x$ avec $n$ chiffres après la virgule. C'est une suite de rationnels qui converge vers $x$. Cette propriété est souvent résumée par la formulation « les rationnels sont denses dans les réels » ce qui signifie intuitivement que les rationnels sont "bien répartis" entre les réels, il y en a "partout" entre eux. Alors que les rationnels sont moins nombreux que les réels, il y en a assez pour qu'en prenant un réel $x$ quelconque, on puisse trouver des rationnels de plus en plus proches de $x$.

Comme $f$ est continue, on doit nécessairement avoir $f(u_n)=e^{u_n}$ qui tend vers $f(x)$ pour $n\rightarrow +\infty$. Et il est logique de noter cette valeur $e^x$. En particulier cela donne un sens précis à la notation puissance pour un exposant irrationnel, ce qui n'a rien d'évident quand on vous dit que $e^n$, c'est le produit de $e$ par lui même $n$ fois. ^^

Cette remarque prouve l'unicité de $f$ vérifiant $f(x+y)=f(x)\times f(y)$ et $f'(0)=1$ sur tous les réels. Pour prouver l'unicité de la solution, il suffit de prouver que si j'ai deux fonctions $f$ et $g$ solutions, alors $f=g$. Or j'ai déjà $f(x)=g(x)$ pour $x$ rationnel car j'ai dit que sur les rationnels il y avait une unique solution. Si $x$ est réel, il suffit de prendre une suite $(u_n)$ de rationnels convergeant vers $x$, et par unicité sur les rationnels $f(u_n)=g(u_n)$. Puis pour $n$ tendant vers l'infini, l'égalité des limites donne $f(x)=g(x)$. Donc il n'y a qu'une solution.

Comme la solution est unique, je peux enfin l'appeler $\exp$ ce qui la définit. Notez cependant que ma définition ne permet pas directement de la calculer, par exemple je n'ai rien dit sur $e$ à part $e=f(1)$. Dans la troisième partie, je vais donner une définition beaucoup plus explicite.

Note culturelle

On dit que la fonction $f$ qui vérifié $f(x+y)=f(x)\times f(y)$ est un morphisme, car elle "transforme" les sommes en produits. En plus, le morphisme ici correspond à une bijection, on appelle cela un isomorphisme. Les isomorphismes sont très importants en algèbre, où l'on étudie beaucoup les ensembles sur lesquels on peut faire des opérations. Depuis que vous êtes petits, on vous dit qu'il y a deux opérations importantes, l'addition et la multiplication, et vous avez déjà remarqué qu'elles ont des comportements similaires. L'exponentielle permet de montrer que d'un certain point de vue, calculer avec des additions sur les réels ou des multiplications sur les réels strictement positifs, c'est la même chose. Et découvrir de telles analogies, c'est très important en mathématiques. Cela apporte une nouvelle vision des objets. Dans certains cas, une fois qu'on a démontré un théorème sur les additions, on peut facilement le transporter sur les multiplications. A tel point que les mathématiciens raisonnent souvent "à isomorphisme près", c'est-à-dire : on s'en fiche de faire des additions ou des multiplications, les règles sont les mêmes. Du moment qu'on ne mélange pas les deux, bien sûr, et je répète, qu'on multiplie les nombres strictement positifs.

Quand on se donne une propriété comme celle du début et qu'on cherche toutes les fonctions solutions, on dit qu'on a une équation fonctionnelle. Dans cette partie j'ai donné quelques idées générales pour étudier des équations fonctionnelles : regarder les valeurs en $0$ et $1$, puis chercher ses valeurs sur les entiers, essayer de généraliser aux rationnels et aux réels. Si vous avez bien compris, vous saurez faire cet exercice simple :

Citation : exercice

Trouver toutes les fonctions continues $f : \mathbb{R}\rightarrow\mathbb{R}$ telles que :
$f(x+y) = f(x)+f(y)$

Il y a deux méthodes principales, une longue qui reprend toute la méthode développée dans cette partie, et une très rapide et astucieuses avec les quelques idées ci-dessus... Je vous laisse quand même des indications.

Avec la première méthode, on prouve que $f(0)=0$, on pose $a=f(1)$, on montre que $f(x)=ax$ pour $x$ dans $\mathbb{N}$ puis $\mathbb{Z}$ puis $\mathbb{Q}$ puis $\mathbb{R}$.

Avec la deuxième, on pose $g=\exp\circ f$ pour transformer la somme en produit. Quelle est l'équation vérifée par $g$ ? Pour avoir l'idée d'une telle méthode, il faut avoir en tête mon discours sur les isomorphismes.

Exercice et rédaction laissés au lecteur ! Comme disent les profs qui ont la flemme de corriger eux même. :p

Une définition plus explicite

Je vais maintenant introduire quelques nouvelles notions qui permettent de donner une définition beaucoup plus explicite de l'exponentielle. Jusque là, j'ai manipulé une équation différentielle et une équation fonctionnelle. C'est mignon, mais ça ne nous dit toujours pas comment on fait pour calculer l'exponentielle. Je vous ai montré qu'on peut y arriver avec le logarithme et des intégrales, mais ce n'est pas le plus pratique. Et pourquoi j'ai fait tout ça ? Parce que ce qui va suivre dans cette partie nécessite de gros pré-requis, que je ne pourrai même pas vous expliquer en entier ! Désolé de vous décevoir :'( il va falloir me faire confiance.

Notations et préliminaires

J'ai besoin des deux notions ci dessous, dont vous avez sans doute entendu parler.

Série

Soit $(u_k)_{k\in\mathbb{N}}$ une suite de réels. On définit une nouvelle suite, pour $n\in\mathbb{N}$ :
$S_n = \sum_{k=0}^n u_k = u_0 + u_1 + \cdots + u_n$
C'est simple, pour passer de $S_{n-1}$ à $S_n$, on ajoute $u_n$. Je dis que $u_n$ est le terme général de la série, $S_n$ la suite des sommes (ou sommes partielles).

Si la suite $(u_n)$ converge vers 0, on somme des termes de plus en plus petits, et il peut alors se passer deux choses. Il est possible que la somme d'une infinité de termes de plus en plus petits donne une valeur finie. Prenons tout de suite un exemple, par la formule de somme des termes successifs d'une suite géométrique
$\sum_{k=1}^n \frac{1}{2^k} = \frac{1}{2} + \frac{1}{4} + \cdots + \frac{1}{2^n} = \frac{\frac{1}{2}-\frac{1}{2^{n+1}}}{1-\frac{1}{2}} = 1-\frac{1}{2^{n}}$
et comme
$\lim_{n\rightarrow +\infty}1-\frac{1}{2^{n}} = 1$
on peut écrire
$\sum_{k=1}^{+\infty} \frac{1}{2^k} = 1$
On dit que la série converge. La limite de la suite des sommes, je l'appelle la somme de la série (ou somme totale).

Ce problème a une interprétation concrète : imaginez que je marche en ligne droite, je fais des pas de plus en plus petits. Si je parcours $1/2$ mètre, puis $1/4$ de mètre, puis $1/8$ de mètre puis... Je parcours quelle distance ? Je me rapproche de plus en plus d'un mètre, car à chaque fois je divise par deux la distance qu'il reste à parcourir. Et intuitivement, après une infinité de pas, j'ai parcouru exactement un mètre. Pendant des siècles des mathématiciens et philosophes se sont cassé la tête là-dessus (voir : Paradoxes de Zénon sur wikipedia), et de nos jours nous avons des définitions précises sur les limites des suites et la convergence des séries.

Mais les séries ne convergent pas toutes, même quand leur terme général (c'est à dire la suite $(u_n)$) converge vers $0$ et devient de plus en plus petit. La convergence, c'est un sujet très compliqué, croyez moi. Si je somme les $1/n$ pour $n\geq1$ jusqu'à l'infini, la suite des sommes augmente lentement et ne converge jamais. Je vous laisse lire cet article wikipédia. Leur partie "équivalent de $H_n$" prouve en particulier qu'on peut encadrer la série par des logarithmes, qui tendent vers l'infini mais très lentement. Cela signifie que si j'avance de $1$ mètre puis $1/2$ puis $1/3$ puis... je peux aller aussi loin que je veux. Même si cela me prend beaucoup d'étapes, environ $\exp(n)$ étapes pour parcourir $n$ mètre. On dit que la série diverge.

Cependant, si je somme les $1/n^2$, ça converge ! On a même la formule (je la mets là uniquement parce qu'elle est jolie)
$\sum_{n=1}^{+\infty}\frac{1}{n^2} = \frac{\pi^2}{6}$
Je ne peux pas tellement vous l'expliquer. Les $1/n^2$ sont plus petits que les $1/n$ donc tendent plus vite vers $0$, c'est clair. Assez pour que la série converge, alors qu'elle diverge pour les $1/n$.

Et que se passe-t-il si je somme les $1/n^3$ ? Ils sont plus petits que les $1/n^2$, donc on peut penser que ça converge encore mieux. Cela nécessite un petit théorème. Vous devez savoir que si on se donne une suite croissante de réels, il peut se passer deux choses. Soit elle est majorée est dans ce cas elle converge, soit elle n'est pas majorée et tend vers l'infini. Il s'agit là encore d'une propriété très importante des nombres réels. Si vous n'êtes pas convaincu, je vous dis : faites un dessin de suites réelles croissantes. Que pourrait-il arriver d'autre ? Avec cet argument, vous n'avez plus rien à dire. :D

Ce petit théorème a une application directe aux séries. Il suffit de remarquer que pour une suite de sommes $S_n=\sum_{k=0}^n u_k$ où les $u_k$ sont des termes positifs, la suite $(S_n)$ est croissante. Donc, dès que la série est majorée, elle converge. Dans notre cas particulier, on a les majorations :
$\sum_{k=1}^n \frac{1}{k^3} \leq \sum_{k=1}^n \frac{1}{k^2} \leq \sum_{k=1}^{+\infty} \frac{1}{k^2}$
La première inégalité s'obtient terme à terme. La seconde est une majoration de la suite des $(S_n)$ qui est croissante par sa limite. La suite des sommes des $1/k^3$ est croissante et majorée, donc la somme converge. Dans le cas général, dès que je majore le terme général d'une série $(S_n)$ à termes positifs par celui d'une série convergente, alors la série $(S_n)$ converge.

Ce que vous devez comprendre, c'est qu'une fois qu'on a prouvé qu'une série convergeait, on ne peut pas toujours calculer la valeur de la somme infinie. On sait juste que c'est un réel bien défini, en tant que limite d'une suite croissante et majorée de réels. C'est ainsi que les séries permettent d'inventer de nouveaux nombres. On ne peut pas forcément les exprimer avec nos fonctions usuelles, mais on peut les approcher en sommant les premiers termes de la série. Ci dessus, on a on nouveau nombre réel dont la définition est
$\sum_{n=1}^{+\infty} \frac{1}{n^3}$

Enfin, ces méthodes permettent de ramener l'étude d'une série à des séries de référence dont on connaît le comportement. Puis, pour une série quelconque, on tente de la comparer aux séries de référence avec des inégalités. En particulier je vous ai dit que la somme des $1/n^2$ converge, et c'est aussi vrai pour les $1/n^k$ avec un réel $k>1$. Et la somme d'une suite géométrique $a^n$ converge dès que $a<1$, le calcul étant le même que celui que j'ai fait pour $a=1/2$ :
$\sum_{k=0}^n a^k = \frac{1-a^{n+1}}{1-a}$
et comme $a<1$ j'ai
$\lim_{n\rightarrow +\infty}a^{n+1} = 0$
d'où
$\sum_{k=0}^{+\infty} a^k = \frac{1}{1-a}$
Vous n'êtes pas obligé de retenir cette formule, mais le fait qu'il y a convergence pour $a<1$ sera utile.

Factorielle

Pour un entier $n > 0$, on note $n!$ (lire « $n$ factorielle », mais certains diront « factorielle $n$ », et on voit souvent écrit « factoriel ») le produit des entiers compris entre $1$ et $n$, c'est à dire $n\times(n-1)\times(n-2)\times\dots\times2\times1$. On pose par convention $0!=1$. On a la relation de récurrence $n(n-1)!=n!$.

Calculons, une fois pour toutes, la dérivée de la fonction
$x\mapsto \frac{x^n}{n!}$
Si $n=0$, la fonction vaut constamment $1$ donc sa dérivée vaut $0$.
Si $n=1$, la fonction est $x\mapsto x$ de dérivée $x\mapsto 1$.
Pour $n$ quelconque, on calcule simplement la dérivée :
$x\mapsto \frac{nx^{n-1}}{n!} = \frac{x^{n-1}}{n!/n} = \frac{x^{n-1}}{(n-1)!}$
Facile ! Et remarquez de même que le terme
$x\mapsto \frac{x^n}{n!}$
a une primitive en
$x\mapsto \frac{x^{n+1}}{(n+1)!}$

Définition

La voici la voilà, la définition la plus explicite de la fonction exponentielle : pour $x\in\mathbb{R}$$\exp(x) = \sum_{k=0}^{+\infty}\frac{x^k}{k!}$
Simple, rapide, efficace, cette définition se passerait presque de commentaires...

Propriétés

... mais je vais quand même la commenter un peu, je suis là pour ça après tout. :D

Convergence

D'abord, il s'agit d'une série qui est définie avec un paramètre $x\in\mathbb{R}$ qui peut varier. Ce qui s'interprète immédiatement comme une fonction de $x$, où pour chaque $x$, il faut calculer la somme d'une série. On peut aussi le voir, je vous le dis au passage, comme une somme infinie de fonctions. Mais quel que soit le sens, il faut prouver au moins que pour tout $x$, la série est convergente, ce qui prouvera qu'on a défini une fonction sur $\mathbb{R}$.

Je vais d'abord tenter de prouver la convergence pour $x\in\mathbb{N}$. Ecrivons correctement le terme général. Comme je m'intéresse à ce qui se passe pour $n$ tendant vers $+\infty$ je peux en particulier supposer que $n$ est beaucoup plus grand que $x$.
$\frac{x^n}{n!} = \frac{x}{1} \times \frac{x}{2} \times \cdots \times \frac{x}{x} \times \frac{x}{x+1} \times \cdots \times \frac{x}{n}$
Au milieu il y a un terme $x/x$ qui vaut $1$. A gauche, j'ai $x-1$ termes dont les dénominateurs sont inférieurs à $x$ donc les termes sont strictement plus grands que $1$. A droite, j'en ai $n-x$ et ils sont strictement plus petits que $1$. En particulier comme j'en ai un nombre fini à gauche je pose
$C = \frac{x}{1} \times \frac{x}{2} \times \cdots \times \frac{x}{x}$
et je remarque que je peux majorer chacun des termes à droite de $x/x$ par $x/(x+1)$. Cela provient du fait que pour $n \geq x+1$ j'ai $x/n \leq x/(x+1)$. Il vient ensuite :
$\frac{x^n}{n!} = C \times \frac{x}{x+1} \times \cdots \times \frac{x}{n}$$\frac{x^n}{n!} \leq C \times \frac{x}{x+1} \times \cdots \times \frac{x}{x+1}$$\frac{x^n}{n!} \leq C \times \left(\frac{x}{x+1}\right)^{n-x}$

Or, j'ai $x/(x+1)<1$. Cela prouve déjà que $x^n/n!$ tend vers $0$ en $+\infty$. Et si je somme, la série de droite converge car il s'agit, à quelques détails près qui ne sont pas gênants, d'une suite géométrique de raison $x/(x+1)$ strictement inférieure à $1$. J'ai majoré $x^n/n!$ par le terme d'une série convergente ce qui prouve, d'après mon introduction aux séries, que la série des $x^n/n!$ est convergente.

Si $x$ est un réel positif, c'est aussi facile. On a toujours un entier $p$ tel que $x<p$ donc $x^n/n!<p^n/n!$ donc la série de l'exponentielle, qui converge pour $p$, va aussi converger pour $x$.

Remarquez que j'aurais aussi pu majorer par $x/(x+2)$ en faisant rentrer le terme $x/(x+1)$ dans ma constante $C$. J'aurais majoré par une suite géométrique de raison un peu plus petite, donc qui tend plus vite vers $0$. Et j'aurais même pu majorer par un $x/N$ pour un $N$ aussi grand que je veux, en faisant rentrer encore plus de termes dans $C$. En ce sens vous voyez que la convergence est très forte, je peux majorer par des séries géométriques de raison aussi petite que je veux.

Le vrai problème se pose si $x$ est négatif. Je me contenterai de vous dire que $x^n/n!$ est aussi petit que $|x|^n/n!$, c'est à dire très petit pour $n$ assez grand. Et donc, même en sommant alternativement des termes positifs et négatifs, les termes sont assez petits pour faire converger la somme. C'est un peu comme si je vous disais : je marche sur une droite, mais cette fois je peux faire des pas en avant ou en arrière. Les pas sont tellement petits qu'à partir d'un moment, je ne pourrai plus beaucoup m'éloigner et même, je vais me rapprocher d'un point et converger. Peu importe le sens de mes pas, leur taille est trop petite.

Remarques immédiates

D'abord on remarque que $\exp(0)=1$, car $x^0/0!=1$ pour $x=0$ et les autres termes sont nuls en $0$.

Ensuite, j'ai une définition de $e$ :
$e = \sum_{k=0}^{+\infty} \frac{1}{k!}$
Et cela donne, à peu de choses près, une méthode pour le calculer. En sommant le plus de termes possibles, jusqu'à ce qu'on en ait marre (ça fatigue de calculer une infinité de termes :p ). On trouve $e\approx2,718281\dots$

On peut même calculer l'exponentielle. Mais si $x$ est très grand, ce n'est pas facile. Par contre, si $x$ est proche de $0$ alors $x^2$ en sera très proche. Et $x^3$ sera très très proche de $0$. L'exponentielle de $x$ sera donc très proche de la somme des premiers termes.
Par exemple ma calculatrice donne :
pour $x=0,01$$\exp(x)\approx 1.01005016\dots$$1+x=1,01$$1+x+x^2/2=1,01005$
L'approximation est d'autant meilleure que $x$ est proche de $0$ et qu'on prend plus de termes pour le calcul.

Dérivation

Vous savez que pour dériver une somme de fonctions, on dérive chaque terme de la somme. Pour des fonctions $f$ et $g$, la dérivée de $f+g$ est $f'+g'$ et c'est pareil si on a plusieurs fonctions, et si on écrit la somme avec un symbole $\sum$. On admet qu'ici, dans ce cas, on a le droit de le faire avec une somme infinie. Alors :
$1$ se dérive en $0$$x$ se dérive en $1$$x^2/2$ se dérive en $x$$x^3/6$ se dérive en $x^2/2$$\dots$
Je vous l'avais dit, $x^n/n!$ se dérive en $x^{n-1}/{(n-1)!}$. En fait pour tout $n > 0$ :
$x\mapsto \sum_{k=0}^{n}\frac{x^k}{k!}$ se dérive en $x\mapsto \sum_{k=0}^{n-1}\frac{x^k}{k!}$
Si bien qu'avec une somme infinie, $\exp'=\exp$.

Produit

Je vais maintenant calculer $\exp(x)\exp(y)$. J'écris le produit des deux sommes :
$\left(\sum_{i=0}^{+\infty}\frac{x^i}{i!}\right)\left(\sum_{j=0}^{+\infty}\frac{y^j}{j!}\right)$
Imaginez que je développe tout, comme si les sommes étaient finies. J'ai une somme de termes en
$\frac{x^i y^j}{i!j!}$
pour toutes les valeurs possibles de $i$ ET de $j$, entiers naturels. On peut le voir en disant qu'on développe d'abord $x^0$ qui se multiplie avec chacun des termes de $\exp(y)$, puis de même avec $x^1$ puis $x^2$...
j'ai ainsi
$\exp(x)\exp(y) = \sum_{i\in\mathbb{N}, j\in\mathbb{N}} \frac{x^i y^j}{i!j!}$
Regroupons intelligemment les termes dans la somme. On les regroupe selon la valeur de $i+j$ qui sera notée $k$. Chaque regroupement s'écrit :
$\sum_{i\in\mathbb{N}, j\in\mathbb{N}, i+j=k}\frac{x^i y^j}{i!j!}$
Ou encore, comme $j=k-i$$\sum_{i=0}^k} \frac{x^i y^{k-i}}{i!(k-i)!}$
Maintenant, on somme pour toutes les valeurs possibles de $k$, ce qui correspond bien à l'idée qu'on a regroupé les termes selon la valeur de $i+j$ :
$\exp(x)\exp(y) = \sum_{k=0}^{+\infty} \left(\sum_{i=0}^k} \frac{x^i y^{k-i}}{i!(k-i)!}\right)$
Là, vous devez connaitre votre cours. On sait en effet que (formule dite du binôme de Newton)
$(x+y)^k=\sum_{i=0}^{k}{k\choose i}x^i y^{k-i}$ avec ${k\choose i} = \frac{k!}{i!(k-i)!}$
On retrouve exactement
$\sum_{i=0}^k} \frac{x^i y^{k-i}}{i!(k-i)!}=\frac{1}{k!}(x+y)^k$
Et par suite
$\exp(x)\exp(y) = \sum_{k=0}^{+\infty} \frac{(x+y)^k}{k!}=\exp(x+y)$

C'est beau, non ? Ce calcul du produit marche parce que la série qui définit l'exponentielle a une forme particulière, sur laquelle je vais dire quelques mots. Peut-être que cela vous fait penser à des polynômes, et ce n'est pas un hasard.

Série entière

On appelle série entière une fonction définie par une série, de la forme
$x\mapsto\sum_{k=0}^{+\infty} a_k x^k$
Avec une suite $(a_k)$ réelle. Les séries entières permettent de définir beaucoup de nouvelles fonctions et on sait que pour les étudier, il suffit d'étudier la suite $(a_k)$. De plus elles ont des propriétés de convergence assez fortes. Elles peuvent par exemple se dériver terme à terme, on sait en faire le produit comme je l'ai fait. Elles permettent de généraliser ce qu'on connaît sur les polynômes. Que se passe-t-il si $a_k=0$ pour $k>n$ ? La série entière est un polynôme de degré (au plus) $n$. Et les polynômes, c'est facile, on les étudie depuis très longtemps. L'exponentielle, c'est comme un polynôme mais qu'on autorise à avoir une infinité de coefficients.

Si je vous avais demandé de construire un polynôme qui se dérive en lui même, vous auriez dit « impossible, si on le dérive, le degré diminue ». Mais s'il a une infinité de coefficients cela devient possible, et c'est même naturel. On commence par dire « je mets un $1$ pour que $\exp(0)=1$ » puis « je mets un $x$ qui se dérive en $1$ » puis « je mets un $x^2/2$ pour avoir $x$ » ... vous comprenez. Et avec ces idées, on peut même résoudre certaines équations différentielles, en supposant que la solution est une série entière, et on en déduit les coefficients.

Extension de l'exponentielle

Les séries entières comme ci dessus peuvent être définies dans des cadres plus généraux. Elles permettent aussi d'inventer des nouvelles fonctions avec de bonnes propriétés.

Extension

Regardez bien la définition. Si je remplace $x\in\mathbb{R}$ par $x\in\mathbb{C}$, ça change quoi ? Presque rien ! On peut définir l'exponentielle sur des objets du moment qu'on peut faire des produits, des sommes, multiplier par des $1/n!$, et sommer à l'infini. C'est le cas, en particulier, des nombres complexes. Pour la convergence, remarquez que $x^n/n!$ est toujours aussi petit, que $x$ soit positif, négatif ou complexe. En fait il faut regarder le module du terme, c'est $|x^n/n!|=|x|^n/n!$. L'argument du complexe, lui, correspond à une sorte de direction. Imaginez que je fais des pas dans le plan complexe. Je suis en train de vous dire que les pas sont si petits qu'à partir d'un moment je ne peux plus trop m'éloigner et je vais finir par me rapprocher d'un point. Exactement comme quand je suis passé de la convergence pour les réels positifs (des pas tous dans la même direction) à celle pour les négatifs (un pas un avant, un en arrière). Et ça marche encore quand je fais des pas dans n'importe quelle direction. C'est en ce sens que la convergence est très forte. J'ai oublié de préciser, la convergence d'une suite complexe, c'est justement le fait de se rapprocher d'un point sur le plan complexe. C'est aussi la convergence des parties réelles et imaginaires en même temps. Formellement, la suite de complexes $(z_n)$ converge vers $z$ quand la suite (réelle) des distances à $z$, qui est la suite des $|z_n - z|$, converge vers $0$.

On peut aussi définir l'exponentielle sur des matrices carrées, si vous connaissez. La puissance correspond au produit de matrices, qui n'est pas le produit des coefficients deux à deux. De même l'exponentielle d'une matrice n'est pas l'exponentielle de chaque coefficient.

En particulier la notation $e^{i\theta}$ a un sens très précis, c'est l'exponentielle (au sens de la série) du complexe $i\theta$.

De nouvelles définitions

On définit alors :
$\cos(x)=\frac{\exp(ix)+\exp(-ix)}{2} = \sum_{k=0}^{+\infty} (-1)^k\frac{x^{2k}}{(2k)!}$$\sin(x)=\frac{\exp(ix)-\exp(-ix)}{2i} = \sum_{k=0}^{+\infty} (-1)^k\frac{x^{2k+1}}{(2k+1)!}$

La somme de droite s'obtient en calculant, les termes avec des puissances de $-1$ ou $i$ ou $-i$ vont soit s'annuler, soit se sommer et on divise ensuite par $2$ ou $2i$. Ce ne sont rien d'autre que les parties réelles et imaginaires de l'exponentielle. La formule suivante est donc évidente :
$e^{i\theta}=\cos(\theta)+i\sin(\theta)$
Et elle permet de déduire de nombreuses formules de trigonométrie.

Avec ces formules de développement de sinus et cosinus en séries entières, on peut calculer de très bonnes approximations de $\cos(x), \sin(x)$ quand $x$ est très proche de $0$. Ainsi :
$\cos(x)\approx 1-x^2/2$$\sin(x)\approx x - x^3/6$
Ou encore $\sin(x)\approx x$ que vous avez peut-être rencontré au détour d'un cours de physique, car elle permet de remplacer le sinus par une fonction plus simple. Et pour les physiciens, dès qu'on dépasse les fonctions basiques comme $x\mapsto x$, c'est trop difficile. :-°
Intuitivement, ces approximations permettent de remplacer des fonctions compliquées par des polynômes, et tant qu'on reste très proche de $0$ ça marche bien. On dit que ce sont des développements limités en $0$.
Essayez avec votre calculatrice, pour différents $x$ de plus en plus petits, et s'il le faut en ajoutant plus de termes à la somme.

On peut démontrer que les fonctions ainsi définies sont périodiques. On définit $\pi$ comme le plus petit réel positif tel que $\cos(\pi)=-1$. La formule suivante tombe alors sous le sens :
$e^{i\pi}=-1$
Pas mal non ? L'une des plus belles formules mathématiques. C'est à peu de choses près une définition de $\pi$ qui suit celle de l'exponentielle complexe. Et pas une notation étrange « $i$ est un nombre imaginaire, il n'existe pas, on l'a inventé pour que ça marche... » comme on l'explique parfois aux petits.

Obtention de la série à partie de l'équation différentielle

Ceux qui ont peur des grosses formules, cachez-vous les yeux ! Et ceux qui veulent toujours savoir pourquoi mon équation différentielle du tout début a une solution, je vais enfin vous montrer.

Equation intégrale

Je pars de $\exp' = \exp$ et $\exp(0)=1$. Si j'intègre la première égalité entre $0$ et $x\in\mathbb{R}$, j'obtiens :
$\int_0^x \exp'(t)\,\mathrm{d}t = \int_0^x \exp(t)\,\mathrm{d}t$
le membre de gauche est égal à
$\exp(x) - \exp(0)$
on a ainsi
$\exp(x) = 1 + \int_0^x \exp(t)\,\mathrm{d}t$
J'ai transformé l'équation différentielle toute simple en une équation équivalente qui ne fait plus intervenir de dérivée, mais une intégrale.

Calcul d'une suite de fonctions

Je cherche maintenant à calculer des valeurs approchées, de plus en plus près, de la solution. Chaque approximation sera un polynôme. Le plus simple que l'on puisse trouver pour commencer, c'est de poser la fonction $f_0 : x\mapsto 1$ constante, et qui approche exactement l'exponentielle en $0$ puisque $f_0(0)=1=\exp(0)$.

L'idée, c'est de calculer une nouvelle approximation $f_1$ en remplaçant $f_0$ à droite dans l'équation intégrale, comme ceci :
$f_1(x) = 1 + \int_0^x f_0(t)\,\mathrm{d}t = 1+x$
puis je répète le procédé :
$f_2(x) = 1 + \int_0^x f_1(t)\,\mathrm{d}t = 1 + x + \frac{x^2}{2}$$f_3(x) = 1 + \int_0^x f_2(t)\,\mathrm{d}t = 1 + x + \frac{x^2}{2} + \frac{x^3}{6}$$\dots$$f_{n+1}(x) = 1 + \int_0^x f_n(t)\,\mathrm{d}t$

Vous voyez apparaitre les termes de la série que j'ai défini au début. Incroyable, non ? De plus, je vous affirme qu'à chaque étape de calcul, $f_n$ se rapproche de plus en plus de la solution de l'équation.

On peut facilement montrer par récurrence que pour tout $n$$f_n(x) = \sum_{k=0}^n \frac{x^k}{k!}$
Cela découle simplement de ma remarque sur les factorielles. La propriété est bien vraie pour $n=0$ (et même, on l'a calculé pour $n=1,2,3$), et si elle est vraie pour $n$ alors :
$f_{n+1}(x) = 1 + \int_0^x \sum_{k=0}^n \frac{t^k}{k!}\,\mathrm{d}t = 1 + \sum_{k=0}^n \int_0^x \frac{t^k}{k!}\,\mathrm{d}t = 1 + \sum_{k=0}^n \frac{x^{k+1}}{(k+1)!} = \sum_{k=0}^{n+1} \frac{x^k}{k!}$
Ce calcul fait passer la récurrence de l'étape $n$ à l'étape $n+1$.

Là, on peut prouver rigoureusement, et c'est difficile, que les fonctions $f_n$ convergent vers une fonction $f$, et le passage à la limite pour $n\rightarrow+\infty$ dans
$f_{n+1}(x) = 1 + \int_0^x f_n(t)\,\mathrm{d}t$
montre que $f$ va vérifier
$f(x) = 1 + \int_0^x f(t)\,\mathrm{d}t$
C'est à dire, c'est la solution recherchée !

Théorème de Cauchy-Lipschitz

Une équation différentielle peut, de façon générale, s'écrire sous la forme $y'(t)=F(y(t),t)$, avec $F$ une fonction de deux variables. Par exemple si j'écris $y'(x)-3\sin(x)y^2(x)=x^3$, cela se réécrit
$y'(x)=F(y,x)$ avec $F:(u,t)\mapsto 3\sin(t)u^2+t^3$
Je n'imagine même pas résoudre cette équation à la main ! Pourtant, si on se donne $x_0, y_0 \in \mathbb{R}$ tels que la solution ait pour valeur $y_0$ en $x_0$ alors elle se réécrit encore
$y(x)=y_0+\int_{x_0}^x F(y(t),t)\,\mathrm{d}t$
On peut appliquer la même méthode des suites de fonctions, et démontrer qu'elle admet une unique solution. On calcule
$f_0(x)=y_0$$f_{n+1}(x)=y_0+\int_{x_0}^x F(f_n(t),t)\,\mathrm{d}t$
La limite des $f_n$ est solution de l'équation différentielle. Le théorème de Cauchy-Lipschitz affirme que si la fonction $F$ est assez gentille (pas trop moche, par exemple en physique, la plupart des fonctions sont gentilles), toute équation différentielle mise sous forme $y'(x)=F(y,x)$ a une unique solution quand on fixe $y(x_0)=y_0$.

Commentaires

Tout cela est plutôt difficile à justifier correctement. Entre autre, je n'ai pas dit précisément ce que signifiait la convergence d'une suite de fonctions. De façon la plus basique, on parle de convergence simple quand pour tout $x\in\mathbb{R}$, la suite $f_n(x)$ converge vers $f(x)$ quand on fait tendre $n$ vers $+\infty$. Mais la convergence simple n'a pas de bonnes propriétés, car en deux points différents il peut se passer des choses très différentes. On utilise plutôt la convergence uniforme, qui demande que sur un intervalle $[a,b]$, l'écart maximal entre les fonctions $f_n$ et $f$ tende vers $0$ pour $n\rightarrow +\infty$. Et il y a quantité de théorèmes très précis sur la façon dont converge la suite de fonctions pour obtenir des propriétés sur les limites et intégrales.

Finalement, vous l'avez vu, tout le problème est de donner une définition assez explicite de l'exponentielle, c'est à dire une définition avec laquelle on peut facilement la calculer. Or, on a naturellement envie de définir l'exponentielle par ses propriétés : équation différentielle, morphisme. La définition par une série est donc souvent la plus pratique, car quand on a étudié les séries, les propriétés de l'exponentielle se déduisent facilement.

J'espère que la forme de mon tuto vous a plu, que cela vous a intéressé et donné envie d'en savoir plus. N'hésitez pas à laisser vos commentaires, je ne connais pas bien vos attentes. Si cela vous plait, il y a encore pleins de sujets sur lesquels je pourrais rédiger des tutos du même genre.

Je remercie L01c pour sa relecture et ses conseils. Je remercie aussi les zéros qui, par leurs commentaires, m'ont permis de corriger des détails et des très grosses erreurs.

Au revoir !

Exemple de certificat de réussite
Exemple de certificat de réussite