Eh bien ! Et si tout ce qu'on vous a appris dans ce cours échoue, il vous reste l'intégration numérique …
Farces à part, en pratique, beaucoup de fonctions ne peuvent pas être intégrées par les techniques qu'on a vues, soit parce qu'elles sont trop compliquées, soit tout simplement parce qu'elles n'ont pas de primitive qui puisse être exprimée avec des fonctions simples (la fonction $e^{-x^2}$ vient à l'esprit). On n'a pas le choix, il faut alors recourir à des méthodes numériques.
Supposons qu'on veuille intégrer une fonction $f(x)$ sur un intervalle $[a, b]$. Puisque l'intégrale est la limite de sommes de Riemann, l'idée la plus évidente pour approximer numériquement le résultat qu'on cherche est de calculer des sommes de Riemann en espérant qu'elles s'approcheront de manière désirée de la réponse exacte à condition de prendre les sous-intervalles suffisamment petits.
Découpons donc l'intervalle $[a, b]$ en $n$ sous-intervalles $[x_{i-1}, x_i]$ de largeur $$\Delta x = \dfrac {b-a} {n}$$ et calculons les sommes de gauche
$$S_G(n) = \Delta x \sum_{i=1}^{n} {f(x_{i-1})}$$ ou de droite $$S_D(n) = \Delta x \sum_{i=1}^{n} {f(x_{i})}.$$ On sait que$$\lim\limits_{n \to \infty} S_G(n) = \lim\limits_{n \to \infty} S_D(n) = \int_a^b f(x)~dx.$$ Mais que valent ces formules en terme d'erreur ?
Pourquoi prendre les sommes de gauche ou de droite ? Pourquoi ne pas prendre leur moyenne ? Ou pourquoi ne pas prendre le point au milieu de l'intervalle ? En fait, ce sont là deux stratégies qui vont donner des résultats meilleurs et même tout à fait acceptables.
La première de ces stratégies consiste à faire l'approximation
$\int_{x_{i-1}}^{x_{i}} f(x)~dx \approx \frac {1} {2} \left[ f(x_{i-1})+f(x_{i}) \right] \Delta x$.
Elle s'appelle la méthode du trapèze pour des raisons qui sont claires lorsqu'on regarde la figure en haut à droite. Elle conduit à la formule
$\int_a^b f(x)~dx \approx \dfrac {\Delta x} {2} \left[ f(x_{0}) + 2 \sum_{i=1}^{n-1} f(x_{i}) + f(x_{n}) \right].$
La seconde stratégie consiste à choisir le point milieu de chacun des sous-intervalles :
$\overline{x}_{i} = \dfrac {x_{i-1}+x_{i}} {2}$
et à faire l'approximation
$\int_{x_{i-1}}^{x_{i}} f(x)~dx \approx f(\overline{x}_{i}) \Delta x$,
ce qui conduit à la formule
$\int_a^b f(x)~dx \approx \Delta x \sum_{i=1}^{n} f(\overline{x}_{i}).$
Cette méthode qui, pour des raisons évidentes s'appelle la méthode du point milieu, est illustrée en bas à droite.
Au regard des figures à droite, il devrait être clair que les deux méthodes vont donner le bon résultat pour des fonction qui varient linéairement. Mais qu'en est-il pour une fonction comme $f(x)=cx^2$ ? On a la valeur exacte
$\int_{x_{i-1}}^{x_{i}} cx^2~dx = \dfrac {cx^3} {3} \bigg|_{x_{i-1}}^{x_{i}} = \dfrac {c} {3} \left( x_{i}^3 - x_{i-1}^3 \right)$
alors que les deux méthodes donnent les valeurs approximatives respectives
$\int_{x_{i-1}}^{x_{i}} cx^2~dx \approx c \Delta x ~\dfrac { x_{i-1}^2+ x_{i}^2 } {2}$
et
$\int_{x_{i-1}}^{x_{i}} cx^2~dx \approx c \Delta x \left( \dfrac {x_{i-1}+ x_{i}} {2} \right)^2$.
Un peu d'algèbre élémentaire permet de calculer que les erreurs pour chaque sous-intervalle sont $\dfrac {c} {6} \left( \Delta x \right)^3$ et $-\dfrac {c} {12} \left( \Delta x \right)^3$ (on a utilisé le fait que $x_{i} - x_{i-1} = \Delta x$). On
constate que dans les deux cas, l'erreur ne dépend pas du sous-intervalle. Pour obtenir les erreurs pour l'intervalle $[a, b]$ au complet, il faut additionner les erreurs de chacun des $n$ sous-intervalles. En se rappelant que $n \Delta x = b-a$, on obtient
$E_T = n \dfrac {c} {6} \left( \Delta x \right)^3= \dfrac {c \left( b-a \right)^3} {6 n^2}$
pour la méthode du trapèze et
$E_M = -n \dfrac {c} {12} \left( \Delta x \right)^3 = -\dfrac {c \left( b-a \right)^3} {12 n^2}$
pour la méthode du point milieu.
On remarquera que $E_T = -2 E_M$. Il est donc possible d'adopter une stratégie un peu plus sophistiquée qui donnera un résultat exact pour les polynômes de degré 2 : prendre une moyenne pondérée 1/3 fois la méthode du trapèze plus 2/3 fois la méthode du point milieu pour que les erreurs se compensent. Cela donne
$\int_{x_{i-1}}^{x_{i}} f(x)~dx \approx \dfrac {\Delta x} {6} \left[ f(x_{i-1})+4f(\overline{x}_{i})+f(x_{i}) \right]$,
ce qui, géométriquement, correspond à approximer le graphe de la fonction au-dessus de chaque sous-intervalle par un arc de parabole qui passe par les points $(x_{i-1}, f(x_{i-1}))$, $(\overline{x}_{i}, f(\overline{x}_{i}))$ et $(x_{i}, f(x_{i}))$ (voir la figure à droite). C'est ce qu'on appelle la méthode de Simpson.
Lorsqu'on calcule l'erreur, on constate que la méthode donne un résultat exact non seulement pour les polynômes de degré 2, mais aussi pour les polynômes de degré 3 ! Pour une fonction $f(x) = c x^4$, l'erreur qu'on obtient est $\dfrac {c} {120} \left( \Delta x \right)^5$. Pour l'intervalle $[a, b]$ au complet, on aura la formule
$\int_a^b f(x)~dx \approx \dfrac {\Delta x} {6} \left[ f(x_0)+4f(\overline{x}_1)+2f(x_1)+ \ldots +2f(x_{i-1})+4f(\overline{x}_{i})+2f(x_{i})+ \ldots +2f(x_{n-1})+4f(\overline{x}_n)+f(x_n) \right]$
avec une erreur totale pour la fonction $f(x) = c x^4$ égale à
$E_S = n \dfrac {c} {120} \left( \Delta x \right)^5 = \dfrac {c \left( b-a \right)^5} {120 n^4}$.
Il existe beaucoup de méthodes d'intégration numérique qui sont très sophistiquées et très performantes, mais malheureusement d'un niveau trop avancé pour en parler ici. Mentionnons simplement les formules de Gauss ou la méthode de Romberg (il y en a d'autres). Si, dans un an ou deux, vous prenez un cours d'analyse numérique, vous en entendrez certainement parler.
Vous trouverez à la page suivante des vidéos et des exercices sur les méthodes numériques d'intégration.