Maths
  • Trigo
    • Trigonométrie circulaire
      • Définitions
      • Identité remarquable Trigonométrique
      • Angles complémentaires, supplémentaires et opposés
      • Formules d'addition
      • Formules de développement
      • Formules de factorisation
      • Duplication des angles
      • Formules de l'angle moitié
      • Résoudre C= A.cos(x) + B.sin(x)
      • Précis de Trigonométrie
    • Trigonométrie Sphérique
      • Formule fondamentale
      • Analogie des sinus
      • Formule des 4 éléments
      • Triangle rectangle et pentagone
    • Trigonométrie hyperbolique
  • Intégrales
    • Primitives
    • Primitives usuelles
    • Méthodologie
    • Exercices
  • Primitives: Les méthodes
    • Connaissance des dérivées
    • Les combinaisons linéaires
    • Règle des puissances
    • Changement de variable
    • Fonctions circulaires (sin, cos, tan)
    • Exponentielle et logarithme
    • I.P.P.
    • Fractions rationnelles P(x)/Q(x)
      • P(x) = ax+b
      • P(x) = ax²+bx+c, Delta positif
      • P(x) = ax²+bx+c, Delta=0
      • P(x) = ax²+bx+c, Delta négatif
      • P(x) = (dx+c)/(ax²+bx+c)
    • Règle de Bioche: P(sin(x))/Q(cos(x))
    • Chgmt de variable trigonométrique
    • Autres exemples
    • Exercices:
  • Devoirs
    • Post-Bac
      • Polynômes de Tchebychev
      • Polynômes de Hermite
      • Intégrale de Gauss
      • Intégrales de Wallis
        • Intégrales de Wallis - 1
        • Intégrales de Wallis - 2
        • Intégrales de Wallis - 3
      • Polynômes de Laguerre
  • Connaissance des dérivées
  • Les combinaisons linéaires
  • Règle des puissances
  • Changement de variable
  • Fonctions circulaires (sin, cos, tan)
  • Exponentielle et logarithme
  • I.P.P.
  • Fractions rationnelles P(x)/Q(x)
  • Règle de Bioche: P(sin(x))/Q(cos(x))
  • Chgmt de variable trigonométrique
  • Autres exemples
  • Exercices:
  1. Vous êtes ici :  
  2. Primitives: Les méthodes
  3. Exercices:
  4. Uncategorised

P(x) = ax²+bx+c, Delta positif

\[\begin{align*} I= \int \frac{1}{x^2-5x+6}dx \end{align*} \text{   et  } \Delta \gt 0\]

 

Méthode 1: Avec Décomposition en éléments simples

Soit \(P(x) = x^2-5x+6\) , avec \(\boxed{\Delta \gt 0}\), alors \(P(x)\) admet 2 racines : \(x_1 =2 \) et \(x_2=3 \).
On peut donc écrire \(P(x) = (x-2)(x-3)\) et \(\begin{align*} I= \int \frac{1}{P(x)}dx = \int \frac{1}{(x-2)(x-3)}dx\end{align*}\)

Il convient alors de faire une Décomposition en éléments simples:
\( \begin{align*} &  \frac{1}{(x-2)(x-3)} = \frac{A}{x-2} + \frac{B}{x-3}  \end{align*}\)
\( \begin{align*} &  \begin{cases}  \times (x-2) \text{ et }   x=2 \Rightarrow A = -1  \\  \times (x-3) \text{ et }x=3 \Rightarrow B = 1 \end{cases} \end{align*}\) On peut remarquer que \(A=-B\).

\( \begin{align*}  I & = \int \big[ \frac{-1}{x-2} + \frac{1}{x-3} \big] dx = \int \frac{1}{x-3} dx - \int \frac{-1}{x-2} dx\end{align*}\) 

Et comme vu précédemment:
\(\begin{align*} I & = \ln \lvert x-3 \rvert - \ln \lvert x-2 \rvert + C  \\ & = \ln \lvert \frac{x-3}{x-2}\rvert +C \end{align*}\) 
On peut remarquer que la "grande racine" est au numérateur, et la "petite racine" est au dénominateur.

 

 

Méthode 2: Avec la complétion des carrés

Cette méthode permet d'éviter la décomposition en éléments simples. Le but est d'arriver à écrire \(P(x)\) sous la forme  \(\begin{align*} \frac{1}{x²-a²} \end{align*}\) ou sous la forme \(\begin{align*} \frac{1}{x²+a²} \end{align*}\) et de retrouver les primitives suivantes:

  • \(\begin{align*} I = \int \frac{1}{x²-a²}dx =\frac{1}{2a} \ln \lvert \frac{x-a}{x+a} \rvert +C \end{align*} \) 
  • \(\begin{align*} I = \int \frac{1}{x²+a²}dx =\frac{1}{a} tan^{-1} (\frac{x}{a}) +C \end{align*} \)

\(\begin{align*}P(x) & = x²-5x+6  && = (x-\frac{5}{2})² - (\frac{5}{2})² +6 \\ 
& =  (x-\frac{5}{2})² - \frac{5}{2} + \frac{24}{4}  && =  (x-\frac{5}{2})²  - \frac{1}{4}  \\
& = (x-\frac{5}{2})²  - (\frac{1}{2})² \end{align*}\)

Alors , nous avons 2 voies possibles:

Intégrer directement : 

\(\begin{align*} I = \int \frac{1}{x²-a²}dx =\frac{1}{2a} \ln \lvert \frac{x-a}{x+a} \rvert +C \end{align*} \)

\(\begin{align*} I & = \int \frac{1}{x²-5x +6}dx = \int \frac{1}{ (\underbrace{x-\frac{5}{2}}_{x})²  - (\underbrace{\frac{1}{2}}_{a})²}dx \\
&  =\cancel{\frac{1}{2 \times (\frac{1}{2})}}^{\space \space =1} \ln \lvert \frac{(x-\frac{5}{2})-(\frac{1}{2})}{(x-\frac{5}{2})+(\frac{1}{2})}) \rvert +C \\
& = \ln \lvert \frac{x-3}{x-2} \rvert + C \end{align*}\)

Factoriser:

\(\begin{align*} P(x) & = (x-\frac{5}{2} - \frac{1}{2})-(x-\frac{5}{2} +\frac{1}{2}) \\ 
& = (x-2)(x-3) \end{align*} \)

Nous sommes revenus à :
\(\begin{align*} I = \int \frac{x-2}{x-3} dx \end{align*} \)

Cette méthode ne nécessite pas de connaitre de formule. C'est donc celle que je préfère .......

 

 

 

 

Généralisation: \[\begin{align*} &  I  = \int \frac{1}{ax²+bx+c}dx  \end{align*}\]

 

Forme canonique de: \(P(x) = a[(x-\alpha)²-\beta]\)

Soit \(P(x)= ax^2 +bx+c\) avec \(a \neq 0\). Mettons \(P(x)\) sous la forme canonique: \(a \big[ \big( x+ \alpha)^2 + \beta \big) \big]\)

\(\begin{align*} P(x) & = ax^2 +bx +c = a   \big[  x^2+\frac{b}{a}x  + \frac{c}{a}   \big]  && = a   \big[  \big(x+\frac{b}{2a}\big)^2 - \big( \frac{b}{2a} \big)^2  + \frac{c}{a}   \big] \\
& = a  \big[  \big(x+\frac{b}{2a}\big)^2 - \frac{b^2}{4a^2} + \frac{4ac}{4a^2}  \big]  && = a  \big[  \big(x+\frac{b}{2a}\big)^2 - \frac{b^2-4ac}{4a^2}  \big]  \end{align*}\)

 

\[ \boxed{\begin{align*} P(x)=a  \bigg[  \big(x+\frac{b}{2a}\big)^2 - \frac{\Delta}{4a^2}  \bigg] \\ \text{avec  } \Delta = b^2-4ac \end{align*} }\]

 

Si \(\Delta \gt 0\)

\( \begin{align*} P(x) & =a  \bigg[  \bigg(x+\frac{b}{2a}\bigg)^2 - \frac{\Delta}{4a^2}  \bigg] && = a  \bigg[  \bigg(x+\frac{b}{2a}\bigg)^2 - \bigg( \frac{\sqrt{\Delta}^2}{4a^2} \bigg)  \bigg] \\
& = a  \bigg[  \bigg(x+\frac{b}{2a}\bigg)^2 - \bigg( \frac{\sqrt{\Delta}}{2a} \bigg)^2  \bigg] && = a \bigg(x+\frac{b}{2a} + \frac{\sqrt{\Delta}}{2a} \bigg) \bigg( x+\frac{b}{2a} - \frac{\sqrt{\Delta}}{2a} \bigg) \\ 
& = a \bigg(x + \frac{b+\sqrt{\Delta}}{2a} \bigg) \bigg( x+\frac{b-\sqrt{\Delta}}{2a}  \bigg) && = a \bigg(x - \frac{-b-\sqrt{\Delta}}{2a} \bigg) \bigg( x-\frac{-b+\sqrt{\Delta}}{2a}  \bigg) \end{align*} \)

On en conclut que \(P(x)\) a 2 racines: \( \begin{align*} \begin{cases} x_1 = \frac{-b-\sqrt \Delta}{2a} \\ x_2 = \frac{-b+\sqrt \Delta}{2a} \end{cases} \end{align*} \) et  \( \begin{align*} \begin{cases}P(x) = a (x-x_1)(x-x_2) \\ x_1 \lt x_2 \end{cases} \end{align*} \).

On remarque que  \( \begin{align*}x_2-x_1 = -\frac{-b+\sqrt{\Delta}}{2a} - \frac{-b-\sqrt{\Delta}}{2a} = \frac{\sqrt \Delta}{a}\end{align*}\)

 \[ \begin{align*}I = \int \frac{1}{a(x-x_1 )(x-x_2)}dx \end{align*}\]

Décomposition en Eléments Simples:

\( \begin{align*} & \frac{1}{(x-x_1)(x-x_2)} && = \frac{A}{x-x_1}+\frac{B}{x-x_2} \\ \\
= & \frac{A(x-x_2) + B(x-x_1)}{(x-x_1)(x-x_2)} && = \frac{x(A+B)- (Ax_2+Bx_1)}{(x-x_1)(x-x_2)} \\ \\
 \Rightarrow & \begin{cases} A+B = 0\\ - (Ax_2+Bx_1)=1 \end{cases} && \Rightarrow \begin{cases} A = -B\\ Ax_2-Ax_1=-1 \end{cases} \\
 \Rightarrow & \begin{cases} A = -B\\ A(x_2-x_1)=-1 \end{cases} && \Rightarrow \begin{cases} B =  \frac{a}{\sqrt \Delta} \\ A= \frac{-a}{\sqrt \Delta} \end{cases} \end{align*}\)

On remarque que \(A=-B\)

\( \begin{align*}  I & = \int \frac{1}{a(x-x_1 )(x-x_2)}dx && = \frac{1}{a} \int  \bigg(\frac{A}{x-x_1}+\frac{B}{x-x_2} \bigg) dx \\ 
& = \frac{1}{a} \int \bigg( \frac{a}{\sqrt \Delta} \frac{1}{x-x_2}- \frac{a}{\sqrt \Delta}\frac{1}{x-x_1} \bigg) dx && = \frac{1}{\sqrt \Delta} \int \bigg( \frac{1}{x-x_2}- \frac{1}{x-x_1} \bigg) dx \\
& = \frac{1}{\sqrt \Delta} \bigg[\ln \lvert x-x_2 \rvert -\ln \lvert x-x_1 \rvert  \bigg] +C && =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{x-x_2}{ x-x_1} \rvert  +C  \end{align*}\)

Si \( \Delta \gt 0 \) , \(x_1\) et \(x_2\) solutions de \(P(x)\)
\[ \boxed{ \begin{align*}  \int \frac{1}{a(x-x_1 )(x-x_2)}dx =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{x-x_2}{ x-x_1} \rvert  +C   \end{align*}  }\]

\(\begin{align*} I & =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{x-\frac{-b+\sqrt \Delta}{2a}x}{ x-\frac{-b-\sqrt \Delta}{2a}} \rvert  +C && =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{2ax+b-\sqrt \Delta}{ 2ax+b+\sqrt \Delta} \rvert  +C   \end{align*}\)

Encore une fois , cette dernière formule n'a que peu d'intérêt, si ce n'est celui de la démonstration par calcul littéral. En revanche , il faut retenir la forme finale, et la démarche pour y arriver. A chaque fois il faudra suivre la méthode:

  • trouver les racines de \(P(x)\), et donc bien connaître les méthode de résolution d'une équation du 2nd degré
  • faire une décomposition en éléments simple et donc bien connaître la technique
  • faire l'intégration de chaque élément pour arriver à la forme finale

 

10 Techniques d'intégration

\(\begin{align*} I =\int f(x)dx \end{align*}\)

 

\(\begin{align*} I = \overbrace{\int}^{\text{Symbole} \\ \text{intégration}} \underbrace{f(x)}_{\text{intégrande}} \overbrace{dx}^{\text{variable} \\ \text{d'intégration}} \end{align*}\)

 

Nous recherchons une fonction \(F(x)\) dont la dérivée est égale à l 'intégrande \(f(x)\). Cette fonction \(F(x)\) est une des primitives de \(f(x)\).

La dérivée de  \(F(x) \) est égale à \(f(x)\). Mais on remarque que la fonction \(F(x) + C\), avec \(C=\)constante, \(C  \in \mathbb R\) est aussi une primitive particulière de \(f(x)\). Pour cette raison, on précisera toujours l'existence de cette constante lors du calcul d'une primitive. 

\(\begin{align*} I =\int f(x)dx = F(x)+C\end{align*}\), avec \(C  \in \mathbb R \) 

 

Nous allons voir dans les sous chapitres les règles d'intégration (calcul de primitive) essentielles. 

Intégrale de GAUSS

 

  • Introduction
  • par changement de repère
  • par changement de variable
  • par technique de Feyman (introduire un paramètre)
    • calcul 1
    • calcul2
  • Généralisation: \(\begin{align*}I = \int_{-\infty}^{+\infty}e^{ax²+bx+c}dx \end{align*}\)

 

Introduction

La fonction \(f(x) = e^{-x²}\) est appelée Loi de Distribution Normale. Sa représentation graphique (la courbe de Gauss) a une forme de cloche , ou aussi une forme de chapeau bicorne. Cette fonction est très utilisée en statistique. En pratique: par exemple pour étudier la moyenne et la répartition de la taille d'une population etc etc etc. La courbe comme la fonction sont aussi appelées "Gaussienne" .

L'intégrale de Gauss se définit comme étant:  \[\begin{align*}  I = \int_{-\infty}^{+\infty} e^{-x²}dx\end{align*}\]
\(I\) représente l'air comprise entre l'axe des abscisses et la courbe de Gauss.

 

  • La fonction \(x \mapsto e^{-x²}\) est continue et dérivable sur \([0;+\infty[\) , et sa dérivée est continue. Elle est de classe au moins \(C^1\)

 

  • Il convient tout d'abord de vérifier que cette intégrale impropre existe bien, et donc que \(f(x)\) a des limites finies.
    • \(e^{-x²} \xrightarrow{x \to -\infty} 0 \)
    • \(e^{-x²} \xrightarrow{x \to +\infty} 0 \)
    • \(I\) est donc bien convergente. On peut alors la calculer.

 

  • On remarque que la fonction \(f(x) = e^{-x²}\) est une fonction paire.
    En effet:
    \(f(-x)=e^{-(-x)²)}=e^{-(x²)} = e^{-x²} = f(x)\). 
    En conséquence:
    \(\begin{align*}  I = \int_{-\infty}^{+\infty} e^{-x²}dx = 2\int_0^{+\infty} e^{-x²}dx =2J\end{align*}\), avec:
    \(\begin{align*}  J = \int_{0}^{+\infty} e^{-x²}dx \end{align*}\)
    On pourra éventuellement se limiter à calculer \(J\) et à multiplier le résultat par \(2\) pour connaitre \(I\).


  • On remarque aussi que \(\forall x , \space e^{-x²} \gt 0\) et donc \(\begin{align*} \forall x, \space I = \int_{-\infty}^{+\infty} e^{-x²}dx \gt 0 \end{align*}\)

 

Avec les coordonnés polaires

 \(\begin{align*}  I = \int_{-\infty}^{+\infty} e^{-x²}dx\end{align*}\). Dans cette intégrale, on dit que \(x\) est une variable muette. On peut la remplacer par toute autre variable. On a donc : 

\(\begin{align*}  I = \int_{-\infty}^{+\infty} e^{-x²}dx\end{align*}\), et aussi \(\begin{align*}  I = \int_{-\infty}^{+\infty} e^{-y²}dy\end{align*}\)

On peut donc calculer \(I \times I\) en considérant ces 2 dernières expressions de \(I\):
\(\begin{align*}  I \times I = \int_{-\infty}^{+\infty} e^{-x²}dx \times \int_{-\infty}^{+\infty} e^{-y²}dy \end{align*}\)

On peut à présent utiliser les différentes propriétés des intégrales:
\(\begin{align*} I² & = \int_{-\infty}^{+\infty} e^{-x²}dx \times \int_{-\infty}^{+\infty} e^{-y²}dy \\ 
& = \int_{x=-\infty}^{x=+\infty} \int_{y=-\infty}^{y=+\infty} e^{-x²}e^{-y²} dy.dx \\
& = \int_{x=-\infty}^{x=+\infty} \int_{y=-\infty}^{y=+\infty} e^{-(x²+y²)} dx.dy \end{align*}\)

On se retrouve en présence de \(x²+y²\) ce qui doit nous faire penser immédiatement à l'équation d'un cercle. Procédons à un changement de coordonnées pour passer en coordonnées polaires.
\(\begin{align*} & \begin{cases}  x= r.cos\theta \\ y = r.sin\theta  \end{cases} \\
 & x²+y² =r².cos²\theta +r².sin²\theta =r²(cos²\theta+ sin²\theta) =r²  \end{align*}\)

\(\begin{align*}\begin{cases}  x \in ]-\infty;+\infty[ \\ y  \in [-\infty;+\infty[ \end{cases} \Rightarrow \begin{cases}  r \in [0;+\infty[ \\ \theta \in [0;2\pi[ \end{cases} \end{align*}\)

\(dx.dy=det[\mathbb J(r;\theta)]dr.d\theta\) ou \( \mathbb J(r;\theta)\) est le Jacobien de \(r\) et \(\theta\)
\(\begin{align*} det[ \mathbb J(r;\theta)] & 
= \begin{vmatrix}\frac{\partial x}{\partial r} & \frac{\partial x }{\partial \theta} \\
\frac{\partial y}{\partial r} & \frac{\partial y}{\partial \theta} \end{vmatrix} 
= \begin{vmatrix} \frac{\partial (r.cos\theta)}{\partial r} & \frac{\partial (r.cos\theta) }{\partial \theta} \\
\frac{\partial (r.sin\theta)}{\partial r} & \frac{\partial (r.sin\theta)}{\partial \theta} \end{vmatrix} \\
& = \begin{vmatrix} cos\theta & -r.sin \theta  \\ sin \theta & r.cos\theta \end{vmatrix} \\
& = r.cos²\theta- (-r.sin²\theta) = r.cos²\theta+r.sin²\theta \\ & r(cos²\theta+sin²\theta)=r \\
 \Rightarrow  dx.dy = r.dr.d\theta \end{align*}\) 

 

En définitive, nous avons : 
\(\begin{align*} I² &  = \int_{x=-+\infty}^{x=+\infty} \int_{y=-+\infty}^{y=+\infty} e^{-(x²+y²)} dx.dy
 = \int_{r=0}^{r=+\infty} \int_{\theta=0}^{\theta = 2\pi} e^{-r²} r.dr.d\theta \\
 & = \int_{r=0}^{r=+\infty}e^{-r²} r.dr   \times \underbrace{\int_{\theta=0}^{\theta=2\pi}d\theta}_{=2\pi}
=2\pi \int_{r=0}^{r=+\infty}e^{-r²} r.dr \end{align*}\)

Procédons maintenant à un changement de variable :
\(\begin{align*} & \begin{cases} u =r² \\ \\  du = 2r.dr \end{cases}& \Rightarrow &  \begin{cases} u \xrightarrow{r \rightarrow 0} 0 \\  \\   u \xrightarrow{r \rightarrow +\infty} +\infty \end{cases} \end{align*}\)

\(\begin{align*} I² & = 2\pi \int_{r=0}^{r=+\infty}e^{-r²} r.dr = \pi \int_{r=0}^{r=+\infty} e^{-r²} 2r. dr \\
& = \pi \int_{u=0}^{u=+\infty}e^{-u}du  = \pi \big[ -e^{-u} \big]_0^{+\infty} \end{align*}\)

Avec : \(\begin{align*} \begin{cases}  -e^{-u} \xrightarrow{ u \rightarrow 0} -1 \\  \\ -e^{-u} \xrightarrow{u \rightarrow +\infty} 0  \end{cases}\end{align*}\)

Pour finir:
\(\begin{align*} I² & = \pi (0-(-1)) = \pi \end{align*}\)

\[\begin{align*} I = \int_{-\infty}^{+\infty}e^{-x²}dx = \sqrt \pi \end{align*}  \]
 

Remarque: 
on aurait aussi pu calculer \(\begin{align*}  J = \int_{0}^{+\infty} e^{-x²}dx \end{align*}\). Dans ce cas , lors du changement de coordonnées, nous aurions eu : \(\begin{align*}\begin{cases}  x \in [0;+\infty[ \\ y  \in [0;+\infty[ \end{cases} \Rightarrow \begin{cases}  r \in [0;+\infty[ \\ \theta \in [0;\pi/2[ \end{cases} \end{align*}\)
Et donc: 
\(\begin{align*}  J² & =  \int_{r=0}^{r=+\infty} \int_{\theta=0}^{\theta=\pi/2} e^{-r²}r.dr.d\theta \\
& =  \pi/2 \int_{r=0}^{r=+\infty} e^{-r²}r.dr = \pi/4 \int_{r=0}^{r=+\infty} e^{-r²}2r.dr \\
& = \pi/4 \big[ -e^{-u} \big]_0^{+\infty} =  \pi/4  \end{align*}\)
\(J  = \sqrt \pi/2 \) puis \(  I = 2J = \sqrt \pi\)

 

Avec changement de variable

\(\begin{align*}  I = \int_{-+\infty}^{+\infty} e^{-x²}dx\end{align*}\). Dans cette intégrale, on dit que \(x\) est une variable muette. On peut la remplacer par toute autre variable.
On a donc :
\(\begin{align*}  I = 2\int_{0}^{+\infty} e^{-x²}dx\end{align*}\), et aussi \(\begin{align*}  I = 2\int_{0}^{+\infty} e^{-y²}dy\end{align*}\)

On peut donc calculer \(I \times I\) en considérant ces 2 dernières expression de \(I\):
\(\begin{align*}  I \times I  & =2 \int_{0}^{+\infty} e^{-x²}dx \times 2 \int_{0}^{+\infty} e^{-y²}dy \end{align*}\)

On peut à présent utiliser les différentes propriétés des intégrales:
\(\begin{align*} I² & = 4 \int_{x=0}^{x=+\infty} \int_{y=0}^{y=+\infty} e^{-(x²+y²)}dy.dx = 4 \int_{x=0}^{x=+\infty} \bigg( \int_{y=0}^{y=+\infty} e^{-(x²+y²)}dy \bigg) dx \end{align*}\)

 

Procédons à un changement de variable: \(y=xt\).
En effet la 1ère intégrale à réaliser est \(\begin{align*}\int_{y=0}^{y=+\infty} e^{-(x²+y²)}dy\end{align*}\). C'est une intégrale par rapport a \(y\) qui devient une intégrale par rapport a \(t\). Et dans laquelle \(x\) est considérée comme une constante.

\(\begin{align*}   \begin{cases} y =xt \Rightarrow t =y/x \\  \\  dy =x.dt \end{cases}  \Rightarrow  \begin{cases}   t \xrightarrow{y \rightarrow 0} 0 \\ \\   t \xrightarrow{y \rightarrow +\infty} +\infty \end{cases}   \end{align*}\)

\(\begin{align*} I² & = 4 \int_{x=0}^{x=+\infty} \bigg( \int_{t=0}^{t=+\infty} e^{-(x²+x²t²)}x.dt \bigg)dx \\
& = 4 \int_{x=0}^{x=+\infty} \bigg(\int_{t=0}^{t=+\infty} xe^{-x²(1+t²)} dt \bigg)dx \\
& = 4 \int_{t=0}^{t=+\infty} \bigg( \int_{x=0}^{x=+\infty} xe^{-x²(1+t²)} dx\bigg) dt \end{align*}\)

Nous pouvons intervertir l'ordre d 'intégration car cette intégrale est convergente. Attention, maintenant nous intégrons par rapport à \(x\), et \(t\) est considéré comme une constante.

Procédons à un nouveau changement de variable: \(u= -x²(1+t²)\)
\(\begin{align*} \begin{cases} u= -x²(1+t²)  \\ du = -2x(1+t²)dx \\ dx = \frac{du}{-2x(1+t²)} \end{cases} \Rightarrow \begin{cases}     u \xrightarrow{x \rightarrow 0} 0 \\ \\   u \xrightarrow{x \rightarrow +\infty} -\infty \end{cases} \end{align*}\)

\(\begin{align*}I² & = 4 \int_{t=0}^{t=+\infty} \bigg( \int_{x=0}^{x=+\infty} xe^{-x²(1+t²)} dx \bigg) dt  \\ 
& = 4 \int_{t=0}^{t=+\infty} \bigg(\int_{u=0}^{u=-\infty} \cancel{x} e^u.\frac{du}{-2\cancel{x}(1+t²)} \bigg)dt \\
& =4\int_{t=0}^{t=+\infty} \bigg( \int_{u=0}^{u=-\infty}\frac{1}{-2(1+t²)}e^udu \bigg)dt  \\
& =4\int_{t=0}^{t=+\infty} \frac{1}{-2(1+t²)} \bigg( \underbrace{ \bigg[ e^u \bigg]_{u=0}^{u=-\infty} \bigg)}_{=0-1=-1}dt \\
& = 4\int_{t=0}^{t=+\infty} \frac{1}{2(1+t²)}dt \\
& = 2 \int_{t=0}^{t=+\infty} \frac{1}{1+t²}dt \\
& = 2 \bigg[ arctant (t)\bigg]_0^{+\infty} \\
& = 2(\pi/2-0) = \pi \\
\Rightarrow \space I & = \sqrt \pi 
\end{align*}\)

\[\begin{align*} I = \int_{-\infty}^{+\infty}e^{-x²}dx = \sqrt \pi \end{align*}  \]

 

 

Méthode de Feynman

La méthode de Feynman consiste à introduire un paramètre (par exemple \(t\)) dans \(f(x)\) afin d 'obtenir une intégrale à paramètre.
Si \(\begin{align*} I = \int_a^bf(x)dx \end{align*} \) est l'intégrale à calculer, on obtient \(\begin{align*} I(t) = \int_a^bf(x;t)dx \end{align*}\).

Marche à suivre:

  • Introduction d'un paramètre \(t\)
  • On détermine les conditions initiales intéressantes: \(I(\alpha)\), ou \(I(+\infty)\) ou \(I(-\infty)\)  
  • On calcule \(\frac{dI}{dt}\) (on considère alors \(x\) constant puisqu'on dérive par rapport a \(t\))
  • On primitive \(\frac{dI}{dt}\) qui est devenue une fonction de \(x\), donc on intègre par rapport a \(x\)
  • On connait les conditions initiales nous permettant de conclure et donc de trouver \(I\).

Je vous propose 2 calculs différents

Calcul 1

Soit à calculer \(\begin{align*}  I = \int_{-+\infty}^{+\infty} e^{-x²}dx\end{align*}\). Comme vu en introduction, nous allons calculer \(\begin{align*}  J = \int_{0}^{+\infty} e^{-x²}dx\end{align*}\) . Et nous doublerons le résultat final pour trouver \(I\).

 

Introduire un paramètre \(t\) dans cette intégrale:

Posons  \(\begin{align*}  J(t) = \int_{0}^{+\infty} \frac{e^{-t²(1+x²)}}{1+x²}dx \end{align*}\). Ainsi \(\begin{align*}  J(t) = \int_{0}^{+\infty}f(x,t)dx \end{align*}\).

  • \(J(t)\) est convergente,
  • \(J'(t)\) est continue sur l'ensemble d'intégration.
  • Je peux calculer \(\begin{align*}  J'(t) = \frac{dJ}{dt} \end{align*}\) en considérant que \(x\) est une constante dans cette dérivée.

 

Conditions initiales:
\(\begin{align*} J(0) & = \int_{0}^{+\infty} \frac{e^{-0²(1+x²)}}{1+x²}dx = \int_{0}^{+\infty} \frac{1}{1+x²}dx 
 = \bigg[ arctan x\bigg]_0^{+\infty} = \pi/2  \end{align*}\).

\(\begin{align*} J(+\infty) & = \int_{0}^{+\infty} \frac{e^{-\infty²(1+x²)}}{1+x²}dx  = \int_{0}^{+\infty} \frac{0}{1+x²}dx 
 = 0 \end{align*}\).

Calculs de \(J'(t)\): on considère \(x\) comme une constante puisqu'on dérive par rapport a \(t\)

\(\begin{align*} \frac{dJ}{dt} & = \frac{d}{dt}\bigg[ \int_{0}^{+\infty} \frac{e^{-t²(1+x²)}}{1+x²}dx \bigg]  = \int_{0}^{+\infty}  \frac{\partial}{\partial t} \bigg(\frac{e^{-t²(1+x²)}}{1+x²}\bigg) dx \\
& = \int_{0}^{+\infty}  \frac{-2t(1+x²)}{1+x²} e^{-t²(1+x²)} dx 
 = \int_{0}^{+\infty} -2t e^{-t²(1+x²)} dx \end{align*}\)

Dans cette intégrale en \( dx \) , \(t\) est considéré comme une constante: on peut alors sortir les termes en \(t\) du signe \(\int\):
\(\begin{align*}  \frac{dJ}{dt} & = \int_{0}^{+\infty} -2t e^{-t²(1+x²)} dx = -2t \int_{0}^{+\infty} e^{-t²(1+x²)} dx \\ & = -2t \int_{0}^{+\infty} e^{-t²} e^{-t²x²} dx = -2t.e^{-t²} \int_{0}^{+\infty}e^{-(tx)²} dx\end{align*}\)

Procédons à un changement de variable: \( y=tx\)
\(\begin{align*} & \begin{cases}  y=tx\\ x= y/t \\ dx=dy/t \end{cases} \Rightarrow  \begin{cases} y \xrightarrow{x \rightarrow 0} 0 \\  \\   y \xrightarrow{x \rightarrow +\infty} +\infty    \end{cases} \\
\frac{dJ}{dt} & = -2t.e^{-t²} \int_{0}^{+\infty}e^{-(tx)²} dx = -2\cancel{t}.e^{-t²} \int_{0}^{+\infty} e^{-y²} \frac{dy}{\cancel{t}} \\
 & = -2e^{-t²} \int_{0}^{+\infty} e^{-y²} dy = -2e^{-t²} \times J \end{align*}\)

Primitivons maintenant \(\begin{align*}   \frac{dJ}{dt} \end{align*}\) pour arriver à \(J(t)+C\)
\(\begin{align*} \int_{0}^{+\infty} \frac{dJ}{dt}dt = \int_{0}^{+\infty}-2e^{-t²} J .dt\end{align*}\)

Nous avons une intégrale en \(dt\), donc \(y\) est considéré comme une constante et en conséquence, \(J\) est aussi considéré comme constante. 
\(\begin{align*} \int_{0}^{+\infty}J'(t)dt  =-2  J \underbrace{ \int_{0}^{+\infty} e^{-t²}  dt}_J  = -2J² \end{align*}\)
En appliquant le Théorème Fondamental de l'Analyse et en utilisant les conditions initiales :
\(\begin{align*}  \int_{0}^{+\infty}J'(t)dt = J(+\infty)- J(0) =-\pi/2 \end{align*}\) et     \(\begin{align*}  \int_{0}^{+\infty}J'(t)dt = -2J²   \end{align*}\)
\(\Rightarrow 2J²=\pi/2 \Rightarrow J² = \pi/4 \Rightarrow J= \sqrt \pi / 2 \Rightarrow I = \sqrt \pi\)

\[\begin{align*} I = \int_{-\infty}^{+\infty}e^{-x²}dx = \sqrt \pi \end{align*}  \]

 

 

Calcul 2

Soit à calculer \(\begin{align*}  I = \int_{-+\infty}^{+\infty} e^{-x²}dx\end{align*}\). Essayons d'introduire un paramètre \(t\) dans cette intégrale. Pour simplifier un peu l'exercice , nous allons travailler avec \(\begin{align*}  J = \int_{0}^{+\infty} e^{-x²}dx\end{align*}\) comme présenté dans l'introduction. Et nous doublerons le résultat final.

Posons  \(\begin{align*}  K(t) = \bigg[ \int_{0}^{t} e^{-x²}dx \bigg]^2 \end{align*}\).

  • \(K(t)\) est convergente,
  • \(K'(t)\) est continue sur l'ensemble d'intégration.
  • Je peux calculer \(\begin{align*}  K'(t) = \frac{dJ}{dt} \end{align*}\) en considérant que \(x\) est une constante dans cette dérivée.

 

Conditions initiales:
\(\begin{align*}  K(0) = \bigg[ \int_{0}^{0} e^{-x²}dx \bigg]^2 =0 \end{align*}\)

 

Calculs de \(K'(t)\): 

D''après les règles de dérivation:
\(\begin{align*}  \frac{dK}{dt} = 2 \bigg[ \int_{0}^{t} e^{-x²}dx \bigg]  \times \underbrace{ \bigg[ \frac{d}{dt}\int_{0}^{t} e^{-x²}dx \bigg] }_{\text{Th. Fondamental de l'Analyse}}\end{align*}\)

Pour la 2ème partie du résultat , on peut appliquer le Théorème Fondamental de l'Analyse: \(\begin{align*} \frac{d}{dt}\int_{0}^{t} e^{-x²}dx=e^{-t²} \end{align*}\)
\(\begin{align*}  \frac{dK}{dt} & = 2 \bigg[ \int_{0}^{t} e^{-x²}dx \bigg] \times e^{-t²} \end{align*}\) avec \(e^{-t²}\) constant quand \(x\) varie. On peut alors rentrer  \(e^{-t²}\) sous le singne \(\int\).
\(\begin{align*}   \frac{dK}{dt} & = 2 \bigg[ \int_{0}^{t} e^{-(x²+t²)}dx \bigg]\end{align*}\)

 

Primitivons maintenant \(\begin{align*}   \frac{dK}{dt} \end{align*}\) pour arriver à \(J(t)+C\)

Dans une intégrale en \(dx\), \(t\) est considéré comme une constante. Faisons un changement de variable:
 \(\begin{align*} \frac{dK}{dt} & = 2 \bigg[ \int_{0}^{t} e^{-(x²+t²)}dx \bigg] \Rightarrow  \begin{cases}  t=x/y \\ \Rightarrow x=t.y \\ \Rightarrow dx=t.dy \end{cases} \Rightarrow \begin{cases}  y \xrightarrow{x \rightarrow 0} 0 \\  \\   y \xrightarrow{x \rightarrow t} 1 \end{cases} \end{align*}\) 


\(\begin{align*} \frac{dK}{dt} & = 2 \bigg[ \int_{0}^{1} e^{-(t²+y²t²)}t.dy \bigg] \\ 
& = 2 \bigg[ \int_{0}^{1} t.e^{-t²(1+y²)}.dy \bigg] = \cancel{2} \bigg[ \int_{0}^{1} \frac{-2t}{-\cancel{2}}e^{-t²(1+y²)}.dy \bigg] \\
& = - \int_{0}^{1} \frac{\partial }{\partial t}\bigg[ \frac{e^{-t²(1+y²)}}{1+y²}\bigg] dy\\
 & =- \frac{d}{dt}\int_{0}^{1} \bigg[ \frac{e^{-t²(1+y²)}}{1+y²}\bigg] dy \end{align*}\)

Ce qui nous amène à :
\(\begin{align*} K(t)  & =- \int_{0}^{1} \bigg[ \frac{e^{-t²(1+y²)}}{1+y²}\bigg] dy + C \space (C \in \mathbb R) \\ \Rightarrow  \bigg[ \int_{0}^{t} e^{-x²}dx \bigg]^2 & = - \int_{0}^{1} \bigg[ \frac{e^{-t²(1+y²)}}{1+y²}\bigg] dy + C \end{align*}\)

 

Utiliser les conditions initiales \(J(0)\) pour trouver la valeur de \(C\):
\(\begin{align*}  K(0)=0 \end{align*}\) et  \(\begin{align*} K(0) & =- \int_{0}^{1} \bigg[ \frac{e^{-t²(1+y²)}}{1+y²}\bigg] dy + C \end{align*}\)
\(\begin{align*} K(0) & =- \int_{0}^{1} \bigg[ \frac{e^{-t²(1+y²)}}{1+y²}\bigg] dy + C \\
& = - \int_{0}^{1} \bigg[ \frac{e^{-0²(1+y²)}}{1+y²}\bigg] dy + C \\
&  =- \int_{0}^{1}\frac{1}{1+y²}dy + C \\
& = - \bigg[ arctan (y)  \bigg]_0^1 +C = - \pi/4 +C \\
& \Rightarrow - \pi/4 +C = 0 \Rightarrow C=\pi/4\end{align*}\)

 

En définitive : 
\(\begin{align*} \bigg[ \int_{0}^{t} e^{-x²}dx \bigg]^2 = - \int_{0}^{1} \bigg[ \frac{e^{-t²(1+y²)}}{y²+1}\bigg]+\pi/4  \end{align*}\)

et si \(t \rightarrow +\infty\) , alors :
\(\begin{align*} J² & = - \int_{0}^{1} \bigg[ \frac{e^{-\infty(1+y²)}}{y²+1}\bigg]+\pi/4
= - \int_{0}^{1} \cancel{ \bigg[ \frac{0}{y²+1}}^{=0} ]\bigg] +\pi/4 \\
&=\pi/4 \end{align*}\)

Et conclusion:
\(\begin{align*}& J²(t) = \pi/4 \\ & J = \sqrt{\pi/4} = \sqrt \pi/2 \\ & I = 2J = \sqrt \pi \end{align*}\) 

\[\begin{align*} I = \int_{-\infty}^{+\infty}e^{-x²}dx = \sqrt \pi \end{align*}  \]

 

 

 

Généralisation: \(\begin{align*}  K = \int_{-\infty}^{+\infty} e^{-ax²+bx+c}dx\end{align*}\)

On se propose maintenant de généraliser l'intégrale de Gauss en considérant que \((-x²)\) est un polynôme du second degré. Alors il nous faut calculer : \[\begin{align*}  K = \int_{-\infty}^{+\infty} e^{ax²+bx+c}dx\end{align*}\].
Nous partirons du principe que nous connaissons la forme particulière: \[\begin{align*}  I = \int_{-\infty}^{+\infty} e^{-x²}dx = \sqrt \pi \end{align*}\]

 

1 - Existence de \(I\)

Soit \(P(x) = ax²+bx+c\)

  • Si \(a \gt 0\), alors:
    • \(P(x)\) est une parabole tournée vers le haut  
    • \(\lim\limits_{x \to -\infty} P(x) = +\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = +\infty \)
    • \(\lim\limits_{x \to +\infty} P(x)= +\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = +\infty \)
    • \(K\) n'est pas convergente


  • Si \(a=0\) alors:
    • \(P(x) = bx+c \).  \(P(x)\) est l'équation d'une droite
    • si \(b=0\), \(P(x) = C\), \(e^{P(x)} = k\) et \(\int_{-\infty}^{+\infty} e^{P(x)}dx =+/-\infty\) 
      • \(K\) n'est pas convergente
    • si \(b \gt 0\), \(P(x)\) est croissante, 
      • \(\lim\limits_{x \to -\infty} P(x) = -\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = 0 \), (OK!!) 
      • \(\lim\limits_{x \to +\infty} P(x) = +\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = +\infty \)
      • \(K\) n'est pas convergente
    • Si \(b \lt 0\), \(P(x)\) est décroissante
      • \(\lim\limits_{x \to -\infty} P(x) = +\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = +\infty \)
      • \(\lim\limits_{x \to +\infty} P(x)= -\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = 0 \). (OK!!)
      • \(K\) n'est pas convergente
    • \(K\) n'est pas convergente


  • Si \(a \lt 0\) alors:
    • \(P(x)\) est une parabole tournée vers le bas
    • \(\lim\limits_{x \to -\infty} P(x) = -\infty\) et \(\lim\limits_{x \to +\infty} e^{P(x)} = 0\) (OK!!)
    • \(\lim\limits_{x \to +\infty} P(x) = -\infty\) et \(\lim\limits_{x \to -\infty} e^{P(x)} = 0\) (OK!!)
    • \(K\) est convergente. On peut la calculer

 

\(\begin{align*}  K = \int_{-\infty}^{+\infty} e^{ax²+bx+c}dx\end{align*}\) n'existe que pour \(a \lt 0\)

 

2 - Calcul de K

On remarque que \(I\) s'exprime avec un carré de \(x\). Nous allons donc essayer de nous rapprocher de cette forme pour calculer \(K\). Le moyen de se rapprocher de cette forme est

  • de passer de la forme \(ax²+bx+c\) à la forme canonique \(a(x-\alpha)²+\beta\) puis, \(e^{a(x-\alpha)²+\beta}= k_1 \times e^{a(x-\alpha)²}\)
  • un changement de variable \(u = x - \alpha\) qui nous donnera une forme \(k_2 \times e^{au²}\)
  • un autre changement de variable \(a=-\alpha\) pour arriver à \(k_3 \times e^{-\alpha u²}\)
  • encore un changement de variable \(v² = \alpha u²\) pour arriver a la forme \(k_4 \times e^{-v²}\)
  • utiliser \(I\) pour finir le calcul
  • et vérifier le résultat pour \(-x²\)

 

2-1 - Forme canonique:

Soit \( P(x) = ax²+bx+c \) :
\(\begin{align*}  P(x) & = a(x²+\frac{b}{a}x + \frac{c}{a})   = a \bigg[ (x+\frac{b}{2a})²  - \frac{b²}{4a²}   + \frac{c}{a} \bigg] \\ & = a \bigg[ (x+\frac{b}{2a})² - \frac{b² -4ac}{4a²} \bigg]  \\
& = a  \bigg(x+\frac{b}{2a}\bigg)^2 - \frac{b² -4ac}{4a} =  a  \bigg(x+\frac{b}{2a}\bigg)^2 - \frac{\Delta}{4a}   \end{align*}\)
avec \(\Delta = b²-4ac\), le discriminant de \(P(x)\)

Et donc:
\(\begin{align*} K & =  \int_{-\infty}^{+\infty} e^ { a  \big(x+\frac{b}{2a}\big)^2 - \frac{\Delta}{4a} }  dx  = e^{- \frac{\Delta}{4a}}  \int_{-\infty}^{+\infty} e^ { a  \big(x+\frac{b}{2a}\big)^2} .dx \end{align*}\)
Nous nous sommes rapprochés de la forme de \(I\)

\(\begin{align*}  K = e^{- \Delta/4a}  \int_{-\infty}^{+\infty} e^ { a  \big(x+\frac{b}{2a}\big)^2} .dx \end{align*}\)

 

2-2 - Changement de variable: \(u=x+\frac{b}{2a}\)

\(\begin{align*}  & \begin{cases}  u=x+\frac{b}{2a} \\ x= u - \frac{b}{2a} \\ dx = du  \end{cases} \Rightarrow \begin{cases}  x \rightarrow -\infty \Rightarrow u \rightarrow -\infty \\x \rightarrow +\infty \Rightarrow u \rightarrow +\infty\  \end{cases} \\ K &= e^{- \Delta/4a}  \int_{-\infty}^{+\infty} e^ { a  \big(x+\frac{b}{2a}\big)^2}.dx
 = e^{- \Delta/4a}  \int_{-\infty}^{+\infty} e^ { a u^2} du  \end{align*}\)

Posons \(\begin{align*}  -\alpha = a   \end{align*}\) avec \(\alpha \gt 0\) pour se rapprocher encore de la forme de \(I\)

\(\begin{align*} K = e^{- \Delta/4a}  \int_{-\infty}^{+\infty} e^ { -\alpha u^2} du  \end{align*}\)

Il faudrait arriver maintenant à transformer  \(-\alpha u² \) en \(-v²\)

 

2-3 - Changement de variable: \( v=\sqrt{\alpha} \times u\)

\(\begin{align*} & \begin{cases}  v= \sqrt \alpha \times u \\ u= v / \sqrt \alpha  \\ du = dv/\sqrt \alpha  \end{cases} \Rightarrow \begin{cases}  x \rightarrow -\infty \Rightarrow u \rightarrow -\infty \\x \rightarrow +\infty \Rightarrow u \rightarrow +\infty\  \end{cases} \\ 
K &=  e^{- \Delta/4a}  \int_{-\infty}^{+\infty} e^ { -\alpha u^2} du =   e^{- \Delta/4a}  \int_{-\infty}^{+\infty} e^ { - v^2} \frac{dv}{\sqrt \alpha} \\ & = \frac{e^{- \Delta/4a}}{\sqrt \alpha}  \int_{-\infty}^{+\infty} e^ { - v^2}dv = \frac{e^{- \Delta/4a}}{\sqrt \alpha} \sqrt \pi \\
& = \frac{e^{- \Delta/4a}}{\sqrt {-a}} \sqrt \pi \end{align*}\)

\( \begin{align*}K =  \frac{e^{- \Delta/4a}}{\sqrt {-a}} \sqrt \pi  \end{align*}\) avec \(a<0\)

3 - Vérification:

Si on prend \(P(x)=-x²\), alors \(\begin{cases}a=-1 \\ b=0 \\ c=0 \end{cases} \), donc \(\begin{cases} a=-1 \\ \Delta =b²-4ac = 0 \end{cases}\). 

 \(\begin{align*} K =  \int_{-\infty}^{+\infty} e^{-x²}dx = \frac{e^{- \Delta/4a}}{\sqrt {-a}} \sqrt \pi = \frac{e^0}{\sqrt {-(-1)}} \sqrt \pi =\sqrt \pi \end{align*}\). Ce qui est cohérent!!

\[ \begin{align*} \forall a \lt 0, \space K & = \int_{-\infty}^{+\infty} e^{ax²+bx+c}dx = \frac{e^{- \Delta/4a}}{\sqrt {-a}} \sqrt \pi \\ & \Delta = b²-4ac \end{align*}\].

 

 

Les fonctions puissances

 

1 - Définitions

Pour tout \(x \in \mathbb R_+^*\), par définition de la fonction exponentielle, on a \(x=e^{lnx}\). Et d'après les propriétés usuelles de la fonction exponentielle, pour tout \(n \in \mathbb Z\), on a :

\(x^n = (e^{lnx})^n = e^{n.lnx}\)

Ce qui nous amène naturellement a la définition suivante:  

Définition:

 Pour tout \(x \in \mathbb R_+^*\) et \(a \in \mathbb R\), on définit le réel \(x\) puissance \(a\), noté \(x^a\), par :

\(x^a=e^{alnx}\)

Pour  \(a \in \mathbb R\), \(\phi'a)\) est appelée fonction puissance
\(\begin{align*} \phi(a) \space : \space & \mathbb R_+^* && \to &&\mathbb R_+^* \\
& x && \mapsto && x^a=e^{alnx} \end{align*}\)

 

On notera en particulier que :

  • \(\phi_0 = 1\)
  • \(\phi_1\) est l'identité de \(\mathbb R_+^*\)
  • \(\phi_n\) avec \(n \in \mathbb N\) = \(x^n\)
Proposition:

Soient \(a\) et \(b\) éléments de \(\mathbb R\), \(x \gt 0\) et \(y \gt 0\). On a:

\(1^a = 1\) \(x^a.y^a=(x.y)^a\) \(ln(x^a) = a.ln(x)\)
\(x^0=1\) \(x^ax^b=x^{a+b}\) \(\big( x^a\big)^b=x^{ab}\)

 

 

Proposition:
 

 

2 - Croissances comparées

 

Logarithme

 

1 - Au Lycée

Définition 1:
  • On appelle logarithme népérien d'un réel strictement positif \(x\), l'unique solution de l'équation d'inconnue \(y: e^x=y\). On note cette solution \(ln(x)\) qui se lit: "logarithme népérien de \(x\)."
  • La fonction \(ln\) est la fonction définie sur \(\mathbb R_+^* = ]0;+\infty\) qui a tout réel \(x \gt 0\) associe \(y=ln(x)\)

\(\begin{align*} f : \space & \mathbb {R_+^*} && \to && \mathbb R \\
& x && \mapsto && lnx \end{align*}\)

En conséquence: \(y=lnx\) et \(x \gt 0\) équivaut à \(e^y = x\)

On dit que la fonction \(ln\) est la fonction réciproque de la fonction exponentielle

 

Représentation graphique:

Propriétés algébrique :

\(\forall x \in \mathbb R_+\) et \(\forall y \in \mathbb R_+\), \(\forall k \in \mathbb Z\)

  • \(ln(xy) = lnx + lny\)
  • \(ln(x^k)=k \times lnx\)
  • \(ln(\sqrt x) = \frac{1}{2}lnx\)
  • \(ln(\frac{x}{y})= lnx-lny\)
  • \(ln(\frac{1}{x})= -lnx\)

 

Sens de variation :
  • la fonction \(x \mapsto lnx\) est définie, continue et dérivable sur \(\mathbb R_+^* = ]0;+\infty[\) et pout tout \(x \gt 0\), on a \(\big[ lnx \big]' = \frac{1}{x} \)
  • Et comme \(x \in ]0;+\infty[\), alors \(\frac{1}{x} \gt 0\) et \(ln(x)\)  est strictement croissante sur \(\mathbb R_+^*\)

 

Dérivée et primitives:
  • \( \forall \space x \in ]0;+\infty[\), les primitives de la fonction \(\frac{1}{x}\) sont les fonctions \(x \mapsto lnx +C(\in \mathbb R)\) 
  • Soit u une fonction dérivable sur un intervalle \(I\), et \(u(x) \gt 0\) sur \(I\), la fonction \(f(x) = \frac{u'(x)}{u(x)}\) admet des primitives de la forme \(F(x) = ln(u(x)) + C(\in \mathbb R)\)

 

Limites:
  • \(\begin{align*} \lim_{x \to +\infty} lnx=+\infty \end{align*}\)
  • \(\begin{align*} \lim_{x \to 0^+} lnx=-\infty \end{align*}\)
  • \(\begin{align*} \lim_{x \to +\infty} \frac{lnx}{x}=0 \end{align*}\)
  • \(\begin{align*} \lim_{x \to +\infty} \frac{lnx}{x^n}=0 \end{align*}\)
  • \(\begin{align*} \lim_{x \to 0^+}x lnx=0 \end{align*}\)
  • \(\begin{align*} \lim_{x \to 0^+} \frac{ln(1+x)}{x} =1 \end{align*}\)
 

 

2 - En post bac

On suppose connu les propriétés suivantes:

  • Toute fonction réelle \(f\) continue sur un intervalle \(I\) admet une primitive \(F: I \mapsto \mathbb R\) telle que \(F'=f\)
  • 2 primitives de \(f\) différent d'une constante
  • si \( f: I \mapsto \mathbb R\) est une fonction dérivable, avec une dérivée de signe fixe et qui ne s'annule qu'un nombre fini de fois, alors \(f\) définit une bijection de \(I\) sur l'intervalle \(J=f(I)\) 
  • Si \(f\) est  monotone sur \(I\), alors, a chaque extrémité de \(I\), la fonction \(f\) admet une limite , finie ou infinie
 

La définition vue en post bac est quelque peu différente.

Définition:

La fonction logarithme népérien, notée \(ln\) est l'unique primitive sur \(\mathbb R_+^* = ]0;+\infty[\), qui s'annule en \(1\) de la fonction \(x \mapsto \frac{1}{x}\), ce qui s'écrit aussi:

\(\begin{align*}\forall \space x \in  \mathbb R_+^* \end{align*}\), \(\begin{align*} ln(x) = \int_1^x\frac{du}{u} \end{align*}\)  

 
Proposition:

La fonction logarithme vérifie :  

\(\begin{align*} \forall \space x \in  \mathbb R_+^* \space , \space \forall \space y \in  \mathbb R_+^*  \space , \space ln(xy) = lnx+lny \end{align*}\)

 

Proposition:
Pour \(x \in ]-1;+\infty\), on a \(ln(1+x) \leq x\) avec égalité si, et seulemnt si,, \(x=0\)

 

  1. Exponentielle
  2. Exemples
  3. Analyse
  4. En construction

Page 1 sur 2

  • 1
  • 2