Maths
  • Trigo
    • Trigonométrie circulaire
      • Définitions
      • Identité remarquable Trigonométrique
      • Angles complémentaires, supplémentaires et opposés
      • Formules d'addition
      • Formules de développement
      • Formules de factorisation
      • Duplication des angles
      • Formules de l'angle moitié
      • Résoudre C= A.cos(x) + B.sin(x)
      • Précis de Trigonométrie
    • Trigonométrie hyperbolique
  • Intégrales
    • Primitives
    • Primitives usuelles
    • Méthodologie
    • Exercices
  • Intégrale de GAUSS
  • Intégrales de Wallis
    • Intégrales de Wallis - 1
    • Intégrales de Wallis - 2
    • Intégrales de Wallis - 3
  • Primitives: Les méthodes
    • Connaissance des dérivées
    • Les combinaisons linéaires
    • Règle des puissances
    • Changement de variable
    • Fonctions circulaires (sin, cos, tan)
    • Exponentielle et logarithme
    • I.P.P.
    • Fractions rationnelles P(x)/Q(x)
      • P(x) = ax+b
      • P(x) = ax²+bx+c, Delta positif
      • P(x) = ax²+bx+c, Delta=0
      • P(x) = ax²+bx+c, Delta négatif
      • P(x) = (dx+c)/(ax²+bx+c)
    • Règle de Bioche: P(sin(x))/Q(cos(x))
    • Chgmt de variable trigonométrique
    • Autres exemples
    • Exercices:
  • Polynômes de Hermite
  • Polynômes de Tchebychev
  • Polynômes de Laguerre
  • Connaissance des dérivées
  • Les combinaisons linéaires
  • Règle des puissances
  • Changement de variable
  • Fonctions circulaires (sin, cos, tan)
  • Exponentielle et logarithme
  • I.P.P.
  • Fractions rationnelles P(x)/Q(x)
  • Règle de Bioche: P(sin(x))/Q(cos(x))
  • Chgmt de variable trigonométrique
  • Autres exemples
  • Exercices:
  1. Vous êtes ici :  
  2. Primitives: Les méthodes
  3. Exercices:
  4. Uncategorised

Les polynômes de Laguerre

Montrer que la famille \(\big( L_k \big)_{0 \leq k \leq n}\) est une base de \(\mathbb R_n[X]\) et que \(\big( L_k \big)_{k n \mathbb N}\) est une base othonormale de \(\mathbb R[X]\)
1 - \(B_n= \big( L_k \big)_{0 \leq k \leq n}\) est une base de \(\mathbb R_n[X]\) et \(B=\big( L_k) _{k \in \mathbb N}\) est une base de \(\mathbb R[X]\)
\(L_k(x) = \sum\limits_{i=0}^n \binom{k}{i}  \frac{(-x)^{i}}{i!}\)
Donc \(deg(L_k)=k\) : chaque \(L_k\) est de degré \(k\)
Donc \(\big( L_k \big)_{0 \leq k \leq n}\) est bien une base de \(\mathbb R_n[X]\), et 

 

2 - othogonalité

Rappel : \(\begin{align*} \begin{cases} \forall Q \in \mathbb R[X], \space \forall n \in \mathbb N, \space \langle L_n,Q \rangle =\frac{(-1)^k}{n!} \int_0^{+\infty}  x^n e^{-x} Q^{(n)}(x)dx \\  \langle .,. \rangle \text{ est un produit scalaire sur }\mathbb R \text{ (forme symétrique , bilinéaire, définie positive)} \end{cases} \end{align*}\)

Soient \((i,j)\in \mathbb N\):
\( \begin{align*}  \langle L_i,L_j \rangle =\frac{(-1)^k}{i!} \int_0^{+\infty}  x^i e^{-x} L_j^{(i)}(x) \end{align*}\)

  • \( i \gt j \):  dans ce cas :
    \( L_j^{(i)}=0\) et \(\langle L_i,L_j \rangle = 0\)

  • \( i \lt j \):  dans ce cas:
    \(\langle L_i,L_j \rangle = \langle L_j,L_i \rangle \) et \( L_i^{(j)}=0 \Rightarrow \langle L_j,L_i \rangle = \langle L_i,L_j \rangle=0  \)

 

3 - normalité

Rappel : \(\begin{align*} \begin{cases} \forall Q \in \mathbb R[X], \space \forall n \in \mathbb N, \space \langle L_n,Q \rangle =\frac{(-1)^k}{n!} \int_0^{+\infty}  x^n e^{-x} Q^{(n)}(x)dx \\ L_n(x) = \sum\limits_{k=0}^n \binom{n}{k}  \frac{(-x)^{k}}{k!}   \end{cases} \end{align*}\)

\( \forall n \in \mathbb N\) , \( \begin{align*} \langle L_n,L_n \rangle = \frac{(-1)^k}{n!} \int_0^{+\infty}  x^n e^{-x} L_n^{(n)}(x)dx \end{align*}\)

\(L_n(x) = \sum\limits_{k=0}^n \binom{n}{k}  \frac{(-x)^{k}}{k!}  \Rightarrow L_n^{(n)}(x) = \frac{(-1)^k n!}{n!}\)

 

 

 

 

Sujet

 

En mathématiques, les polynômes de Laguerre, nommés d'après Edmond Laguerre, sont les solutions normalisées de l'équation de Laguerre : \[ xy"+(1-x)y'+ny=0\] qui est une équation différentielle linéaire homogène d'ordre 2 et se réécrit sous la forme de  Sturm-Liouville: \(−\frac{d}{dx} \Bigg(xe^−x \frac{dy}{dx} \Bigg)=n e^{−x} y\)

Les polynômes de Laguerre apparaissent en mécanique quantique dans la partie radiale de la solution de l'équation de Schrödinger pour un atome à un électron.

Le coefficient dominant de \(L_n\) est \(\frac{(–1)^n}{n!}\). Les physiciens utilisent souvent une définition des polynômes de Laguerre où ceux-ci sont multipliés par \(\frac{(–1)^n}{n!}\), obtenant ainsi des polynômes unitaires.

 

Les polynômes de Laguerre sont des polynômes définis par : \(\begin{align*} L_n(x) = \frac{e^x}{n!}(x^n e^{-x} )^{ (n) }\end{align*}\) ou (\(x^n e^{-x} )^{ (n) }\) est la dérivée nième de \(x^n e^{-x} \).

  1. Calculer \(L_0\), \(L_1\), \(L_2\)
  2. Montrer en utilisant la formule de Leiniz généralisée que \(\begin{align*} L_n(x) = \sum\limits_{k=0^n} \binom{n}{k}\frac{(-x)^k}{k!}    \end{align*}\). Vérifier pour \(L_2\)
  3. Remarquer que \(\forall n \in \mathbb N, \space L_n(0)=1\).
  4. Montrer que  \(\begin{align*} \forall n \in \mathbb N, \space I_n=\int_0^{+\infty} \frac{1}{n!}x^ne^{-x}dx   =1  \end{align*}\)
  5. Montrer que pour \(n \in \mathbb N; \space 0 \leq k \leq n, \space \big(e^{-x}x^n \big)^{(k)} = \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}\)
  6. En déduire que \(\forall n \in \mathbb N^*, \space 0 \leq k \lt n\) et \(Q \in \mathbb R[X]\), on a : \(\big[ (e^{-x}x^n)^{(k)}Q(x)\big]_0^{+\infty}=0\)
  7. Soit \(E= \mathbb R[X]\) muni de la fonction \(\begin{align*} (P,Q) \in E^2 \mapsto \langle P,Q \rangle = \int_0^{+\infty}P(x)Q(x)e^{-x}dx \end{align*}\). Montrer que \(\langle P;Q \rangle\) définit un produit scalaire.
  8. Soit \(J_n =n! \langle L_n,Q \rangle\). Montrer que \(\begin{align*}J_n = (-1)^k \int_0^{+\infty} ({e^{-x}x^n)}^{(n-k)} Q^{(k)}(x)dx \space \forall n \in \mathbb N^*, \space 0 \leq k \lt n \end{align*}\).
    En déduire que \(\forall Q \in \mathbb R[X], \space \forall n \in \mathbb N, \space \langle L_n,Q \rangle =\frac{(-1)^k}{n!} \int_0^{+\infty}  x^n e^{-x} Q^{(n)}(x)dx\)

  9. Montrer que la famille \(\big( L_k \big)_{0 \leq k \leq n}\) est une base de \(\mathbb R_n[X]\) et que \(\big( L_k \big)_{k n \mathbb N}\) est une base othonormale de \(\mathbb R[X]\)

 

1 - Calculer \(L_0\), \(L_1\), \(L_2\)

\[\begin{align*} L_n(x) = \frac{e^x}{n!}(x^n e^{-x} )^{ (n) }\end{align*}\]

\(\begin{align*} L_0(x) = \frac{e^x}{0!}(x^0 e^{-x} )^{ (0) } = e^x(1 \times e^{-x} )^{ (0) }=e^x \times e^{-x}=e^0 = 1\end{align*}\)

\(\begin{align*} L_1(x) & = \frac{e^x}{1!}(x^1 e^{-x} )^{ (1) } = e^x(xe^{-x})' = e^x[e^{-x}-xe^{-x} ] \\
& = e^x \times [e^{-x}(1-x) ]  = 1-x\end{align*}\)

\(\begin{align*} L_2(x) & = \frac{e^x}{2!}(x^2 e^{-x} )^{ (2) } = \frac{e^x}{2}(x^2 e^{-x} )" = \frac{e^x}{2} \times [2x e^{-x}-x^2e^{-x}]'  \\
& = \frac{e^x}{2} [2 e^{-x} - 2x e^{-x} - 2x e^{-x} + x^2 e^{-x} ] = \frac{e^x}{2} \times e^{-x}[2-2x-2x - x^2 ] \\& =\frac{1}{2}(2-4x+x^2) \end{align*}\)

\[L_0=1\] \[L_1=1-x\] \[L_2=\frac{1}{2}(2-4x+x^2)\]

 

 

2 - Montrer en utilisant la formule de Leiniz généralisée que \(\begin{align*} L_n(x) = \sum\limits_{k=0^n} \binom{n}{k}\frac{(-x)^k}{k!}    \end{align*}\). Vérifier pour \(L_2\).

Formule de Leibniz généralisée :

\[ (f\times g)^{(n)} = \sum\limits_{k=0}^n \binom{n}{k} f^{(k)} g^{(n-k)}\] \[\begin{align*} L_n(x) = \frac{e^x}{n!}(x^n e^{-x} )^{ (n) }\end{align*}\]

 

Posons : \(f(x) = e^{-x} \) et \(g(x) =x^{n}\), alors \(f\) et \(g\) sont de classe \(C^\infty\). Calculons \(f^{(k)}\) et \(g^{(n-k)}\)

  • \(f(x) = e^{-x} \Rightarrow f^{(k)} = (-1)^k e^{-x}\)

  • \(g(x) =x^{n}\)
    \( g'(x)= nx^{n-1}\), \( g''(x)= n(n-1)x^{n-2}\) \(\Rightarrow g^{(n)}(x) = n!x^0=n!\)
    On cherche une expression de \(g^{(n-k)}\)
    dérivée d'ordre n (\(k=0\)):  \( = n!= n!x^{0}= \frac{n!}{0!}x^{k} = \frac{n!}{k!}x^{k}\)
    dérivée d 'ordre 0 (\(k=n\)): \( = x^{n} =\frac{n!}{n!} x^{n} =\frac{n!}{k!} x^{k}\)
    dérivée d 'ordre 1 (\(k=n-1\)): \( = n x^{n} =\frac{n!}{(n-1)!} x^{n-1}= \frac{n!}{k!} x^{k} \)
    dérivée d 'ordre 2 (\(k=n-2\)): \( = n(n-1)x^{n-2} = \frac{n!}{1 \times 2 \times \cdots \times(n-2)}x^{n-2} = \frac{n!}{k!}x^{k} \)
    dérivée d 'ordre 3 (\(k=n-3\)): \( = n(n-1)(n-2)x^{n-3}= \frac{n!}{1 \times 2 \times \cdots \times(n-3)}x^{n-3} = \frac{n!}{k!}x^{k} \)
    \(\Rightarrow g^{(n-k)} = \frac{n!}{k!} x^{k}\)

  • Calculons \(L_2(x)\)
    \(\begin{align*} L_n(x) & = \frac{e^x}{n!}(x^n e^{-x} )^{ (n) } \\ 
    & = \frac{e^x}{n!}  \sum\limits_{k=0}^n \binom{n}{k} f^{(k)} g^{(n-k)}  \\ 
    & = \frac{\cancel{e^x}}{\cancel{n!}} \sum\limits_{k=0}^n \binom{n}{k}(-1)^k \cancel{e^{-x}} \frac{\cancel{n!}}{k!}x^{k} = \sum\limits_{k=0}^n \binom{n}{k}(-1)^k  \frac{x^{k}}{k!}= \sum\limits_{k=0}^n \binom{n}{k}  \frac{(-x)^{k}}{k!} \end{align*}\)
\[\begin{align*} L_n(x) = \sum\limits_{k=0}^n \binom{n}{k}  \frac{(-x)^{k}}{k!} \end{align*}\]

 

\(\begin{align*} L_2(x) & = \sum\limits_{k=0}^2 \binom{2}{k}  \frac{-x^{k}}{k!} \\
& = \underbrace{\binom{2}{0}}_{1}  \frac{(-x)^{0}}{0!} + \binom{2}{1}  \frac{(-x)^{1}}{1!} + \binom{2}{2}  \frac{(-x)^{2}}{2!} \\
& = 1 - 2x +\frac{x^2}{2} = \frac{1}{2}(2-4x+x^2) \end{align*}\)

\[\begin{align*} L_2(x) & =\frac{1}{2}(2-4x+x^2) \end{align*}\]  Ce qui confirme le résultat de la question 1

 

 

3 - Remarquer que \(\forall n \in \mathbb N, \space L_n(0)=1\)

\(\begin{align*} L_n(x) = \sum\limits_{k=0}^n \binom{n}{k}  \frac{(-x)^{k}}{k!} \end{align*}\)

\(\begin{align*} L_n(0) & = \sum\limits_{k=0}^n \binom{n}{k}  \frac{(0)^{k}}{k!} \\
& = \binom{n}{0}  \frac{(0)^{}}{0!} +\cancel{ \binom{n}{1}  \frac{(0)^{1}}{1!}}+ \cancel{\binom{n}{2}  \frac{(0)^{2}}{2!}} + \dots \dots\\
& = 1 \times \underbrace{\frac{(0)^{0}}{0!}}_{1} + 0+0+ \cdots =1  \end{align*}\)

\[\forall n \in \mathbb N, \space L_n(0)=1\]

En effet :\(L_0(0) = L_1(0) =L_2(0)=1\)

 
4 - Montrer que  \(\begin{align*} \forall n \in \mathbb N, \space I_n=\int_0^{+\infty} \frac{1}{n!}x^ne^{-x}dx   =1  \end{align*}\)

\(\begin{align*}   I_0 & =\int_0^{+\infty} \frac{1}{0!}x^0e^{-x}dx   \\
& = \int_0^{+\infty} e^{-x}dx = \bigg[ -e^{-x}\bigg]_0^{+\infty}
= 0 - (-1) = 1\end{align*}\)

Par récurrence: Soit la proposition \(P_n\):  \(I_n=\int_0^{+\infty} \frac{1}{n!}x^ne^{-x}dx   =1\)

  • Initialisation:
    par calcul ci-dessus: \(I_0 = 1\)
    par hypothèse: \(_0=1\)
    La proposition \(P_n\) est vraie pour \(n=0\)

  • Récurrence:
    Supposons la proposition \(P_n\) vraie au rang \(n\), soit : \(I_n=1\)
    Montrons qu'elle est vraie au rang \(n+1\), soit : \(I_{n+1}=1\)
    Calculons \(I_{n+1}\) par IPP:
    \(\begin{align}I_{n+1} & =\int_0^{+\infty} \frac{1}{(n+1)!}\underbrace{x^{n+1}}_{u} \underbrace{e^{-x}}_{v'}dx \\
    & = \cancel{ \bigg[ x^{n+1}(-e^{-x}) \bigg]_0^{+\infty}} + \int_0^{+\infty} \frac{1}{(n+1)!}(n+1)x^{n} e^{-x}dx  \\
    & = \int_0^{+\infty} \frac{1}{n!}x^{n} e^{-x}dx  = I_n = 1\end{align} \) 

  • Conclusion: 
    La proposition \(P_n\) : \(I_n=\int_0^{+\infty} \frac{1}{n!}x^ne^{-x}dx   =1\) est vraie au rang \(n=0\), si elle est vraie au rang \(n\), alors elle est vraie au rang \(n+1\). Elles est donc vraie \(\forall n \in \mathbb N\)

\[\begin{align*} \forall n \in \mathbb N, \space I_n=\int_0^{+\infty} \frac{1}{n!}x^ne^{-x}dx   =1  \end{align*}\]

 

 
5 - Montrer que pour \(\forall n \in \mathbb N; \space 0 \leq k \leq n, \space \big(e^{-x}x^n \big)^{(k)} = \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}\)

On veut montrer que la dérivée de \(e^{-x}x^n\) , est de la forme \(e^{-x}Q(x)\), où \(Q(x)\) est un polynôme.

Démontrons par récurrence sur \(k\):
Soit la proposition \(P_k\): \((e^{-x}x^n \big)^{(k)} = \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}\) 

  • Initialisation:

    Pour \(k= 0\) :
    Par calcul: \((e^{-x}x^n \big)^{(0)} = e^{-x}x^n = e^{-x}x^n\)
    Par hypothèse : \((e^{-x}x^n \big)^{(0)} = \big( \sum\limits_{j=n-0}^{n}a_jx^j \big)e^{-x} = a_nx^ne^{-x}=e^{-x}x^n\) avec \(a_n=1\)
    La proposition \(P_k\) est vraie pour \(k= 0\)

  • Récurrence:
    Supposons la proposition \(P_k\) vraie au rang \(k\): \((e^{-x}x^n \big)^{(k)} = \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}\)
    Montrons qu'elle est vraie au rang \(k+1\): \((e^{-x}x^n \big)^{(k+1)} = \big( \sum\limits_{j=n-k-1}^{n}a_jx^j \big)e^{-x}\)
    \(\begin{align*} (e^{-x}x^n \big)^{(k+1)} & =  \bigg[ \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}  \bigg]' \\
    & = - \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x} + \big( \sum\limits_{j=n-k}^{n}j.a_jx^{j-1} \big)e^{-x} \\
    & = e^{-x} \bigg[ -  \sum\limits_{j=n-k}^{n}a_jx^j +  \sum\limits_{j=n-k}^{n}j.a_jx^{j-1} \bigg] \\
    & = e^{-x} \bigg[\underbrace{ -  \sum\limits_{j=n-k}^{n}a_jx^j +  \sum\limits_{j=n-(k+1)}^{n}(j+1).a_{j+1}x^{j}}_{\text{polynôme de degré n}} \bigg]  = \big( \sum\limits_{l=n-k}^{n}a_lx^l \big)e^{-x} \end{align*}\)
    La propriété \(P_k\) est vraie au rang \(k+1\)

  • Conclusion:
    La proposition \(P_k\) est vraie au rang \(k=0\), si elle est vraie au rang \(k=n\), alors elle est vraie au rang \(k+1\). Donc elle est vraie \(\forall n \in \mathbb N\).

\[ \forall n \in \mathbb N; \space 0 \leq k \leq n, \space \big(e^{-x}x^n \big)^{(k)} = \big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}\]

 

 
6 - En déduire que \(\forall n \in \mathbb N^*, \space 0 \leq k \lt n\) et \(Q \in \mathbb R[X]\), on a : \(\big[ (e^{-x}x^n)^{(k)}Q(x)\big]_0^{+\infty}=0\)

Soit \(u(x) = (e^{-x}x^n)^{(k)}Q(x)\), 
Pour \(k \lt n\) (donc \(\underline{n \gt 0}\)) , le degré de \(\big( \sum\limits_{j=n-k}^{n}a_jx^j \big) \gt 0\), et ce polynôme possède au moins un terme en \(x\), et on peut factoriser par \(x\). Alors on peut écrire : 
\(\begin{align} u(x) & = (e^{-x}x^n)^{(k)}Q(x) =\big( \sum\limits_{j=n-k}^{n}a_jx^j \big)e^{-x}Q(x) \\
& = x\big( \sum\limits_{l=n-k}^{n}a_lx^{l-1} \big)e^{-x} Q(x) = x e^{-x} \underbrace{\big( \sum\limits_{l=n-k}^{n}a_lx^{l-1} \big)Q(x)}_{P(x) \in \mathbb R[X]} \\
& =  x e^{-x}P(x) \end{align}\)

\(\begin{align}  \begin{cases}  x e^{-x}P(x) \xrightarrow{x = 0} 0 \\ x e^{-x}P(x) \xrightarrow{x \to +\infty} 0 \text{ par croissance comparée} \end{cases}  \Longrightarrow \big[ (e^{-x}x^n)^{(k)}Q(x)\big]_0^{+\infty}=0\end{align}\)

\[\forall n \in \mathbb N^*, \space 0 \leq k \lt n, \space Q \in \mathbb R[X] :  \space \big[ (e^{-x} x^n)^{(k)} Q(x)\big]_0^{+\infty}=0\]

 

 
7 - Soit \(E= \mathbb R[X]\) muni de la fonction \(\begin{align*} (P,Q) \in E^2 \mapsto \langle P;Q \rangle = \int_0^{+\infty}P(x)Q(x)e^{-x}dx \end{align*}\). Montrer que \(\langle P,Q \rangle\) définit un produit scalaire.
1 - Existence de l'intégrale qui définit \(\langle P,Q \rangle\)

On a :\(\begin{align*} \langle P,Q \rangle = \int_0^{+\infty}P(x)Q(x)e^{-x}dx\end{align*}\)
La fonction \(P(x)Q(x)e^{-x}\) est continue sur \(\mathbb R\) comme produit de fonctions continues.

D'après la relation de Chasles: 
\(\begin{align*} \langle P,Q \rangle =\int_0^{+\infty}P(x)Q(x)e^{-x}dx=\underbrace{\int_0^{1}P(x)Q(x)e^{-x}dx}_{I_1} + \underbrace{\int_1^{+\infty}P(x)Q(x)e^{-x}dx}_{I_2} \end{align*}\)

  • pour \(\begin{align*} I_1=\int_0^{1}P(x)Q(x)e^{-x}dx \end{align*}\)
    C'est l'intégrale d'une fonction continue sur un segment. Cette intégrale converge.

  • pour \(\begin{align*} I_2=\int_1^{+\infty}P(x)Q(x)e^{-x}dx \end{align*}\)
    Le produit \(P(x)Q(x)\) est le produit de 2 polynômes, c 'est donc un polynôme dont le terme de plus haut degré est \(a_nx^n\)
    \(\begin{align*} \lim\limits_{x \to + \infty} a_n x^n e^{-x} = 0 \end{align*}\) par croissance comparée.
    Et \(\exists A \gt0\) tel que  \( x \geq A \Rightarrow \lvert a_nx^n e^{-x} \rvert \lt \frac{1}{x^2}\)
    Comme \(\begin{align*} \int_1^{+\infty}1/x^2dx\end{align*}\) converge par le critère de Riemann (car 2>1) alors \(I_2\) est convergente.

En conséquence:

\(\begin{align*} \langle P,Q \rangle = \int_0^{+\infty}P(x)Q(x)e^{-x}dx\end{align*}\) converge

 

 

2 - Rappels de cours

Préliminaire: \(E\) désigne un \(\mathbb R\) espace vectoriel

 Définition 1:

On appelle produit scalaire sur \(E\) toute forme bilinéaire symétrique définie positive sur \(E\)

 

Définition 2:

On appelle forme bilinéaire sur \(E\) toute application \(\phi\) de \(E \times E\) dans \(\mathbb R\) telle que :

  1. pour tout \(y \in E\), l'application \(x \mapsto \phi(x,y)\) soit linéaire
  2. pour tout \(x \in E\), l'application \(y \mapsto \phi(x,y)\) soit linéaire

 

Définition 3:

On appelle forme bilinéaire symétrique sur \(E\) toute forme bilinéaire \(\phi\) sur \(E\) telle que:
\[ \forall (x,y) \in\mathbb R^2 \space \space \space \space \phi(x,y)=\phi(y,x)\]
Remarque: en pratique on démontrera la symétrie, puis ensuite la linéarité par rapport a une variable . Puis comme il y a symétrie, alors on aura en conséquence la linéarité par rapport à la 2ème variable, et donc la bilinéarité.

 

Définition 4:

Etant donnée une forme bilinéaire \(\phi\) sur \(E\), on dit : 

  • \(\phi\) est positive si : \(\forall x \in E \space \space \space \phi(x,x) \geq 0\)
  • \(\phi\) est définie positive si \(\forall x \in E \space \space \space \phi(x,x) = 0 \Rightarrow x=0\)

 

 
3 - Forme symétrique :\(\langle P|Q \rangle = \langle Q|P \rangle\)  ??

\(\begin{align*}\langle P,Q \rangle & = \int_{0}^{+ \infty}P(x)Q(x)e^{-x}dx 
& = \int_{0}^{+ \infty}Q(x)P(x)e^{-x}dx
& = \langle Q,P \rangle \end{align*}\)

 
4 - Forme bilinéaire ??
  • Par rapport à la 1ère variable :\(\langle (\lambda P_1 + \mu P_2),Q \rangle = \lambda\langle P_1,Q \rangle + \mu \langle P_2,Q \rangle\) ??
    Soient \((P_1, P_2, Q) \in \mathbb R^3[X]\) et \((\lambda, \mu) \in \mathbb R^2\)
    \(\begin{align*} \langle (\lambda P_1 + \mu P_2),Q \rangle & =\int_{0}^{+ \infty} \bigg[ \lambda P_1(x) + \mu P_2(x) \bigg] Q(x)e^{-x}dx   \\
    & = \int_{0}^{+ \infty} \bigg[\lambda P_1(x)Q(x)e^{-x} + \mu P_2(x)Q(x)e^{-x} \bigg] dx \\
    & = \int_{0}^{+ \infty} \lambda P_1(x)Q(x)e^{-x}dx+\int_{0}^{+ \infty} \mu P_2(x)Q(x)e^{-x}dx \\
    & = \lambda \int_{0}^{+ \infty} P_1(x)Q(x)e^{-x}dx + \mu \int_{-0}^{+ \infty} P_2(x)Q(x)e^{-x}dx \\
    & = \lambda\langle P_1,Q \rangle + \mu\langle P_2,Q \rangle \end{align*}\)

 

  • Par rapport à la 2ème variable: \(\langle P,(\lambda Q_1 + \mu Q_2) \rangle = \lambda\langle P,Q_1 \rangle + \mu\langle P,Q_2 \rangle\) ??
    Ce résultat est obtenue par symétrie, qui a été démontrée juste au dessus. C'est tout l'intérêt de démontrer la symétrie avant la bilinéarité. On s'attachera à le faire dans cet ordre la en général. On retrouve la linéarité par rapport à la 1ère variable.
    Soient \((P, Q_1, Q_2) \in \mathbb R^3[X]\) et \((\lambda, \mu) \in \mathbb R^2\)
    \(\begin{align*} \langle P,(\lambda Q_1 + \mu Q_2) \rangle & = \langle (\lambda Q_1 + \mu Q_2),P \rangle \\ & = \lambda \langle Q_1,P \rangle + \mu \langle Q_2,P \rangle \\ & = \lambda \langle P,Q_1 \rangle + \mu \langle P,Q_2 \rangle  \end{align*}\) 
 
5 - Forme définie positive ??
  • Forme positive: \(\langle P|P \rangle \geq 0\) ??
    \(\forall P \in \mathbb R[X]\) :
    \(\begin{align*}  \langle P,P \rangle & = \int_{0}^{+ \infty}P(x)P(x)e^{-x}dx \\
    & = \int_{0}^{+ \infty} \underbrace{P^2(x)}_{\geq 0} \underbrace{e^{-x}}_{\gt 0}dx \end{align*}\)
    Par positivité de l 'intégrale d'une fonction positive sur \(]0;+ \infty[\), on a  \(\langle P,P \rangle \geq 0\)


  • Forme définie positive : Si \(\langle P|P \rangle = 0\) alors \(P = 0\) ??
    \(\begin{align*} \langle P,P \rangle = 0 & \Leftrightarrow \int_{0}^{+ \infty} P^2(x) e^{-x}dx  \\
    & \Leftrightarrow  P^2(x) \underbrace{e^{-x}}_{\neq 0}dx = 0, \forall x \in \mathbb R \\
    & \Leftrightarrow  P^2(x) = 0 , \space \forall x \in \mathbb R \\
    & \Leftrightarrow  P(x) = 0 , \space \forall x \in \mathbb R \end{align*}\)
    Ce qui signifie que \(P\) a une infinité de racines sur \([0 ; +\infty[\) etque donc \(P\) est le polynôme nul.

 

\[\begin{align*}\langle P,Q \rangle = \int_{0}^{+ \infty}P(x)Q(x)e^{-x}dx \end{align*} \] définit un produit scalaire

 

 

8 - Soit \(J_n =n! \langle L_n,Q \rangle\). Montrer que \(\begin{align*}J_n = (-1)^k \int_0^{+\infty} ({e^{-x}x^n)}^{(n-k)} Q^{(k)}(x)dx \space \forall n \in \mathbb N^*, \space 0 \leq k \lt n \end{align*}\)

Rappels : \(\begin{align*} \begin{cases}  \langle P,Q \rangle = \int_0^{+\infty}P(x)Q(x)e^{-x}dx  \\  L_n(x) = \frac{e^x}{n!}(x^n e^{-x} )^{ (n) }  \\   \big[ (e^{-x} x^n)^{(k)} Q(x)\big]_0^{+\infty}=0 \space \underline{\forall n \in \mathbb N^*, \space 0 \leq k \lt n}, \space Q \in \mathbb R[X]  \end{cases}\end{align*} \)

 

\(\begin{align*}J_n & = n! \langle L_n,Q \rangle  =n! \int_0^{+\infty}L_n(x)Q(x)e^{-x}dx \\
& =n! \int_0^{+\infty} \frac{e^x}{n!}(x^n e^{-x} )^{ (n) } Q(x)e^{-x}dx= \int_0^{+\infty} (x^n e^{-x} )^{ (n) } Q(x) dx \end{align*}\)

\(\begin{align*}J_n & =\int_0^{+\infty} \underbrace{(x^n e^{-x} )^{ (n) }}_{u' }\underbrace{Q(x)}_{v}dx \\
& = \cancel{\bigg[  (x^n e^{-x} )^{ (n-1) }Q(x)\bigg]_0^{+\infty}}^{0} -  \int_0^{+\infty}  (x^n e^{-x} )^{ (n-1)}Q'(x)dx \\
& = (-1)^1 \int_0^{+\infty}  (x^n e^{-x} )^{ (n-1)}Q^{(1)}(x)dx\end{align*}\)

Montrons cette relation par récurrence sur \(k\):  \(0 \leq k \lt n \)
\(P_k\):  \(\begin{align*}I_n = (-1)^k \int_0^{+\infty}  (x^n e^{-x} )^{ (n-k)}Q^{(k)}(x)dx \end{align*}\) est vraie pour \(0 \leq k \lt n \)

  • Initialisation:
    Par calcul / définition (1er calcul de \(J_n\)): \(P_0\): \( \begin{align*} I_n  =\int_0^{+\infty}  (x^ne^{-x})^{(n)}Q(x)dx \end{align*}\)
    Par hypothèse \(P_0\): \(\begin{align*} I_0 = (-1)^0 \int_0^{+\infty}  (x^n e^{-x} )^{ (n-0)}Q^{(0)}(x)dx =\int_0^{+\infty}  (x^n e^{-x} )^{ (n)}Q(x)dx \end{align*}\)
    La proposition \(P_k\) est vraie au rang \(k=0\)

  • Recurrence:
    Supposons la proposition \(P_k\) vraie au rang \(k=n\) soit \( \begin{align*}I_n = (-1)^k \int_0^{+\infty}  (x^n e^{-x} )^{ (n-k)}Q^{(k)}(x)dx \end{align*}\) est vraie pour \(0 \leq k \lt n \)
    Montrons qu 'elle est vraie au rang \(k+1\), soit : \( \begin{align*} I_n = (-1)^{k+1} \int_0^{+\infty}  (x^n e^{-x} )^{ (n-(k+1))}Q^{(k+1)}(x)dx \end{align*}\)
    \(\begin{align*} I_n & = (-1)^k \int_0^{+\infty}  \underbrace{(x^n e^{-x} )^{ (n-k)}}_{u'} \underbrace{Q^{(k)}(x)}_{v}dx \\
    & =\cancel{ \bigg[ (-1)^k (x^n e^{-x} )^{ (n-k-1)} Q^{(k)}(x) \bigg]_0^{+\infty}}^{0} - \int_0^{+\infty} (-1)^k (x^n e^{-x} )^{ (n-k-1)}Q^{(k+1)}(x)dx \\
    & = - (-1)^k \int_0^{+\infty} (x^n e^{-x} )^{ (n-(k+1))}Q^{(k+1)}(x)dx  \\
    & = (-1)^{k+1} \int_0^{+\infty} (x^n e^{-x} )^{ (n-(k+1))}Q^{(k+1)}(x)dx\end{align*}\)
    La proposition \(P_k\) est vraie au rang \(k+1\)

  • Conclusion:
    La proposition \(P_k\): \(\begin{align*}I_n = (-1)^k \int_0^{+\infty}  (x^n e^{-x} )^{ (n-k)}Q^{(k)}(x)dx \end{align*}\) est vraie au rang \(k=0\). Si elle vraie au rang \(k\), alors elle est vraie au rang \(k+1\). Donc \(P_k\) est vraie \(\forall k, \space 0 \leq k \lt n \)

 

\[\begin{align*} \forall n \ in \mathbb N, \space J_n =n! \langle L_n,Q \rangle= (-1)^k \int_0^{+\infty} ({e^{-x}x^n)}^{(n-k)} Q^{(k)}(x)dx \space \forall n \in \mathbb N^*, \space 0 \leq k \lt n \end{align*}\]

 

  • Pour \(k=n\):
    Par calcul / définition : \( \begin{align*} I_n  =\int_0^{+\infty}  (x^ne^{-x})^{(n)}Q(x)dx \end{align*}\)
    Par hypothèse: \(\begin{align*}I_n   = (-1)^n \int_0^{+\infty}  (x^n e^{-x} )^{ (0)}Q^{(n)}(x)dx = (-1)^n \int_0^{+\infty}  x^n e^{-x} Q^{(n)}(x)dx  \end{align*}\) 
    avec \(Q \in \mathbb R[X]\), donc de classe \(C^\infty\)

    \( \begin{align*} & I_n = n! \langle L_n,Q \rangle \\
    & \Leftrightarrow \langle L_n,Q \rangle = \frac{I_n}{n!} = \frac{(-1)^n}{n!} \int_0^{+\infty}  x^n e^{-x} Q^{(n)}(x)dx \end{align*}\)
\[\forall Q \in \mathbb R[X], \space \forall n \in \mathbb N, \space \langle L_n,Q \rangle =\frac{(-1)^k}{n!} \int_0^{+\infty}  x^n e^{-x} Q^{(n)}(x)dx\]

 

 

 

 

Les polynômes de Tchebychev

 

Sujet

 

Les polynômes de Tchebychev de première et de seconde espèce sont les polynômes \((T_n)_{n \in \mathbb N}\) et \( (U_n)_{n \in \mathbb N^*}\) définis par :
\[\boxed{ \cos(nt) = T_n(\cos t) \space \space \space\text{   et   } \space \space \space \sin (nt) = \sin{t} .U_n(\cos t)}\]

Ils permettent de généraliser la linéarisation des formes \(sin(nt)\) et \(cos(nt)\). 
Il peut être intéressant pour gagner en rapidité dans d 'autres exercices qui comporteraient ces formes trigonométriques de se rappeler des premiers polynômes, et de leurs différentes propriétés.

  1. Donner les expression de \(T_0\), \(T_1\), \(T_2\), \(U_0\), \(U_1\),\(U_2\)
  2. Montrer que les \(T_n\) et  \(U_n\) existent, sont uniques, et sont donnés par:
    \(\begin{align*} T_n(x) = \sum\limits_{k=0}^{\lfloor n/2 \rfloor} (-1)^k \binom{n}{2k} x^{n-2k}(1-x^2)^k \end{align*}\) et \(\begin{align*} U_n(x) = \sum\limits_{k=0}^{\lfloor (n-1)/2 \rfloor} (-1)^k \binom{n}{2k+1} x^{n-2k-1}(1-x^2)^k \end{align*}\)
  3. Montrer que \(\forall x \in [-1;1]\), \(T_n(x) = cos(n.arccos(x))\) et \(\forall x \in ]-1;1[\), \(U_n(x) = \frac{sin(n.arcos(x))}{\sqrt{1- x^2}}\)
  4. Montrer que \(T'_n(x) = nU_n(x)\) 
  5. Trouver une relation entre \(T_{n+1}\), \(T_{n}\), \(T_{n-1}\)
  6. En déduire les degré et coefficient dominant de \(T_n\). Puis confirmer les résultats a l'aide de la question 2
  7. Montrer que \(\forall n \in \mathbb N\),  \(T_n(x)\) a la même parité que \(n\)
  8. Montrer que \(\forall n \in \mathbb N\), \(T_n(1)=1\) , \(T'_n(1) = n^2\) , \(T_n(0)=0\) si \(n\) est impair, \(T_n(0)=(-1)^{n/2}\) sinon
  9. Montrer que pour \(n \in \mathbb N^*\),  \(T_n\) possède \(n\) racines simples \(\begin{align*}x_k = cos \big(\frac{\pi}{2n}+ \frac{k \pi}{n} \big)_{0 \leq k \leq n-1} \space , \space x_k \in [-1;1]  \end{align*}\) et que \(\begin{align*} \sum\limits_{k=0}^{n-1} x_k = 0 \end{align*}\)
  10. Trouver les EXTREMA de \(T_n\)
  11. Montrer que \( \begin{align*}  \prod\limits_{k=0}^{n-1}cos \bigg( \frac{\pi}{2n} + \frac{k\pi}{n}  \bigg) \begin{cases}  =0 \text{ si n est impair} \\ = \frac{(-1)^{n/2}}{2^{n-1}} \text{ si n est impair}\end{cases} \end{align*}\)
  12. Montrer que \(T_n\) est solution de l'équation différentielle:  \((X^2-1)y" + Xy' - n^2y=0\)
  13. Soit \(E\) le \(\mathbb R\)-espace vectoriel des fonctions continues de \([-1;1]\) dans \(\mathbb R\). Justifier que l'application de \(E^2 \to \mathbb R\) définie par \(\langle f(t),g(t) \rangle = \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt\) est un produit scalaire.
  14. Pour tous \((m,n) \in \mathbb N^2\), calculer le produit scalaire \(\langle T_n , T_m \rangle\). Que peut on dire de la famille \(\big(T_n\big)_{n \in \mathbb N}\) ?
  15. A partir du résultat de la question 4 et des autres résultats, déterminer les degré et coefficient dominant de \(U_n\)
  16. Montrer que \(\forall n \in \mathbb N, \exists t \in \mathbb R, \space cos t = \frac{sin[(n+1)t]}{sint}\)
  17. En déduire que \(\big( U_n \big)_{n \in \mathbb N}\) suit aussi la relation de récurrence de la question 5, que  \( \forall n \in \mathbb N, \space \space U_n\) est scindé simple sur \(\mathbb R\), à racine dans \(]-1;1[\), en précisant les racines 

 

 

1 - Donner les expression de \(T_0\), \(T_1\), \(T_2\), \(T_3\), \(U_1\),\(U_2\), \(U_3\)

On utilise les formules de trigonométrie usuelles: 
\(\begin{align*}  \begin{cases}  cos^2t + sin^2t = 1 \\ cos(a+b) = cosa.cosb-sina.sinb \\ sin(a+b) = sina.cosb +cosa.sinb \\ sin(2a) = 2sina.cosa \end{cases}  \end{align*}\)

\(T_n\) est définie pour \(n \in \mathbb N\)
\(T_n(cost) = cos(nt)\)

  • Calcul de \(T_0\)
    \(\begin{align*} T_0(cos t) & = cos(0 \times t) = 1 \\
    & \Rightarrow  \boxed { T_0(X) = 1 } \end{align*}\)
  • Calcul de \(T_1\)
    \(\begin{align*} T_1(cos t) & = cos(1 \times t) = cost \\ 
    & \Rightarrow  \boxed{T_1(X) = X}  \end{align*}\)
  • Calcul de \(T_2\)
    \(\begin{align*} T_2(cos t) & = cos(2t) = cos(t+t) \\
    & = cost \times cost - sint \times sint  \\
    & = cos^2t-sin^2t \\ 
    & = cos^2t-(1-cos^2t) = 2cos^2t - 1 \\ 
    &\Rightarrow  \boxed{T_2(X) = 2X^2-1}  \end{align*}\)
  • Calcul de \(T_3\)
    \(\begin{align*} T_3(cos t ) & = cos(3t) = cos(2t+t) \\
    & = cos(2t)cost -sin(2t)sint \\
    & = T_2(cost) cost-2sint. cost. sint  \\
    & = (2cos^2t-1)cost- 2sin^2t.cost \\ 
    & = 2cos^3t - cost -2(1-cos^2t)cost \\
    & = 2cos^3t - cost+ 2cos^3t-2cost\\
    & = 4cos^3t - 3cost \\
    & \Rightarrow  \boxed{T_3(X) = 4X^3-3X}  \end{align*}\)

\(U_n\) est définie pour \(n \in \mathbb N^*\)
\(sin(nt) = sint.U_n(cost)\) 

  • Calcul de \(U_1\)
    \(\begin{align*} sin(1t) & = sin(t)  = sin(t) \times \underbrace{1}  \\
    & = sint \times \underbrace{U_1(cost)} \\
    & \Rightarrow  \boxed { U_1(X) = 1}\end{align*}\)
  • Calcul de \(U_2\)
    \(\begin{align*} sin(2t) & = 2sin(t).(cost)  \\
    & = sint \times \underbrace{2cost} \\
    & = sint \times \underbrace{U_2(cost)} \\
    & \Rightarrow  \boxed { U_2(X) = 2X}\end{align*}\)
  • Calcul de \(U_3\)
    \(\begin{align*} sin(3t) & = sin(t+2t) \\
    & = sint.cos(2t)-cost.sin(2t)  \\
    & = sin(t).T_2(cost) + cost.2sint.cost \\
    & = sin(t).(2cos^2t-1) + 2sint.cos^2t \\
    & = sint (2cos^2t-1+2cos^2t) \\
    & = sint \times \underbrace{(4cos^2t-1)} \\
    & = sint \times \underbrace{U_3(cost)} \\
    & \Rightarrow  \boxed { U_3(X) = 4X^2-1}\end{align*}\)

 

 

2 - Montrer que les \(T_n\) et  \(U_n\) existent, sont uniques, et sont donnés par:
\(\begin{align*} T_n(x) = \sum\limits_{k=0}^{\lfloor n/2 \rfloor} (-1)^k \binom{n}{2k} x^{n-2k}(1-x^2)^k \end{align*}\) et \(\begin{align*} U_n(x) = \sum\limits_{k=0}^{\lfloor (n-1)/2 \rfloor} (-1)^k \binom{n}{2k+1} x^{n-2k-1}(1-x^2)^k \end{align*}\)
1 - Existence:

Pour montrer que \(T_n\) et \( U_n\) existent, il suffit de les calculer.

Pour cela, nous utiliserons: \(\begin{align*}  \begin{cases}  \text{La formule de Moivre: }(cosx + i.sinx)^n = cos(nx)+i.sin(nx) \\
 \text{La formule d'Euler: }e^{ix} = cosx + i.sinx \\
\text{Le binôme de Newton: si(x,y) commutent, }(x+y)^n = \sum\limits_{k=0}^{n} \binom{n}{k}x^{k}y^{n-k} \end{cases}   \end{align*}\)

\(\begin{align*} cos(nt)+i.sin(nt) & = e^{int}= {(e^{it})}^n = (cost + i.sint)^n      \end{align*}\)

\(cost\) et \(i.sint\) commutent, on peut appliquer la formule du binôme de Newton:

\(\begin{align*} cos(nt)+i.sin(nt) & = (cost + i.sint)^n   \\
& = \sum\limits_{p=0}^{n} \binom{n}{p}(cost)^{n-p}(i.sint)^{p} \\
& =  \sum\limits_{p=0}^{n} \binom{n}{p}cos^{n-p}t.i^{p}.sin^{p}t \end{align*}\)

L'expression ci-dessus contient une forme \(i^p\) dont le résultat dépend de la  parité de \(p\). Il nous faut alors envisager 2 cas:

  • Si \(p\) est pair : \(p=2k\) et \(i^p = i^{2k}={i^2}^k = (-1)^k\). Alors \(cos(nt)+i.sin(nt)\) sera un réel.
  • Si \(p\) est impair: \(p=2k+1\) et \(p=2k\) et \(i^p = i^{2k+1}=i.{i^2}^k = (-1)^k.i\). Alors \(cos(nt)+i.sin(nt)\) sera un imaginaire pur.

Cela nous amène à séparer cette somme en 2 sommes: une contenant les \(p\) pairs et l'autre les \(p\) impairs.

\(\begin{align*} cos(nt)+i.sin(nt) &  =  \sum\limits_{p=0}^{n} \binom{n}{p}cos^{n-p}t.i^{p}.sin^{p}t \\
& = \underbrace{ \sum\limits_{0 \leq 2k \leq n} \binom{n}{2k}cos^{n-2k}t.i^{2k}.sin^{2k}t }_{p \text{ pairs}} + \underbrace{ \sum\limits_{0 \leq 2k+1 \leq n} \binom{n}{2k+1}cos^{n-(2k+1)}t.i^{2k+1}.sin^{2k+1} t}_{p \text{ impairs}}   \\
& = \sum\limits_{0 \leq 2k \leq n} \binom{n}{2k}cos^{n-2k}t.(-1)^k.{(sin^{2}t)}^k + \sum\limits_{0 \leq 2k+1 \leq n} \binom{n}{2k+1}cos^{n-(2k+1)}t.\underbrace{i}.(-1)^k.\underbrace{sint} .{(sin^{2}t)}^k   \\
& =  \sum\limits_{0 \leq 2k \leq n} \binom{n}{2k} (-1)^k cos^{n-2k}t.{(1-cos^{2}t)}^k + i.sint \sum\limits_{0 \leq 2k+1 \leq n} \binom{n}{2k+1} (-1)^k cos^{n-2k-1}t.{(1-cos^{2}t)}^k        \end{align*}\)

  • Quand \(p\) est pair (\(p=2k\)):
    • La première valeur de \(k\) est \(0\) (donc \(p=0\))
    • si \(n\) est pair (par exemple \(22\)), alors la dernière valeur de \(k\) est \(n/2\) (donc \(11\)) et \(p = 2 \times 11=22)\)
    • si \(n\) est impair (par exemple \(23\)), alors la dernière valeur de \(k\) est \(\lfloor n/2 \rfloor\) (donc \(\lfloor 23/2 \rfloor = 11\)) et \(p = 2\times 11 + 1 = 23\)

  • Quand \(p\) est impair (\(p=2k+1\)):
    • La première valeur de \(k\) est \(0\) (donc \(p=1\))
    • si\(n\) est impair (par exemple \(23\)), alors la dernière valeur de \(k\) est \((n-1)/2\) (donc \(11\)) et \(p = 2\times 11 + 1 = 23\)
    • si \(n\) est pair (par exemple \(22\)), alors la dernière valeur de \(k\) est \(\lfloor (n-1)/2 \rfloor\) (donc \(\lfloor (22-1)/2 \rfloor = 10\)) et \(p = 2 \times 10=21)\)

\(\begin{align*} cos(nt)+i.sin(nt) &  =  \sum\limits_{k=0}^{\lfloor n/2 \rfloor} \binom{n}{2k} (-1)^k cos^{n-2k}t.{(1-cos^{2}t)}^k +   i.sint \sum\limits_{k=0}^{\lfloor (n-1)2/ \rfloor}  \binom{n}{2k+1} (-1)^k cos^{n-2k-1}t.{(1-cos^{2}t)}^k  \end{align*}\)

Et si \(x = cost\), alors \(\forall t \in \mathbb R,\) on a: \(x \in [-1;1]\)

\(\begin{align*} cos(nt)+i.sin(nt) & = \sum\limits_{k=0}^{\lfloor n/2 \rfloor} \binom{n}{2k} (-1)^k x^{n-2k}.{(1-x^{2})}^k +  i.sint \sum\limits_{k=0}{\lfloor (n-1)2/ \rfloor} \binom{n}{2k+1} (-1)^kx^{n-2k-1}.{(1-x^{2}t)}^k  \\ 
& = T_n(cost) + i.sint.U_n(cost) \end{align*}\)

\(T_n\) et \(U_n\) existent
\[ T_n(x) = \sum\limits_{k=0}^{ \lfloor n/2 \rfloor} {(-1)}^{k} \binom{n}{2k}x^{n-2k}   \space {(1-x^2)}^k\]   \[U_n(X) =  \sum\limits_{k=0}^{ \lfloor (n-1)/2 \rfloor} {(-1)}^{k} \binom{n}{2k+1}x^{n-2k-1}   \space (1-x^2)^{k}\]

 

 

2 - Unicité

Supposons qu'il existe 1 autre polynômes \(Q_n\) tel que \(Q_n(x)\) soit égal  à \(cos(nt)\), alors: 
\(\begin{align*}\forall t \in \mathbb R, \space \space & T_n(cost) = Q_n (cost) \\
\Leftrightarrow & T_n(cost)- Q_n (cost) = 0 \\
\Leftrightarrow & (T_n- Q_n)(cost) = 0, \space \forall t \in \mathbb R \end{align*}\)

Soit alors \(x \in [-1;1]\), \(\exists! \space t \in [0;\pi]\) tel que \(x = cos (t)\) et en conséquence
\(\begin{align*}  (T_n- Q_n)(x) = 0 \space \space \forall x \in [-1;1]\end{align*}\)

Il existe alors une infinité de racines de \((T_n- Q_n)\) sur \([-1;1]\) , et dans ce cas  \((T_n- Q_n)\) est le polynôme identiquement nul.
Si \((T_n- Q_n)\) est le polynôme identiquement nul, alors: 
\(\begin{align*}  (T_n- Q_n)(x) = 0 \space \space \forall x \in \mathbb R  \\ \end{align*}\)
et alors \(\forall x \in \mathbb R, \space \space T_n = Q_n \) et \(T_n\) est unique.

La démonstration est exactement la même pour \(U_n\)

 

3 - Conclusion :  
\(T_n\) et \(U_n\) existent et sont uniques
\[ T_n(x) = \sum\limits_{k=0}^{ \lfloor n/2 \rfloor} {(-1)}^{k} \binom{n}{2k}x^{n-2k}   \space {(1-x^2)}^k\]   \[U_n(X) = \sum\limits_{k=0}^{ \lfloor (n-1)/2 \rfloor} {(-1)}^{k} \binom{n}{2k+1}x^{n-2k-1}   \space (1-x^2)^{k}\]

 

 

3 - Montrer que \(\forall x \in [-1;1]\), \(T_n(x) = cos(n.arccos(x))\) et \(\forall x \in ]-1;1[\), \(U_n(x) = \frac{sin(n.arcos(x))}{\sqrt{1- x^2}}\)

On sait \( \begin{align*} \begin{cases} \cos(nt) = T_n(\cos t) \\  \sin (nt) = \sin{t} .U_n(\cos t) \end{cases} \end{align*}\)

Soit: \( \begin{align*} \begin{cases}x \in [-1;1] \\ 
t= arccos(x) \Rightarrow x=cost \text{ avec } \boxed{t \in [0;\pi]} \end{cases} \end{align*} \).
Alors:
\(T_n(x) = T_n(cost) = cos(nt) = cos(n.arcos(x))\)

 

De même, soit: \(\begin{align*} \begin{cases} x \in ]-1;1[ \\ 
t= arccos(x) \Rightarrow x=cost \text{ avec } \boxed{t \in ]0;\pi[} \\ \text{Donc }sint \neq 0 \Rightarrow \text{ possibilité  de diviser par }sint \\ 
 sint \gt 0 \Rightarrow \text{ possibilité  de mettre sous la racine } \end{cases} \end{align*}\).
Alors:
\(\begin{align*}sin(nt) & = sint.U_n(cost) \\ \Rightarrow U_n(cost)  & = U_n(x)  = \frac{sin(nt)}{sint}  = \frac{sin(n.arccos(x))}{\sqrt{sin^2t}} \\
& = \frac{sin(n.arcos(x))}{\sqrt{1-cos^2t}} = \frac{sin(n.(arcos(x))}{\sqrt{1-x^2}} \end{align*}\)

\[\begin{align*} \forall x \in [-1;1] , \space \space T_n(x) = cos(n.arccos(x)) \end{align*}\]

\[\begin{align*} \forall x \in ]-1;1[ , \space \space U_n(x) = \frac{sin(n.arcos(x))}{\sqrt{1- x^2}} \end{align*}\]

 

On remarque que:

  • \(\begin{align*} \boxed{t \in [0;\pi]} \end{align*}\) pour \(T_n\)
  • \(\begin{align*} \boxed{t \in ]0;\pi[} \end{align*}\) pour \(U_n\)

Cette remarque sera utile dans des questions suivantes!!

 

4 - Montrer que \(T'_n(x) = nU_n(x)\)

On sait : \( \begin{align*} \begin{cases} \cos(nt) = T_n(\cos t) \\  \sin (nt) = \sin{t} .U_n(\cos t) \end{cases} \end{align*}\)

Dérivons \(cos(nt)\) de 2 façons différentes:

  • \( \begin{align*} \big(cos(nt) \big)' = -n.sin(nt) = -n.sint.U_n(cost) = -sint.\underbrace{n.U_n(cost)} \end{align*}\)
  • \( \begin{align*} \big(cos(nt) \big)' = \big[ T_n(cost) \big] '= -sint.\underbrace{T'_n(cost)} \end{align*}\)

Par identification, il vient:
\(n.U_n(cost) = T'_n(cost) \Leftrightarrow T'_n(x) = n.U_n(x)\) 

Les fonctions polynômiales \(T'_n\) et \(n.U_n\) coïncident sur un ensemble infini, en l'occurrence l'ensemble des \(cos t\), \(t \in \mathbb R - k\pi \space (k \in \mathbb Z)\), donc ces 2 polynômes sont égaux. (voir la démonstration en question 2 pour l'unicité de \(T_n\) et \(U_n\) )

\[T'_n(X) = n.U_n(X)\]

 

 

5 - Relation entre \(T_{n+1}\), \(T_{n}\), \(T_{n-1}\)

Il existe plusieurs façons de poser le problème et d'y répondre:

  1. trouver une relation entre \(T_{n+1}\), \(T_{n}\), \(T_{n-1}\). C'est au candidat de trouver cette relation.
  2. Démontrer que \(\begin{align*} \forall X \in [-1;1], \space \space    T_{n+1}(X)+ T_{n-1}(X) = 2X.T_n(X)  \end{align*}\) par calcul direct

1 - trouver une relation entre \(T_{n+1}\), \(T_{n}\), \(T_{n-1}\). C'est au candidat de trouver cette relation.

Pour cela nous allons utiliser:  \( cosa.cosb =\frac{1}{2}(cos(a+b)+ cos(a-b))\) 

Calculons: \(cos(nt)cost\)de façon apparaitre du \((n+1)\) et du \((n-1)\)
\(\begin{align*} cos(nt).cost & = \frac{1}{2} \big[ cos(nt+t) + cos(nt-t)\big]  \\
& = \frac{1}{2} \big [cos[(n+1)t]+ cos[(n-1)t] \big] \\ \end{align*}\)

Et comme \(cos(nt)=T_n(cost)\):
\(\begin{align*} \Leftrightarrow &  T_n(cost).cost  = \frac{1}{2} \big[ T_{n+1}(cost)+ T_{n-1}(cost)] \big] \\
\Leftrightarrow & 2T_n(cost).cost  =  T_{n+1}(cost)+ T_{n-1}(cost)\\ \end{align*}\)

En remplaçant \(cost\) par X (voir la question 2):
\(\begin{align*} \Leftrightarrow & 2T_n(X).X  =  T_{n+1}(X)+ T_{n-1}(X) \\
\Leftrightarrow & 2X.T_n(X)  =  T_{n+1}(X)+ T_{n-1}(X) \\
\Leftrightarrow  & T_{n+1}(X)+ T_{n-1}(X) = 2X.T_n(X) \end{align*}\)

Pour l'unicité, on procède comme dans la question 2 avec:
\(\begin{align*}T_{n+1}(X)+ T_{n-1}(X) - 2X.T_n(X) = 0 \end{align*}\)

Si \(T_{n-1}\) et \(T_{n}\) sont des polynômes , alors \(T_{n+1}\) est aussi un polynôme. On peut le démontrer par récurrence simple et triviale. Cela a aussi été démontré dans la question 2.

\[\begin{align*} \forall X \in [-1;1], \space \space     T_{n+1}(X)+ T_{n-1}(X) = 2X.T_n(X)  \end{align*}\]

 

 

2 - Démontrer que \(\begin{align*} \forall X \in [-1;1], \space \space    T_{n+1}(X)+ T_{n-1}(X) = 2X.T_n(X)  \end{align*}\) par calcul direct

On sait : \(cosa+cosb= 2 cos(\frac{a+b}{2})cos(\frac{a-b}{2})\)

calcul de:  \(T_{n+1}(X)+T_{n-1}(X)\)
\(\begin{align*} T_{n+1}(X)+T_{n-1}(X) & = cos[(n+1)t]+ cos[(n-1)t] \\
& =  2 cos \bigg[\frac{(n+1)t + (n-1)t}{2} \bigg] cos \bigg [\frac{(n+1)t-(n-1)t}{2} \bigg] \\
& = 2cos(nt).cost \\ & = 2.cost.cos(nt) \\ & = 2XT_n(X)\end{align*}\)

Si \(T_{n-1}\) et \(T_{n}\) sont des polynômes , alors \(T_{n+1}\) est aussi un polynôme. On peut le démontrer par récurrence simple et triviale. Cela a aussi été démontré dans la question 2.

Si \(t \in \mathbb R\), alors \(X \in [-1;1]\)

\[\begin{align*} \forall X \in [-1;1], \space \space     T_{n+1}(X)+ T_{n-1}(X) = 2X.T_n(X)  \end{align*}\]

 

 

 
6 - En déduire les degré et coefficient dominant de \(T_n\)

Démonstrations par récurrence:

1 - le degré de \(T_n\) et de \(U_n\)

On connait: \(\begin{align*} \begin{cases} T_0=1 \\ T_1=X \\ T_2=2x^2-1 \end{cases} \text{ et: } \begin{cases}  \forall X \in [-1;1], \space     & T_{n+1}(X) = 2X.T_n(X)- T_{n-1}(X) \\ \Leftrightarrow & T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X)  \end{cases}\end{align*}\)

Soit la proposition \(P_n\): \(deg(T_n)=n\)

  • Initialisation:
    Par calcul : \(\begin{align*}\begin{cases} deg(T_0)=deg(1)=0 \\ deg(T_1)=deg(X) = 1   \end{cases} \end{align*}\)
    Par hypothèse:\(\begin{align*}\begin{cases} deg(T_0) =0 \\ deg(T_1) =1   \end{cases} \end{align*}\)
    \(P_n\) est vrai aux rangs \((n=0)\), et \((n=1)\)


  • Récurrence: 
    Considérons la proposition \(P_n\)  : \( deg(T_n)=n\) vraie aux rangs \(n\) et \(n+1\)
    Et montrons que \(P_{n+2}\) est vraie, soit \(deg(T_{n+2})=n+2\)
    \(\begin{align*}T_{n+2}(X) & = 2X.T_{n+1}(X)- T_n(X) \end{align*}\)
    \(\begin{align*} deg( T_{n+2}(X)) & = deg(2X.T_{n+1}(X)- \underbrace{T_n(X)}_{\text{de degré inférieur a  }(n+1)} \\ & = deg(2X)+deg(T_{n+1}(X)) \\ & = deg(X)+ deg(T_{n+1}(X)) \\ & = 1+n+1 = n+2 \end{align*}\)
    Alors \(P_n\) est vraie au rang \(n+2\)


  • Conclusion:
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\). Par récurrence, si elle est vraie aux rangs \(n\) et \(n+1\), alors elle est vraie au rang \(n+2\). \(P_n\) est donc vraie pour tout \(n \in \mathbb N\)
\[ \forall n \in \mathbb N, \space \space \space deg(T_n) = n  \]

 

 

2 - Le coefficient dominant

On connait: \(\begin{align*} \begin{cases} T_0=1 \\ T_1=X \\ T_2=2x^2-1 \\ T_3= 4X^3-3X \end{cases} \text{ et: } \begin{cases}  \forall X \in [-1;1], \space     & T_{n+1}(X) = 2X.T_n(X)- T_{n-1}(X) \\ \Leftrightarrow & T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X)  \end{cases}\end{align*}\)

On peut remarquer que à chaque itération, le coefficient dominant est multiplié par \(2\).
\(n=0\): pas d'idée!!
\(n=1 : dom(T_1) = 1 = 2^0 \)
\(n=2: dom(T_2) = 2 = 2^1  \)
\(n=3: dom(T_3) = 4 = 2^{2}\)

Soit la proposition \(P_n\): Le coefficient dominant  \(dom(T_n) = 2^{n-1}  \) et \(\underline{n \neq 0}\)

  • Initialisation
    Par calcul: \(\begin{align*}\begin{cases} dom(T_1)=dom(1)=1 \\ dom(T_2)=dom(2X^2-1) = 2   \end{cases} \end{align*}\)
    Par hypothèse: \(\begin{align*}\begin{cases}dom(T_1) = 2^{1-1} = 2^0=1 \\ dom(T_2) = 2^{2-1} = 2^1=2  \end{cases} \end{align*}\)
    \(P_n\) est vrai aux rangs \((n=1)\), \((n=2)\)


  • Récurrence:
    Considérons la proposition \(P_n\) : \( dom(T_{n})=2^{n-1} \) vraie aux rangs \(n\) et \(n+1\)
    Et montrons que \(P_{n+2}\) est vraie, soit \(dom(T_{n+2}) = 2^{(n+2)-1}\)
    \(\begin{align*}dom(T_{n+2}) & = dom(2X.T_{n+1})   \\ & = 2 \times dom(T_{n+1})  \\ & = 2 \times 2^n = 2^{n+1}= 2^{(n+2)-1}  \end{align*}\)
    Alors \(P_n\) est vraie au rang \(n+2\)


  • Conclusion:
    \(P_n\) est vrai aux rangs \((n=1)\), \((n=2)\) . Par récurrence, si elle est vraie aux rangs \(n\) et \(n+1\), alors elle est vraie au rang \(n+2\). \(P_n\) est donc vraie pour tout \(n \in \mathbb N^*\)
\[ \forall n \in \mathbb N^*, \space \space \space dom(T_n) = 2^{n-1} \]

 

 
3 - Confirmation avec la question 2

Question 2 : \(T_n(x) = \sum\limits_{k=0}^{ \lfloor n/2 \rfloor} {(-1)}^{k} \binom{n}{2k}x^{n-2k}   \space {(1-x^2)}^k\)

\(\begin{align*} deg \big(T_n(x) \big) & = deg \bigg(\sum\limits_{k=0}^{ \lfloor n/2 \rfloor} {(-1)}^{k} \binom{n}{2k}x^{n-2k}   \space {(1-x^2)}^k \bigg)\\
& = deg \bigg((x^{n-2k})  {(1-x^2)}^k \bigg) \\
& = deg(x^{n-2k})+ deg \big( {(1-x^2)}^k) \big) \\
& = n-2k + 2k = n \end{align*}\)
On peut remarquer que les \(2k\) s'annulent et que \(deg \big(T_n(x) \big)\) est indépendant de \(k\)

 

Pour le coefficient dominant, on recherche le coefficient correspondant au degré \(n\)
\(\begin{align*} dom \big(T_n(x) \big) & = dom \big(\sum\limits_{k=0}^{ \lfloor n/2 \rfloor} {(-1)}^{k} \binom{n}{2k}x^{n-2k}   \space {(1-x^2)}^k \big)  = \sum\limits_{k=0}^{ \lfloor n/2 \rfloor} \binom{n}{2k} \end{align*}\)
On ne veut garder que les cas pairs. Alors on fait un changement de variable. Il faut changer l'opérande pour cela en \(\big(1 + (-1)^k \big)\), ainsi l'opérande est à \(0\) pour les cas impairs et a \(2\) pour les cas pairs.
\(\begin{align*} dom \big(T_n(x) \big) & = \frac{1}{2}\sum\limits_{k=0}^{ n} \binom{n}{k} \big(1 + (-1)^k \big) \\
& = \frac{1}{2} \underbrace{\sum\limits_{k=0}^{ n} \binom{n}{k}}_{(1+1)^n=2^n} + \frac{1}{2} \underbrace{\sum\limits_{k=0}^{ n} \binom{n}{k} (-1)^k}_{(1-1)^n=0^n} \\
& = \frac{1}{2}2^{n}+ \frac{0^n}{2} =2^{n-1}+0= 2^{n-1} \end{align*}\)

 

 

7 - Montrer que \(T_n\) a la même parité que \(n\)

On connait: \(\begin{align*} \begin{cases} T_0=1 \\ T_1=X \\ T_2=2x^2-1 \end{cases} \text{ et: } \begin{cases}  \forall X \in [-1;1], \space     & T_{n+1}(X) = 2X.T_n(X)- T_{n-1}(X) \\ \Leftrightarrow & T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X)  \end{cases}\end{align*}\)

Soit la proposition \(P_n\):   "\(T_n  \) a la même parité que \(n\)", qui peut aussi s'écrire \(\boxed{T_n(-X) = (-1)^nT_n(X)}\), ainsi:
si n est pair, \((-1)^n = 1\) et \(T_n(-X) = T_n(X)\) 
si n est impair, \((-1)^n = -1\) et \(T_n(-X) = -T_n(X)\) 

  • Initialisation
    Par calcul : \(\begin{align*}\begin{cases} \begin{cases} (T_0)(X) = 1\\ (T_0)(-X)=1  \end{cases}  \Rightarrow 0 \text{ et } T_0 \text{ ont la même parité} \\ \begin{cases} (T_1)(X) = X\\ (T_1)(-X)=-X  \end{cases}  \Rightarrow 1 \text{ et } T_1 \text{ ont la même parité} \end{cases} \end{align*}\)
    Par hypothèse: \(\begin{align*}\begin{cases}  n=0 \text{ est pair donc } T_0 \text{ est pair} \\     n=1 \text{ est impair donc }T_1 \text{ est pair}         \end{cases} \end{align*}\)
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\)

  • Récurrence:
    Considérons la proposition \(P_n\) :  "\(T_n  \) a la même parité que \(n\)" ou encore \(T_n(-X) =(-1)^n T_n(X)\) vraie aux rangs \(n\) et \(n+1\)
    Et montrons que \(P_{n+2}\) est vraie, soit "\(T_{n+2}  \) a la même parité que \(n+2\)" ou encore la même parité que \(n\)
    \(\begin{align*}T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X) \end{align*}\)
    \(\begin{align*}T_{n+2}(-X) & = 2(-X).T_{n+1}(-X)- T_n(-X) \\
    & = 2(-X)(-1)^{n+1}T_{n+1}(X)-(-1)^{n}T_n(X) \\
    & = (-1)^{n+2}2X T_{n+1}(X) - (-1)^{n}T_n(X) \\
    & = (-1)^{n} \times 1^2 \times 2X T_{n+1}(X) - (-1)^{n}T_n(X) \\
    & = (-1)^{n} 2X T_{n+1}(X) - (-1)^{n}T_n(X) \\
    & = (-1)^{n} \big[ 2X T_{n+1}(X) - T_n(X)\big] \\
    & = (-1)^{n} T_{n+2}(X)  \end{align*}\)
    \(T_{n+2}\) a la même parité que \(n\), donc la même parité que \(n+2\)
    Alors \(P_{n+2}\) est vraie

  • Conclusion:
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\). Par récurrence, si elle est vraie aux rangs \(n\) et \(n+1\), alors elle est vraie au rang \(n+2\). \(P_n\) est donc vraie pour tout \(n \in \mathbb N\)
\[ \forall n \in \mathbb N \space \space \space T_n \text{ a la parité de }n\\ T_n(-X)=(-1)^n T_n(X) \]

 

 

 
8 - Montrer que \(\forall n \in \mathbb N\), \(T_n(1) = 1 \) , \(T'_n(1) = n^2\) , \(T_n(0)=0\) si \(n\) est pair, \(T_n(0) =(-1)^{n/2}\) sinon .
1 - \(\forall n \in \mathbb N\), \(T_n(1)=1\)

On connait: \(\begin{align*} \begin{cases} T_0=1 \\ T_1=X \\ T_2=2x^2-1 \end{cases} \text{ et: } \begin{cases}  \forall X \in [-1;1], \space     & T_{n+1}(X) = 2X.T_n(X)- T_{n-1}(X) \\ \Leftrightarrow & T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X)  \end{cases}\end{align*}\)

Soit la proposition \(P_n\):   \(T_n(1)=1  \)

  • Initialisation:
    Par calcul :  \(\begin{align*} \begin{cases}T_0(1) = 1 \\ T_1(1) = 1  \end{cases} \end{align*} \)
    Par hypothèse : \(\begin{align*} \begin{cases}T_0(1) = 1 \\ T_1(1)=1 \end{cases} \end{align*}\)
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\)

  • Récurrence::
    Supposons \(P_n\) : \(T_n(1)=1 \) 
    Et montrons que \(P_{n+2}\) est vraie, soit \(T_{n+2}(1)=1 \)
    \(\begin{align*}T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X) \end{align*}\)
    \(\begin{align*}  T_{n+2}(1) & = 2 \times 1 \times T_{n+1}(1)- T_n(1)  \\
    & = 2 \times 1 \times 1-1 = 1 \end{align*}\)
    Alors \(P_n\) est vraie au rang \(n+2\)

  • Conclusion:
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\). Par récurrence, si elle est vraie aux rangs \(n\) et \(n+1\), alors elle est vraie au rang \(n+2\). \(P_n\) est donc vraie pour tout \(n \in \mathbb N\)

\[ \begin{align*} \forall n \in \mathbb N, \space \space T_n(1)=1 \end{align*} \]

 

 

2 - \(\forall n \in \mathbb N\),  \(T'_n(1)=n^2\)

\(T_n\) est un polynôme et est de classe \(C^\infty\). En particulier elle est dérivable.

On connait: \(\begin{align*} \begin{cases}T_0(X) = 1 \Rightarrow T'_0(X)=0 \\T_1(X) = X \Rightarrow T'_1(X) = 1   \end{cases} \end{align*}\)
\(\begin{align*} \forall X \in [-1;1], \space \space  T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X) \end{align*}\)

Par récurrence:

Soit la proposition \(P_n\):   \(T'_n(1)=n^2  \) 

  • Initialisation:
    Par calcul \(\begin{align*} \begin{cases} T'_0(1) = 0 \\ T'_1(1) = 1  \end{cases} \end{align*}\)
    Par hypothèse: \(\begin{align*} \begin{cases}T'_0(1) = 0^2=0 \\T'_1(1)=1^2 = 1 \end{cases} \end{align*}\)
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\)


  • Récurrence::
    Supposons \(P_n\) :  \(T'_n(1)=n^2  \) vraie aux rangs \(n\) et \(n+1\)
    Et montrons que \(P_{n+2}\) est vraie, soit \(T'_{n+2}(1)=(n+2)^2 \)
    \(\begin{align*}  T'_{n+2}(X) & =\big [ 2X  T_{n+1}(X)- T_n(X) \big]' \\
    & = 2 \times  T_{n+1}(X) + 2XT'_{n+1}(X) -T'_n(X)   \end{align*}\)
    \(\begin{align*}T'_{n+2}(1) & = 2 \times  T_{n+1}(1) + 2 \times 1 \times T'_{n+1}(1) -T'_n(1) \\
    & = (2 \times 1) + (2 \times (n+1)^2) -n^2 = 2 + 2n^2+4n+2-n^2 \\
    & = n^2+4n+4 = (n+2)^2 \end{align*}\)
    Alors \(P_n\) est vraie au rang \(n+2\)

  • Conclusion:
    \(P_n\) est vrai aux rangs \((n=0)\), \((n=1)\). Par récurrence, si elle est vraie aux rangs \(n\) et \(n+1\), alors elle est vraie au rang \(n+2\). \(P_n\) est donc vraie pour tout \(n \in \mathbb N\)

\[ \begin{align*} \forall n \in \mathbb N, \space \space T'_n(1)=n^2 \end{align*} \]

 

 

3 - Montrer que \(T_n(0)=0\) si \(n\) est impaire et \(T_n(0)=(-1)^{n/2}\) sinon

On connait: \(\begin{align*} \begin{cases} T_0=1 \\ T_1=X \\ T_2=2x^2-1 \\ T_3= 4X^3-3X \end{cases} \text{ et: } \begin{cases}  \forall X \in [-1;1], \space     & T_{n+1}(X) = 2X.T_n(X)- T_{n-1}(X) \\ \Leftrightarrow & T_{n+2}(X) = 2X.T_{n+1}(X)- T_n(X)  \end{cases}\end{align*}\)

 

  • Si \(n\) est impair:
    Si \(n\) est impair , alors \(T_{n}\) est impair (Question 7)
    Les \(T_n\) impairs sont symétriques par rapport au centre du repère \(O\) et passe par le centre du repère.
    En conséquence, \(T_{n}(0) = 0\) et cela pour tout \(n \text{ impair } \in \mathbb N\)


  • Si \(n\) est pair: alors \(n=2k\)
    Soit la proposition \(P_{n}\) : "si \(n\) est pair alors \(P_{n}(0) = (-1)^{n/2}\)  "

    •  Initialisation 
      par calcul : \(\begin{align*} \begin{cases} T_0(0)=1 \\ T_2(0) =2 \times 0^2 -1 = -1  \end{cases} \end{align*}\)
      par hypothèse:  \(\begin{align*} \begin{cases} T_0(0) = (-1)^{0/2} = 1 \\ T_2(0) = (-1)^{2/2} = -1   \end{cases} \end{align*}\)
      \(P_{n}\) est vraie aux rangs \((n=0)\), \((n=2)\)

    • Récurrence: 
      Considérons \(P_{n}\) : \(T_{n} = (-1)^{n/2}\) vraie aux rangs \(n\) , et \(T_{n+1}(0)=0\)  
      Montrons que \(T_{n+2}(X) = (-1)^{(n+2)/2}\)
      \(\begin{align*}T_{n+2}(X) & = 2X.T_{n+1}(X)- T_n(X) \end{align*}\) avec \(n=2k\)
      \(\begin{align*} T_{n+2}(X) & = T_{2k+2}(X)  =  2X.\cancel{T_{2k+1}(X)}^{=0}- T_{2k}(X)  \\
      & = 2X \times 0 - T_{2k}(X) \\
      & = - (-1)^{k} = (-1)^{k+1} = (-1)^{(2k+2)/2} = (-1)^{(n+2)/2}    \end{align*}\)
      Alors \(P_n\) est vraie au rang \(n+2\)

    • Conclusion:
      \(P_n\) est vrai aux rangs \((n=0)\), et  \((n=2)\) . Par récurrence, si elle est vraie aux rangs \(n\) et \(n+1\), alors elle est vraie au rang \(n+2\). \(P_n\) est donc vraie pour tout \(n \in \mathbb N\)

      \[ \begin{align*} T_n(0) = 0 \text{ si n est impair} \\ T_n(0)  = (-1)^{n/2} \text{ si n est pair} \end{align*} \]

 

9 - Montrer que pour \(n \in \mathbb N^*\),  \(T_n\) possède \(n\) racines simples \(\begin{align*}x_k = cos \big(\frac{\pi}{2n}+ \frac{k \pi}{n} \big)_{0 \leq k \leq n-1} \space , \space x_k \in [-1;1]  \end{align*}\) et que \(\begin{align*} \sum\limits_{k=0}^{n-1}x_k=0    \end{align*}\)

Il s 'agit de trouver ici les racines du polynôme \(T_n(x)\)
\(\begin{align*}\Leftrightarrow & \exists ? x \in \mathbb R \space \space  / \space \space   T_n(x) = 0 \\
\Leftrightarrow & \exists ? t \in \mathbb R \space \space  / \space \space  T_n(cost) = 0 \\ \Leftrightarrow & \exists ? t \in \mathbb R \space \space  / \space \space  cos(nt) = 0\end{align*}\)

On pose:
 \(x= cost \Rightarrow x \in [-1;1]\), et dans ce cas , \( t = arccos(x) \Rightarrow \underline{t \in [0;\pi]}\)

\( \begin{align*}T_n(cost) & = 0 \Leftrightarrow cos(nt) =0 \\
& \Rightarrow nt = \frac{\pi}{2} + k \pi, \space k \in \mathbb Z \\ & \Leftrightarrow t =\frac{\pi}{2n}+\frac{k \pi}{n} , \space k \in \mathbb Z , \space \space \underline{\forall n \in \mathbb N^*} \end{align*}\)

  • pour \(k=0\), on a:   \(t=\frac{\pi}{2n} , \space \space \text{ et } \forall n \in \mathbb N^*, \space 0 \leq \frac{\pi}{2n} \leq \pi\)
  • pour \(k=n\), on a:  \(t =\frac{\pi}{2n}+\frac{n \pi}{n} = \frac{\pi}{2n}+\frac{2n \pi}{2n} = \frac{(2n+1) \pi}{2n} \space \space \text{ et } \forall n \in \mathbb N^*, \space t= \frac{\pi}{2n} \geq \pi\)

Il convient alors de retirer de l'ensemble des solutions tous les \(k \gt n\), ainsi on aura toujours \(0 \leq t \leq \pi \)

Posons: \(t_k  =\frac{\pi}{2n}+\frac{k \pi}{n}\) pour lesquels \(cos(nt_k)=0\). Alors la famille \(\big( t_k \big)_{k \in [\![ 0;n-1]\!] }\) contient exactement \(n\) éléments différents 2 à 2.
La fonction \( x \mapsto cos(x)\) est strictement monotone (décroissante) sur \([0;\pi]\). elle réalise alors une bijection sur \([0;\pi]\).
Posons: \(x_k = cos(t_k)\) tel que \(T_n(x_k) = 0\). Alors, la famille \(\big( x_k \big)_{k \in [\![ 0;n-1]\!] }\) contient elle aussi exactement \(n\) élément sur \([-1;1]\) différents 2 à 2.

\(T_n\) est un polynôme de degré \(n\)
La famille \(\big( x_k \big)_{k \in [\![ 0;n-1]\!] }\) contient \(n\) éléments différents 2 à 2 tels que \(T_n(x_k) = 0\).
Nous avons donc trouvé les n racines simples (racines différentes 2 à 2) du polynôme \(T_n\) de degré \(n\).

En conséquence , le polynôme \(T_n\) possède \(n\) racines simples \(x_k = cos(t_k)\) avec \(x_k \in [-1;1]\) et \(k \in [\![ 0;n-1]\!]\)

\( \forall n \in \mathbb N^*\),  \(T_n\) possède \(n\) racines simples \(\begin{align*}x_k = cos \big(\frac{\pi}{2n}+ \frac{k \pi}{n} \big)_{0 \leq k \leq n-1} \space , \space x_k \in [-1;1]  \end{align*}\)

 

Si un polynôme \(P\) de degré \(n\) et de coefficient dominant \(a_n\) possède \(n\) racines simples \(x_i\) , alors on peut le mettre sous la forme \(P = a_n \prod\limits_{i=0}^{n}(X-x_i)\)
Dans notre cas , \(dom(T_n) = 2^{n-1}\)

\[\begin{align*}  \forall n \in \mathbb N^*, \space T_n(X) = 2^{n-1} \prod\limits_{k=0}^{n-1} \bigg[ X- cos\big(\frac{\pi}{2n}+ \frac{k \pi}{n} \big) \bigg]  \end{align*} \]

 

  • Si \(n\) est pair, alors \(T_n\) est pair , le coefficient du terme en puissance \(n-1\) (impair) est nul: \(a_{n-1}=0\)
  • Si \(n\) est impair, alors \(T_n\) est impair , le coefficient du terme en puissance \(n-1\) (pair) est nul: \(a_{n-1}=0\)

Donc \(a_{n-1}=0\) dans tout les cas et : 

\[\begin{align*} \forall n \in \mathbb N^*, \space \sum\limits_{k=0}^{n-1}x_k=0    \end{align*}\]

 

 

10 - Trouver les EXTREMA de \(T_n\)

Par définition: \(T_n(x) = T_n(cost) = cos(nt)\)

Comme dans la question 9 :

\(\begin{align*}\Leftrightarrow & \exists ? x \in \mathbb R \space \space  / \space \space   T_n(x) \text{ soit maximum} \\
\Leftrightarrow & \exists ? t \in \mathbb R \space \space  / T_n(cost)\space \space  \text{ soit maximum} \\ \Leftrightarrow & \exists ? t \in \mathbb R \space \space  / \space \space  cos(nt) \text{ soit maximum}\end{align*}\)

On pose:
 \(x= cost \Rightarrow x \in [-1;1]\), et dans ce cas , \( t = arccos(x) \Rightarrow \underline{t \in [0;\pi]}\)
Et finalement: \(  \lvert T_n(x) \rvert \leq 1\) et \(\exists ? x \in [-1;1] \space \space  / \space \space  \lvert T_n(x) \rvert = 1\)

\( \begin{align*}T_n(cost) \text{ est maximum }& \Leftrightarrow \lvert cos(nt) \rvert =1 \\
& \Rightarrow nt =  k \pi, \space k \in \mathbb Z \\ & \Leftrightarrow t =\frac{k \pi}{n} , \space k \in \mathbb Z , \space \space \underline{\forall n \in \mathbb N^*} \end{align*}\)

  • pour \(k=0\), on a:   \(t=0 , \space \space \text{ et } \forall n \in \mathbb N^*, t \in [0;\pi]\)
  • pour \(k=n\), on a:  \(t =\frac{n\pi}{n}= \pi \text{ et } \forall n \in \mathbb N^*, \space t \in [0;\pi]\)

Posons: \(t'_k  =k \pi\) pour lesquels \(\lvert cos(nt'_k) \rvert =1\). Alors la famille \(\big( t'_k \big)_{k \in [\![ 0;n]\!] }\) contient exactement \(n+1\) éléments différents 2 à 2.
La fonction \( x \mapsto cos(x)\) est strictement monotone (décroissante) sur \([0;\pi]\). elle réalise alors une bijection sur \([0;\pi]\).
Posons: \(x'_k = cos(t'_k)\) tel que \(T_n(x'_k) \text{ soit maximum}\). Alors, la famille \(\big( x'_k \big)_{k \in [\![ 0;n]\!] }\) contient elle aussi exactement \(n+1\) élément sur \([-1;1]\) différents 2 à 2.

Nous avons donc trouvé les \(n+1\) extrema (différents 2 à 2) du polynôme \(T_n\)

\( \forall n \in \mathbb N^*\),  \(T_n\) possède \(n+1\) extrema, en  \(\begin{align*}x'_k = cos \big(\frac{k \pi}{n}\big)_{0 \leq k \leq n} \space , \space x_k \in [-1;1]  \end{align*}\)

 

 

11 - Montrer que \( \begin{align*}  \prod\limits_{k=0}^{n-1}cos \bigg( \frac{\pi}{2n} + \frac{k\pi}{n}  \bigg) \begin{cases}  =0 \text{ si n est impair} \\ = \frac{(-1)^{n/2}}{2^{n-1}} \text{ si n est impair}\end{cases} \end{align*}\)

\(\begin{align*}  \forall n \in \mathbb N^*, \space T_n(X) = 2^{n-1} \prod\limits_{k=0}^{n-1} \bigg[ X- cos\big(\frac{\pi}{2n}+ \frac{k \pi}{n} \big) \bigg]   \end{align*} \)

\( \begin{align*}T_n(0) & = a_0  = 2^{n-1} \prod\limits_{k=0}^{n-1} \bigg[ 0- cos\big(\frac{\pi}{2n}+ \frac{k \pi}{n} \big) \bigg] \\ & = 2^{n-1} (-1)^n\prod\limits_{k=0}^{n-1} x_k \end{align*} \)

  • Si \(n\) est impair, alors \(a_0 = 0\) car \(T_n(0) = 0\) (question 8). Et alors \(\prod\limits_{k=0}^{n-1}x_k = 0\)
  • si \(n\) est pair, alors \(a_0=(-1)^{n/2}\) (question 8) et alors \((-1)^{n/2} = 2^{n-1} \underbrace{(-1)^n}_{=1}\prod\limits_{k=0}^{n-1} x_k\) .
    Et en conséquence: \(\prod\limits_{k=0}^{n-1} x_k = \frac{(-1)^{n/2}}{2^{n-1}}\)

\[ \begin{align*}  \prod\limits_{k=0}^{n-1}cos \bigg( \frac{\pi}{2n} + \frac{k\pi}{n}  \bigg) \begin{cases}  =0 \text{ si n est impair} \\ = \frac{(-1)^{n/2}}{2^{n-1}} \text{ si n est impair}\end{cases} \end{align*}\]

 

 

12 - Montrer que \(T_n\) est solution de l'équation différentielle:  \((E): (X^2-1)y" + Xy' - n^2y=0\)

\(T_n\) est solution de (E) \(\Leftrightarrow (X^2-1)T"_n + XT'_n - n^2T_n=0\)

On a: \(cos(nt) = T_n(cost)\)
\(T_n\) est un polynôme, il est donc de clace \(C^\infty\)

En dérivant des 2 côtés une première fois, il vient:
\(-n.sin(nt) = -sint.T'_n(cost)\)

En dérivant une seconde fois, il vient:
\(\begin{align*} &  -n^2cos(nt) = -cost.T'_n(cost)- sint.(-sint).T^{"}_n(cost) \\
 \Rightarrow  & -n^2T_n(cost) = -cost.T'_n(cost)+ sin^2t.T^{"}_n(cost) \\
  \Rightarrow & -n^2T_n(cost)  = -cost.T'_n(cost)+ (1-cos^2t).T^{"}_n(cost) \\
  \Rightarrow & (cos^2t-1)T^{"}_n(cost) + cost.T'_n(cost) -n^2T_n(cost) = 0, \space \forall t \in \mathbb R \\
\forall X \in & [-1;1]  , \space \exists!t \in [0;\pi], \space \space X=cost \\
  \Rightarrow & (X^2-1)T^{"}_n(X) + X.T'_n(X) -n^2T_n(X) = 0, \space \forall X \in  [-1;1] \end{align*}\)

Nous avons un polynôme qui est nul pour une infinité de valeurs de \([-1;1]\). C 'est donc le polynôme identiquement nul. Et en conséquence, ce polynôme est nul quelque soit \(X \in \mathbb R\)  et ( idem question 2 sur l 'unicité de \(T_n\)) : 
\((X^2-1)T^{"}_n(X) + X.T'_n(X) -n^2T_n(X) = 0, \space \forall X \in \mathbb R \)
Donc \(T_n\) est bien solution de (E)

\[\begin{align*}(X^2-1)T^{"}_n(X) + X.T'_n(X) -n^2T_n(X) = 0, \space \forall X \in \mathbb R \\ T_n \text{est solution de } (E): (X^2-1)y" + Xy' - n^2y=0 \end{align*}\]

 

 

13 - Soit \(E\) le \(\mathbb R\)-espace vectoriel des fonctions continues de \([-1;1]\) dans \(\mathbb R\). Justifier que l'application de \(E^2 \to \mathbb R\) définie par \(\langle f(t),g(t) \rangle = \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt\) est un produit scalaire.
1 - Existence de \(\begin{align*}  \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt = I \end{align*}\)

Soient \(f\) et \(g\), 2 fonctions continues sur \(]-1;1[\) et  \((f,g) \in E^2\). Alors le produit des fonctions \(fg\) est continue sur \(]-1;1[\) .

\(\begin{align*}  I & = \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt \\ 
& = \int_{-1}^{0}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt +  \int_{0}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt \end{align*}\)

Comme \(fg\) est continue sur un segment, par théorème des valeurs extrêmes, il existe un majorant \(M\) de \(\lvert f(t)g(t) \rvert\) et

\(\begin{align*} \forall t \in \mathbb R, \space \Bigg| \frac{f(t)g(t)}{\sqrt{1-t^2}} \Bigg| \leq \frac{M}{\sqrt{(1-t)(1+t)}} \end{align*}\)

  • Au voisinage de \(t=1\):
    \(\begin{align*} \frac{M}{\sqrt{(1-t)(1+t)}} \underset{t \to 1}{\sim}  \frac{M}{(1-t)^{1/2} \sqrt{2}} \end{align*}\)
    Et d'après le critère de Riemman (\(\begin{align*} \int_0^1\frac{dt}{t^{\alpha}} \text{ converge} \Longleftrightarrow \alpha=1/2 \lt 1 \end{align*}\) ) \(\begin{align*}\int_{0}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt \end{align*}\) converge.

  • Au voisinage de \(t=-1\):
    \(\begin{align*} \frac{M}{\sqrt{(1-t)(1+t)}} \underset{t \to -1}{\sim}  \frac{M}{(1+t)^{1/2} \sqrt{2}} \end{align*}\)
    Et d'après le critère de Riemman (\(\begin{align*} \int_{-1}^0 \frac{dt}{t^{\alpha}} \text{ converge} \Longleftrightarrow \alpha=1/2 \lt 1 \end{align*}\) ) \(\begin{align*}\int_{-1}^{0}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt \end{align*}\) converge.

  • Conclusion:
    la fonction \(t \mapsto \frac{f(t)g(t)}{\sqrt{1-t^2}}\) est bien intégrable sur \(]-1;1[\), l'intégrale \(I=\int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt\) converge, la fonction \(\langle f,g \rangle\) est bien définie.

 

2 - \(\langle f,g \rangle\) est il un produit scalaire?

Un produit scalaire est une forme bilinéaire symétrique et définie positive

  • forme symétrique:  \(\langle f,g \rangle = \langle g,f \rangle\) ?
    On l 'obtiendra par la symétrie de l'intégrale: \( \int f \times g = \int g \times f\)
    Soient \((f,g) \in E^2\) 
    \(\begin{align*} \langle f,g \rangle  & = \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt 
     = \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt 
     = \langle g,f \rangle \end{align*}\)

  • forme bilinéaire 
    • Par rapport à la première variable: \( \langle \lambda f + \mu g , h  \rangle = \lambda   \langle  f  , h  \rangle + \mu  \langle  g  , h  \rangle\) ?
      Soient \((f,g,h) \in E^3\) et \((\lambda , \mu ) \in \mathbb R^2\) 
      \(\begin{align*} \langle \lambda f + \mu g , h  \rangle & =  \int_{-1}^{1}\frac{(\lambda f + \mu g)(t)h(t) }{\sqrt{1-t^2}}dt
      =  \int_{-1}^{1}\frac{((\lambda f)(t) + (\mu g)(t))(h(t)) }{\sqrt{1-t^2}}dt \\
      & = \int_{-1}^{1}\frac{(\lambda f(t) + \mu g(t))(h(t)) }{\sqrt{1-t^2}}dt 
      = \int_{-1}^{1}\frac{\lambda f(t)h(t)  }{\sqrt{1-t^2}}dt + \int_{-1}^{1}\frac{ \mu g(t)h(t) }{\sqrt{1-t^2}}dt \\
      & = \lambda \int_{-1}^{1} \frac{ f(t)h(t)  }{\sqrt{1-t^2}}dt+ \mu \int_{-1}^{1} \frac{ g(t)h(t)  }{\sqrt{1-t^2}}dt
      =\lambda   \langle  f  , h  \rangle + \mu  \langle  g  , h  \rangle \end{align*}\)

    • Par rapport à la première variable: La 2ème linéarité est obtenue par symétrie, déjà démontrée.

  • forme définie positive: \( \langle f,f \rangle \geq 0 \) ? et \( \langle f,f \rangle =0 \Leftrightarrow f = 0 \)
    Soit \(f \in E\)
    • Positive : \(\langle f , f \rangle \geq0\) ?
      \(\begin{align*} \langle f,f \rangle = \int_{-1}^{1}\frac{f(t)f(t)}{\sqrt{1-t^2}}dt = \int_{-1}^{1}\frac{\overbrace{f^2(t)}^{\geq 0}}{\underbrace{\sqrt{1-t^2}}_{\gt 0}}dt \geq 0  \end{align*}\) par positivité de l'intégrale d'une fonction positive.

    • Définie postive: \(\langle f,f \rangle =0 \Longleftrightarrow f=0\)
      Si \(\int_{-1}^{1}\frac{\overbrace{f^2(t)}^{\geq 0}}{\underbrace{\sqrt{1-t^2}}_{\gt 0}}dt = 0\) alors \(f(t) = 0 \space \forall t \in [-1;1]\). Donc f(t) est le polynôme identiquement nul et \(\forall t \in \mathbb R, \space f(t) = 0\)
      De même , si \(f=0\) alors on aura \(\langle f,f \rangle =0\)
      Et pour finir , \(\langle f,f \rangle =0 \Longleftrightarrow f=0\)

 

\[\langle f,f \rangle = \int_{-1}^{1}\frac{f(t)g(t)}{\sqrt{1-t^2}}dt\] définit bien un produit scalaire sur \(E\)

 

 

14 - Pour tous \((m,n) \in \mathbb N^2\), calculer le produit scalaire \(\langle T_n , T_m \rangle\). Que peut on dire de la famille \(\big(T_n\big)_{n \in \mathbb N}\) ?

\(\begin{align*} \langle T_n , T_m \rangle & = \int_{-1}^{1} \frac{T_n(x) T_m(x)}{\sqrt{1-x^2}} dx    \end{align*}\) et \(T_n(cost) = cos(nt)\)

Procédons à un changement de variable:
\(\begin{align*}  \begin{cases} x= cost \\ dx = -sint.dt \end{cases} \Rightarrow \begin{cases} t \xrightarrow{x \to 1} 0  \\ t \xrightarrow{x \to -1} \pi \end{cases} \text{ et } \begin{cases} t = arcos (x) , x \in ]-1;1[  \\ t \in ]0;\pi[ \text{ et } sint \gt 0 [\end{cases}  \end{align*}\)

\(\begin{align*} \langle T_n , T_m \rangle & = \int_{x=-1}^{x=1} \frac{T_n(x) T_m(x)}{\sqrt{1-x^2}} dx 
=   \int_{t=\pi}^{t=0} \frac{T_n(cost) T_m(cost)}{\sqrt{1-cos^2t}} (-sint)dt  \\
& = \int_{t=0}^{t=\pi} \frac{T_n(cost) T_m(cost)}{\sqrt{sin^2t}} sint.dt = \int_{t=0}^{t=\pi} \frac{cos(nt) (cost(m)}{sint} sint.dt \\
& = \int_{t=0}^{t=\pi} cos(nt) (cos(mt) dt = \int_{t=0}^{t=\pi} \frac{1}{2} \big[ cos \big( (m+n)t \big) +cos \big( (m-n)t \big) \big]dt \end{align*}\) 

  • Si \( n=m=0\)
    \(\begin{align*} \langle T_n , T_m \rangle & = \int_{t=0}^{t=\pi} \frac{1}{2} \big[ cos \big( (m+n)t \big) +cos \big( (m-n)t \big) \big]dt \\ & = \frac{1}{2} \int_{t=0}^{t=\pi} (1+1)dt =\int_{t=0}^{t=\pi} (1+1)dt = \pi \end{align*}\) 

  • Si \(n = m \neq 0\)
    \(\begin{align*} \langle T_n , T_m \rangle & = \int_{t=0}^{t=\pi} \frac{1}{2} \big[ cos \big( (m+n)t \big) +cos \big( (m-n)t \big) \big]dt \\ & = \frac{1}{2} \int_{t=0}^{t=\pi} (cos(2nt)+1)dt  =\frac{1}{2} \bigg[ \frac{sin(2nt)}{2n} + t \bigg]_0^\pi = \pi/2 \end{align*}\)

  • Si \(n \neq m  0\)
    \(\begin{align*} \langle T_n , T_m \rangle & = \int_{t=0}^{t=\pi} \frac{1}{2} \big[ cos \big( (m+n)t \big) +cos \big( (m-n)t \big) \big]dt \\ &   =\frac{1}{2} \bigg[ \frac{sin\big( (m+n)t \big)}{m+n} + \frac{sin\big( (m-n)t \big)}{m-n}  \bigg]_0^\pi = 0 \end{align*}\)

Si \(m \neq m\), alors la famille \( \langle T_n , T_m \rangle = 0\) , alors \(\bigg(T_n \bigg)_{n \in \mathbb N}\) est une famille orthogonale de \(\mathbb R[X]\) au sens de \(\langle . , . \rangle\). La famille \( \langle T_n , T_m \rangle = 0\) , alors \(\bigg(T_n \bigg)_{n \in \mathbb N}\) n 'est pas normée.

\[\begin{align*} \forall (n,m) \in \mathbb N^2, \space \langle T_n , T_m \rangle = \begin{cases} \pi \text{ si } n=m=0\\ \pi/2 \text{ si } n=m \neq 0 \\ 0 \text{ si } n \neq 0   \end{cases} \end{align*} \] \[ \bigg(T_n \bigg)_{n \in \mathbb N} \text{  est une famille othogonale de } \mathbb R[X]\]

 

 

15 - A partir du résultat de la question 4 et des autres résultats, déterminer les degré et coefficient dominant de \(U_n\)

Résultat de la question 4 : \(T'_n(X) = n.U_n(X)\) et donc \(U_n(X) =\frac{1}{n} T'_n(X)\)
Si \(T_n = a_nx^n + \cdots + a_0 \), alors \(T'_n = n.a_nx^{n-1} + \cdots \cdots\)

  • \(deg(U_n)\)
    \(deg(U_n) = deg (\frac{1}{n} T'_n) =deg ( T'_n)\)
    avec \(deg(T_n) = n \Rightarrow deg(T'_n)=n-1\)
    \(deg(U_n) = n-1\) avec \(n\geq 1\)
    On vérifie avec: \(\begin{align*} \begin{cases} & U_1=1  && U_2=2X && U_3=4X^2-1 \\
    & deg(U_1)=1-1=0 && deg(U_2)=2-1=1 && deg(U_3)=3-1=2 \end{cases} \end{align*}\)


  • \(dom(U_n)\)
    \(dom(U_n) =dom (\frac{1}{n} T'_n) \)
    avec : \(dom(T_n) = 2^{n-1} \Rightarrow dom(T'n)= n \times 2^{n-1}\)
    \(dom(U_n) = dom(\frac{1}{n} T'_n) = \frac{1}{n} \times n \times 2^{n-1} = 2^{n-1}\) avec \(n\geq 1\)
    On vérifie avec: \(\begin{align*} \begin{cases} & U_1=1  && U_2=2X && U_3=4X^2-1 \\
    & dom(U_1)=2^{1-1}=1 && dom(U_2)=2^{2-1}=2 && dom(U_3)=2^{3-1}=4 \end{cases} \end{align*}\)

\[\forall n \in \mathbb N^*, \space deg(U_n) = n-1 \space \space \space \text{  et  } \space \space \space dom(U_n) = 2^{n-1} \] 

 

 

16 - Montrer que \(\forall n \in \mathbb N, \exists t \in \mathbb R, \space U_n(cos t) = \frac{sin[(n+1)t]}{sint}\)

Dans la question 4 , on a démontré que \(T'_n=nU_n\) ou encore \(U_n = \frac{1}{n}T'_n\)

On sait que \( T_n\) et \(cost\) sont de classe \(C^\infty\) et que \(T_n(cost) = cos(nt)\)

En dérivant \(cos[(n+1)t]\):  \( \big[ cos[(n+1)t] \big]' = -(n+1).sin[(n+1)t]\)

En dérivant \(T_{n+1}(cost)\):  \( \big[ T_{n+1}(cost) \big]' = -sint. T'_{n+1}(cost) \)

Avec \( t \neq k \pi, \space k \in \mathbb Z\), il vient: 
\(\begin{align*}-(n+1).sin[(n+1)t] =  -sint T'_{n+1}(cost) & \Leftrightarrow \frac{T'_{n+1}(cost)}{n+1}  =  \frac{sin[(n+1)t]}{sint} \\ & \Leftrightarrow U_{n+1} =  \frac{sin[(n+1)t]}{sint}  \end{align*}\)

\[\forall n \in \mathbb N, \space \forall t \in \mathbb R/ \pi \mathbb Z, \space U_{n+1}(cost) =   \frac{sin[(n+1)t]}{sint} \]

 

 

17 - En déduire que \(\big( U_n \big)_{n \in \mathbb N}\) suit aussi la relation de récurrence de la question 5, que  \( \forall n \in \mathbb N, \space \space U_n\) est scindé simple sur \(\mathbb R\), à racine dans \(]-1;1[\), en précisant les racines

Soient \(n \in \mathbb N\) et \(t \in \mathbb R / \pi \mathbb Z\)

On a: \(sin(a+b) +sin(a-b) = 2sina.cosb \Leftrightarrow sin(a+b) = 2sina.cosb - sin(a-b) \)

On a d 'après la question 15:
\(\begin{align*} U_{n+2}(cost) & = \frac{sin[(n+2)t]}{sint} = \frac{sin[(n+1)t+t]}{sint} \\
& =  \frac{2sin[(n+1)t].cost - sin[(n+1)t-t] }{sint}  \\
& =  \frac{2sin[(n+1)t].cost - sin(nt) }{sint} \\
& = 2cost \Bigg(\frac{sin[(n+1)t]}{sint} \Bigg) - \frac{sin(nt)}{sint} \\
& = 2cost U_{n+1} -U_n \\
& \Rightarrow U_{n+2}(X) = 2XU_{n+1}(X) - U_n(X)  \\
& \Rightarrow U_{n+2}(X) + U_n(X) = 2XU_{n+1}(X) \end{align*}\)

Tout comme l'unicité des polynômes \(\big( T_n)_{n \in \mathbb N}\) vue à la question 2 , les polynômes \(\big( U_n)_{n \in \mathbb N}\) sont eux aussi uniques.

\[ \forall n \in \mathbb N, \space U_{n+2}(X)+U_n(X) = 2XU_{n+1}\]

 

si \(t \in \mathbb R\), \(U_n(cost) = 0 \Rightarrow sin[(n+1)t]= 0 \Rightarrow (n+1)t = k \pi \Rightarrow t = \frac{k \pi}{n+1}\)

\(\forall k \in [\![ 1;n]\!] , \space \alpha_k = \frac{k \pi}{n+1}\) sont au nombre de \(n\) et sont distinctes. L'application \(cos\) est injective de \(]-1;1[\) vers \(]0;\pi[\), donc les \(cos(\alpha_k)\) sont distincts, et ce sont les racines de \(U_n\)

Or , la relation : \(\forall n \in \mathbb N, \space U_{n+1} = \frac{1}{n+1}T'_{n+1}\)non montre que \(deg(U_{n+1}) = deg(T'_{n+1}) = n, donc possède n racines, ce qui montre que \)U_n$ est scindé simple.

 

Les Polynômes de HERMITE

Les polynômes d'Hermite  sont une suite de polynômes qui a été nommée ainsi en l'honneur de Charles Hermite. Ils sont parfois décrits comme des polynômes osculateurs. Ces polynômes apparaissent dans de nombreux champs d'application Ils sont parfois décrits comme des polynômes osculateurs. (un polynôme osculateur ou osculatoire est un polynôme fournissant une « bonne approximation » d'une fonction). Ils viennent généraliser les polynômes de Lagrange.

SUJET

Soit \((H_n)_{n \in \mathbb N}\), la famille de polynômes (dite de Hermite) défiie par :
\[\begin{align*} \begin{cases} H_0=1 \\ H_{n+1}= xH_n-H'_n \end{cases} \end{align*}\]

  1. Démontrer que \(\begin{align*} \forall n \in \mathbb N\end{align*}\), \(H_n\) est un polynôme unitaire de degré \(n\)
  2. Démontrer que \(\begin{align*} \forall n \in \mathbb N \end{align*}\), \(\begin{align*} H'_{n+1}=(n+1)H_n\end{align*}\)
  3. Pour tous polynômes \(P\) et \(Q\) de \(\mathbb R[X]\), on pose \[\begin{align*}\langle P|Q \rangle = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \end{align*}\] où \(\begin{align*} f(x) = \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} \end{align*}\). On rappelle que \(\begin{align*}\int_{- \infty}^{+ \infty}f(x)dx = 1 \end{align*}\)
    Justifier de l'existence de l'intégrale qui définit \(\langle P|Q \rangle\)
  4. Démontrer que \(\langle P|Q \rangle\) définit un produit scalaire sur \(\mathbb R[X]\)
  5. Dans la suite , \(\mathbb R[X]\) sera muni du produit scalaire \(\langle P|Q \rangle\) et de la norme euclidienne \(|| P ||\) associée.
    Démontrer que \(\begin{align*} \forall n \in \mathbb N\end{align*}\),   \(\langle P|H_n \rangle=\langle P^{(n)} |H_0 \rangle\)
  6. En déduire que \(\begin{align*} \forall n \in \mathbb N\end{align*}\), la famille \((H_0,H_1, ......, H_n)\) est une base orthogonale de \(\mathbb R_n[X]\)
  7. Calculer \(||H_n||\), \(\begin{align*} \forall n \in \mathbb N \end{align*}\)
  8. Soit \(P(x)= x^3+x^2+x+1\). Préciser les polynômes \(H_1\), \(H_2\), \(H_3\), puis déterminer 4 réels \(a_i\) (\(0 \leq i \leq 3\)) tels que \(\begin{align*} P = \sum_{i=0}^{i=3}a_iH_i  \end{align*}\).
    En déduire la distance \(d\) du polynôme au sous espace \(\mathbb R_0[X]\) des polynômes constants, c'est à dire la borne inférieure de  \(||P-Q||\) lorsque \(Q\) décrit \(\mathbb R_0[X]\)
  9. Soit \(\begin{align*}  n \in \mathbb N\end{align*}\). On note \(p\) le nombre de racines réelles (distinctes) d'ordre impair du polynôme \(H_n\), et  \(a_1,a_2,......,a_p\) ces racines, et  \(S\) le polynôme défini par \(\begin{align*} \begin{cases} S=1 \text{ si p = 0} \\   S = \prod_{i=1}^p (x-a_i) \text{ sinon}  \end{cases} \end{align*}\)
    Démontrer que si \(p \lt n\) alors \(\langle S|H_n \rangle=0\)
  10. Démontrer que pour tout \(x \in \mathbb R, \space  S(x)H_n(x) \geq 0\)
  11. En déduire que \(H_n\) à \(n\) racines réelles distinctes.

 

1 - Démontrer que \(\begin{align*} \forall n \in \mathbb N\end{align*}\), \(H_n\) est un polynôme unitaire de degré \(n\)

 

Définition:
Soit \(P(x)\) un polynôme de degré \(n\). \( P(x) = a_nx^n + a_{n-1}x^{n-1} .... +a_1x^1 + a_0x^0\)  
On dit que \(P(x)\) est unitaire si \(a_n=1\)

 

\(\begin{align*} \begin{cases} H_0=1 \\ H_{n+1}= xH_n-H'_n \end{cases} \end{align*}\) et en effet \(\begin{align*} \begin{cases} H_0=1 \\ H_{1}= x \times 1-0 = x \\ H_2 = x \times x-1= x^2-1\\ \vdots \end{cases} \end{align*}\)

Démonstration par récurrence:

Soit la proposition \(P_n\): \(H_n\) est un polynôme unitaire de degré n

  • Initialisation: pour \(n=0\): 
    par définition: \(H_0 = 1\) 
    par hypothèse: \(H_0=1 \times x^0 =a_0 \times x^0 = 1\)
    et donc \(a_0=1\) et \(H_0\) est bien un polynôme unitaire de degré \(0\)
    La proposition est vraie au rang \(0\) et \(P_0\) est vraie

  • Récurrence:
    Supposons que la proposition \(P_n\) soit vraie, c 'est à dire que \(H_n\) est un polynôme unitaire de degré \(n\),  et démontrons qu'en conséquence \(P_{n+1}\) est vraie.
    \(H_{n+1}  = xH_n-H'_n\)   avec  \(H_n\) unitaire et \(deg(H_n)=n \space, \space deg(x)=1 \space,  \space deg(H')=n-1\) 
    alors:  \(deg(H_{n+1}) = deg(xH_n) = deg(x) + deg(H_n) = n+1\)
    et:       \(xH_n\) étant le produit de 2 polynômes unitaires ne peut être qu'un polynôme unitaire
    donc:  \(H_{n+1}\) est un polynôme unitaire de degré \(n+1\)

  • Conclusion:
    La proposition \(P_n\) est vraie au rang \(n=0\) , par récurrence, si elle est vraie au rang \(n\), elle est vraie au rang \(n+1\) donc, la proposition \(P_n\) est vraie quelque soit \(n\).
\(\begin{align*} \forall n \in \mathbb N\end{align*}\), \(H_n\) est un polynôme unitaire de degré \(n\)

 

 

2 - Démontrer que \(\begin{align*} \forall n \in \mathbb N \end{align*}\), \(\begin{align*} H'_{n+1}=(n+1)H_n\end{align*}\)

\(\begin{align*} \begin{cases} H_0=1 \\ H_{n+1}= xH_n-H'_n \end{cases} \end{align*}\)

Démonstration par récurrence:

Soit la proposition \(P_n\) : \(\begin{align*} H'_{n+1}=(n+1)H_n\end{align*}\)

  • Initialisation: pour \(n=0\): 
    Par définition: \(H_1 = xH_0 + H'_0  = x \times  1 + 0 = x \),   et en conséquence: \( H'_1 = 1\) 
    Par hypothèse: \(H'_1 = H'_{0+1} =(0+1)\times H_0  = (0+1)\times 1 = 1  \) 
    La proposition est vraie au rang \(0\) et \(P_0\) est vraie

  • Récurrence:
    Supposons que la proposition \(P_n\) soit vraie, c 'est à dire que \(\begin{align*} H'_{n+1}=(n+1)H_n\end{align*}\) ,  et démontrons qu'en conséquence \(P_{n+1}\) est vraie,
    donc que \(\begin{align*} H'_{n+2}=(n+2)H_{n+1}\end{align*}\).
    Calculons \(H_{n+2}\) , puis dérivons, et enfin retrouvons \(H'_{n+2}\) en fonction de \(H_{n+1}\).

    Par définition:\(\begin{align*}H_{n+2}  & = xH_{n+1}-H'_{n+1}\end{align*}\) 
    En utilisant l 'hypothèse: \(\begin{align*}H_{n+2} & = xH_{n+1}- (n+1)H_n \end{align*}\)
    En dérivant: \(\begin{align*} H'_{n+2} & = H_{n+1}+ xH'_{n+1}-(n+1)H'_{n}  \end{align*}\)
    En  utilisant l hypothèse : \(H'_{n+2}  = H_{n+1}+ x(n+1)H_{n} - (n+1)H'_n \)
    En factorisant: \(H'_{n+2}  = H_{n+1}+ (n+1)(xH_n-H'_n)\) 
    En utilisant la définition: \( H'_{n+2} = H_{n+1}+ (n+1)H_{n+1} = (n+2) H_{n+1} \)
    Si la proposition est vraie au rang \(n\) , alors elle est vraie au rang \(n+1\)

  • Conclusion:
    La proposition \(P_n\) est vraie au rang \(n=0\) , par récurrence, si elle est vraie au rang \(n\), elle est vraie au rang \(n+1\) donc, la proposition \(P_n\) est vraie quelque soit \(n\).
\(\begin{align*} \forall n \in \mathbb N \space, \space H'_{n+1}=(n+1)H_n\end{align*}\),

 

 

3 - Justifier de l'existence de l'intégrale qui définit \(\langle P|Q \rangle\)

On a : \(\begin{align*} \begin{cases} \langle P|Q \rangle = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \\  f(x) = \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}  \gt 0 \text{ et } \int_{- \infty}^{+ \infty}f(x)dx=1 \text{ et } f(x) \text{ est paire} \end{cases} \end{align*}\)

La fonction \(P(x)Q(x)f(x)\) est continue sur \(\mathbb R\) comme produit de fonctions continues.
Soit \(A \gt 1\) alors par relation de Chasles:
\(\begin{align*} \int_{- A}^{A}P(x)Q(x)f(x)dx & =   \int_{- A}^{-1}P(x)Q(x)f(x)dx +  \int_{ -1}^{1}P(x)Q(x)f(x)dx +  \int_{1}^{A}P(x)Q(x)f(x)dx \\
 &  =I_1 + I_2 + I_3 \end{align*}\)
Ce découpage nous permettra d'étudier la convergence des intégrales en \(+/- \infty\). Remarquons que \(I_2\) est bien définie.

  • \(I_2\) est bien définie comme une intégrale de fonction continue entre 2 bornes finies et connues.
  • \(I_3\) en \(+\infty\) :  par croissance comparée: \(\forall n \in \mathbb N \) :
    \(\begin{align*} x^n\frac{1}{\sqrt{2\pi}}e^{-x^2/2} \xrightarrow{+\infty} 0 & \Rightarrow a_nx^n\frac{1}{\sqrt{2\pi}}e^{-x^2/2} \xrightarrow{+\infty} 0 \\
    & \Rightarrow P(x)\frac{1}{\sqrt{2\pi}}e^{-x^2/2} \xrightarrow{+\infty} 0 \\
    & \Rightarrow P(x)Q(x)\frac{1}{\sqrt{2\pi}}e^{-x^2/2} \xrightarrow{+\infty} 0 \\
    & \Rightarrow \lvert P(x)Q(x) \rvert\frac{1}{\sqrt{2\pi}}e^{-x^2/2} \xrightarrow{+\infty} 0 \\
    & \Rightarrow x^2 \lvert P(x)Q(x) \rvert\frac{1}{\sqrt{2\pi}}e^{-x^2/2} \xrightarrow{+\infty} 0 \\
    & \Rightarrow \lvert P(x)Q(x) \rvert f(x) = o(1/x^2) \end{align*}\)
    Comme \(\begin{align*} \int_1^{+\infty}1/x^2dx\end{align*}\) converge par le critère de Riemann (car 2>1) alors \(I_3\) est absolument convergente, donc elle est convergente en \(+\infty\)

  • \(I_1\) en \(-\infty\) :  par changement de variable (symétrie par rapport a \(I_3\))
    \( \begin{cases} x=-t \\x=-dt \end{cases} \begin{cases}   t \overset{x \to -1} \longrightarrow 1 \\  t \overset{x \to -A} \longrightarrow A \end{cases} \), alors : 
    \(\begin{align*} I_1 & =  \int_{- A}^{-1}P(x)Q(x)f(x)dx \\
    & =  \int_{ A}^{1}P(-t)Q(-t)f(-t)(-dt) \\
    & =  \int_{ 1}^{A}P(-t)Q(-t)f(t)(dt) \end{align*}\)
    Et, toujours par croissance comparée,  \(\begin{align*} t^2 \lvert P(-t)Q(-t) \rvert f(t) \xrightarrow{+\infty} 0 \end{align*}\)
    Pour les mêmes raisons que \(I_3\) (  \(o(1/x^2)\) et critère de Riemann) , \(I_1\) converge en \(-\infty\).

\(I_1\) ,\(I_2\) ,\(I_3\) , étant toutes les 3 convergentes, alors, \(\langle P|Q \rangle = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx\) est convergente:

\(\begin{align*}\langle P|Q \rangle = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \end{align*}\) est bien défini

 

 

4 - Démontrer que \(\langle .|. \rangle\) définit un produit scalaire sur \(\mathbb R[X]\)

Préliminaire: \(E\) désigne un \(\mathbb R\) espace vectoriel

 Définition 1:

On appelle produit scalaire sur \(E\) toute forme bilinéaire symétrique définie positive sur \(E\)

 

Définition 2:

On appelle forme bilinéaire sur \(E\) toute application \(\phi\) de \(E \times E\) dans \(\mathbb R\) telle que :

  1. pour tout \(y \in E\), l'application \(x \mapsto \phi(x,y)\) soit linéaire
  2. pour tout \(x \in E\), l'application \(x \mapsto \phi(x,y)\) soit linéaire

 

Définition 3:

On appelle forme bilinéaire symétrique sur \(E\) toute forme bilinéaire \(\phi\) sur \(E\) telle que:
\[ \forall (x,y) \in\mathbb R^2 \space \space \space \space \phi(x,y)=\phi(y,x)\]
Remarque: en pratique on démontrera la symétrie, puis ensuite la linéarité par rapport a une variable . Puis comme il y a symétrie, alors on aura en conséquence la linéarité par rapport à la 2ème variable, et donc la bilinéarité.

 

Définition 4:

Etant donnée une forme bilinéaire \(\phi\) sur \(E\), on dit : 

  • \(\phi\) est positive si : \(\forall x \in E \space \space \space \phi(x,x) \geq 0\)
  • \(\phi\) est définie positive si \(\forall x \in E \space \space \space \phi(x,x) = 0 \Rightarrow x=0\)

 

Remarques: \(\mathbb R [X]\) est l'espace vectoriel de dimension infinie, des polynômes à 1 variable et à coefficient dans \(\mathbb R\). Les opérations dans cet espace sont connues.
Soit: \(\begin{align*} \begin{cases}\langle .|. \rangle: & \mathbb R[X] \times \mathbb R[X] && \rightarrow && \mathbb R\\
 & (P,Q) && \mapsto && \langle P|Q \rangle = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \end{cases}\end{align*} \)
et \(\begin{align*} f(x) = \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} \gt 0\end{align*}\) et \(\begin{align*}  \int_{- \infty}^{+ \infty} f(x)dx = 1 \end{align*}\)

La forme \(\langle P|Q \rangle\) existe bien. Nous l avons démontré dans la question 3 .


  • Forme symétrique : \(\langle P|Q \rangle = \langle Q|P \rangle\) 
    \(\begin{align*}\langle P|Q \rangle & = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \\
    & = \int_{- \infty}^{+ \infty}Q(x)P(x)f(x)dx  \\
    & = \langle Q|P \rangle \end{align*}\)


  • Forme bi-linéaire:
    • Par rapport à la 1ère variable :\(\langle (\lambda P_1 + \mu P_2)|Q \rangle = \lambda\langle P_1|Q \rangle + \mu \langle P_2Q \rangle\)
      Soient \((P_1, P_2, Q) \in \mathbb R^3[X]\) et \((\lambda, \mu) \in \mathbb R^2\)
      \(\begin{align*} \langle (\lambda P_1 + \mu P_2)|Q \rangle & =\int_{- \infty}^{+ \infty} \bigg[ \lambda P_1(x) + \mu P_2(x) \bigg] Q(x)f(x)dx   \\
      & = \int_{- \infty}^{+ \infty} \bigg[\lambda P_1(x)Q(x)f(x) + \mu P_2(x)Q(x)f(x) \bigg] dx \\
      & = \int_{- \infty}^{+ \infty} \lambda P_1(x)Q(x)f(x)dx+\int_{- \infty}^{+ \infty} \mu P_2(x)Q(x)f(x)dx \\
      & = \lambda \int_{- \infty}^{+ \infty} P_1(x)Q(x)f(x)dx + \mu \int_{- \infty}^{+ \infty} P_2(x)Q(x)f(x)dx \\
      & = \lambda\langle P_1|Q \rangle + \mu\langle P_2|Q \rangle \end{align*}\)

    • Par rapport à la 2ème variable: \(\langle P|(\lambda Q_1 + \mu Q_2) \rangle = \lambda\langle P|Q_1 \rangle + \mu\langle P|Q_2 \rangle\)
      Ce résultat est obtenue par symétrie, qui a été démontrée juste au dessus. C'est tout l'intérêt de démontrer la symétrie avant la bilinéarité. On s'attachera à le faire dans cet ordre la en général. On retrouve la linéarité par rapport à la 1ère variable.
      \(\begin{align*} \langle P|(\lambda Q_1 + \mu Q_2) \rangle & = \langle (\lambda Q_1 + \mu Q_2)|P \rangle \\ & = \lambda \langle Q_1|P \rangle + \mu \langle Q_2|P \rangle \\ & = \lambda \langle P|Q_1 \rangle + \mu \langle P|Q_2 \rangle  \end{align*}\) 


  • Forme positive: \(\langle P|P \rangle \geq 0\)
    \(\forall P \in \mathbb R[X]\) :
    \(\begin{align*}  \langle P|P \rangle & = \int_{- \infty}^{+ \infty}P(x)P(x)f(x)dx \\
    & = \int_{- \infty}^{+ \infty} \underbrace{P^2(x)}_{\geq 0} \underbrace{f(x)}_{\gt 0}dx \end{align*}\)
    Par positivité de l 'intégrale d'une fonction positive sur \(]-\infty;+ \infty[\), on a  \(\langle P|P \rangle \geq 0\)


  • Forme définie positive : Si \(\langle P|P \rangle = 0\) alors \(P = 0\)
    \(\begin{align*} \langle P|P \rangle = 0 & \Leftrightarrow \int_{- \infty}^{+ \infty} P^2(x) f(x)dx  \\
    & \Leftrightarrow  P^2(x) \underbrace{f(x)}_{\neq 0}dx = 0, \forall x \in \mathbb R \\
    & \Leftrightarrow  P^2(x) = 0 , \space \forall x \in \mathbb R \\
    & \Leftrightarrow  P(x) = 0 , \space \forall x \in \mathbb R \\
    & \Leftrightarrow P = 0 \end{align*}\)
    Si \(\langle P|P \rangle = 0\) alors \(P = 0\), \(P\) est le polynôme nul
    Ou encore : par positivité de l'intégrale ,\(\langle P|P \rangle = 0 \Leftrightarrow \) la fonction \( P^2(x) f(x) \) est la fonction identiquement nulle sur \(]- \infty;+ \infty[\), et comme \(f(x) \neq 0 \space \forall x \in \mathbb R\), alors P(x) est identiquement nul sur \(]- \infty;+ \infty[\). Et \(P=0\)

 

\[\begin{align*}\langle P|Q \rangle = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \text{     avec     }   
 f(x) = \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}  \end{align*}\] définit un produit scalaire

 

 

5 - Dans la suite , \(\mathbb R[X]\) sera muni du produit scalaire \(\langle P|Q \rangle\) et de la norme euclidienne \(|| P ||\) associée.
Démontrer que \(\begin{align*} \forall n \in \mathbb N\end{align*}\),   \(\langle P|H_n \rangle=\langle P^{(n)} |H_0 \rangle\)

On sait : \(\begin{align*} \begin{cases} \begin{cases} H_0=1 \\ H_{n+1}= xH_n-H'_n \end{cases} \\ \text{par croissance comparée } \lim\limits_{x \to +/- \infty} P(x)Q(x)f(x) = 0 \end{cases} \end{align*}\)
Et on note que : \(f'(x) = -xf(x)\)

Démonstration par récurrence:

Soit la proposition \(P_n\) :  \(\langle P|H_n \rangle =\langle P^{(n)} |H_0 \rangle \)

  • Initialisation: pour \(n=0\)
    Par définition: \(\langle P|H_0 \rangle =\langle P^{(0)} |H_0\rangle \), une fonction dérivée 0 fois est la fonction elle même.
    Par hypothèse \(\langle P|H_0>=\langle P^{(0)} |H_0\rangle\)
    \(P_0\) est donc vraie 

  • Récurrence: supposons la proposition \(P_n\): \(\langle P|H_n\rangle =\langle P^{(n)} |H_0\rangle\) vraie et 
    démontrons qu'elle est encore vraie au rang \(n+1\), donc que \(\langle P|H_{n+1}\rangle =\langle P^{(n+1)} |H_0\rangle\)
    \(\begin{align*} \langle P|H_{n+1} \rangle & =\langle P|(xH_n-H'_n)\rangle\\
    & =\langle P|xH_n \rangle - \langle P|H'_n \rangle = I_1-I_2 \end{align*}\)

    • Calcul de \(I_1=\langle P|xH_n \rangle\): Intégration par parties:
      Le but est de dérivé \(P\) et \(H_n\) et donc de primitiver \(f(x)\), donc de la mettre sous la forme \(f'(x)\).
      Les fonctions définissant \(\langle .|. \rangle \) sont de classe \(C^{\infty}\), elles sont en particulier de classe \(C^1\)
      \(\begin{align*}I_1 & = \langle P|xH_n \rangle  = \int_{-\infty}^{+ \infty} P(x)x H_n(x) f(x)dx \\
      & = \int_{-\infty}^{+ \infty} P(x) H_n(x) xf(x)dx \\ \end{align*}\)
      • Calculons \(f'(x)\)
        \(\begin{align*} f'(x) & = \bigg(  \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}   \bigg)' = \bigg( \frac{-x^2}{2} \bigg)' \bigg(  \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}} \bigg) \\
        & = -x ( \frac{1}{\sqrt{2\pi}}e^{-\frac{x^2}{2}}) = -xf(x) \end{align*}\)
    • En intégrant par parties :
      \(\begin{align*} I_1  & = - \int_{-\infty}^{+ \infty} \underbrace{P(x) H_n(x)}_{u} \underbrace{f'(x)}_{v'}dx \\
      & =- \bigg[ \cancel{P(x) H_n(x)f(x) \bigg]_{- \infty}^{+\infty} }^{=0} + \int_{-\infty}^{+ \infty}\big[ P(x)H_n(x)\big]'f(x)dx  \\
      & = \int_{-\infty}^{+ \infty} \big[ P^{(1)}(x)H_n(x) + P(x)H'_n(x) \big] f(x)dx \\
      & =  \int_{-\infty}^{+ \infty} P^{(1)}(x)H_n(x) f(x)dx + \int_{-\infty}^{+ \infty} P(x)H'_n(x)f(x)dx \\
      & =  \langle P^{(1)} | H_n \rangle + \langle P|H'_n \rangle = \langle P^{(1)} | H_n  \rangle + I_2 \end{align*}\)

      En définitive, nous avons : \(\langle P|H_{n+1} \rangle =\langle P^{(1)} | H_n \rangle +I_2 -I_2= \langle P^{(1)} | H_n \rangle \)
      En appliquant l 'hypothèse de récurrence \(\langle P|H_n \rangle =\langle P^{(n)} |H_0 \rangle\) , nous arrivons a :\(\langle P|H_{n+1} \rangle =\langle P^{(n+1)} | H_0 \rangle \)

 

  • Conclusion: La proposition \(P_n\) : \(\langle P|H_n \rangle =\langle P^{(n)} |H_0 \rangle \) est vrai au rang \(n=0\), si elle est vraie au rang \(n\), par récurrence, elle est vraie au rang \(n+1\) . et donc elle est vraie quelque soit \(n \in \mathbb N\)
\[ \forall n \in \mathbb N, \space \langle P|H_n \rangle =\langle P^{(n)} |H_0 \rangle \]

 

 

6 - En déduire que \(\begin{align*} \forall n \in \mathbb N\end{align*}\), la famille \((H_0,H_1, ......, H_n)\) est une base orthogonale de \(\mathbb R_n[X]\)

 \(E\) désigne un espace vectoriel préhilbertien réel. Et on note : \(\langle .|.>\) le produit scalaire et \(||.||\) la norme associés.

Définition 1:

On dit que 2 vecteurs \(x\) et \(y\) sont orthogonaux si \(\langle x|y \rangle = 0\). 
On pourra noter \(x \perp y\)

 

Définitions 2:

  • On appelle famille orthogonale de \(E\) toute famille de vecteurs de \(E\) deux à deux orthogonaux

  • On appelle famille orthonormée (ou orthonormale) de \(E\) toute famille de vecteurs de \(E\) unitaires et 2 à 2 orthogonaux.

 

Propositions:

  1. Toute famille orthogonale de vecteurs non nuls de \(E\) est libre.
    En particulier, toute famille orthonormée de \(E\) est libre

  2. Théorème de pythagore : \((x;y) \in E^2\), alors \(x \perp y \Leftrightarrow ||x+y||^2 = || x||^2 + ||y ||^2\)

 

On sait : \(\begin{align*}  \forall n \in \mathbb N, \space \langle P|H_n \rangle =\langle P^{(n)} |H_0 \rangle \\
  \end{align*}\)

 

\(\mathbb R_n[X]\) est l'ensemble des polynômes a une variable, de degré \( \leq n\). Cet ensemble est un espace vectoriel de dimension \(n+1\) dont une base canonique est \((1,X,X^2, \cdots , X^n)\). Un polynôme de degré \(n\) est une combinaison linéaire des éléments de cette base canonique de \(n+1\) éléments.

Pour démontrer que \((H_0,H_1, ......, H_n)\) est une base de \(\mathbb R_n[X]\), il suffit de montrer qu'elle est soit libre , soit génératrice. On démontrera qu'elle est libre en montrant simplement qu'elle est orthogonale. (proposition 1 et Définition 2)

 

Soient \((i,j) \in \mathbb N\) , avec \(i \neq j\) . Calculons \(\langle H_i|H_j \rangle \) 

Remarque préliminaire: Si \(deg(P)= n\) et \(m \gt n\) alors \(P^{(n)}= constante\) et \(P^{(m)}=0\). Ce qui nous amène a discerner 2 cas:

  • \(i \lt j\) alors : \(\langle H_i|H_j \rangle = \langle H_i^{(j)}|H_0 \rangle =\langle 0|H_0 \rangle =0 \)
  • \(i \gt j\) alors : \(\langle H_i|H_j \rangle =\langle H_j|H_i \rangle = \langle H_j^{(i)}|H_0 \rangle =\langle 0|H_0 \rangle =0 \)

\(\forall i \in \mathbb N, \space \forall j \in \mathbb N, \space i \neq j, \space \langle H_i|H_j \rangle=0\)
Donc \(H_i\) est orthogonal a \(H_j\) et en conséquence :
La famille \((H_0,H_1, ......, H_n)\) est une famille orthogonale, elle est donc libre. Et :
\((H_0,H_1, ......, H_n)\) est une base orthogonale de \(\mathbb R_n[X]\)

\((H_0,H_1, ......, H_n)\) est une base orthogonale de \(\mathbb R_n[X]\)

 

 
7 - Calculer \(||H_n||\), \(\begin{align*} \forall n \in \mathbb N \end{align*}\)

 \(E\) désigne un espace vectoriel préhilbertien réel.

Définition:

On appelle norme associée à un produit scalaire \(\langle . | . \rangle\) l 'application:
\(\begin{align*}E & \rightarrow \mathbb R_+ \\ x & \mapsto ||x|| = \sqrt{\langle x | x \rangle} \end{align*}\)

 

On sait : \(\begin{align*} \begin{cases}   \forall n \in \mathbb N, \space \langle P|H_n \rangle = \langle P^{(n)} |H_0  \rangle \\
  \forall n \in \mathbb N \space, \space  H'_{n+1}=(n+1)H_n \\ 
\langle P|Q \rangle  = \int_{- \infty}^{+ \infty}P(x)Q(x)f(x)dx \\
  \int_{- \infty}^{+ \infty}f(x)dx = 1 \end{cases} \end{align*}\)

 

Par définition: \(||H_n|| = \sqrt{\langle H_n|H_n \rangle } \) et \( ||H_n||^2 = \langle H_n|H_n \rangle \)

\( \begin{align*}  ||H_n||^2 & =  \langle H_n|H_n \rangle = \langle H_n^{(n)}|H_0 \rangle \\
 H'_n & = n H_{n-1} \\
  H''_n & = n(n-1)H_{n-2} \\
\vdots \\ \Rightarrow & H_n^{(n)} = n(n-1) \cdots \times 2 \times 1 \times H_0 = n!H_0  
\end{align*}\)

En conséquence:
\( \begin{align*}  ||H_n||^2 = & \langle H_n^{(n)}|H_0 \rangle  \\
& = \langle n! H_0|H_0 \rangle = n! \langle H_0|H_0 \rangle \\
 & = n! \int_{- \infty}^{+ \infty}H_0(x)H_0(x)f(x)dx \\
 & = n! \int_{- \infty}^{+ \infty}1\times 1 \times f(x)dx \\
 & = n!\ \int_{- \infty}^{+ \infty} f(x)dx  = n! \times 1 = n! \end{align*}\)

\[ \begin{align*} ||H_n|| = \sqrt{n!}   \end{align*}\]

 

 

8 - Soit \(P(x)= x^3+x^2+x+1\). 
Préciser les polynômes \(H_1\), \(H_2\), \(H_3\), puis déterminer 4 réels \(a_i\) (\(0 \leq i \leq 3\)) tels que \(\begin{align*} P = \sum_{i=0}^{i=3}a_iH_i  \end{align*}\).
En déduire la distance \(d\) du polynôme au sous espace \(\mathbb R_0[X]\) des polynômes constants, c'est à dire la borne inférieure de  \(||P-Q||\) lorsque \(Q\) décrit \(\mathbb R_0[X]\)

On sait: \(\begin{align*}   \begin{cases}H_{n+1}= xH_n-H'_n \\ H_0=1 \end{cases}  \end{align*}\)

  • Préciser \(H_1\), \(H_2\), \(H_3\)
    \(\begin{align*}   H_0 & = 1 \\  H_1 & = xH_0-H'_0 = x\times 1 -(1)'  = x \\
    H_2 & = xH_1 - H'_1 = x \times x - (x)'  = x^2-1 \\
    H_3 & = xH_2 - H'_2 = x(x^2-1) - (x^2-1)'  \\ & = x^3-x-2x  = x^3-3x    \end{align*}\)
\[\begin{align*} H_0 & = 1 \\ H_1 & = x \\  H_2 & = x^2-1 \\ H_3 & = x^3-3x \end{align*}\]

 

  • Déterminer les \(a_i\):
    \((H_0, H_1, H_2, H_3)\) est une base orthogonale de \(\mathbb R_3[X]\)

    • Méthode par identification: Cette métjhode est possible car l 'exercice est relativement simple. Cependant, on appliquera de préférence, dans d autres exercices, la méthode générale précisée ci-après.
      On cherche les \(a_i\) tels que :
      \(\begin{align*}P(x)  = a_0H_0(x) + a_1H_1(x) + a_2H_2(x) + a_3H_3(x) \end{align*}\)
      \(\begin{align*} x^3+x^2 +x + 1 & = a_0 + a_1x + a_2(x^2-1) + a_3 (x^3-3x) \\
      & = a_0 + a_1x + a_2x^2-a_2 + a_3x^3-3a_3x \\
      & = (a_3)x^3 + (a_2)x^2 + (a_1-3a_3) x +(a_0-a_2)  \\
      & \Rightarrow \begin{cases} a_3=1 \\ a_2 = 1 \\ a_1-3a_3 = 1 \\ a_0-a_2=1\end{cases} \Rightarrow \begin{cases} a_0 = 2 \\ a_1 = 4 \\ a_2 = 1 \\ a_3=1   \end{cases} \end{align*}\)


    • Méthode générale: a utiliser si l'exercice est moins simple que cette exemple ou si l'identification est une méthode trop longue dans un exercice donné:
      Proposition:

      Soient:

      • \((E, \langle.|. \rangle, ||.||)\) un espace euclidien muni d'un produit scalaire et d'une norme
      • \(B=(e_i)_{o \leq i \leq n} = (e_0;e_1; \cdots ; e_n)\) une base orthonormée de \(E\)

        Alors \(\forall x \in E, \space x = \sum_{i=0}^n \langle x|e_i \rangle e_1\)

      Dans la proposition, les \(e_i\) sont des vecteurs orthonormés. Or \((H_0,H_1,H_2,H_3)\) est une base seulement orthogonale de \(\mathbb R_3[X]\). 
      Pour la rendre orthonormée , il suffit de diviser chaque vecteur de la base par sa norme \(||\sqrt{i!}||\).
      Donc: \((\frac{1}{\sqrt {i!}}H_i)_{0 \leq i \leq 3}\) est une base orthonormée de \(\mathbb R_3[X]\)
      Et \(\forall P \in  \mathbb R_3[X]\) , \(P = \sum_1^3 \underbrace{ \langle P| \frac{1}{\sqrt{i!}} H_i \rangle \frac{1}{\sqrt{i!}} }_{a_i} H_i\)  et \(a_i = \langle P| \frac{1}{\sqrt{i!}} H_i \rangle \frac{1}{\sqrt{i!}} = \frac{1}{i!}\langle P|H_i \rangle\)

      De plus, on a \(\begin{align*} \begin{cases}   \langle P|H_n \rangle = \langle P^{(n)}|H_0 \rangle \\ \int_{- \infty}^{+ \infty}f(x) dx = 1 \\ f'(x) = -xf(x)  \\ P=x^3+x^2+x+1 \end{cases}   \end{align*}\)

      • Calcul de \(a_o\)
        \( \begin{align*}a_0 & =\frac{1}{0!}\langle P|H_0 \rangle = \langle P|H_0 \rangle  = \int_{- \infty}^{+ \infty}(x^3+x^2+x+1)(1) f(x)dx \\
        & = \underbrace { \int_{- \infty}^{+ \infty} x^3f(x)dx}_{=0 \text{ car impair}}+ \int_{- \infty}^{+ \infty}x^2f(x)dx+ \underbrace{\int_{- \infty}^{+ \infty}xf(x)dx}_{= 0 \text{ car impair}}+ \underbrace{\int_{- \infty}^{+ \infty}f(x)dx}_{=1} \\
        &  = \int_{- \infty}^{+ \infty}x\times xf(x)dx +1 = \int_{- \infty}^{+ \infty} \underbrace{x}_{u} \times \underbrace{(-f'(x))}_{v'}dx +1 \\
        & = \underbrace{\big[ -xf(x)\big]_{- \infty}^{+ \infty}}_{=0} + \int_{- \infty}^{+ \infty} f(x)+1 = 1+1 =2 \end{align*}\)

      • Calcul de \(a_1\)
        \(\begin{align*} a_1 & =\frac{1}{1!}\langle P|H_1 \rangle = \langle P'|H_0 \rangle = \langle 3x^2+2x+1|H_0 \rangle \\
        & = \int_{- \infty}^{+ \infty}(3x^2+\underbrace{2x}_{\text{impair}}+1)(1) f(x)dx  =3 \underbrace{\int_{- \infty}^{+ \infty}x^2f(x)dx}_{=1 \text{ vu pour }a_0} + \underbrace{\int_{- \infty}^{+ \infty}f(x)dx}_{=1} \\ & = 3\times 1 + 1 = 4 \end{align*}\)

      • Calcul de \(a_2\)
        \(\begin{align*} a_2 & =\frac{1}{2!}\langle P|H_2 \rangle = \frac{1}{2}\langle P|H_2 \rangle = \frac{1}{2}\langle P''|H_0 \rangle = \frac{1}{2}\langle 6x+2|H_0 \rangle \\ 
        & = \frac{1}{2} \int_{- \infty}^{+ \infty}(\underbrace{6x}_{\text{impair}}+2) f(x)dx  = \frac{1}{2} \int_{- \infty}^{+ \infty} 2f(x)dx \\
        & = \frac{1}{2} \times 2\int_{- \infty}^{+ \infty}f(x)dx = 1\end{align*}\) 

      • Calcul de \(a_3\)
        \( \begin{align*} a_3 & =\frac{1}{3!}\langle P|H_3 \rangle = \frac{1}{6} \langle P'''|H_0 \rangle = \frac{1}{6} \langle 6|H_0 \rangle \\
        & = \frac{1}{6} \int_{- \infty}^{+ \infty}6f(x)dx = 1  \end{align*}\)
\[\begin{align*}a_0 = 2 \space ; \space a_1 = 4 \space ; \space a_2 = 1 \space ; \space a_3=1 \end{align*}\]

 

  • Déterminer la distance \(d\)
Définition 1 : 
Deux sous espaces vectoriels sont orthogonaux si : \( \forall (x,y) \in F \times G, \langle x|y \rangle = 0\)

 

Proposition 1 : 
Si \(F\) est un sous espace vectoriel de dimension finie de \(E\), alors: 
  • \(F\) et \(F^\perp\) sont supplémentaires.
  • Le sous espace vectoriel \(F^\perp\) est appelé le supplémentaire orthogonal de \(F\)

Attention : Si \(E\) est de dimension finie: un sous espace vectoriel \(F\) de \(E\) n'admet pas , en général un seul supplémentaire. Par contre, il admet un unique supplémentaire orthogonal, et dans ce cas :\(E = F \bigoplus F^{\perp}\)

\( \forall (x,y) \in F \times G, \langle x|y \rangle = 0\)

 

Définition 2 : 
Soit \(X\) une partie non vide de \(E\) et \(e\) un élément de \(E\). On appelle distance de \(e\) à\(X\) la quantité \(d(e,X) = \inf_{x\in X}d(e,x)\)

 

Définition 3 : 
Soient \(F\) un sous espace vectoriel de dimension finie, \(P_F\) la projecjection orthogonale sur \(F\) et \(x\) un vecteur de \(E\):
  • la distance du vecteur \(x\) à \(F\) est atteinte en un élément unique de \(F\), à savoir \(P_F(x)\)
  • \(d(x,F) = ||x-P_F(x)|\)
  • \( \forall y \in F, \space d(x,F) = ||x-y|| \Leftrightarrow y = P_F(x)\)

 

Remarques supplémentaires:
Soit \((E;||.||)\) un espace pré-hilbertien (\(||.|| = \sqrt{\langle .|. \rangle}\) normé et \(F\) un sous espace vectoriel non vide de \(E\), de dimension finie:
  • \(F \subset E\)
  • \(a \in E\)

Alors \(d(a,F) = \inf_{x \in F}(a,x) = \inf_{x \in F}||a-x|| = ||a-a_F||\) avec \(a_F =\) projeté orthogonal de \(a\) sur \(F\)

Comme \(F\) est un s.e.v de \(E\) et que \(F\) est orthogonal, alors \(E = F \bigoplus F^\perp\)

\(a=a_F + a_{F^\perp}\)

 

Soit \((\mathbb R_3[X];||.||)\) un espace pré-hilbertien, en particulier un espace euclidien, (\(||.|| = \sqrt{\langle .|. \rangle}\) normé et \(\mathbb R_0[X]\) un sous espace vectoriel non vide de \(\mathbb R_3[X]\), de dimension finie:

  • \(\mathbb R_0[X] \subset \mathbb R_3[X]\)
  • \(P \in \mathbb R_3[X]\)

Alors \(d(P,\mathbb R_0[X]) = \inf_{Q \in \mathbb R_0[X]}(P,Q) =  || P-\mathbb R_0[X] ||\) avec \(\begin{cases} \mathbb R_3[X] =\mathbb R_0[X] \bigoplus \mathbb R_0[X]^\perp \\ P=P_{\mathbb R_0[X]}  + P_{\mathbb R_0[X]^\perp} \end{cases}\)

Comme \(P \in \mathbb R_3[X]\) alors \(||P-\mathbb R_0[X]|| = || \mathbb R_0[X]^\perp ||\)

\(\begin{align*}P(x)  = \underbrace{a_0H_0(x)}_{\in \mathbb R_0[X] } + \underbrace{a_1H_1(x) + a_2H_2(x) + a_3H_3(x)}_{ \Rightarrow \in \mathbb R_0[X]^\perp} \\
\Rightarrow d = || P-\mathbb R_0[X] || = || a_1H_1(x) + a_2H_2(x) + a_3H_3(x)|| \\
 \Rightarrow d^2 = || 4H_1 + H_2+H_3||^2\end{align*}\)
\(H_1,H_2,H_3\) sont des vecteurs othogonaux, on peut donc utiliser le théorème de Pythagore:
\(d^2 = ||4H_1||^2 + ||H_2||^2 + ||H_3||^2\) avec \([[H_n|| = \sqrt{n!}\)
\( d^2 = 16 \times \sqrt{1!}^2 + 1^2 \times \sqrt{2!}^2 +1^2 \times \sqrt{3!}^2 = 16+2+6 = 24\)
\( d = \sqrt{24}\)

\[ d = \sqrt{24} = 2 \sqrt6\]

 

 

9 - Soit \(\begin{align*}  n \in \mathbb N\end{align*}\). On note \(p\) le nombre de racines réelles (distinctes) d'ordre impair du polynôme \(H_n\), et  \(a_1,a_2,......,a_p\) ces racines, et  \(S\) le polynôme défini par \(\begin{align*} \begin{cases} S=1 \text{ si p = 0} \\   S = \prod_{i=1}^p (x-a_i) \text{ sinon}  \end{cases} \end{align*}\). Démontrer que si \(p \lt n\) alors \(\langle S|H_n \rangle=0\)
  • Méthode 1:
    On sait : \(\begin{align*}  \langle P[H_n \rangle = \langle P^{(n)}|H_0 \rangle \end{align*} \)
    \(\langle S|H_n \rangle  = \langle S^{(n)}|H_0 \rangle \)

    • Si \(n=0\)
      Dans ce cas , je ne peux pas avoir \(p \lt n\). Donc on a forcément \(n \gt 0\). Il nous reste à étudier le cas \(n\gt 0\)

    • Si \(n \gt 0\)
      \(\begin{align*}  \begin{cases} S=1 \Rightarrow S^{(n)}=0 \Rightarrow \langle S|H_n \rangle =\langle S^{(n)}|H_0 \rangle = \langle 0|H_0 \rangle =0 \\
      S = \prod_{i=1}^p (x-a_i) \text{ et } \deg(S) = p ( \lt n) \Rightarrow S^{(n)}=0 \Rightarrow \langle S|H_n \rangle  = 0\end{cases} \end{align*} \)

  • Méthode 2:
    \(S \in \mathbb R_p[X]\) dont une Base est \((H_0,H_1, \cdots , H_p)\) qui est orthogonale.
    \(S \in vect(H_0,H_1, \cdots , H_p)\)
    \(H_n\) avec \(n \gt p\), alors \(H_n \perp (H_i)_{0 \leq i \leq n}\)
    Donc \(H_n \perp vect(H_0,H_1, \cdots , H_n)\)
    et \(\langle H_n|S \rangle = 0 \Leftrightarrow \langle S|H_n \rangle = 0\)

 

10 - Démontrer que pour tout \(x \in \mathbb R, \space  S(x)H_n(x) \geq 0\)

Tous les polynômes de \(\mathbb C[X]\) sont décomposables en éléments simples de degré 1.
Dans \(\mathbb R[X]\), tous les polynômes sont décomposables en éléments simple de degré 1 et/ou de degré 2

\(H_n = \prod(x-a_i)^{\lambda_i} \prod\underbrace{(x^2+\alpha_ix+\beta_i)^{\mu_i}}_{\Delta \lt 0}\) produit de polynômes unitaires puisque \(H_n\) est un polynôme unitaire. \( \lambda_i\) et \(\mu_i\) existent pour les racines multiples.
\(H_n = \prod_{i=1}^p \underbrace{(x-a_i)^{\lambda_i}}_{\lambda_i \text{ impair}} \times  \prod_{i=1}^q \underbrace{(x-a_i)^{\nu_i}}_{\nu_i \text{ pair}} \times \prod\underbrace{(x^2+\alpha_ix+\beta_i)^{\mu_i}}_{\Delta \lt 0}\)

Calculons \(S(x)H_n(x)\):
\( \begin{align*}S(x)H_n(x) & = \prod_{i=1}^p (x-a_i) \times \prod_{i=1}^p \underbrace{(x-a_i)^{\lambda_i}}_{\lambda_i \text{ impair}} \times  \prod_{i=1}^q \underbrace{(x-a_i)^{\nu_i}}_{\nu_i \text{ pair}} \times \prod\underbrace{(x^2+\alpha_ix+\beta_i)^{\mu_i}}_{\Delta \lt 0} \\
 & = \overbrace{\prod_{i=1}^p \underbrace{(x-a_i)^{\lambda_i+1}}_{\lambda_i \text{ impair}}}^{\geq 0 \text{ car } \lambda_i+1 \text{pair}} \times \overbrace{ \prod_{i=1}^q \underbrace{(x-a_i)^{\nu_i}}_{\nu_i \text{ pair}} }^{\geq 0} \times \overbrace{ \prod\underbrace{(x^2+\alpha_ix+\beta_i)^{\mu_i}}_{\Delta \lt 0}}^{\text{du signe du coef de x² }\gt 0} \end{align*}\)

\[\forall x \in \mathbb R, \space \space S(x)H_n(x) \geq 0\]

 

 

11 - En déduire que \(H_n\) à \(n\) racines réelles distinctes.

Démonstration par l'absurde:

Supposons \(H_n\) n'a pas \(n\) racines distinctes réelles.
Alors \(p \lt n\), et d'apres la question 9, \(\langle S|H_n \rangle = 0\)

La fonction \(S(x) H_n(x)f(x)\) est continue et de classe \(C^{\infty}\) comme le produit de fonctions \(C^{\infty}\)

\(\begin{align*} \langle S|H_n \rangle & = \int_{- \infty}^{+ \infty} \underbrace{S(x) H_n(x)}_{\geq 0} \underbrace{f(x)}_{\gt 0}dx = 0 \end{align*} \)
Ce qui implique: \(\forall x \in \mathbb R, \space S(x)H_n(x) = 0\)
Donc \(SH_n\) est le polynôme identiquement nul et a une infinité de racines.

\(\mathbb R[X]\) est un anneau intègre: si un produit est nul , alors forcément soit \(S=0\) , soit \(H_n = 0\), ce qui est absurde car par définition : \(s \neq 0 \) et \(H_n \neq 0\)

\(H_n\) à \(n\) racines réelles distinctes

 

 

P(x) = ax²+bx+c, Delta positif

\[\begin{align*} I= \int \frac{1}{x^2-5x+6}dx \end{align*} \text{   et  } \Delta \gt 0\]

 

Méthode 1: Avec Décomposition en éléments simples

Soit \(P(x) = x^2-5x+6\) , avec \(\boxed{\Delta \gt 0}\), alors \(P(x)\) admet 2 racines : \(x_1 =2 \) et \(x_2=3 \).
On peut donc écrire \(P(x) = (x-2)(x-3)\) et \(\begin{align*} I= \int \frac{1}{P(x)}dx = \int \frac{1}{(x-2)(x-3)}dx\end{align*}\)

Il convient alors de faire une Décomposition en éléments simples:
\( \begin{align*} &  \frac{1}{(x-2)(x-3)} = \frac{A}{x-2} + \frac{B}{x-3}  \end{align*}\)
\( \begin{align*} &  \begin{cases}  \times (x-2) \text{ et }   x=2 \Rightarrow A = -1  \\  \times (x-3) \text{ et }x=3 \Rightarrow B = 1 \end{cases} \end{align*}\) On peut remarquer que \(A=-B\).

\( \begin{align*}  I & = \int \big[ \frac{-1}{x-2} + \frac{1}{x-3} \big] dx = \int \frac{1}{x-3} dx - \int \frac{-1}{x-2} dx\end{align*}\) 

Et comme vu précédemment:
\(\begin{align*} I & = \ln \lvert x-3 \rvert - \ln \lvert x-2 \rvert + C  \\ & = \ln \lvert \frac{x-3}{x-2}\rvert +C \end{align*}\) 
On peut remarquer que la "grande racine" est au numérateur, et la "petite racine" est au dénominateur.

 

 

Méthode 2: Avec la complétion des carrés

Cette méthode permet d'éviter la décomposition en éléments simples. Le but est d'arriver à écrire \(P(x)\) sous la forme  \(\begin{align*} \frac{1}{x²-a²} \end{align*}\) ou sous la forme \(\begin{align*} \frac{1}{x²+a²} \end{align*}\) et de retrouver les primitives suivantes:

  • \(\begin{align*} I = \int \frac{1}{x²-a²}dx =\frac{1}{2a} \ln \lvert \frac{x-a}{x+a} \rvert +C \end{align*} \) 
  • \(\begin{align*} I = \int \frac{1}{x²+a²}dx =\frac{1}{a} tan^{-1} (\frac{x}{a}) +C \end{align*} \)

\(\begin{align*}P(x) & = x²-5x+6  && = (x-\frac{5}{2})² - (\frac{5}{2})² +6 \\ 
& =  (x-\frac{5}{2})² - \frac{5}{2} + \frac{24}{4}  && =  (x-\frac{5}{2})²  - \frac{1}{4}  \\
& = (x-\frac{5}{2})²  - (\frac{1}{2})² \end{align*}\)

Alors , nous avons 2 voies possibles:

Intégrer directement : 

\(\begin{align*} I = \int \frac{1}{x²-a²}dx =\frac{1}{2a} \ln \lvert \frac{x-a}{x+a} \rvert +C \end{align*} \)

\(\begin{align*} I & = \int \frac{1}{x²-5x +6}dx = \int \frac{1}{ (\underbrace{x-\frac{5}{2}}_{x})²  - (\underbrace{\frac{1}{2}}_{a})²}dx \\
&  =\cancel{\frac{1}{2 \times (\frac{1}{2})}}^{\space \space =1} \ln \lvert \frac{(x-\frac{5}{2})-(\frac{1}{2})}{(x-\frac{5}{2})+(\frac{1}{2})}) \rvert +C \\
& = \ln \lvert \frac{x-3}{x-2} \rvert + C \end{align*}\)

Factoriser:

\(\begin{align*} P(x) & = (x-\frac{5}{2} - \frac{1}{2})-(x-\frac{5}{2} +\frac{1}{2}) \\ 
& = (x-2)(x-3) \end{align*} \)

Nous sommes revenus à :
\(\begin{align*} I = \int \frac{x-2}{x-3} dx \end{align*} \)

Cette méthode ne nécessite pas de connaitre de formule. C'est donc celle que je préfère .......

 

 

 

 

Généralisation: \[\begin{align*} &  I  = \int \frac{1}{ax²+bx+c}dx  \end{align*}\]

 

Forme canonique de: \(P(x) = a[(x-\alpha)²-\beta]\)

Soit \(P(x)= ax^2 +bx+c\) avec \(a \neq 0\). Mettons \(P(x)\) sous la forme canonique: \(a \big[ \big( x+ \alpha)^2 + \beta \big) \big]\)

\(\begin{align*} P(x) & = ax^2 +bx +c = a   \big[  x^2+\frac{b}{a}x  + \frac{c}{a}   \big]  && = a   \big[  \big(x+\frac{b}{2a}\big)^2 - \big( \frac{b}{2a} \big)^2  + \frac{c}{a}   \big] \\
& = a  \big[  \big(x+\frac{b}{2a}\big)^2 - \frac{b^2}{4a^2} + \frac{4ac}{4a^2}  \big]  && = a  \big[  \big(x+\frac{b}{2a}\big)^2 - \frac{b^2-4ac}{4a^2}  \big]  \end{align*}\)

 

\[ \boxed{\begin{align*} P(x)=a  \bigg[  \big(x+\frac{b}{2a}\big)^2 - \frac{\Delta}{4a^2}  \bigg] \\ \text{avec  } \Delta = b^2-4ac \end{align*} }\]

 

Si \(\Delta \gt 0\)

\( \begin{align*} P(x) & =a  \bigg[  \bigg(x+\frac{b}{2a}\bigg)^2 - \frac{\Delta}{4a^2}  \bigg] && = a  \bigg[  \bigg(x+\frac{b}{2a}\bigg)^2 - \bigg( \frac{\sqrt{\Delta}^2}{4a^2} \bigg)  \bigg] \\
& = a  \bigg[  \bigg(x+\frac{b}{2a}\bigg)^2 - \bigg( \frac{\sqrt{\Delta}}{2a} \bigg)^2  \bigg] && = a \bigg(x+\frac{b}{2a} + \frac{\sqrt{\Delta}}{2a} \bigg) \bigg( x+\frac{b}{2a} - \frac{\sqrt{\Delta}}{2a} \bigg) \\ 
& = a \bigg(x + \frac{b+\sqrt{\Delta}}{2a} \bigg) \bigg( x+\frac{b-\sqrt{\Delta}}{2a}  \bigg) && = a \bigg(x - \frac{-b-\sqrt{\Delta}}{2a} \bigg) \bigg( x-\frac{-b+\sqrt{\Delta}}{2a}  \bigg) \end{align*} \)

On en conclut que \(P(x)\) a 2 racines: \( \begin{align*} \begin{cases} x_1 = \frac{-b-\sqrt \Delta}{2a} \\ x_2 = \frac{-b+\sqrt \Delta}{2a} \end{cases} \end{align*} \) et  \( \begin{align*} \begin{cases}P(x) = a (x-x_1)(x-x_2) \\ x_1 \lt x_2 \end{cases} \end{align*} \).

On remarque que  \( \begin{align*}x_2-x_1 = -\frac{-b+\sqrt{\Delta}}{2a} - \frac{-b-\sqrt{\Delta}}{2a} = \frac{\sqrt \Delta}{a}\end{align*}\)

 \[ \begin{align*}I = \int \frac{1}{a(x-x_1 )(x-x_2)}dx \end{align*}\]

Décomposition en Eléments Simples:

\( \begin{align*} & \frac{1}{(x-x_1)(x-x_2)} && = \frac{A}{x-x_1}+\frac{B}{x-x_2} \\ \\
= & \frac{A(x-x_2) + B(x-x_1)}{(x-x_1)(x-x_2)} && = \frac{x(A+B)- (Ax_2+Bx_1)}{(x-x_1)(x-x_2)} \\ \\
 \Rightarrow & \begin{cases} A+B = 0\\ - (Ax_2+Bx_1)=1 \end{cases} && \Rightarrow \begin{cases} A = -B\\ Ax_2-Ax_1=-1 \end{cases} \\
 \Rightarrow & \begin{cases} A = -B\\ A(x_2-x_1)=-1 \end{cases} && \Rightarrow \begin{cases} B =  \frac{a}{\sqrt \Delta} \\ A= \frac{-a}{\sqrt \Delta} \end{cases} \end{align*}\)

On remarque que \(A=-B\)

\( \begin{align*}  I & = \int \frac{1}{a(x-x_1 )(x-x_2)}dx && = \frac{1}{a} \int  \bigg(\frac{A}{x-x_1}+\frac{B}{x-x_2} \bigg) dx \\ 
& = \frac{1}{a} \int \bigg( \frac{a}{\sqrt \Delta} \frac{1}{x-x_2}- \frac{a}{\sqrt \Delta}\frac{1}{x-x_1} \bigg) dx && = \frac{1}{\sqrt \Delta} \int \bigg( \frac{1}{x-x_2}- \frac{1}{x-x_1} \bigg) dx \\
& = \frac{1}{\sqrt \Delta} \bigg[\ln \lvert x-x_2 \rvert -\ln \lvert x-x_1 \rvert  \bigg] +C && =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{x-x_2}{ x-x_1} \rvert  +C  \end{align*}\)

Si \( \Delta \gt 0 \) , \(x_1\) et \(x_2\) solutions de \(P(x)\)
\[ \boxed{ \begin{align*}  \int \frac{1}{a(x-x_1 )(x-x_2)}dx =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{x-x_2}{ x-x_1} \rvert  +C   \end{align*}  }\]

\(\begin{align*} I & =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{x-\frac{-b+\sqrt \Delta}{2a}x}{ x-\frac{-b-\sqrt \Delta}{2a}} \rvert  +C && =  \frac{1}{\sqrt \Delta} \ln \lvert \frac{2ax+b-\sqrt \Delta}{ 2ax+b+\sqrt \Delta} \rvert  +C   \end{align*}\)

Encore une fois , cette dernière formule n'a que peu d'intérêt, si ce n'est celui de la démonstration par calcul littéral. En revanche , il faut retenir la forme finale, et la démarche pour y arriver. A chaque fois il faudra suivre la méthode:

  • trouver les racines de \(P(x)\), et donc bien connaître les méthode de résolution d'une équation du 2nd degré
  • faire une décomposition en éléments simple et donc bien connaître la technique
  • faire l'intégration de chaque élément pour arriver à la forme finale

 

10 Techniques d'intégration

\(\begin{align*} I =\int f(x)dx \end{align*}\)

 

\(\begin{align*} I = \overbrace{\int}^{\text{Symbole} \\ \text{intégration}} \underbrace{f(x)}_{\text{intégrande}} \overbrace{dx}^{\text{variable} \\ \text{d'intégration}} \end{align*}\)

 

Nous recherchons une fonction \(F(x)\) dont la dérivée est égale à l 'intégrande \(f(x)\). Cette fonction \(F(x)\) est une des primitives de \(f(x)\).

La dérivée de  \(F(x) \) est égale à \(f(x)\). Mais on remarque que la fonction \(F(x) + C\), avec \(C=\)constante, \(C  \in \mathbb R\) est aussi une primitive particulière de \(f(x)\). Pour cette raison, on précisera toujours l'existence de cette constante lors du calcul d'une primitive. 

\(\begin{align*} I =\int f(x)dx = F(x)+C\end{align*}\), avec \(C  \in \mathbb R \) 

 

Nous allons voir dans les sous chapitres les règles d'intégration (calcul de primitive) essentielles. 

  1. Intégrale de GAUSS
  2. Les fonctions puissances
  3. Logarithme
  4. Exponentielle

Page 1 sur 2

  • 1
  • 2