Partage
  • Partager sur Facebook
  • Partager sur Twitter

différentes matrices et valeurs propres

pour en finir avec ça :)

Sujet résolu
    28 janvier 2012 à 10:21:59

    Salut tous,

    histoire de pas polluer le sujet que j'ai fais sur les normes matricielles...
    je pose ma question ici, Sylpro m'a déjà donné des éléments de compréhension mais je n'arrive pas à démontrer certaines propriétés.
    Tout le long de ce poste je considère une matrice [A] et des valeurs propres L, "vp" veut dire valeurs propres.

    I°) matrice non carré :

    ma première question est simple : est qu'une matrice non carré est diagonalisable? (si non pk?) en fait je demande ceci car j'ai toujours travaillé avec des matrices carrés :p

    II°) matrice symétrique (coeff reels):

    je voudrais savoir comment démontrer (ou même montrer pour une matrice simple 4x4) :

    II-1°) pourquoi une matrice symétrique à forcement des valeurs propres réelles ?
    lorsque je calcul det(A-L.I) je tombe sur un polynome pas très joli dont le plus haut degès est la taille de la matrice (si elle n'est pas carré c'est le degrès du nombre de ligne ou colonne...?)

    un polynome de degès "n" à dans l'espace complexe "n" racines (qui sont mes "n" valeurs propres). Donc mes valeurs propres sont des complexes :euh:
    Du coup, comment montrer que ces complexes n'ont pas de partie imaginaire .... :o (je ne vois pas en quoi la symétrique va jouer quelque chose dans les racine d'un polynome ou les parties imaginaires...)

    cette matrice n'est elle forcement definie positive il faut verifier en plus X^t.A.X>0 ?

    II-2°) et des vecteurs propres orthogonaux.

    les vecteurs propres d'une matrice sont orthogonaux, mais comment démontrer ceci ? :o

    II-3°) pourquoi une matrice symétrique est forcement diagonalisable ?

    III°) matrice réelle non symétrique

    j'ai lu sur un cours : "si A est reelle, alors à toute vp complexe Li est associée sa vp conjuguée"

    III-1°) je n'ai pas compris qu'es ce qu'on appel une matrice reelle
    - c'est une matrice dont tous les coefficients sont positif ? (j'ai vu sur wiki que cela s'appel une matrice positive..)
    - une matrice définie positive n'est pas forcement une matrice réelle ?

    III-2°) je n'ai pas compris la phrase sur les vp d'une telle matrice
    - ça veut dire quoi une vp complexe associée à son conjugué ?
    - que doit on conclure de cette phrase ? si une matrice est reelle alors ces vp sont reelles ?

    IV°) matrice complexe

    dans tous ce que j'ai dis au dessus qu'es ce qui change si ma matrice [A] n'a pas des coefficient réels ?
    - une matrice complexe peut elle être définie positive ?
    - une matrice complexe symétrique à quelles propriétés ?
    ...

    V°) matrice non diagonalisable

    V-1°) je n'ai pas compris pourquoi toutes les matrices ne sont pas diagonalisables o_O
    La diagonalisation nous amène à la recherche des racines d'un polynome or on sait que dans le corps? des complexes un polynome de degres "n" à "n" racines. Du coup, je me dis que dans C une matrice est forcement diagonalisable ?

    V-2°) une matrice non diag est donc une matrice non diagonalisable dans R ? peut on le voir à l'avance ou doit on arriver jusqu'a la resolution du polynome pour s'en rendre compte ?

    je vous remercie d'avance pour l'aide que vous pourrez m'apporter
    • Partager sur Facebook
    • Partager sur Twitter
      28 janvier 2012 à 14:05:33

      Salut !

      Pour commencer, pourrais-tu préciser ton niveau ? Ça aiderait pas mal pour savoir d'où partir pour les explications ;)

      I) Etre diagonalisable, c'est être semblable à une matrice diagonale. Or on ne peut parler de matrices semblables que pour des matrices carrées, donc les matrices diagonalisables sont carrées. (De plus, on conçoit mal comment une matrice diagonale pourrait ne pas être carrée !)

      II) Je vais te donner l'énoncé du théorème spectral, ce qui devrait répondre à tes trois questions.
      Théorème : toute matrice M (carrée de taille nxn) symétrique (à coefficients réelle) est diagonalisable dans une base orthonormée, c'est à dire qu'il existe une matrice de passage orthogonale P et une matrice diagonale D telles que <math>\(M=PDP^{-1}\)</math>.

      Le fait que la matrice soit diagonalisable implique que ses valeurs propres sont réelles, qu'elle le soit en base orthonormée signifie justement que les vecteurs propres sont orthogonaux.

      Je t'invite à chercher une démonstration de ce théorème pour comprendre mieux comment marchent les matrices symétriques. En (très) gros, la démonstration classique se fait par récurrence, on se ramène à des matrices symétriques 2x2.On a alors une matrice de la forme <math>\(\begin{pmatrix}a & b \\ b & c \end {pmatrix}\)</math>, de polynôme caractéristique <math>\(X^2 - (a+c)X + (ac-b^2)\)</math>. On calcule <math>\(\Delta = (a+c)^2 - 4(ac-b^2) = a^2 + c^2 + 2ac - 4ac + 4b^2 = (a-c)^2 + 4b^2 \geq 0\)</math>. On élimine le cas <math>\(a=c, b=0\)</math> qui correspond déjà à une matrice diagonale, donc <math>\(\Delta = (a-c)^2 + 4b^2 > 0\)</math> : il y a deux racines réelles distinctes, par conséquent la matrice est diagonalisable.

      J'éditerai mon message après manger pour répondre à la suite.

      • Partager sur Facebook
      • Partager sur Twitter
        28 janvier 2012 à 14:28:30

        Salut à tous, :)

        Avec un peu de retard ( merci krosian je vais voir si je trouve cette démo dans mon cours de spé je suis un gros fainéant ^^ ).

        I)Comment définirais-tu la notion de vecteur propre quand le vecteur appliqué à la matrice n'est pas de même taille que le vecteur obtenu ? La réponse est donc non seule les matrice carrée peuvent être diagonalisable.


        II-1) Soient <math>\(M\)</math> une matrice symétrique réelle d'ordre <math>\(n\)</math> et <math>\(X\)</math> un vecteur propre de <math>\(M\)</math> (<math>\(X \in \mathbb{C}^n-{0}\)</math>).
        <math>\(MX = \lambda X\)</math> donc <math>\(M\bar{X} = \bar{\lambda}\bar{X}\)</math> (on conjugue)

        donc <math>\({}^t\bar{X}M\)</math> = <math>\(\bar{\lambda}}{}^t\bar{X}\)</math> (on transpose en utilisant <math>\(M\)</math> symétrique (alias <math>\({}^tM=M\)</math>)

        ainsi <math>\(\bar{\lambda}{}^t\bar{X}X={}^t\bar{X}MX=\lambda{}^t\bar{X}X\)</math>.

        or <math>\({}^t\bar{X}X=\sum_{i=0}^n |x_i|^2 > 0\)</math> (car <math>\(X\neq 0\)</math>) donc <math>\(\lambda=\bar{\lambda}\)</math>

        Donc les valeur propre d'une matrice symétrique réelle sont réelles.

        2) Soient <math>\(M\)</math> une matrice symétrique réelle, <math>\(X\)</math> et <math>\(Y\)</math> deux vecteurs propres de <math>\(M\)</math>.

        <math>\(MX=\lambda X\)</math> et <math>\(MY = \mu Y\)</math>.

        donc <math>\({}^tYM=\mu {}^tY\)</math>

        donc <math>\(\mu\lambda{}^tYX = {}^tYM^2X = \lambda^2 {}^tYX\)</math>.

        ainsi si <math>\(\mu\neq \lambda\)</math> alors <math>\(X \perp Y\)</math>, sinon <math>\(X,Y\)</math> sont colinéaires ou <math>\(X\)</math> et <math>\(Y\)</math> engendrent un plan stable et tout élément de ce plan est associé à la valeur propre <math>\(\lambda\)</math> on peut donc substituer à <math>\(X\)</math> et <math>\(Y\)</math> une base de vecteurs orthogonaux pour obtenir une base de diagonalisation orthogonale.

        3) Par récurrence. A l'ordre <math>\(1\)</math> pas de problème. ;)
        Supposons que ça marche à l'ordre <math>\(n\)</math>.
        On a montré que les valeurs propres d'une matrice symétrique <math>\(M\)</math> d'ordre <math>\(n+1\)</math> sont réelles. Donc il existe au moins un <math>\(\lamba\)</math> valeur propre de <math>\(M\)</math>. Choisissons un tel \lambda. <math>\(det(M-\lambda \mathbb{I})=0\)</math> donc le noyau de <math>\(M-\lambda \mathbb{I}\)</math> contient (est au moins) une droite stable par <math>\(M\)</math>. Choisissons <math>\(X\)</math> un vecteur directeur de norme 1.

        Montrons que <math>\(X^{\perp}\)</math> est stable. Soit <math>\(Y\)</math> dans <math>\(X^{\perp}\)</math>. <math>\({}^tXMY = {}^tYMX = \lambda{}^tYX = 0\)</math>. (on transpose et <math>\({}^tYX = 0\)</math> car <math>\(Y\)</math> dans <math>\(X^{\perp}\)</math>)

        Concaténons <math>\(X\)</math> à <math>\((e_1,\dots,e_n)\)</math> une base orthonormée de <math>\(X^{\perp}\)</math>. On obtient une base orthonormée de <math>\(\mathbb{R}^n\)</math>. Notons <math>\(P\)</math> la matrice d’une telle base.

        Si on arrive à montrer que <math>\(P^{-1} M P\)</math> est diagonalisable c’est fini car si on trouve <math>\(Q\)</math> une base de diagonalisation <math>\(PQ\)</math> est une base de diagonalisation de <math>\(M\)</math>.

        Or <math>\(P\)</math> étant orthonormée <math>\(P^{-1}={}^tP\)</math> ( le terme <math>\((i,j)\)</math> de <math>\({}^tPP\)</math> correspond au produit scalaire des colonnes <math>\(i,j\)</math> or <math>\(P\)</math> est une base orthonormée…)

        Ainsi <math>\(P^{-1} M P = {}^tPMP = {}^t({}^tPMP)\)</math> donc <math>\(M=\left(\begin{array}{cc} \lambda & 0_{n,1}\\0_{1,n} & S\end{array}\right)\)</math> où <math>\(S\)</math> est symétrique d’ordre <math>\(n\)</math>.

        Ainsi toute matrice symétrique réelle est diagonalisable.

        Pour les autres question je vais être un peu plus évasif mais n’hésite pas : pose des questions.

        III)Une matrice réelle est une matrice à coefficient réels. Une matrice symétrique réelle <math>\(M\)</math> peut-être définie positive. Elle l’est ssi pour tout vecteur <math>\(X\)</math> non nul <math>\({}^tXMX > 0\)</math>.

        La phrase dit que dans le cas des matrice réelle si tu as une valeur propre complexe le conjugué de cette valeur est aussi valeur propre. En effet le polynôme caractéristique est à coefficient réel et on vérifie facilement que si <math>\(z\)</math> est solution alors <math>\(\bar{z}\)</math> l’est aussi.

        IV) Pour les matrice complexe je ne sais pas trop quoi te répondre. Je pense que l’on peut parler de définie ici (qui définie un produit hermitien) et je ne pense pas que l’on puisse parler de positive. Si quelqu’un de compétent passe par là…

        V) Enfin un petit exercice : Essaye de diagonaliser <math>\(\left(\begin{array}{cc}1 & 1\\0 & 1\end{array}\right)\)</math>

        J’espère que ma réponse aura été utile.
        • Partager sur Facebook
        • Partager sur Twitter
          28 janvier 2012 à 22:05:14

          salut tous et merci d'avoir pris le temps de répondre; je vais répondre à toute vos réponses en editant petit à petit mes messages et en citant les vôtres

          Citation : krosian


          I) Etre diagonalisable, c'est être semblable à une matrice diagonale. Or on ne peut parler de matrices semblables que pour des matrices carrées, donc les matrices diagonalisables sont carrées. (De plus, on conçoit mal comment une matrice diagonale pourrait ne pas être carrée !)



          je ne me rappelais plus de ce que c'est une matrice semblable mais c'est bon j'ai trouvé :
          http://fr.wikipedia.org/wiki/Matrices_semblables
          du coup j'ai bien compris pourquoi une matrice diagonalisable est forcement carrée

          Citation : krosian

          Salut !
          II) Je vais te donner l'énoncé du théorème spectral, ce qui devrait répondre à tes trois questions.
          Théorème : toute matrice M (carrée de taille nxn) symétrique (à coefficients réelle) est diagonalisable dans une base orthonormée, c'est à dire qu'il existe une matrice de passage orthogonale P et une matrice diagonale D telles que <math>\(M=PDP^{-1}\)</math>.



          je regarderai mais je crois que matovich a répondu à ceci (j'ai pas encore lu son post)

          Citation : krosian


          Le fait que la matrice soit diagonalisable implique que ses valeurs propres sont réelles, qu'elle le soit en base orthonormée signifie justement que les vecteurs propres sont orthogonaux.



          en fait je n'ai jamais travaillé avec des matrices complexes, du coup je pensais que des matrices réelles pouvait parfois avoir des valeurs propres complexes ou des matrices complexes avoir des valeurs propres complexes...

          Pour la deuxieme partie de phrase j'ai compris une matrice symétrique à forcement ces vecteurs propres ortho mais j'aimerai pouvoir le demontrer (je crois que matovich a répondu à ceci (j'ai pas encore lu son post) )

          Citation : krosian


          Je t'invite à chercher une démonstration de ce théorème pour comprendre mieux comment marchent les matrices symétriques. En (très) gros, la démonstration classique se fait par récurrence, on se ramène à des matrices symétriques 2x2.On a alors une matrice de la forme <math>\(\begin{pmatrix}a & b \\ b & c \end {pmatrix}\)</math>, de polynôme caractéristique <math>\(X^2 - (a+c)X + (ac-b^2)\)</math>. On calcule <math>\(\Delta = (a+c)^2 - 4(ac-b^2) = a^2 + c^2 + 2ac - 4ac + 4b^2 = (a-c)^2 + 4b^2 \geq 0\)</math>. On élimine le cas <math>\(a=c, b=0\)</math> qui correspond déjà à une matrice diagonale, donc <math>\(\Delta = (a-c)^2 + 4b^2 > 0\)</math> : il y a deux racines réelles distinctes, par conséquent la matrice est diagonalisable.



          ah ok, je comprends le principe

          Citation : krosian


          J'éditerai mon message après manger pour répondre à la suite.



          merci de ton aide c'est gentil :D

          en fait je me rends compte d'un truc :

          j'ai des problèmes avec les polynomes et du coup c'est d'ici que viennent mes confusions.
          Par exemple, si je prends une matrice nxn le polynome caractéristique est de degrès n ? et il y a "n" racines dans C du coup je pensais que puisqu'on était dans C une partie de ces racines est étaient complexes mais en fait si la matrice est diagonalisable toutes les valeurs propres (racines) seront réelles ?
          (au passage, pas facile de résoudre un polynome de degrès "n"...?)


          Citation : matovitch

          Salut à tous, :)



          salut ! :D
          ton poste à l'air super intéressant mais je n'ai pas encore eu le temps de le lire, bientôt ;)

          Citation : matovitch


          I)Comment définirais-tu la notion de vecteur propre quand le vecteur appliqué à la matrice n'est pas de même taille que le vecteur obtenu ? La réponse est donc non seule les matrice carrée peuvent être diagonalisable.



          merci pour cette confirmation, cette question étaient en fait un peu bête, désolé .. :-°

          Citation : matovitch


          II-1) Soient <math>\(M\)</math> une matrice symétrique réelle d'ordre <math>\(n\)</math> et <math>\(X\)</math> un vecteur propre de <math>\(M\)</math> (<math>\(X \in \mathbb{C}^n-{0}\)</math>).
          <math>\(MX = \lambda{X}X\)</math> donc <math>\(M\bar{X} = \bar{\lambda{X}}\bar{X}\)</math> (on conjugue)
          donc <math>\({}^t\bar{X}M\)</math> = <math>\(\bar{\lambda{X}}{}^t\bar{X}\)</math> (on transpose en utilisant <math>\(M\)</math> symétrique (alias <math>\({}^tM=M\)</math>)
          ainsi <math>\(\bar{\lambda{X}}{}^t\bar{X}X={}^t\bar{X}MX=\lambda{X}{}^t\bar{X}X\)</math>.
          or <math>\({}^t\bar{X}X=\sum_{i=0}^n |x_i|^2 > 0\)</math> (car <math>\(X\neq 0\)</math>) donc <math>\(\lambda=\bar{\lambda}\)</math>
          Donc les valeur propre d'une matrice symétrique réelle sont réelles.



          ouahou !!!!!!! super démo ça !!! j'ai bien compris à présent merci beaucoup :)

          Citation : matovitch


          2) Soient <math>\(M\)</math> une matrice symétrique réelle, <math>\(X\)</math> et <math>\(Y\)</math> deux vecteurs propres de <math>\(M\)</math>.
          <math>\(MY=\lambda Y\)</math> et <math>\(MY = \mu Y\)</math>.
          donc <math>\({}^tYM=\mu {}^tY\)</math>
          donc <math>\(\mu\lambda{}^tYX = {}^tYM^2X = \lambda^2 {}^tYX\)</math>.
          ainsi si <math>\(\mu\neq \lambda\)</math> alors <math>\(X \perp Y\)</math>, sinon <math>\(X,Y\)</math> sont colinéaires ou <math>\(X\)</math> et <math>\(Y\)</math> engendrent un plan stable et tout élément de ce plan est associé à la valeur propre <math>\(\lambda\)</math> on peut donc substituer à <math>\(X\)</math> et <math>\(Y\)</math> une base de vecteurs orthogonaux pour obtenir une base de diagonalisation orthogonale.



          - <math>\(MY=\lambda Y\)</math> et <math>\(MY = \mu Y\)</math>. tu voulais pas mettre plutôt <math>\(MX=\lambda X\)</math> et <math>\(MY = \mu Y\)</math> ?
          - sinon pour le reste j'ai un soucis pour passer du 1er "donc" au 2eme ...
          - j'ai aussi un peu de mal avec la conclusion à partir de la dernière équation peux tu me donner un petit détail en plus... ?

          Citation : matovitch


          3) Par récurrence. A l'ordre <math>\(1\)</math> pas de problème. ;)
          Supposons que ça marche à l'ordre <math>\(n\)</math>.
          On a montré que les valeurs propres d'une matrice symétrique <math>\(M\)</math> d'ordre <math>\(n+1\)</math> sont réelles. Donc il existe au moins un <math>\(\lamba\)</math> valeur propre de <math>\(M\)</math>. Choisissons un tel \lambda. <math>\(det(M-\lambda \mathbb{I})=0\)</math> donc le noyau de <math>\(M-\lambda \mathbb{I}\)</math> contient (est au moins) une droite stable par <math>\(M\)</math>. Choisissons <math>\(X\)</math> un vecteur directeur de norme 1.

          Montrons que <math>\(X^{\perp}\)</math> est stable. Soit <math>\(Y\)</math> dans <math>\(X^{\perp}\)</math>. <math>\({}^tXMY = {}^tYMX = \lambda{}^tYX = 0\)</math>. (on transpose et <math>\({}^tYX = 0\)</math> car <math>\(Y\)</math> dans <math>\(X^{\perp}\)</math>)

          Concaténons <math>\(X\)</math> à <math>\((e_1,\dots,e_n)\)</math> une base orthonormée de <math>\(X^{\perp}\)</math>. On obtient une base orthonormée de <math>\(\mathbb{R}^n\)</math>. Notons <math>\(P\)</math> la matrice d’une telle base.

          Si on arrive à montrer que <math>\(P^{-1} M P\)</math> est diagonalisable c’est fini car si on trouve <math>\(Q\)</math> une base de diagonalisation <math>\(PQ\)</math> est une base de diagonalisation de <math>\(M\)</math>.

          Or <math>\(P\)</math> étant orthonormée <math>\(P^{-1}={}^tP\)</math> ( le terme <math>\((i,j)\)</math> de <math>\({}^tPP\)</math> correspond au produit scalaire des colonnes <math>\(i,j\)</math> or <math>\(P\)</math> est une base orthonormée…)

          Ainsi <math>\(P^{-1} M P = {}^tPMP = {}^t({}^tPMP)\)</math> donc <math>\(M=\left(\begin{array}{cc} \lambda 0_{n,1}\\0_{1,n} & S\end{array}\right)\)</math> où <math>\(S\)</math> est symétrique d’ordre <math>\(n\)</math>.

          Ainsi toute matrice symétrique réelle est diagonalisable.



          qu'es ce que ceci ? <math>\(X^{\perp}\)</math> je ne connais pas cette notation :(
          sinon pour le reste, à première vue je comprends

          Citation : matovitch


          Pour les autres question je vais être un peu plus évasif mais n’hésite pas : pose des questions.

          III)Une matrice réelle est une matrice à coefficient réels. Une matrice symétrique réelle <math>\(M\)</math> peut-être définie positive. Elle l’est ssi pour tout vecteur <math>\(X\)</math> non nul <math>\({}^tXMX > 0\)</math>.



          ok, super :)

          Citation : matovitch


          La phrase dit que dans le cas des matrice réelle si tu as une valeur propre complexe le conjugué de cette valeur est aussi valeur propre. En effet le polynôme caractéristique est à coefficient réel et on vérifie facilement que si <math>\(z\)</math> est solution alors <math>\(\bar{z}\)</math> l’est aussi.



          Ok je comprends, sauf le plus facile je pense :
          => si on a montré que la vp complexe à aussi son conjugué comme vp ça veut dire quoi en conclusion ?
          => au final on a pas montré que toute les vp sont réelles puisqu'on vient de dire que la complexe ainsi que son conjugué son vp or ceci ce n'est pas des vp réelles...

          Citation : matovitch


          IV) Pour les matrice complexe je ne sais pas trop quoi te répondre. Je pense que l’on peut parler de définie ici (qui définie un produit hermitien) et je ne pense pas que l’on puisse parler de positive. Si quelqu’un de compétent passe par là…



          je jeterai un coup d'oeil un de ces quatre à ceci quand j'aurais bien assimilé le cas reel

          Citation : matovitch


          V) Enfin un petit exercice : Essaye de diagonaliser <math>\(\left(\begin{array}{cc}1 & 1\\0 & 1\end{array}\right)\)</math>



          on a comme polynôme caractéristique : <math>\((1-\lambda)^2=0\)</math>
          donc on a une racine double "1" mais je ne me rappel plus il faut forcement avoir ds vp distinctes pour que la matrice soit diagonalisable ? (à mon avis oui car sinon ça voudrais dire que la diagonale de cette matrice est l'identité ..)

          Citation : matovitch


          J’espère que ma réponse aura été utile.



          super utile !!!!!!!!! merci !!!!!!
          • Partager sur Facebook
          • Partager sur Twitter
            28 janvier 2012 à 23:30:28

            Dans la première démonstration j'avais par erreur rajouté des <math>\(X\)</math> un peu partout. :euh:
            Maintenant c'est mieux mais il peut rester des coquilles.

            Citation : 21did21


            donc on a une racine double "1" mais je ne me rappel plus il faut forcement avoir ds vp distinctes pour que la matrice soit diagonalisable ? (à mon avis oui car sinon ça voudrais dire que la diagonale de cette matrice est l'identité ..)



            Non, il faut que les dimensions des sous-espaces propres correspondent aux ordre de multiplicité des valeurs propres associées. :-°

            Et en français ? :p

            Quand tu cherches les vecteurs propres associées à une valeur propre <math>\(\lambda\)</math> tu cherches des éléments du noyau de <math>\(M-\lambda\mathbb{I}\)</math> c'est un espace vectoriel de dimension <math>\(p\)</math>. Si <math>\(p\)</math> est égal à l'ordre de multiplicité de <math>\(\lambda\)</math> alors rien n'est perdu, elle peut-être diagonalisable. Sinon <math>\(M\)</math> n'est pas diagonalisable.

            Remarque : <math>\(M\)</math> est diagonalisable ssi la somme des dimensions des sous-espaces propres est égale à ... tu devrais pouvoir compléter non ? ^^

            Citation : 21did21

            => si on a montré que la vp complexe à aussi son conjugué comme vp ça veut dire quoi en conclusion ?



            Il n'y a pas de réciproque à l’énonce si c'est ce que tu veux dire. On ne peut pas affirmer que la matrice est réelle.

            Citation : 21did21

            => au final on a pas montré que toute les vp sont réelles puisqu'on vient de dire que la complexe ainsi que son conjugué son vp or ceci ce n'est pas des vp réelles...



            En effet, on ne la pas montré parce que c'est faux. :p
            Une matrice réelle peut très bien avoir des valeurs propres complexes...en nombre pairs car si <math>\(z\)</math> est valeur propre alors <math>\(\bar{z}\)</math> aussi.

            Citation : 21did21


            qu'es ce que ceci ? <math>\(X^{\perp}\)</math> je ne connais pas cette notation :(



            C'est le sous-espace orthogonal au vecteur <math>\(X\)</math>. Dans notre espace tridimensionnel cela correspond à un plan à 2 dimension. Dans le cas d'un espace à <math>\(n\)</math> dimension cela correspond à un "hyperplan" de dimension <math>\(n-1\)</math>.

            En effet <math>\(\forall x\in\mathbb{R}^n-0, x^{\perp}={<x,y> = 0, y\in\mathbb{R}^n}\)</math> c'est le noyeau d'une forme linéaire non nulle (forme = application linéaire dont l'image est le corps sur l'espace vectoriel qui est sa source) : <math>\(y\mapsto <x,y>\)</math>.

            L'ensemble des forme linéaire sur un espace <math>\(E\)</math> est appelé dual de <math>\(E\)</math> noté <math>\(E^*\)</math>. L'application qui a <math>\(x\)</math> associe la forme si dessus est un isomorphisme (bijection linéaire) de <math>\(E\)</math> dans son dual. Ainsi si <math>\(x\)</math> n'est pas nul, la forme n'est pas nulle et son noyau est de dimension <math>\(n-1\)</math>.

            Plus généralement la dimension de l'orthogonal d'un espace de dimension <math>\(p\)</math> est <math>\(n-p\)</math>.


            Citation : 21did21


            - <math>\(MY=\lambda Y\)</math> et <math>\(MY = \mu Y\)</math>. tu voulais pas mettre plutôt <math>\(MX=\lambda X\)</math> et <math>\(MY = \mu Y\)</math> ?



            En effet je vais de ce pas l'éditer. J'expliciterai demain (avec un esprit plus clair).

            Au dodo ! :D
            • Partager sur Facebook
            • Partager sur Twitter
              29 janvier 2012 à 11:52:30

              Citation : matovitch


              donc <math>\(\mu\lambda{}^tYX = {}^tYM^2X = \lambda^2 {}^tYX\)</math>.



              en fait ce que je n'ai pas compris c'est cette partie : <math>\({}^tYM^2X = \lambda^2 {}^tYX\)</math>.
              c'est surement simple mais là, tout de suite, je ne vois pas ... :(

              Citation : matovitch


              En effet, on ne la pas montré parce que c'est faux. :p
              Une matrice réelle peut très bien avoir des valeurs propres complexes...en nombre pairs car si <math>\(z\)</math> est valeur propre alors <math>\(\bar{z}\)</math> aussi.



              ah d'accord ! j'avais cru comprendre qu'une matrice à coeff réels ne pouvait qu'avoir des vp réelle (je me suis un peu emmêlé
              les pinceaux sur ce coup)

              Citation : matovitch


              C'est le sous-espace orthogonal au vecteur <math>\(X\)</math>. Dans notre espace tridimensionnel cela correspond à un plan à 2 dimension. Dans le cas d'un espace à <math>\(n\)</math> dimension cela correspond à un "hyperplan" de dimension <math>\(n-1\)</math>.



              ok :)


              Citation : matovitch


              C'est le sous-espace orthogonal au vecteur <math>\(X\)</math>. Dans notre espace tridimensionnel cela correspond à un plan à 2 dimension. Dans le cas d'un espace à <math>\(n\)</math> dimension cela correspond à un "hyperplan" de dimension <math>\(n-1\)</math>.

              En effet <math>\(\forall x\in\mathbb{R}^n-0, x^{\perp}={<x,y> = 0, y\in\mathbb{R}^n}\)</math> c'est le noyeau d'une forme linéaire non nulle (forme = application linéaire dont l'image est le corps sur l'espace vectoriel qui est sa source) : <math>\(y\mapsto <x,y>\)</math>.

              L'ensemble des forme linéaire sur un espace <math>\(E\)</math> est appelé dual de <math>\(E\)</math> noté <math>\(E^*\)</math>. L'application qui a <math>\(x\)</math> associe la forme si dessus est un isomorphisme (bijection linéaire) de <math>\(E\)</math> dans son dual. Ainsi si <math>\(x\)</math> n'est pas nul, la forme n'est pas nulle et son noyau est de dimension <math>\(n-1\)</math>.

              Plus généralement la dimension de l'orthogonal d'un espace de dimension <math>\(p\)</math> est <math>\(n-p\)</math>.



              j'ai des souvenirs de ça mais malheuresement ce n'est que des souvenirs
              je me replongerai sur ce coté théorique en fouillant dans mes bouquins ;)
              ici c'est plus l'aspect application qui m'intéresse (et tu y a très bien répondu :D )

              je pense avoir un peu près tout compris à présent, il reste que l'équation de la première partie de ce message mais sinon tous est OK.

              merci beaucoup !!
              • Partager sur Facebook
              • Partager sur Twitter
                29 janvier 2012 à 12:20:27

                Citation : 21did21

                en fait ce que je n'ai pas compris c'est cette partie : <math>\({}^tYM^2X = \lambda^2 {}^tYX\)</math>.



                J'utilise deux fois le fait que <math>\(MX=\lambda X\)</math>. Voici le détail :

                <math>\({}^tYM^2X = {}^tYMMX = {}^tYM\lambda X = {}^tY\lambda MX = {}^tY\lambda^2X = \lambda^2 {}^tYX\)</math>
                • Partager sur Facebook
                • Partager sur Twitter
                  29 janvier 2012 à 12:48:35

                  Citation : matovitch

                  Citation : 21did21

                  en fait ce que je n'ai pas compris c'est cette partie : <math>\({}^tYM^2X = \lambda^2 {}^tYX\)</math>.


                  J'utilise deux fois le fait que <math>\(MX=\lambda X\)</math>. Voici le détail :
                  <math>\({}^tYM^2X = {}^tYMMX = {}^tYM\lambda X = {}^tY\lambda MX = {}^tY\lambda^2X = \lambda^2 {}^tYX\)</math>



                  ah oui, en effet ! c'est malin ça ;)

                  du coup on a un truc dans ce genre :
                  <math>\(\mu\lambda{}^tYX = {}^tYM^2X = \lambda^2 {}^tYX\)</math>

                  on voit que cette égalité est totalement inégale :p pour X et Y quelconques, le seul moment où elle est correct c'est si le produit scalaire <math>\(YX\)</math> est nul (car 0=0 la tête à toto :lol: je craque ) ?

                  si ils ont colinéaires on a Y=k.X et cette équation devient :
                  <math>\(\mu\lambda.k{}^tX^2 = k.{}^tXM^2X = \lambda^2.k{}^tX^2\)</math>

                  d'où <math>\(\mu=\lambda\)</math> ?
                  • Partager sur Facebook
                  • Partager sur Twitter
                    29 janvier 2012 à 13:31:38

                    Tout le monde est là ? ^^

                    did21did>> Tu as montré une sorte de réciproque de ce que j'ai dit.

                    Si <math>\(\mu \neq\lambda\)</math> comme tu l'as vu il sont forcément orthogonaux (0=0 :p )

                    Sinon <math>\(\lambda = \mu\)</math> donc <math>\(X\)</math> et <math>\(Y\)</math> sont dans le même sous espace propre
                    qui est soit un plan soit une droite. Si c'est un plan on peut les choisir orthogonaux.

                    En fait les vecteurs propres d'une matrice symétrique ne sont pas nécessairement orthogonaux mais on peut toujours trouver une base de vecteurs propres orthogonale (ou même orthonormée).
                    • Partager sur Facebook
                    • Partager sur Twitter
                      29 janvier 2012 à 14:06:46

                      je voulais être sur d'avoir compris. Merci pour tous :D

                      => une dernière question (cette fois c'est la dernière :p )

                      c'est quoi une valeur singulière ? sur le web j'au cru comprendre que c'était différent de valeur propre alors que moi je pensais que c'était la même chose...
                      • Partager sur Facebook
                      • Partager sur Twitter
                        29 janvier 2012 à 14:25:21

                        Je ne connaissais pas. Apparemment c'est la même chose pour les matrices carrées. Et c'est "l'équivalent" des valeurs propres pour les matrices rectangulaires. (laissons la parole a des personnes qualifiées ! :p )
                        • Partager sur Facebook
                        • Partager sur Twitter
                          29 janvier 2012 à 15:19:59

                          Citation : matovitch

                          Apparemment c'est la même chose pour les matrices carrées. Et c'est "l'équivalent" des valeurs propres pour les matrices rectangulaires.



                          en fait je viens de voir sur le net que les matrices rectangulaires sont aussi diagonalisables (on par pas de diagonalisation dans ce cas là mais de décomposition en valeurs singulières)
                          http://fr.wikipedia.org/wiki/D%C3%A9co [...] guli%C3%A8res

                          je ne sais pas trop à quoi ça sert (surement un peu pareil que pour la diagonalisation) et je ne sais pas trop comment faire cette décomposition....

                          Citation : matovitch

                          (laissons la parole a des personnes qualifiées ! :p )



                          OK, en tout cas tu m'as énormement aidé et je t'en remercie, à présent je pense avoir compris pas mal de choses :D
                          • Partager sur Facebook
                          • Partager sur Twitter
                            29 janvier 2012 à 16:00:19

                            Je t'en prie ça me fait réviser à moi aussi. ^^
                            • Partager sur Facebook
                            • Partager sur Twitter
                              29 janvier 2012 à 16:12:53

                              Bein tu as du déjà remarquer avec l'un de tes anciens posts que ça sert en analyse numérique pour évaluer le conditionnement d'un problème.
                              Après, la décomposition en valeur singulière permet de comprendre de façon qualitatif le fonctionnement d'un opérateur.
                              Comme je l'expliquais sur l'autre post la matrice est décomposée en un produit de trois matrices dont 2 sont orthogonales : elles ne font que tourner et redimensionner l'espace de manière uniforme. La troisième est "diagonale" et les termes diagonaux sont appellés valeurs singulières. On peut interpréter cette matrice comme un opérateur qui "déforme" l'espace : en effet chaque valeur singulière correspond à une homothétie de l'espace dans une direction particulière. Ces homothéties n'étant à priori pas de même rapport, les proportions de l'espace sont modifiées (une sphère devient un papatoïde par exemple)

                              J'imagine que ça a d'autres applications plus théorique, mais on voit que c'est déjà un très bonne outils d'analyse qualitative.
                              • Partager sur Facebook
                              • Partager sur Twitter
                                29 janvier 2012 à 16:23:27

                                Un cercle devient une ellipse...donc patatoïde = ellipsoïde.
                                En particulier un ellipsoïde est convexe contrairement à certaines patates (c'est d'ailleurs là que c'est chiant à éplucher! :p )

                                rushia >> Je suis assez fier de mon calcul d'intégrale pour cinquième...si tu as le temps d'aller jeter un coup d’œil et de me donner ton avis c'est avec plaisir. :)
                                • Partager sur Facebook
                                • Partager sur Twitter
                                  29 janvier 2012 à 16:58:39

                                  Citation : rushia

                                  Bein tu as du déjà remarquer avec l'un de tes anciens posts que ça sert en analyse numérique pour évaluer le conditionnement d'un problème.
                                  Après, la décomposition en valeur singulière permet de comprendre de façon qualitatif le fonctionnement d'un opérateur.
                                  Comme je l'expliquais sur l'autre post la matrice est décomposée en un produit de trois matrices dont 2 sont orthogonales : elles ne font que tourner et redimensionner l'espace de manière uniforme. La troisième est "diagonale" et les termes diagonaux sont appellés valeurs singulières. On peut interpréter cette matrice comme un opérateur qui "déforme" l'espace : en effet chaque valeur singulière correspond à une homothétie de l'espace dans une direction particulière. Ces homothéties n'étant à priori pas de même rapport, les proportions de l'espace sont modifiées (une sphère devient un papatoïde par exemple)

                                  J'imagine que ça a d'autres applications plus théorique, mais on voit que c'est déjà un très bonne outils d'analyse qualitative.



                                  merci Rushia (en effet, j'avais oublié l'explication que tu m'avais donné l'autre fois :o )
                                  je m'en rappel à présent (je suis allé me rafraîchir la mémoire sur ton ancien message)

                                  par contre juste un truc:
                                  - c'est un peu bizarre de cherche le conditionnement d'une matrice non carré ?
                                  - si la matrice n'est pas carré alors le systeme [A]{x}={b} que l'on essai de résoudre n'a pas une solution unique ... :o
                                  • Partager sur Facebook
                                  • Partager sur Twitter
                                    31 janvier 2012 à 13:56:00

                                    Je viens de penser à un truc :

                                    disons que j'ai cette matrice diagonale :
                                    [-1 0 0]
                                    [ 0 1 0]
                                    [ 0 0 1]
                                    à priori, on peut se dire qu'elle n'est pas définie positive puisque il y a une valeur propre négative.

                                    mais si je fais <X>A{X}=(-x)²+x²+x² je remarque que ce nombre est forcement supérieur à 0 donc la matrice est définie positive ???
                                    • Partager sur Facebook
                                    • Partager sur Twitter
                                      31 janvier 2012 à 14:22:38

                                      Citation : 21did21

                                      <X>A{X}=(-x)²+x²+x² je remarque que ce nombre est forcement supérieur à 0 donc la matrice est définie positive ???



                                      Quelle est cette opération mystique ??? Qui est X ? Que veut dire <X> ? et A{X} ? Sais tu manipuler des matrices correctement ?
                                      • Partager sur Facebook
                                      • Partager sur Twitter
                                        31 janvier 2012 à 15:33:27

                                        oups je suis allé un peu vite je me suis trompé :(

                                        on a, si on fait : <math>\({x}^T.A.{x}\)</math> avec la matrice que j'ai mis plus haut ce résultat : <math>\(-x_1^2+x_2^2+x_3^2\)</math>

                                        et si la matrice est definie positive il faudrait que ceci soit positif. En fait il est possible (si x1 est petit devant x2 et x3) que cette opération soit bien positive et du coup ça voudrait dire que la matrice est définie positive (alors les valeurs propres ne sont pas toutes positives...)
                                        • Partager sur Facebook
                                        • Partager sur Twitter
                                          31 janvier 2012 à 16:13:21

                                          Salut 21did21,

                                          comme ce dont tu parles est connexe avec notre discussion dans un de tes autres posts, je m'invite dans celui-ci.

                                          La matrice <math>\(\begin{pmatrix}-1&0&0\\ 0&1&0\\ 0&0&1\\\end{pmatrix}\)</math>, n'est pas définie positive car en effet, comme tu l'as remarqué, -1 est une valeur propre strictement négative pour cette matrice.

                                          Ensuite, tu dis, je te cite :

                                          Citation : 21did21

                                          En fait il est possible (si x1 est petit devant x2 et x3) que cette opération soit bien positive et du coup ça voudrait dire que la matrice est définie positive (alors les valeurs propres ne sont pas toutes positives...)



                                          Non, on a bien (les vap de <math>\(M\)</math> symétrique sont strictement positives) <math>\(\Leftrightarrow\)</math> (<math>\(M\)</math> symétrique est définie positive)
                                          Il ne suffit pas de trouver un vecteur <math>\(X\)</math> tel que <math>\({}^t \! XMX > 0\)</math> pour que la matrice soit définie positive, il faut que ce soit vrai pour tous les vecteurs !

                                          Par exemple, on a: <math>\(\begin{pmatrix}1&0&0\end{pmatrix}\begin{pmatrix}-1&0&0\\ 0&1&0\\ 0&0&1\\\end{pmatrix}\begin{pmatrix}1\\0\\0\end{pmatrix}=-1\)</math>

                                          ce qui montre une nouvelle fois que cette matrice n'est pas def. pos.


                                          Je te remets l'équivalence complète, pour <math>\(M\)</math> symétrique:

                                          (<math>\(\forall X \in \mathbb R^n\)</math>, <math>\({}^t \! XMX > 0\)</math>) <math>\(\Leftrightarrow\)</math> (les vap de <math>\(M\)</math> sont strictement positives) <math>\(\Leftrightarrow\)</math> (<math>\(M\)</math> définie positive)


                                          Edit: j'en profite pour répondre à une autre de tes questions:

                                          Citation : 21did21


                                          - si la matrice n'est pas carré alors le systeme [A]{x}={b} que l'on essai de résoudre n'a pas une solution unique ... :o


                                          ça dépend quelle est la forme de la matrice en fait: si la matrice est plus haute que large, tu as de bonnes chances que ta solution soit unique (ou qu'il n'y en ait pas du tout) car tu auras plus d'équations que d'inconnues - sous réserve que tu puisses extraire une matrice carrée inversible de cette matrice.

                                          Mais si ta matrice est plus large que haute, en effet, dans la plupart des cas, ta solution ne sera pas unique, tu auras plus d'inconnues que d'équations.
                                          • Partager sur Facebook
                                          • Partager sur Twitter
                                            31 janvier 2012 à 16:37:38

                                            merci sylpro pour ta reponse !!!!!

                                            Citation : sylpro

                                            pour que la matrice soit définie positive, il faut que ce soit vrai pour tous les vecteurs !



                                            c'est ça que j'avais zappé :p
                                            • Partager sur Facebook
                                            • Partager sur Twitter
                                              27 juin 2019 à 20:23:49

                                              Bonjour

                                              En cherchant à savoir si toute matrice symetrique est diagonalisable je suis tombé sur ce sujet et donc pas la peine d en ouvrir un autre

                                              Ma question est simple j avais cru que tout matrice symetrique est diagonalisable sauf que j ai trouvé un contre exemple evident . E n effet soit une matrice carré avec 1 dans toutes ses cases. C est bien une matrice symrtrique sauf qu elle n est pas diagonalisable. Alors pourquoi dans les proptiétés de diagonalisation, on dit que toute matrice symetrique est necessairement diagonalisable.

                                              Merci pour l aide

                                              • Partager sur Facebook
                                              • Partager sur Twitter
                                                28 juin 2019 à 9:47:55

                                                MoundirNader a écrit:

                                                Bonjour

                                                En cherchant à savoir si toute matrice symetrique est diagonalisable je suis tombé sur ce sujet et donc pas la peine d en ouvrir un autre

                                                ta question serait pourtant plus lisible que de la poser dans un sujet marqué résolu . C'est quand même pas hypercompliqué d'ouvrir un nouveau sujet !

                                                MoundirNader a écrit:

                                                 Ma question est simple j avais cru que tout matrice symetrique est diagonalisable sauf que j ai trouvé un contre exemple evident . E n effet soit une matrice carré avec 1 dans toutes ses cases. C est bien une matrice symértrique sauf qu elle n est pas diagonalisable.  

                                                il faut se méfier des évidences ! 

                                                J"ai l'impression que tu confonds diagonalisable et inversible 

                                                Donc, si ,toute matrice symétrique à coefficients dans \(\mathcal{R}\) (*)est diagonalisable :-°  et ton contre exemple n'en est pas un . La matrice \(A_n\) avec des 1 partout  a une valeur propre qui vaut \(n\)  et  0 comme valeur propre de multiplicité \(n-1\), dont les vecteurs propres forment un hyperplan de dimension \(n-1\).

                                                Fais le calcul élémentaire en dimension 2, le polynômes caractéristique vaut \(\lambda(2-\lambda)\) et géométriquement, dans un repère orthonormé, les directions propres sont les bissectrices du système d'axes.

                                                Donc ce n'est pas parce que une matrice est non inversible qu'elle n'est pas diagonalisable.

                                                (*) il faut bien préciser dans \(\mathcal{R}\). La symétrie dans \(\mathcal{C}\) n'implique pas la diagonalisation exemple simple: [1,i;i,1] n'est pas diagonalisable.

                                                Il faut remplacer symétrique par   hermitique , ainsi [1,i;-i,1] est diagonalisable.

                                                -
                                                Edité par Sennacherib 28 juin 2019 à 11:43:12

                                                • Partager sur Facebook
                                                • Partager sur Twitter
                                                tout ce qui est simple est faux, tout ce qui est compliqué est inutilisable
                                                  28 juin 2019 à 13:03:51

                                                  Je m en suis rendu après avoir posté mon message.

                                                  Mais vous avez bien raison je confondais inversibilité et diagonalisation

                                                  Toute matrice symetrique est diagonalisable mais elle peut ne pas etre inversible sauf si elle est de rang n ( égal à son ordre)

                                                  Par contre une matrice non symetrique ne sera diagonalisable que si elle est de rang n . N est ce pas?

                                                  Merci

                                                  -
                                                  Edité par MoundirNader 28 juin 2019 à 13:07:05

                                                  • Partager sur Facebook
                                                  • Partager sur Twitter
                                                    28 juin 2019 à 18:05:12

                                                    MoundirNader a écrit:

                                                    Par contre une matrice non symetrique ne sera diagonalisable que si elle est de rang n . N est ce pas?

                                                    Merci

                                                    -
                                                    Edité par MoundirNader il y a environ 4 heures

                                                    pas davantage ! :-°  il n'y a pas d'implication simple entre inversion et diagonalisation 

                                                    deux contre exemples simples à calculer en dimension 2

                                                    la matrice \([0, -1 ; 1, 0]\) est inversible d'inverse \([0 ,1 ; -1 ,0]\); pourtant elle n'est pas diagonalisable dans R. Le polynôme caractéristique vaut \(\lambda^2 +1\) et n'a pas de racine.

                                                    la matrice \([1 , 3; 1 ,3]\) est non inversible  donc de rang 1, et non symétrique . Pourtant elle est diagonalisable de valeurs propres (0 ,4). 

                                                    Ce que on peut dire simplement, c'est que si une matrice est de rang inférieur à n, c'est qu'elle a au moins une valeur propre nulle .En effet une valeur propre vérifie \(det(A_n-\lambda I_n)=0\) donc \(\lambda\) =0 est solution puisque si \(A_n\) est non inversible \(det(A_n)=0\)
                                                      

                                                    -
                                                    Edité par Sennacherib 28 juin 2019 à 18:20:05

                                                    • Partager sur Facebook
                                                    • Partager sur Twitter
                                                    tout ce qui est simple est faux, tout ce qui est compliqué est inutilisable
                                                      28 juin 2019 à 18:20:06

                                                      Salut,

                                                      Il n'y a pas de lien évident entre diagonalisable et inversible.

                                                      • La matrice nulle est diagonalisable et non inversible.
                                                      • L'identité est diagonalisable et inversible.
                                                      • La matrice nulle mais avec un 1 tout en haut tout à droite est non inversible et non diagonalisable.
                                                      • La matrice identité mais avec un 1 tout en haut tout à droite est inversible et non diagonalisable.

                                                      Attention, le théorème dit qu'une matrice symétrique à coefficients réels est diagonalisable. Si on a des coefficients complexes, ce n'est pas forcément le cas. Un contre exemple classique est celui de la matrice 2x2 avec 1 et -1 sur la diagonale et des i pour les autres valeurs qui n'est pas diagonalisable car sa seule valeur propre est 0 or ce n'est pas la matrice nulle.

                                                      • Partager sur Facebook
                                                      • Partager sur Twitter
                                                      Tutoriel Ruby - Bon tutoriel C - Tutoriel SDL 2 - Python avancé - Faîtes un zeste, devenez des zesteurs
                                                        28 juin 2019 à 18:21:29

                                                        yo@n97one a écrit:

                                                        Attention, le théorème dit qu'une matrice symétrique à coefficients réels est diagonalisable. Si on a des coefficients complexes, ce n'est pas forcément le cas. Un contre exemple classique est celui de la matrice 2x2 avec 1 et -1 sur la diagonale et des i pour les autres valeurs qui n'est pas diagonalisable car sa seule valeur propre est 0 or ce n'est pas la matrice nulle.


                                                        ... déjà dit, alinéa de mon premier post 

                                                         :)

                                                        -
                                                        Edité par Sennacherib 28 juin 2019 à 18:23:45

                                                        • Partager sur Facebook
                                                        • Partager sur Twitter
                                                        tout ce qui est simple est faux, tout ce qui est compliqué est inutilisable
                                                          28 juin 2019 à 18:25:39

                                                          Ah oui effectivement, je l'avais raté. On n'a qu'à dire que la répétition est la base de l'apprentissage ;)

                                                          -
                                                          Edité par yo@n97one 28 juin 2019 à 18:25:59

                                                          • Partager sur Facebook
                                                          • Partager sur Twitter
                                                          Tutoriel Ruby - Bon tutoriel C - Tutoriel SDL 2 - Python avancé - Faîtes un zeste, devenez des zesteurs

                                                          différentes matrices et valeurs propres

                                                          × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
                                                          • Editeur
                                                          • Markdown