Partage
  • Partager sur Facebook
  • Partager sur Twitter

Estimateur du maximum de vraisemblance

Sujet résolu
    8 mai 2013 à 22:55:59

    Bonjour, en pleine révisions des statistiques inférentielles je me retrouve avec un problème de compréhension pour la recherche de l'estimateur du maximum de vraisemblance pour la loi \( U_{[0,\theta]} \).

    L'énoncé d'un ancien DS est le suivant : 

    Soit \(X_1,\dots,X_n\)  un n-échantillon de variables aléatoires parente X de densité : \(\rho(x,\theta)=\frac{2x}{\theta^2}1_{[0,\theta]}(x)\)

    Après quelques question sur la recherche de l'EMM on doit justifier que l'EMV est lui \( \theta_n=\sup_{i=1,\dots,n}(X_i) \).

    La correction du prof est : "Faire un dessin c'est la même situation que le modèle de loi uniforme \([0,\theta]\)".

    On a déja fait un exercice en TD du même style mais une nouvelle fois la justification est : "en dessinant la fonction on se rend compte de l'EMV".

    J'ai bien consulté le graphique de la vraisemblance sur Wikipédia : http://fr.wikipedia.org/wiki/Maximum_de_vraisemblance mais je n'arrive même pas a comprendre comment il est construit a vrai dire. J'ai l'impression que ce qui m'échappe est trivial mais je n'y arrive pas.

    Concernant l'aspect calculatoire on a :

    $$\prod_{i=1}^n{\rho(x_i,\theta)}=\prod_{i=1}^n{\frac{2x_i}{\theta²}1_{[0,\theta]}(x)}=(\frac{2}{\theta²})^n \prod_{i=1}^n{x_i 1_{[0,\theta]}(x)}$$

    J'espère que des explications sur le graphique de la fonction et sa formule (qui peut être simplifiée j'en suis sur mais je ne suis jamais à l'aise avec ces indicatrices ...) m'aideront a comprendre tout ça car j'en ai bien besoin.

    Merci.

    -
    Edité par Baal25 8 mai 2013 à 23:09:10

    • Partager sur Facebook
    • Partager sur Twitter
      9 mai 2013 à 12:50:14

      Reprenons le cas de la loi uniforme. La densité est alors : \[ f(x,\theta) = f_\theta(x) = \begin{cases} \frac {1}{\theta} & \text{si} \quad x \in [0;\theta] \\ 0 & \text{sinon} \end{cases} \] Ce que l'on peut réécrire : \[ f(x,\theta) = f_\theta(x) = \frac {1}{\theta}\mathbf{1}_{[0;\theta]}(x) \] histoire de retrouver des notations similaires à ton exercice.

      La vraisemblance est le produit de la valeur de cette densité pour chaque échantillon : \[ L(x_1,...,x_n ; \theta) = \prod_{i=1}\^n f(x_i, \theta) \]

      On voit tout de suite que si l'un des \( f(x_i, \theta) \) est nul, toute la vraisemblance est nulle. Cela peut difficilement correspondre à un maximum ! Dans quel cas cela arrive-t-il ? Tout simplement si l'un des \(x_i\) est supérieur à \(\theta\) ; autrement dit (puisque la variable sur laquelle on joue lorsque qu'on fait du maximum de vraisemblance est \(\theta\) ) si \(\theta\) est inférieur à (au moins) l'un des \(x_i\).

      Notre première conclusion est donc qu'il faut que \(\theta\) soit plus grand que tous les \(x_i\) : \[ \theta \geq \sup_{i=1,...,n} (x_i) \] Une fois cette condition réalisée, on est débarrassé des indicatrices (car toutes valent \(1\)) et la vraisemblance s'écrit \[ L(x_i,...,x_n ; \theta) = \frac{1}{\theta\^n} \] ce qui est clairement décroissant. Pour maximiser la vraisemblance, il faut donc minimiser \(\theta\), c'est-à-dire se placer dans le cas d'égalité de notre première condition.

      Le raisonnement est exactement le même pour ton exercice (les \(x_i\) sont constants est \( \theta \mapsto \theta\^2 \) est une fonction croissante, ce qui permet de conserver le raisonnement sur la décroissance de la vraisemblance avec \(\theta\) )

      Intuitivement le résultat peut s'expliquer comme ça : On cherche à expliquer tous les résultats : il faut donc que tous les \(x_i\) puissent être le résultat de notre loi uniforme, il faut donc que l'intervalle de la loi contienne tous les \(x_i\). On cherche également à maximiser la "probabilité" de chaque échantillon. Or, plus l'intervalle de la loi uniforme est étendu, plus la "probabilité" de tirer un élément de l'intervalle est faible : il faut donc prendre l'intervalle le plus petit possible contenant tous les échantillons.

      * je fais ici un abus de langage, comme on travaille ici sur des v.a. continue, la probabilité de tirer un nombre précis est nulle. La "probabilité" dont je parle est ici la valeur de la densité de probabilité. J'utilise le terme probabilité pour faire le parallèle avec la loi uniforme discrète (on a moins de chance de tirer un 1 avec un dès de 10 qu'avec un dés de 6)

      En espérant t'avoir aidé.

      -
      Edité par rushia 9 mai 2013 à 12:52:15

      • Partager sur Facebook
      • Partager sur Twitter
        9 mai 2013 à 13:39:24

        Merci beaucoup, l'explication sur pourquoi \( \theta \) doit être plus grand que les \( x_i\) m'a fait comprendre tout ça.

        Au final pour mon exemple une fois qu'on a la condition sur \( \theta \) on obtient bien : 

        $$ L(x_1,\dots,x_n)=\frac{2}{\theta^{2n}}\prod{x_i} $$

        Et on maximise la fonction de la même manière en minimisant \( \theta \) et on obtient l'égalité dans la première condition c'est ça ?

        -
        Edité par Baal25 9 mai 2013 à 13:40:29

        • Partager sur Facebook
        • Partager sur Twitter

        Estimateur du maximum de vraisemblance

        × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
        × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
        • Editeur
        • Markdown