Partage
  • Partager sur Facebook
  • Partager sur Twitter

Continuité, Dérivées partielles et Différentiation.

Questions de logique.

Anonyme
    20 juillet 2011 à 15:07:49

    Bonjour tout le monde !

    Je découvre actuellement l'analyse multivariable et dans mon cours il est noté :

    Citation : cours

    Si les dérivées partielles de <math>\(f\)</math> existent dans un voisinage de <math>\(a\)</math> et sont continues en <math>\(a\)</math>, alors <math>\(f\)</math> est différentiable en <math>\(a\)</math>



    Que signifie le "et sont continues en <math>\(a\)</math>" ? J'imagine qu'on parle des dérivées partielles et que la fonction de ces dérivées doit exister en la valeur <math>\(a\)</math> ?


    Ensuite :

    Citation : cours

    Si f est différentiable en <math>\(a\)</math>, alors f est continue en <math>\(a\)</math> et les dérivées directionnelles de <math>\(f\)</math> existent dans toutes les directions.



    Je me demandais si les dérivées n'existaient pas dans toutes les directions, quelles en seraient les conséquences possibles sur la limite de <math>\(f\)</math> en <math>\(a\)</math> et de la continuité de la fonction ? Est-ce que d'office il faut conclure que la fonction n'est pas continue et que la limite n'existe pas ?



    Merci d'avance ! :)
    • Partager sur Facebook
    • Partager sur Twitter
      20 juillet 2011 à 17:43:27

      Citation : poleon

      Que signifie le "et sont continues en <math>\(a\)</math>" ? J'imagine qu'on parle des dérivées partielles et que la fonction de ces dérivées doit exister en la valeur <math>\(a\)</math> ?


      Tu ne connais pas la définition de la continuité en un point ?
      Soient <math>\(E\)</math> et <math>\(F\)</math> deux espaces métriques, <math>\(x\in E\)</math>, <math>\(V\)</math> un voisinage de <math>\(x\)</math> et <math>\(f : V \rightarrow F\)</math>, alors <math>\(f\)</math> est continue en <math>\(x\)</math> si :
      <math>\(\forall \epsilon>0,\exists \eta>0, \forall y\in E, d(x,y)\leq \eta \Rightarrow d(f(x),f(y))\leq\epsilon\)</math>

      Citation : poleon

      Je me demandais si les dérivées n'existaient pas dans toutes les directions, quelles en seraient les conséquences possibles sur la limite de <math>\(f\)</math> en <math>\(a\)</math> et de la continuité de la fonction ? Est-ce que d'office il faut conclure que la fonction n'est pas continue et que la limite n'existe pas ?


      Exemple simple dans R :
      la fonction racine cubique n'est pas dérivable en 0 mais est continue en 0.
      • Partager sur Facebook
      • Partager sur Twitter
      Anonyme
        20 juillet 2011 à 20:37:01


        Bonsoir,
        à Tomash

        Je pense que la première question de poelon ne porte pas sur la définition de la continuité.
        J'interpréte son interrogation de la façon suivante( qu'il confirmera ou infirmera)
        Il pense qu'il y a une redondance dans le texte et que l'existence des dérivées en a assure leur continuité ce qui est faux mais moins élémentaire.
        Un contre exemple classique le montre:
        soit la fonction définie par
        <math>\(\[ f(x,y)=\dfrac{xy^{2}}{x^{2}+y^{2}} \]\)</math> pour <math>\(\[ (x,y)\neq (0,0) \]\)</math>
        <math>\(\[ f(x,y)=0 \]\)</math> pour <math>\(\[ (x,y)=(0,0) \]\)</math>

        On montre:
        -qu'elle est continue en (0,0)
        - que les dérivées partielles sont définies en (0,0)et valent toutes 0.( on le montre en appliquant le calcul d'une dérivée directionnelle en (0,0)
        - Néanmoins, elles ne sont pas continues en ce point. On le montre en calculant analytiquement la dérivée ailleurs qu'en zéro et en tendant vers zéro selon un choix judicieux de chemin (x,y)
        • Partager sur Facebook
        • Partager sur Twitter
        Anonyme
          20 juillet 2011 à 23:39:33

          @thomash et nabucos : pour la première question, en fait je ne comprenais pas très bien cette conditions car en analyse avec une variable, il est dit que si f est continue en a, alors f est dérivable en a. Ici par contre, si j'ai bien compris la phrase, la condition de continuité porte sur les dérivées de la fonction et non de la fonction elle-même.

          Tomash : ton exemple est intéressant, mais qu'à moitié pertinent vu que c'est une fonction qu'à une seule variable. :)

          A part ça, merci pour ton exemple nabucos, je vais méditer dessus demain, car aujourd'hui il se fait tard. ^^
          • Partager sur Facebook
          • Partager sur Twitter
            21 juillet 2011 à 1:05:48

            Mon exemple est tout à fait pertinent, si ça ne marche pas avec une variable, a fortiori ça ne peut pas marcher avec plusieurs variable (si ça tu veux, rajoute une deuxième variable qui ne sert à rien : <math>\(f :(x,y)\mapsto x^{\frac{1}{3}}\)</math>)
            D'ailleurs il montre que ta proposition «si f est continue en a, alors f est dérivable en a» est fausse.
            • Partager sur Facebook
            • Partager sur Twitter
            Anonyme
              21 juillet 2011 à 10:56:54

              Bonjour,

              A toutes fins utiles, je t' indique un lien avec un trés bon cours de calcul différentiel de niveau Bac+3
              Il est complet et n'élude aucune difficulté. Tous les théorèmes sont démontrés en détails.
              Je le trouve néanmoins pédagogique avec le gros avantage de contenir énormément d'exercices de tous niveaux corrigés de façon assez détaillée, ainsi que tous les problémes corrigés d'examen entre 2000 et 2004 de l'université où il était professé.
              Donc même si tu as, comme je le suppose, ton cours, cette somme d'exercices et problèmes corrigés en libre accés , avec illustration de nombreux cas "vicieux" dont le calcul différentiel multi-dimensionnel a le secret, est assez rare pour être souligné.

              http://math.unice.fr/~comte/L1b/CoursComplet.pdf
              • Partager sur Facebook
              • Partager sur Twitter
                21 juillet 2011 à 11:40:56

                Citation : poleon

                J'imagine qu'on parle des dérivées partielles et que la fonction de ces dérivées doit exister en la valeur <math>\(a\)</math> ?

                Pas seulement exister, mais y être continues.


                Citation : poleon

                Je me demandais si les dérivées n'existaient pas dans toutes les directions, quelles en seraient les conséquences possibles sur la limite de <math>\(f\)</math> en <math>\(a\)</math> et de la continuité de la fonction ? Est-ce que d'office il faut conclure que la fonction n'est pas continue et que la limite n'existe pas ?


                Tu réfléchis à l'envers : la non dérivabilité ne renseigne jamais sur la continuité. La continuité est une notion complètement indépendante de la dérivabilité. Pour te dire, il existe des contextes où la continuité est parfaitement définie et où la notion de dérivabilité n'a aucun sens !

                Pour finir de te convaincre, un petit exemple qui contredit ton intuition : un demi-cône n'est dérivable selon aucune direction en son sommet et y est pourtant bien continu. Ci-dessous le demi-cône d'équation : <math>\(z = \sqrt {x^2+y^2}\)</math>
                Image utilisateur

                La bonne question ici serait plutôt : est-ce que la continuité en a de f et l'existence de toutes les dérivées directionnelles suffit à la dérivabilité (ou différentiabilité si tu préfères) de f en a ?
                Là, l'exemple de nacubos y réponds non. Voici la représentation de la fonction où il est plus ou moins flagrant que la surface n'admet pas de plan tangent en (0,0,0) :
                Image utilisateur
                • Partager sur Facebook
                • Partager sur Twitter
                Anonyme
                  21 juillet 2011 à 17:31:11

                  Tout d'abord merci à tous pour votre patience et vos réponses très complètes, celles-ci m'aident énormément !

                  Citation : Thomash


                  Tu ne connais pas la définition de la continuité en un point ?
                  Soient <math>\(E\)</math> et <math>\(F\)</math> deux espaces métriques, <math>\(x\in E\)</math>, <math>\(V\)</math> un voisinage de <math>\(x\)</math> et <math>\(f : V \rightarrow F\)</math>, alors <math>\(f\)</math> est continue en <math>\(x\)</math> si :
                  <math>\(\forall \epsilon>0,\exists \eta>0, \forall y\in E, d(x,y)\leq \eta \Rightarrow d(f(x),f(y))\leq\epsilon\)</math>



                  J'ai un peu du mal à saisir la notion de voisinage, pourquoi ne pas tout simplement mettre <math>\(f : E \rightarrow F\)</math> au lieu de <math>\(f : V \rightarrow F\)</math> ?

                  Citation : nabucos

                  Bonjour,

                  A toutes fins utiles, je t' indique un lien avec un trés bon cours de calcul différentiel de niveau Bac+3



                  Merci beaucoup, j'y jetterai un coup d'oeil, en particulier aux exercices car je n'aurai malheureusement pas le temps de tout lire en détail.

                  Citation : Thomash

                  Mon exemple est tout à fait pertinent, si ça ne marche pas avec une variable, a fortiori ça ne peut pas marcher avec plusieurs variable (si ça tu veux, rajoute une deuxième variable qui ne sert à rien : <math>\(f :(x,y)\mapsto x^{\frac{1}{3}}\)</math>)
                  D'ailleurs il montre que ta proposition «si f est continue en a, alors f est dérivable en a» est fausse.



                  Je m'incline. ^^ En plus tu viens de me démontrer d'une manière absurde que finalement, que ce soit à plusieurs variables ou une seule, le concept est tout à fait similaire.
                  Bon, il y tout de même cette notion de dérivées directionnelles et de différentiation et viennent un peu embrouiller les choses et bien que ton exemple dans le plan sous-entend une seule direction, il y avait moyen de trouver quelque chose d'un peu plus recherché. ^^

                  Citation : Pierre89

                  Citation : poleon

                  J'imagine qu'on parle des dérivées partielles et que la fonction de ces dérivées doit exister en la valeur <math>\(a\)</math> ?


                  Pas seulement exister, mais y être continues.



                  Tu viens de mettre le point sur l'endroit qui me chiffonne d'où une nouvelle question : est ce que la différentiation c'est le vecteur somme des dérivées partielles par rapport aux deux axes (si on est dans R²) ou alors c'est le vecteur somme de toutes les dérivées directionnelles ou... encore autre chose ? Car dans mon cours, on la définit par une limite dans lequel une des variables est une matrice Jacobienne, mais je ne vois pas vraiment ce que ça représente concrètement.

                  Car si c'est ma première hypothèse, alors en théorie, la différentiation devrait être possible à partir du moment que les dérivées partielles par rapport à X et Y existent.
                  Donc j'imagine que cette hypothèse est absurde mais j'aimerai en avoir le coeur net. :)

                  En réfléchissant, je remarque que ma première hypothèse, c'est la définition du gradient. Mais alors que représente la deuxième, c-à-d le vecteur somme des dérivées directionnelles ? Et finalement j'en reviens à la même question : qu'est-ce la différentiation ?

                  Et finalement, merci pour ces graphes et ces deux (contres)-exemples qui me permettent vraiment de visualiser tout ces concepts à première vue très flous... :)
                  • Partager sur Facebook
                  • Partager sur Twitter
                    21 juillet 2011 à 18:10:42

                    Citation : poleon


                    J'ai un peu du mal à saisir la notion de voisinage, pourquoi ne pas tout simplement mettre <math>\(f : E \rightarrow F\)</math> au lieu de <math>\(f : V \rightarrow F\)</math> ?


                    Parceque la fonction <math>\(f\)</math> n'a pas besoin d'être définie sur l'espace <math>\(E\)</math> tout entier, pour étudier la continuité en un point, il suffit que la fonction soit définie autour de ce point. Le voisinage <math>\(V\)</math> peut être <math>\(E\)</math> tout entier dans certains cas.
                    • Partager sur Facebook
                    • Partager sur Twitter
                      21 juillet 2011 à 23:05:17

                      Citation : poleon

                      Tu viens de mettre le point sur l'endroit qui me chiffonne d'où une nouvelle question : est ce que la différentiation c'est le vecteur somme des dérivées partielles par rapport aux deux axes (si on est dans R²) ou alors c'est le vecteur somme de toutes les dérivées directionnelles ou... encore autre chose ? Car dans mon cours, on la définit par une limite dans lequel une des variables est une matrice Jacobienne, mais je ne vois pas vraiment ce que ça représente concrètement.

                      Car si c'est ma première hypothèse, alors en théorie, la différentiation devrait être possible à partir du moment que les dérivées partielles par rapport à X et Y existent.
                      Donc j'imagine que cette hypothèse est absurde mais j'aimerai en avoir le coeur net. :)

                      En réfléchissant, je remarque que ma première hypothèse, c'est la définition du gradient. Mais alors que représente la deuxième, c-à-d le vecteur somme des dérivées directionnelles ? Et finalement j'en reviens à la même question : qu'est-ce la différentiation ?



                      Oulah, tu mélanges un peu tout on dirait !

                      Alors, on reprend les choses dans l'ordre.

                      Qu'est-ce que la différentielle d'une fonction ?
                      Une fonction f est dite différentiable si elle se comporte localement comme une fonction linéaire (chose que l'on aime bien) et on appelle alors différentielle cette fonction linéaire. Plus rigoureusement, cela veut dire :
                      <math>\(f(x) = f(a) + h(x-a) + \underset{x \to a}{o}(||x-a||)\)</math> avec h une fonction linéaire.

                      La différentiation, c'est donc trouver, si possible, l'application linéaire qui approxime au mieux f localement.

                      C'est bien ce qu'on fait en dérivant une fonction de <math>\(\mathbb R\)</math> dans <math>\(\mathbb R\)</math> : les applications linéaires sont des droites ; on cherche donc une droite passant par f(a) qui approxime au mieux la fonction f localement, c'est-à-dire la tangente à la courbe de f au point (a,f(a)), et on retrouve le résultat bien connu de première.

                      Si on regarde ce que ça donne pour une fonction de <math>\(\mathbb R^2\)</math> dans <math>\(\mathbb R\)</math>, on cherche une application linéaire, donc ici une forme linéaire (puisqu'on arrive dans <math>\(\mathbb R\)</math>), donc en fait une application dont la représentation est un plan, et qui approxime au mieux localement notre fonction : la différentielle a pour surface de représentation le plan tangent à la surface de représentation de la fonction initiale.

                      Et en pratique ?
                      Bon, tout ça, c'est bien, mais devant une fonction spécifique, comment on s'y prend ? C'est là qu'intervient la matrice jacobienne. Si on est en dimension finie (f de <math>\(\mathbb R^p\)</math> dans <math>\(\mathbb R^n\)</math>), une application linéaire a une matrice prise dans les bases canoniques. On peut donc prendre la matrice de notre différentielle en un point a (puisque c'est une application linéaire). C'est cette matrice qui est appelée matrice jacobienne de f en a.

                      Détaillons un peu cette matrice jacobienne de f en a (qu'on notera ici <math>\(M = (m_{i,j})_{1\leq i\leq n, 1\leq j \leq p}\)</math>) : on sait que <math>\(f = (f_1,f_2,\dots,f_n)\)</math>, donc en projetant la relation <math>\(f(x) = f(a) + M(x-a) + \underset{x \to a}{o}(||x-a||)\)</math> sur la i-ème cordonnée, on obtient
                      <math>\(f_i(x) = f_i(a) + \sum_{1\leq j\leq p} {m_{i,j}(x_j-a_j)} + \underset{x \to a}{o}(||x-a||)\)</math>

                      Donc notamment, en approchant le point a selon la j-ième coordonée seulement, <math>\(f_i(a_1,a_2,\dots, a_{j-1}, t , a_{j+1}, \dots, a_p) = f_i(a) + m_j(t - a_j) + \underset{t \to a_j}{o}(|t-a_j|)\)</math> qui signifie exactement <math>\(m_j = \frac {\partial f_i} {\partial x_j}(a)\)</math> (convaincs-en toi bien).

                      Voilà donc d'où sorte tes dérivées partielles. Et concrètement, sans calcul, ça veut dire que les dérivées partielles des fonctions partielles dirigent l'espace tangent au point étudié. Si on reprend une fonction de <math>\(\mathbb R^2\)</math> dans <math>\(\mathbb R\)</math> différentiable pour y voir clair : tu as une surface ; tu fixes x et tu fais évoluer y localement, tu as donc un bout de courbe dessinée sur la surface ; tu fixes y et tu fais évoluer x localement, tu as donc un autre bout de courbe dessinée sur la surface ; ces deux bout de courbes admettent une tangente (car on a pris la fonction différentiable) ; les deux tangentes forment un plan qui est le plan tangent.
                      Voici une illustration de la chose :
                      Image utilisateur



                      Pour tes histoires de sommes de vecteurs, je ne comprends pas ce que tu veux dire. Déjà, faire la somme de toutes les dérivées directionnelles, c'est faire la somme d'un nombre infini (non dénombrable même dans le cas d'un <math>\(\mathbb R\)</math> espace vectoriel) de choses... Pas que ce soit impossible, m'enfin, il est clair que tu n'es pas dans le juste.

                      J'espère que mon petit topo t'as aidé. Et si j'étais toi, je repotasserais un peu mon cours avec quelques exos d'applications plus ou moins directes à côté.
                      • Partager sur Facebook
                      • Partager sur Twitter
                      Anonyme
                        21 juillet 2011 à 23:33:09

                        Merci pour cette réponse super complète !!!

                        Je vais la relire demain à tête reposée, et pas qu'une seule fois, jusqu'à ce que la matière soit parfaitement limpide !

                        Et pour répondre à ta question, lorsque je parlait de "vecteur somme", en fait, je faisais allusion au gradient.

                        Celui-ci est une matrice jacobienne mais réduite à une seule ligne et celui-ci nous indique la direction et intensité de la pente la plus forte en un point.

                        Pour calculer celui-ci, on résous donc la jacobienne à une seule ligne.

                        Ma question c'était : Ici on voit que le gradient est une "vecteur somme", mais en fait j'aurai plutôt dû dire une "combinaison linéaire"(?) des dérivées partielles. C'est bien ça non ?

                        Et je voulais donc savoir qu'est-ce-qu'était la différentiation par rapport au gradient, et je me demandais si par rapport au gradient, la différentiation était également une combinaison linéaire, mais cette fois-ci des dérivées directionnelles dans toutes les direction.

                        Bon, j'imagine que moi-même je comprend pas trop de quoi je parle, et donc pour vous ça doit être encore plus dur de me comprendre... ^^

                        Mais ta dernière réponse à l'air de répondre à ma question. Je vais donc la lire tranquillement demain.

                        Encore un grand merci pour votre aide ! ^^
                        • Partager sur Facebook
                        • Partager sur Twitter
                          22 juillet 2011 à 1:06:02

                          La différentiation par rapport au gradient ?! Ca ne veut strictement rien dire ! :)

                          Tu as l'air de croire que le gradient est indépendant de la différentielle. Non, c'est la différentielle ! (Enfin, sa matrice, mais on peut identifier.)

                          Pour une fonction <math>\(f : \mathbb R^p \rightarrow \mathbb R\)</math>, je te rappelle que le gradient de f en a est défini comme le vecteur
                          <math>\(\left( \begin{array}{c} \dfrac {\partial f} {\partial x_1} (a) \\ \dfrac {\partial f} {\partial x_2} (a) \\ \vdots \\ \dfrac {\partial f} {\partial x_p} (a) \end{array} \right)\)</math>


                          C'est donc la transposée de la matrix jacobienne de f en a. (Géométriquement, c'est le vecteur normal à l'hyperplan tangent à l'hypersurface représentative de f.)


                          Quand tu parles de combinaisons linéaires, j'imagine que tu veux dire que pour un vecteur h, <math>\(\mathrm d f_a (h) = \langle \mathrm {grad_a} f | h \rangle = \frac {\partial f} {\partial x_1} (a) h_1 + \dots + \frac {\partial f} {\partial x_p} (a) h_p\)</math>.

                          Ta question serait alors : peut-on avoir une écriture similaire avec des dérivées directionnelles ?
                          Première réponse, précise mais inutile : oui, avec les directions des vecteurs de la base canonique :D (c'est donc l'écriture qu'on a au-dessus).
                          Deuxième réponse, un peu plus utile : oui, sûrement, et mêmes des tas, mais ces écritures n'auront rien de remarquables et donc seront inutiles.


                          P.S. : un petit point de vocabulaire pour éviter de faire des phrases à rallonge : une fonction qui admet des dérivées selon toutes les directions sans être forcément différentiable est dîte différentiable au sens de Gâteaux (et la différentiabilité toute simple peut être appelée la différentiabilité au sens de Fréchet pour être sûr de ne pas faire de confusion).
                          • Partager sur Facebook
                          • Partager sur Twitter

                          Continuité, Dérivées partielles et Différentiation.

                          × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
                          × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
                          • Editeur
                          • Markdown