Les contres exemples occupent une place très importante en mathématiques.
Certains ont permis de mettre à mal des hypothèses qui paraissaient pourtant évidentes, d'autre sont là pour vous rappeler qu'il ne faut pas brûler les étapes en déclarant des choses gratuitement. Bref ils servent beaucoup et loin d'être un simple jeu, connaitre et chercher une série de contre exemple est un exercice très formateur pour l'apprentissage et la maitrise de notions diverses en maths.
Bref tout ça pour dire que j'ouvre ce sujet dont le but est de regrouper des contre-exemples, classiques ou personnels afin de créer une petite base de données!
Pour poster un contre exemple, rien de plus simple, utilisez le formalisme suivant :
<titre2>Exemple d'une fonction continue partout dérivable nulle part</titre2>
Donner ici la démonstration en mettant en évidence le résultat !
F(x)=...
<titre2>Commentaires éventuels</titre2>
Voilà allons-y gaiement, n'hésitez pas à poster quel que soit le niveau de votre contre exemple !
Affirmation fausse: <math>\(e^{ab} = (e^a)^b\)</math> lorsque a et b sont complexes.
Contre exemple: <math>\(e^{-4\pi^2} = (e^{2\pi i})^{2\pi i} = 1^{2\pi i} = 1 = e^0\)</math>
la fonction définie comme limite de fonctions continues sur [0;1] par exemple où une fonction d'ordre n est par exemple telle que pour chaque intervalle <math>\([i/n,(i+1)/n]\)</math>, on ait <math>\(f_{n}(x)\)</math> affine par morceau sur <math>\([i/n,(i+1)/n]\)</math>.
Cette fonction est continue partout, jamais dérivable.
Bon aprèm'
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...
Ton produit matriciel initial n'est pas défini. L'écrire est déjà absurde, car il faut que le nombre de colonne de la première matrice soit égal au nombre de lignes de la seconde.
@Nozio: Il suffit d'aller voir du côté des fonctions de Weierstrass, il y a de beaux exemples.
La dérivée d'une fonction dérivable n'est pas nécessairement continue.
<math>\(\begin{array}[t]{lrcl}f : & x & \longmapsto & x^2\sin(\frac{1}{x}) \\ & 0 & \longmapsto & 0\end{array}\)</math> <math>\(f\)</math> est clairement dérivable sur <math>\(\mathbb{R}^*\)</math>, et <math>\(\lim_{x\to0} \frac{f(x)}{x} = 0\)</math> donc <math>\(f\)</math> est dérivable sur <math>\(\mathbb{R}\)</math> tout entier.
Or <math>\(\forall x\in\mathbb{R}^*, f'(x) = 2x \sin(\frac{1}{x^2}) - \cos(\frac{1}{x})\)</math> qui diverge quand <math>\(x\to0\)</math>, donc <math>\(f'\)</math> n'est pas continue.
je pense que tu as fait une petite erreur dans ton contre-exemple : si une fonction est dérivable, alors sa dérivée est continue, c'est la définition. Par contre, une fonction continue n'est pas nécessairement dérivable. Dans ton exemple, <math>\(f\)</math> est dérivable sur <math>\(R^{*}\)</math>, mais sa prolongation en 0 ne l'est pas sur <math>\(R\)</math>.
Bonne soirée
Marc
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...
Soit la fonction f définie par : <math>\(\begin{array}{rccr}f : & \mathbb R & \longrightarrow & \mathbb R \\&x \in \mathbb R \backslash \mathbb Q & \longmapsto & 0 \\&x \in \mathbb Q & \longmapsto & 1 \\\end{array}\)</math>
f(x) vaut donc 1 si x est rationnel et 0 si x est irrationnel.
Soit <math>\(a \in \mathbb R \backslash \mathbb Q\)</math>. Montrons que f est discontinue en a, c'est-à-dire : <math>\(\exists \epsilon > 0, \forall\alpha > 0 ,\exist x \in ]a - \alpha, a + \alpha[ \text{ tel que } |f(x)-f(a)| > \epsilon\)</math>
Pour <math>\(\epsilon = \frac{1}{2}\)</math>, il faut montrer : <math>\(\forall\alpha > 0 ,\exists x \in ]a - \alpha, a + \alpha[ \text{ tel que } |f(x)| > \frac{1}{2}\)</math>
Comme les rationnels sont denses dans <math>\(\mathbb R\)</math> : <math>\(\forall \alpha, \exists b \in ]a-\alpha,a+\alpha[\)</math> tel que <math>\(f(b)= 1\)</math>, et comme <math>\(1 > \frac{1}{2}\)</math>, alors f est discontinue en a.
En procédant de manière similaire pour <math>\(a \in \mathbb Q\)</math>, on montre que f est discontinue en tout point de <math>\(\mathbb R\)</math>
Note : J'espère ne pas avoir fait d'erreur, si oui, n'hésitez pas à le dire je corrigerai dès que possible
Bonjour, je trouve ce topic intéressant. Quelqu'un aurait un contre exemple (ou une preuve) aux affirmations suivantes ?
1. "Soit <math>\(f\)</math> une fonction dérivable. Soit <math>\(a \in \mathbb{R}\)</math> un éventuel point de discontinuité de <math>\(f'\)</math>. Alors <math>\(f'\)</math> n'admet pas de limite finie à gauche ou à droite de <math>\(a\)</math>."
Le second est vrai : si ta série converge, c'est un <math>\(o(1)\)</math> donc un <math>\(o(n)\)</math> ; sinon, tu peux utiliser le théorème qui dit que si <math>\(u_n = o(v_n)\)</math> où <math>\(v_n \geq 0, \sum_{n=1}^{+\infty} u_n diverge\)</math> alors <math>\(\sum_{k=1}^n u_k = o(\sum_{k=1}^n v_k)\)</math>.
Merci pour cette réponse rapide au deuxième élément. Je n'ai pas encore connaissance de ce théorème, mais il est très joli, car il permet notamment de conclure sur la convergence de <math>\(\sum\limits_{k=1}^n f(\frac{k}{n^2})\)</math> où <math>\(f\)</math> est une fonction dérivable en 0 telle que <math>\(f(0)=0\)</math>
Si je l'ai vu je corrige juste, un contre-exemple c'est partir d'une idée qui serait intuitive et montrer qu'elle est fausse. Par exemple pour la série harmonique, son terme général tend vers 0 mais pourtant elle diverge.
Cependant les séries qui convergent ont leur terme général qui tend vers 0 c'est donc une condition nécessaire mais pas suffisante.
Lui ce qu'il donne c'est tjs faux c'est comme si je dis sin²(x) + cos²(x) = 2 et que je montre que c'est faux.
Ce n'est absolument pas un contre-exemple.
@ Krosian : En fait, je ne suis pas si sûr que cela soit vrai, malgré le théorème que tu énonces. Que penser de la somme suivante : <math>\(\sum\limits_{k=1}^n \frac{k}{n}\)</math> ? On a bien <math>\(\frac{k}{n}=\circ (1)\)</math> mais on n'a pas <math>\(\sum\limits_{k=1}^n \frac{k}{n}=\circ(n)\)</math>
Si j'ai bien compris, le théorème que tu énonces est une sorte de Cesaro généralisé, mais le problème, c'est qu'avec Cesaro, la somme porte sur <math>\(u_k\)</math> avec <math>\(u_n\)</math> qui tend vers l. Ici, on a une suite en <math>\(u_{k,n}\)</math> où <math>\(u_{k,n}\)</math> est négligeable devant 1 quand n tend vers plus l'infini. L'affirmation est donc fausse, et on voit l'intérêt du contre exemple. C'était trop beau pour être vrai
Quant à la première affirmation, en fait elle est vraie. Elle est plus connue sous la forme contraposée : si f' admet une limite à gauche de a, alors f est dérivable à gauche de a de dérivée cette limite.
<math>\(\frac{a_i}{b_i} = \frac{a_j}{b_j}\)</math><math>\(\forall i, j\)</math>
n'implique jamais que <math>\(\frac{a_j}{b_j} = \frac{\sum (-1)^{c_i}a_i}{\sum (-1)^{c_i}b_i}\)</math>
Contre exemple : <math>\(\frac{1}{2} = \frac{2}{4} = \frac{1 + 2}{2 + 4}\)</math>
En fait, c'est tout le temps vrai ! Pardon ?
En effet, <math>\(\frac{\sum (-1)^{c_i}a_i}{\sum (-1)^{c_i}b_i} = \frac{\sum (-1)^{c_i}b_i\frac{a_j}{b_j}}{\sum (-1)^{c_i}b_i} =
= \frac{a_j}{b_j}\frac{\sum (-1)^{c_i}b_i}{\sum (-1)^{c_i}b_i} = \frac{a_j}{b_j}\)</math>
Nice, huh
@ Krosian : En fait, je ne suis pas si sûr que cela soit vrai, malgré le théorème que tu énonces. Que penser de la somme suivante : <math>\(\sum\limits_{k=1}^n \frac{k}{n}\)</math> ? On a bien <math>\(\frac{k}{n}=\circ (1)\)</math> mais on n'a pas <math>\(\sum\limits_{k=1}^n \frac{k}{n}=\circ(n)\)</math>
Attention, tu as ici deux variables, k et n. La notation petit o est alors fortement ambiguë : négligeable par rapport à quoi ?
Dans mon théorème, la suite ne dépend pas des bornes de la somme. Ce que j'ai montré est <math>\(u_k =_{k\to+\infty} o(1) \Rightarrow \sum_{k=1}^{n} u_k =_{n\to+\infty} o(n)\)</math> où <math>\(u_k\)</math> ne dépend que de k.
<math>\(\frac{a_i}{b_i} = \frac{a_j}{b_j}\)</math><math>\(\forall i, j\)</math>
n'implique jamais que <math>\(\frac{a_j}{b_j} = \frac{\sum (-1)^{c_i}a_i}{\sum (-1)^{c_i}b_i}\)</math>
Contre exemple : <math>\(\frac{1}{2} = \frac{2}{4} = \frac{1 + 2}{2 + 4}\)</math>
En fait, c'est tout le temps vrai ! Pardon ?
En effet, <math>\(\frac{\sum (-1)^{c_i}a_i}{\sum (-1)^{c_i}b_i} = \frac{\sum (-1)^{c_i}b_i\frac{a_j}{b_j}}{\sum (-1)^{c_i}b_i} == \frac{a_j}{b_j}\frac{\sum (-1)^{c_i}b_i}{\sum (-1)^{c_i}b_i} = \frac{a_j}{b_j}\)</math>
Nice, huh
Attention, tu as ici deux variables, k et n. La notation petit o est alors fortement ambiguë : négligeable par rapport à quoi ?
Dans mon théorème, la suite ne dépend pas des bornes de la somme. Ce que j'ai montré est <math>\(u_k =_{k\to+\infty} o(1) \Rightarrow \sum_{k=1}^{n} u_k =_{n\to+\infty} o(n)\)</math> où <math>\(u_k\)</math> ne dépend que de k.
Oui voilà, je suis d'accord. Mais ici, je m'intéresse effectivement à un o(1) par rapport à n en plus l'infini pouvant être défini suivant la valeur de k. Ce que tu m'énonces est effectivement une version de ce que je connais sous le nom du théorème de la moyenne de Cesaro.
La question que je me pose est apparue naturellement dans le problème suivant :
Soit <math>\(f\)</math> une fonction dérivable en 0 telle que <math>\(f(0)=0\)</math>. Montrer que <math>\(\sum\limits_{k=0}^n f\left(\frac{k}{n^2}\right)\)</math> converge et calculer sa limite.
Voilà le raisonnement qui m'est d'abord venu à l'esprit : faisons un DL à l'ordre 1 de f en 0. On écrit donc :<math>\(\forall k \in [0,n] f\left(\frac{k}{n^2}\right)=f(0)+\frac{k}{n^2 }f'(0)+\circ(\frac{1}{n^2})\)</math>
Donc <math>\(\sum\limits_{k=0}^n f\left(\frac{k}{n^2}\right)=\frac{1}{n^2}\sum\limits_{k=0}^n (kf'(0)+\circ(1))=\frac{n+1}{2n}f'(0)+\frac{1}{n^2}\sum\limits_{k=0}^n \circ(1)\)</math>
On voit donc bien pourquoi j'aurais bien besoin que cela soit vrai. Mais je pense que cela doit être possible avec taylor lagrange reste intégral où on peut majorer le reste.
On en déduit ainsi que la somme tend vers <math>\(\frac{f'(0)}{2}\)</math>.
Je pense qu'ici, il faut le faire à la main. Soit <math>\(\epsilon > 0\)</math>. Tu écris <math>\(f(x)=f(0)+xf'(x)+g(x)\)</math> où g(x)/x tend vers 0 en 0. Il existe <math>\(\eta\)</math> tel que <math>\(x \in [0,\eta] \Rightarrow |g(x)|\leq x \epsilon/2\)</math>. Il existe un entier N tel que <math>\(\forall n \geq N |\frac{f'(0)}{2}-\frac{n+1}{2n}f'(0)| \leq \epsilon/2\)</math>. Il existe un entier <math>\(N'\geq N\)</math> tel que <math>\(\frac{1}{N'} \leq \eta\)</math>. Pour <math>\(n \geq N', k\in[0,n]\)</math> on a <math>\(\frac{k}{n^2} \leq \frac{1}{n} \leq \eta\)</math> donc <math>\(|\sum_{k=0}^{n} g(\frac{k}{n^2})| \leq \sum_{k=0}^{n} \epsilon/2\frac{k}{n^2} \leq \sum_{k=0}^{n} \epsilon/2\frac{1}{n} = \epsilon/2\)</math>.
× Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
× Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...