Partage
  • Partager sur Facebook
  • Partager sur Twitter

pourquoi ne pas dépasser racine carrée de N

test de primalité

Sujet résolu
    1 décembre 2010 à 18:37:11

    Salut les zéros
    J'ai un exercice de math ou je dois dire si un nombre est premier
    à l'aide de la méthode naïve (http://fr.wikipedia.org/wiki/Test_de_primalité )
    je comprend et c'est simple mais il y a quelque chose qui me tracasse
    pourquoi ne pas dépasser la racine carrée du nombre (je n'ai pas compris l'explication de wikipédia)
    merci d'avance pour vos réponse ( au passage je félicite l'arrivée du forum math) :)
    • Partager sur Facebook
    • Partager sur Twitter
      1 décembre 2010 à 18:58:28

      Et bien, tu tentes de factoriser un nombre n sous une forme n = ab.
      Il est impossible d'avoir <math>\(a > \sqrt{n}\)</math> et <math>\(b > \sqrt{n}\)</math>, sans quoi tu aurais <math>\(ab > \sqrt{n}\sqrt{n} = n\)</math>.
      Donc forcément, <math>\(a \leq \sqrt{n}\)</math> ou <math>\(b \leq \sqrt{n}\)</math>, ou en d'autre terme, au moins un des diviseur doit être inférieur ou égal à la racine de n. Ca veut dire que si en arrivant à la racine de n tu n'en as toujours pas trouvé, c'est peine perdue, c'est qu'il n'y en a pas.
      • Partager sur Facebook
      • Partager sur Twitter
      Je ne suis responsable que de ce que je dis, pas de ce que vous comprenez... - /!\ Négligences de sécurité sur OpenClassrooms /!\
        1 décembre 2010 à 19:01:32

        mille merci caduchon j'ai pigé grace a la deuxième ligne
        • Partager sur Facebook
        • Partager sur Twitter

        pourquoi ne pas dépasser racine carrée de N

        × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
        × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
        • Editeur
        • Markdown