Partage
  • Partager sur Facebook
  • Partager sur Twitter

Algorithme de descente de gradient

    28 mai 2019 à 16:04:46

    Bonjour,

    Je viens de lire un cours sur les perceptrons (https://alp.developpez.com/tutoriels/intelligence-artificielle/reseaux-de-neurones/), et je ne comprends pas pourquoi dans le pseudo-code proposé pour l'entraînement par descente de gradient, on fait l'affectation :

    w_i = w_i + alpha*(yk - sk)*x_i

    Alors que si on dérive l'erreur quadratique par rapport à w_i, on a une dérivée de la fonction d'activation (la fonction sigmoide ici) qui apparaît. Pourquoi n'a-t-on pas plutôt (avec sk=f(ak), où f est la fonction sigmoide, et g sa dérivée) :

    w_i = w_i + alpha*(yk - sk)*g(ak)*x_i

    Voilà j'espère que ma question est claire, merci par avance.

    -
    Edité par victorm951 28 mai 2019 à 16:05:30

    • Partager sur Facebook
    • Partager sur Twitter

    Algorithme de descente de gradient

    × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
    • Editeur
    • Markdown