J'ai une question de math toute bête mais dont je n'arrive pas à m'en sortir.
Imaginons une simple régressions linéaire, on a q exemples de dimensions n, ce qui nous fait une matrice X (q lignes, n colonnes)
Imaginons alors que chaque exemple à un label de dimensions p. On a la régression basique f(X) = XW + b = Y (avec W une matrice des poids et b le biais) Y est donc une matrice de dimension q lignes, p colonnes.
Quel est le gradient de f par rapport à X ?
Grossièrement, on dérive une matrice par rapport à une matrice. Dans mon esprit le gradient devrait être une matrice de matrices (la dérivée d'une matrice par un scalaire étant déjà une matrice) Est-ce correcte ?
tu peux t'intéresser à la notion de matrice jacobienne https://fr.wikipedia.org/wiki/Matrice_jacobienne et te souvenir que si X est autre chose qu'une matrice, tu peux toujours "l'aplatir" en rangeant les colonnes (où les lignes) les unes à la suite des autres.
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...
Dérivé d'une matrice par rapport à une matrice
× Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
× Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
Avez-vous entendu parler de Julia ? Laissez-vous tenter ...