Partage
  • Partager sur Facebook
  • Partager sur Twitter

Le np.ones dans la régression linéaire

    27 février 2021 à 17:44:31

    Bonjour tout le monde,

    Je ne suis pas nouveau sur ce site mais c'est la première fois que j'y pose une question.
    J'espère que vous ne la trouverez pas trop bête :

    Dans le très bon cours de Machine Learning de Mr Yannis Chaouche, lors de la mise des données au bon format pour caculer la régression linéaire sur le dataset des loyers et surfaces,  on ajoute une colonne de 1 avant la colonne qui liste les surfaces :

    X = np.matrix([np.ones(house_data.shape[0]), house_data['surface'].values]).T
    y = np.matrix(house_data['loyer']).T
    
    # On effectue le calcul exact du paramètre theta
    theta = np.linalg.inv(X.T.dot(X)).dot(X.T).dot(y)



    Je n'en comprends pas le sens mathématique :
    Sommes nous en train de traduire les x en leurs images ?
    Auquel cas, pourquoi n'ajoutons nous pas une colonne de 0 à la place?

    Je vous remercie et vous souhaite une belle soirée !

    Paul

    • Partager sur Facebook
    • Partager sur Twitter

    Le np.ones dans la régression linéaire

    × Après avoir cliqué sur "Répondre" vous serez invité à vous connecter pour que votre message soit publié.
    × Attention, ce sujet est très ancien. Le déterrer n'est pas forcément approprié. Nous te conseillons de créer un nouveau sujet pour poser ta question.
    • Editeur
    • Markdown