• 12 heures
  • Moyenne

Ce cours est visible gratuitement en ligne.

course.header.alt.is_video

course.header.alt.is_certifying

J'ai tout compris !

Mis à jour le 16/10/2019

Big data : de la visualisation des données au Machine Learning

Connectez-vous ou inscrivez-vous gratuitement pour bénéficier de toutes les fonctionnalités de ce cours !

Nous avons vu précédemment qu'il était possible d'afficher un certains nombres de données pour faciliter le travail des opérateurs. C'est une partie infime des données récoltées. En effet, dans l'industrie du futur, chaque activité est tracée et surveillée. Et toutes ces informations peuvent alors être exploitées.

Supervisez et visualisez les données

Vous l'avez compris, l'usine de demain est connectée. Chaque action, chaque étape de processus, chaque prise de décision, tout est enregistré dans une base de données mise à disposition des collaborateurs. Aucun métier n'y échappe :

  • bureau d'études et Méthodes vont ainsi travailler sur la conception de produit et l'industrialisation de process sur l'outil PLM (Product Lifecycle Management) ;

  • la logistique et la production vont piloter les flux de production et gérer les stocks via l'ERP (Entreprise Ressource Planning) et la GPAO (gestion de production assistée par ordinateur) ;

  • la maintenance va suivre et planifier ses activités de maintenance ainsi que la gestion de ses stocks outillage dans la GMAO (gestion de maintenance assistée par ordinateur) ;

  • les commerciaux et l'administration des ventes réaliseront les ventes et autres facturation dans le CRM (Customer Relationship Management) ;

  • et vous, Amélioration continue ainsi que la qualité, vous pourrez entre autre récupérer l'ensemble de ces données pour vos diagnostics. Notamment, dans le MES (Manufacturing Execution System).

Ce flux de données est compliqué à gérer pour l'homme. Aussi, l'outil informatique doit lui permettre de synthétiser et simplifier l'interprétation de ces données.

On parle alors d'intelligence opérationnelle (ou "Business Intelligence", BI). Le manager a ainsi à sa disposition une vision en temps réel de l'activité et des performances de l'entreprise, via des tableaux de bord qui lui donnent les indicateurs clés. Ainsi, l'intelligence opérationnelle permet de créer du lien entre la stratégie et l'opérationnel, en fournissant aux managers des suggestions d'actions en fonction de ce qu'il se passe en temps réel dans l'usine. On gagne ainsi en temps de prise de décision.

Machine Learning

La différence entre hier et aujourd'hui réside dans la diversité des origines de ces données, que la machine va alors pouvoir recouper (avec l'aide d'un expert métier) : c'est ce que l'on appelle le Data Mining.

"Le Data Mining offre des algorithmes et des outils pour la découverte de modèles non triviaux, implicites, non connus, potentiellement utiles et compréhensibles, à partir d’une grande masse de données."

Anand et Buchner

https://www.flickr.com/photos/mikemacmarketing/42271822770
On parle de réseau de neurones

Là où l'industrie a sa carte à jouer, c'est qu'elle stocke des tas de données depuis des années dans ses différents systèmes d'informations. Aujourd'hui, ils sont non exploités et cloisonnés.

En tant que responsable Amélioration continue, pour améliorer les processus, vous pourrez utiliser les méthodes de Data Mining afin de réduire, par exemple, des temps de processus. En amélioration continue, toute démarche se doit de s'appuyer sur les données :

  • recueillez les données sur le lieu de travail, le gemba ;

  • vérifiez la validité des données ;

  • analysez les données sur le processus réel ;

  • prenez les décisions à partir de données chiffrées.

Avec le Big Data, nous allons pouvoir décupler les possibilités des démarches Amélioration continue. Prenons un exemple : vous avez un processus de sérigraphie peinture de flacons en verre, où les temps de démarrage sont aléatoirement très longs. En recoupant les données de production, les données météorologiques et les données logistiques, vous pourrez croiser l'ensemble de ces données et arriver au constat suivant :

  • dans la GPAO, la production déclare des temps de démarrage poste sérigraphie qui sont longs ;

  • dans l'ERP, la logistique indique que c'est un lot de palettes de verres nus (non peints), issu du magasin déporté (qui est non chauffé) ;

  • en interrogeant des bases de données publiques, on découvre qu'il s'agit uniquement de journées, où la température n’excédait pas 2° C le matin.

La réponse vous paraît alors évidente. Mais pour la production qui recevait son lot de matière (sans savoir d'où il provenait), les démarrages au poste peinture étaient longs car la peinture ne tenait pas, ou s'écaillait sur le flacon. Or, grâce à ce recoupement d'informations, on comprend que lorsqu'il fait très froid et que le lot de démarrage vient juste d'être livré en bord de ligne, les flacons des palettes sont trop froids et il y a choc thermique au moment de la sérigraphie. Ainsi, grâce à l'algorithme créé, l'IA va être capable, en fonction des prévisions météorologiques, de lancer par anticipation l'approvisionnement bord de ligne des palettes. Cela permettra de laisser le temps aux flacons de se mettre à température, ou encore de privilégier les palettes du magasin interne.

Vous imaginez le champ de sujets Amélioration continue qui peuvent profiter de ces possibilités.

L’idée de base de ce genre d'applications repose, dans une phase d’apprentissage, sur les processus passés, afin d’en déduire le comportement des processus à venir.

À partir du Data Mining, découle la notion de Machine Learning. Il ne s'agit plus de seulement paramétrer un algorithme à l'IA, c'est l'IA qui va apprendre son propre modèle et le faire évoluer en fonction des nouvelles données qu'elle enregistre.

Voici les principes de fonctionnement :

  1. Récupération de données.

  2. Nettoyage des données (pour écarter les valeurs aberrantes).

  3. Création de l'algorithme à partir de données exemples (pour lesquelles on connaît les paramètres d'entrée et les paramètres de sortie).

  4. Mise en "production" de l'algorithme, qui affinera son modèle au fur et à mesure des nouvelles données qu'il traite.

Cette approche est très similaire à ce que l'on déroule dans des projets 6 Sigma avec les analyses statistiques. La nouveauté réside dans la quantité de données que l'on remonte et dans la diversité des sources d'informations, qui permettra de faire de l'analyse prédictive.

Si vous souhaitez découvrir de manière plus précise les possibilités du Machine Learning, je vous invite à suivre au moins la partie 1 du cours de Yannis Chaouch (si vous souhaitez aller jusqu'à la mise en oeuvre d'un algorithme de Machine Learning, suivez également les parties 2 et 3).

Dans le chapitre suivant, nous allons aborder les jumeaux numériques. Alimentés par l'ensemble des données mesurées et récoltées, ils permettent de tester des scénarios pour aider à la prise de décision.

Exemple de certificat de réussite
Exemple de certificat de réussite