Outils de la qualité opérationnelle

Outils de la qualité opérationnelle

Les outils de la qualité ? ….Une aide indispensable aux méthodes de résolution de problèmes !

Dans le cadre de l’Amélioration Continue, le traitement des différentes étapes de la démarche de résolution de problèmes fait appel à divers outils statistiques simples. Ceux-ci sont relativement faciles à appréhender et à mettre en œuvre, au moins pour les « 7 premiers outils de la Qualité ».

Nota : Précisons que malgré leur appellation d’Outils Qualité, ils ne se confinent pas uniquement à améliorer la qualité. Ayant été, à la base, développés par des statisticiens, ils sont polyvalents et peuvent être utilisés efficacement pour traiter des problèmes liés à l’organisation, la production, la logistique, la sécurité, les ressources humaines, le marketing, les services…etc.

A quoi servent-ils réellement ?

J’ai rencontré souvent de gens qui m’ont dit « Effectivement, les outils qualité, j’en ai entendu parlé en cours ou en formation, mais je ne vois pas du tout comment les mettre en œuvre concrètement dans mon travail  quotidien… ».

Le but ici, n’est pas de donner une Nième explication théorique, mais plutôt de les resituer dans leur contexte d’utilisation sur le terrain et d’informer sur les erreurs d’application ou dérives que j’ai pu constater.

A l’exception du diagramme cause/effet, il faut être conscient que ces outils de la qualité ne peuvent être mis en oeuvre qu’à partir de données numériques soigneusement collectées. C’est donc avec ces données traitées et mises en forme qu’on va pouvoir obtenir une vision claire d’une situation donnée. Ainsi, il devient possible d’éradiquer la non-qualité ou les dysfonctionnements en s’attaquant aux causes des problèmes, et non en cherchant à en éliminer les conséquences. Car supprimer les effets néfastes d’un problème parait souvent plus facile ou plus évident, mais va à l’encontre de la maîtrise des processus. Dans ce cas, les problèmes ressurgiront insidieusement tôt ou tard, quelquefois sous une autre forme ou de manière largement amplifiée en générant inévitablement des coûts supplémentaires non négligeables.

Les  7 premiers outils de la qualité

  1) La feuille de relevés :

Elle sert tout simplement à enregistrer des relevés au fil du temps sur un tableau à double entrée. Cela peut paraître anodin, voire inutile, mais elle devient très pratique lorsqu’on veut retracer l’historique ou l’évolution d’une caractéristique, d’un paramètre, d’un facteur dans la période observée. Cela permettra souvent de comprendre comment a évolué la variable étudiée, et donnera des pistes d’investigation sérieuses qui aideront à déceler les véritables causes du problème. Enfin, elle sera d’une grande utilité pour construire graphes, Pareto, histogrammes….
De nos jours, de plus en plus de processus de fabrication sont suivis, contrôlés, pilotés par des superviseurs informatiques. Les valeurs de paramètres sont visibles en temps réel et enregistrées. Avec l’avènement des bases de données et du « Data Mining », il ne faut surtout pas se priver de toutes ces données pour les trier, séparer, ordonner, analyser et les mettre sous formes de feuilles de relevés lors d’investigations sur des dysfonctionnements ou la recherche  d’optimisation.

Feuille_relevé_3

 

2) L’histogramme :

 Il sert à représenter graphiquement sous forme de colonnes un ensemble de données pour en déterminer, une tendance, une évolution, une répartition ou visualiser un effectif par classe ou une fréquence d’apparition. Voici deux exemples d’utilisation.

                             -Détection d’une tendance :

Histogramme_3

                 

                           -ou analyse de la répartition d’une série de données :

 

 

3) Le Pareto :

C’est un graphe qui permet de définir des priorités d’actions en fonction de la fréquence ou de l’occurrence de problèmes,  de défectueux, de volumes de fabrication, de coûts, …… Son utilisation est donc très variée et s’applique à beaucoup de situations. Il a été créé par le sociologue et économiste italien Vilfredo Pareto qui a constaté que, dans beaucoup de domaines, environ 80% des effets sont le produit de 20% des causes. Ce qui donne un éclairage sur la priorité des actions à mener.

Dans notre cas, la maitrise de la qualité, on rejoint ici un concept important : le « Plan Do Check Act » de la roue de Deming et la démarche « pas à pas ». L’idée étant d’identifier les points les plus importants pour les traiter en priorité. Cette étape réalisée, mettre à jour le Pareto et recommencer et ainsi de suite. L’expérience m’a montré de nombreuses fois qu’on obtenait de meilleurs résultats en procédant ainsi plutôt qu’en s’attaquant à tous les problèmes en même temps.
C’est un outil très simple à la base mais il est malheureusement souvent utilisé de manière inadéquate ou dégradée.

Sa réalisation demande d’abord un classement dans l’ordre décroissant de la série de données, puis un calcul de proportion (en %) avec un cumul des pourcentages précédents, pour chaque point, article, rubrique ou sujet.
Pareto_2

 On constate sur le schéma que les deux premiers défauts représentent tout de même  66% des non-conformités. Il apparaît évident que le défaut C est à traiter en priorité, puis le défaut B, … etc…

Mais en observant ce qui se passe dans les entreprises, la réalité est-elle ainsi ? Dans beaucoup de cas, cela ne se déroule pas comme décrit ci-dessus car on cherche intuitivement à éliminer avant tout, les problèmes en fonction de leur urgence ou gravité plutôt que leur occurrence. Ceci n’est pas illogique car il sera plus facile de justifier des défauts mineurs encore présents plutôt que des non-conformités rédhibitoires non résolues.

Dans cette approche, le Pareto perd tout son sens et beaucoup de gens ne voient pas comment utiliser la belle théorie apprise en formation, puisque la manière d’aborder les problèmes sur le terrain est différente. La solution consiste à traiter sans délai les problèmes rédhibitoires, et en parallèle,  éradiquer graduellement les causes des problèmes récurrents de moindre criticité à l’aide d’un Pareto. Ainsi, le nombre de non-conformités va décroitre progressivement au fil du temps.

ATTENTION : il y a souvent confusion entre l’histogramme et le Pareto. L’utilisation est vraiment différente.

4) Le diagramme causes / Effets (ou Ishikawa ou Fishbone diagram) :

Il s’agit d’un diagramme plutôt simpliste en apparence  mais d’une grande richesse, qui entre dans la résolution de problème en donnant une vision claire, logique et synthétique de la situation. Il est d’autant plus efficace lorsque plusieurs personnes sont amenées à prendre une décision ensemble.

Schéma Ishikawa

Souvent, le diagramme comporte 5 branches principales, mais ce n’est pas une obligation. Habituellement chacune des branches correspondent à un article des 5 M à savoir : « Man, Machine, Method, Material, Measure ».

On le construit en recherchant d’abord les causes de niveau 1 qui sont à l’origine de l’effet néfaste, dans chaque branche. Ensuite, pour chacune des branches, on va chercher les sous-causes, et ainsi de suite jusqu’à remonter à la cause racine. La méthode des 5 « Pourquoi » (se poser la question « pourquoi » cinq fois consécutivement) est un moyen d’arriver à ces causes racines.

Lorsqu’il est complet, son architecture donne un aperçu global de l’ensemble des liens causes/effets. On sélectionne alors, les causes primaires à traiter en priorité selon un ou plusieurs critères déterminés : quantité de non-conformités générées, facilité et/ou coût d’éradication, délai d’intervention, risques qualité engendrés, délais de réalisation….

Pour que l’outil développe toute son  efficience, il est recommandé de :

·         S’assurer de la véracité des causes. Celles ne doivent pas être supposées voire même imaginaires.

·         Bien s’assurer que la cause racine est atteinte.

·         Bien éradiquer la cause racine et non une cause intermédiaire.

·         Ne pas vouloir traiter toutes les causes en même temps au risque de trop se disperser et de n’arriver à rien en final.

Enfin, ce diagramme ne doit pas, obligatoirement, être complexe pour être efficace. Il doit être utilisé à sa juste mesure. Par expérience, l’éviter pensant que c’est une perte de temps, tant la résolution du problème est évidente, n’est pas, dans beaucoup de cas, une solution gagnante.

De par son coté synthétique il éclaircit une situation et la mémorise. il peut être agréable de le consulter, plusieurs mois après, pour se remémorer les faits ou transmettre les éléments essentiels de l’époque à d’autres collaborateurs.

 5) Le diagramme de corrélation :

 Le diagramme de corrélation met (ou pas) en évidence une relation entre deux variables à l’aide d’une représentation graphique. Pour ce faire il faut collecter des données et disposer d’un tableur ou d’un logiciel statistique.

C’est un outil simple à utiliser qui peut mettre en exergue une relation linéaire (positive ou négative), curviligne, logarithmique, polynomiale, puissance……ou au contraire montrer qu’il n’y a aucune relation entre deux variables.

Ainsi, après avoir identifié la/les relation(s) entre un ou plusieurs paramètre(s) du processus et la caractéristique mesurée d’un produit en cours de fabrication, celle-ci peut être ajustée de manière adéquate à partir de ce(s) paramètre(s) process.

(Attention ! Vérifier que la variance, après ajustement du paramètre, ne soit pas trop importante comparativement aux tolérances de la caractéristique produit. Dans cette situation l’ajustement serait impossible ! – Cf. maîtrise de la qualité des processus).

Exemple de relation entre deux facteurs :

Correl_1

En traçant le contour et la ligne moyenne du nuage de points (graphe ci-dessous) on voit mieux la relation entre la température de l’extrudeuse et l’épaisseur de la bande. L’ajustement de l’épaisseur se fait à partir de la température de l’extrudeuse car il y a une forte dépendance entre ces deux variables.

Correl_2

Ainsi, une T° de 170°C produira une épaisseur moyenne de 1.3 mm.

ATTENTION : La répartition des points doit être approximativement  50% au dessus et 50% au dessous de la ligne moyenne. Il est extrêmement rare que des points soient parfaitement alignés dans ce genre d’approche. Ce n’est pas pour autant qu’il n’y a pas relation entre variables.

Il existe quelques points d’achoppement avec cet outil :

  • Le niveau de corrélation (dispersion des valeurs relevées) :

Sur le graphique précédant, la proximité entre les différents points et la ligne moyenne du nuage de points est importante car elle donne une idée du niveau de précision de la relation entre les deux variables. Si les écarts sont trop importants, il est probable qu’il n’y ait pas relation entre les 2 variables. Sur le graphe suivant, de par la forte dispersion autour de la ligne moyenne du nuage, on peut constater qu’il n’y a aucune relation entre la variable X et la variable Y. Les valeurs de Y évoluent globalement dans le même intervalle quelques soient les valeurs de X.
Correl_3

  • La répartition des valeurs tout au long la droite (ou courbe) de corrélation :

Il faut un nombre relativement important de points sur le graphique et que ces points soient assez équitablement répartis sur toute la ligne moyenne du nuage de points. Il faut  se méfier de valeurs aberrantes qui peuvent suggérer des interprétations erronées.
Correl_4
Un seul point éloigné du nuage demande confirmation avant de tirer la conclusion que la relation entre les deux variables est établie.

  • La ligne moyenne du nuage de points doit avoir une pente suffisamment prononcée :

Plus la pente sera proche de l’horizontale ou de la verticale moins la relation entre les 2 variables sera pertinente.
Correl_6

Il y a, ici, évidence d’une absence de relation entre le deux variables. Quelque soit la température l’épaisseur reste constante.

  • Etre prudent lors de la création de graphes :

Il est possible d’obtenir des résultats trompeurs si la taille des échelles des axes X et Y est trop grande par rapport à l’amplitude des valeurs relevées pour chacune des variables.
D’autre part, il existe des outils bien plus sophistiqués (régression linéaire avec coefficient de détermination et coefficient de régression, analyse multivariée etc…) pour définir avec plus de précision la ou les relations entre différents variables. On entre, alors dans des domaines beaucoup plus complexes, généralement réservés à des spécialistes ou même des experts et qui demandent des formations importantes ainsi que beaucoup d’expérience. Ceci sort du champ des 7 premiers « outils de la qualité ».

« Le mieux est l’ennemi du bien !»

Bien que d’apparence simpliste, le diagramme de corrélation, bien maîtrisé, permet déjà d’obtenir de bons résultats en termes d’ajustement et de maîtrise de processus. De plus il est à la portée de tous. Par contre, rechercher la perfection avec des outils plus élaborés mais insuffisamment maîtrisés n’apporte pas souvent les résultats escomptés.

6) Les cartes de contrôle :

Les cartes de contrôle sont la concrétisation de l’application de la « Maîtrise des processus » ou « Statistical Process Control ». Méthode inventée en 1931 par W Shewart aux états unis et largement reprise au japon après la seconde guerre mondiale sous l’impulsion Deming. (Voir maîtrise de la qualité des processus).

C’est certainement la partie la plus difficile des sept outils de la qualité, car il y a une approche mathématique et statistique d’une part, et un déroulement en deux étapes qui ne doit surtout pas être biaisé. En cela, le principe est un peu moins aisé à intégrer.

Attention : La traduction du terme « Control » en américain, correspond à «maîtrise». Mais en français il est traduit de deux façons, ce qui prête quelques fois à confusion :

1)      Le sens « Vérification » : Ex : « Contrôler la vitesse d’un véhicule ». Il s’agit bien, dans ce cas, de vérifier, constater l’état ou la valeur d’un paramètre physique.
2)      Le sens  « Maîtrise » : Ex : « Garder le contrôle de son véhicule ». Là il ne s’agit pas de vérification, mais de maîtrise,de dominance,  c’est-à-dire connaître et savoir agir sur les paramètres qui ont un effet sur le véhicule pour qu’il conserve la trajectoire désirée.

Dans notre cas, il s’agit bien de « Maitrise ».

Exemple d’une carte de contrôle :

Carte_controle

Cet outil permet de suivre l’évolution d’une caractéristique ou d’un paramètre de fabrication au fil d’une production. Pour que la fabrication soit conforme, Celle-ci doit strictement fluctuer entre des limites bien déterminées dites « limites de contrôle» (+/- 3 sigma par rapport à la ligne moyenne verte). Le graphe supérieur concerne la moyenne des échantillons et le graphe inférieur l’étendue ou l’écart type de l’échantillon.

Dans le cas de moyennes et grandes séries de production, on procède par échantillonnage. On prélève à cadence régulière (toutes les 30 minutes ou toutes les heures) un échantillon de 5 ou 10 pièces généralement. On calcule la moyenne et l’étendue (ou l’écart type) de cet échantillon et on reporte les valeurs sur le graphe. Les logiciels MSP le font automatiquement et très facilement.

 Si un point se trouve au dehors de la zone délimitée par les deux lignes de surveillance inférieure et supérieure (+/- 2 sigma par rapport à la ligne moyenne verte), ce n’est pas catastrophique puisque que cette situation peut se produire statistiquement  dans 5% des cas. Par contre, c’est une alerte car il y a possibilité de dérive. Il faut alors prélever un nouvel échantillon. Si le second point se trouve à nouveau entre la zone de contrôle et de surveillance, ceci signifie que le processus ne se déroule plus dans les conditions initialement déterminées et risque de produire des non-conformités.

Pourquoi ? Parce que la probabilité d’avoir deux points consécutifs en dehors de la zone de contrôle est  0,0625% donc quasiment improbable. Alors le processus n’est plus correct et une intervention est nécessaire sur ce processus.

Nota : Evidemment, dès qu’un point sort des limites de contrôle, il est nécessaire d’arrêter la production immédiatement. (Même si la mesure reste dans les tolérances affectées au produit final).

Nota : Les mêmes principes s’appliquent aussi  au graphe de l’étendue ou écart type.

D’autre part, Il existe aussi certaines interprétations du tracé sur la carte, telles une tendance marquée à la hausse ou à la baisse (ex : N valeurs consécutives qui évoluent dans le même sens), une répartition inégale  chaque côté de la ligne moyenne, etc…. qui conduisent  à une intervention humaine.

Il y a deux grandes familles de cartes de contrôle : carte par attribut (bon / mauvais) ou carte de contrôle pour variable continue. A l’intérieur de ces 2 familles, il y a plusieurs modèles adaptés à tel ou tel type de processus (petites séries, moyennes et grandes séries…..) et en fonction de la loi mathématique qui caractérise le processus.

 Pour ce qui concerne la mise en œuvre  de la méthode MSP, on est bien, en premier lieu, dans une logique de maîtrise, de pilotage, de savoir-faire. Donc, avant tout, il est nécessaire d’identifier les facteurs les plus influents sur le processus et pouvoir les ajuster pour, in fine, créer une modélisation mathématique (loi normale dans la plupart des cas) de ce même processus. Celle-ci va permettre de définir des limites de contrôle qui doivent obligatoirement être plus sévères que les spécifications de fabrications définies par le bureau d’études. Cette démarche s’apparente à l’approche D.F.S.S. (Design For Six Sigma). (CF aussi : fonction perte de Taguchi et notions de Cp / Cpk).

 Cette démarche est absolument primordiale pour réussir l’implantation d’une MSP. Sans la première étape, c’est peine perdue. J’ai constaté plusieurs fois des cas où ce principe avait été oublié. Eludant la phase de préparation, seules, les spécifications de fabrication avaient été saisies dans un logiciel MSP à la place des limites de contrôle pour une application immédiate. Les résultats ne se sont pas fait attendre ! Problèmes et  inefficacité garantis !

 La deuxième phase consiste à suivre en production, l’évolution de la valeur moyenne et étendue des échantillons successifs sur le graphe et intervenir s’il n’y a plus conformité au modèle mathématique. C’est-à-dire quand les valeurs sortent de leur zone de tolérances définies précédemment. Il y a lieu de se préoccuper de revenir de toute urgence dans la configuration initiale.

Il est un autre point à aborder. Avec les logiciels MSP, il est aisé de créer une multitude de cartes de contrôle. Une quantité pléthorique de cartes ne donne pas pour autant une assurance sur la qualité de la fabrication. Au-delà d’un certain nombre il devient impossible de toutes les suivre en même temps, et le risque de passer à côté d’un problème n’est pas négligeable. Même si l’informatique fait une part du travail, les coûts de suivi et traitement ne sont pas anodins dans ce cas. Il est important de bien sélectionner les critères qui méritent un suivi MSP car tous ne le nécessitent pas.

Enfin, il est arrivé parfois que la courbe sorte des limites de tolérance de surveillance ou même de contrôle, qu’on ne sache vraiment pas pourquoi et que la production continue faute d’action corrective à  apporter au processus. Pourtant, pour peu qu’on garde bien l’historique des cartes de contrôle, elles sont une base de données précieuse pour l’application des méthodes de résolution de problèmes dans l’identification de la cause de la dérive . (Voir aussi Méthodes de résolution de problèmes).

 7) La Stratification :

Il s’agit là d’un outil permettant d’analyser, à partir d’éléments scindées en groupes homogènes, des éléments communs, des mesures ou des caractéristiques lorsque les données globales n’apportent pas d’enseignements significatifs. Le but est de rendre des valeurs cohérentes par type, par catégories, par genre, …..  de façon à pouvoir les analyser plus finement sans qu’elles ne soient « polluées » par un effet de masse. Ce peut être par machine, par date, par matières premières, par unité de production, par saison, par secteur, par zones géographiques … etc.

Voici, par exemple, les résultats d’une journée de production mesurant la durée des appels (en minutes) dans un « Call Center » fonctionnant avec deux équipes en parallèle :

strat_1

Difficile à priori d’interpréter les données à partir de ce graphe. Peut-être peut-on supputer néanmoins une bi-modalité ?

Maintenant, si on procède à une stratification en scindant les résultats des équipes, on obtient ceci :

strat_2

La bi-modalité est avérée. Il devient alors évident que les appels de l’équipe 2 sont plus longs en moyenne (7.59 contre 4.48 mn) et présentent une dispersion plus grande.  Restera au responsable d’analyser les raisons de ces écarts (types de clients appelés, localisation, professions,…etc.).

D’autre part, cet outil est intéressant aussi dans la démarche de résolution de problèmes. Il permet ainsi de comparer l’efficacité (ou  non) de la mise de en place d’une ou plusieurs actions correctives.

Exemple : Une fabrique de tuiles était confrontée à des problèmes de régularité de température au sein d’un four. La conséquence étant une cuisson imparfaite sur 3% en moyenne des tuiles, les rendant plus fragiles. (Voir figure de gauche ci-dessous). Ne pouvant intervenir sur les caractéristiques du four, une augmentation de la proportion de chaux dans le mélange de base, a permis de réduire le taux de rebut à 1% en moyenne avec une dispersion moindre. (Figure de droite).

strat_3

L’observation des graphes avant et après  montre bien la présence d’une amélioration.

ATTENTION : Le fait de tracer des histogrammes est important car ceci permet de visualiser l’efficacité de la contre-mesure mise en place (Moyenne et dispersion). En effet, sans cette approche, il ne serait pas évident d’évaluer l’ampleur de cette amélioration. Par exemple, un taux de rebut de 2% observé après modification, (moins probable mais possible tout de même) pourrait conduire à conclure à tort à aucune amélioration alors qu’elle est effective, même si le problème n’est pas complètement résolu.

Au vu de ces graphes, certains pourraient objecter que le problème n’ayant pas été réglé dans son intégralité, l’action corrective n’est pas efficace.

 « Le mieux est l’ennemi du bien ! ».

Rappelons-nous que nous sommes dans une démarche pas à pas. Donc l’étape suivante sera de rechercher une seconde action corrective à une deuxième cause non encore identifiée et  qui est encore à l’origine des 0.938% (en moyenne) de rebuts. Car Il n’est pas si fréquent qu’une cause seule soit à l’origine d’un problème. Nous sommes bien dans le cas d’éradication des sources d’un problème et non dans le cas d’une action corrective unique s’appliquant à la conséquence du problème telle que tri, réparation, reprise, récupération, modification intuitive et hasardeuse des paramètres du processus en cours de fabrication… bien plus couteux.

 Enfin, sans devoir faire appel à des experts, il faut savoir que cette approche demande néanmoins quelques connaissances informatiques et un peu de pratique dans le traitement des données. Heureusement, les logiciels de calcul, ou statistiques actuellement sur le marché possèdent ces fonctionnalités. Alors, avec un peu d’entrainement, il devient possible de les maitriser en peu de temps et de mieux appréhender l’origine des problèmes.

Même si de prime abord il parait simple, c’est un outil qu’on doit s’approprier progressivement afin de bien intégrer comment il fonctionne, et ce qu’il peut apporter.

En aucun cas, ce n’est une boite noire dans laquelle on introduit quelques données plus ou moins sommaires ou approximatives et qui donne un résultat « magique ». La qualité des données entrées est essentielle.

 

E-Book :

Téléchargez gratuitement mon E-book sur les coûts cachés de la Non-Valeur Ajoutée et comment y faire face !

 

Voir : Maitrise de la qualité des processus         Voir : Méthodes de résolution de problèmes

 Voir : Qualité Opérationnelle et Amélioration continue                    Mes prestations : Prestations

Retour Accueil

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *