Sept méthodes traditionnelles d'outils de gestion de la qualité. Outils de contrôle qualité de base

Sept outils de qualité essentiels est le nom donné à un ensemble de techniques graphiques très simples qui ont été identifiées comme les plus utiles pour résoudre des problèmes de qualité simples et quotidiens. Ils s'appellent principal car même les personnes ayant peu ou pas de formation en statistique seront capables de comprendre ces principes et de les appliquer dans leur travail quotidien.

J'ai souvent vu que même le personnel hautement qualifié ignore l'idée d'utiliser instruments modernes des qualités telles que la conception expérimentale, les tests d’hypothèses ou l’analyse multivariée. Même s'il serait utile à la plupart des professionnels de savoir que majorité problèmes de qualité peutêtre résolu à l’aide de ces sept outils qualité essentiels.

Le but de cet article est de passer en revue ces outils de base et leurs utilisation efficace. Obtenir les meilleurs résultats avec l’un de ces outils ne nécessite aucune preuve ; Le spécialiste qualité doit fournir des informations complètes, objectives et suffisantes.

Outil n°1 : Diagrammes d'Ishikawa

Diagrammes d'Ishikawa (également appelés " squelette de poisson" ou " diagrammes de cause à effet") sont des diagrammes de cause à effet qui montrent la ou les causes profondes d'un événement particulier. Une façon courante de créer une arête de poisson véritablement informative consiste à utiliser ensemble la méthode des 5 Pourquoi et un diagramme de cause à effet.

  1. Personnes - Personnel impliqué dans le processus ; parties prenantes, etc.
  2. Méthodes - Processus d'exécution des tâches et exigences spécifiques pour leur exécution, telles que les politiques, procédures, règles, réglementations et lois.
  3. Machines - Tout équipement, ordinateurs, outils, etc. nécessaires pour effectuer le travail
  4. Matériaux - Matières premières, pièces, stylos, papier, etc. utilisés pour la production produit final
  5. Indicateurs - Données obtenues à partir d'un processus utilisé pour évaluer sa qualité
  6. Environnement- Conditions telles que le lieu, l'heure, la température et la culture dans lesquelles ce processus est réalisé

Outil n°2 : Liste de contrôle

Une liste de contrôle est un formulaire structuré et préparé pour la collecte et l’analyse de données. Il s’agit d’un outil polyvalent qui peut être adapté à une grande variété d’usages. Les données collectées peuvent être quantitatives ou qualitatives. Lorsque les informations sont quantitatives, la liste de contrôle est appelée feuille comptable.

La caractéristique déterminante d’une liste de contrôle est que les données y sont saisies sous forme de marques (« coches »). Une feuille de contrôle typique est divisée en colonnes et les marques faites dans les différentes colonnes ont différentes significations. Les données sont lues en fonction de l'emplacement et du nombre de marques sur la feuille. Les listes de contrôle utilisent généralement un « en-tête » qui répond à cinq questions : Qui ? Quoi? Où? Quand? Pourquoi? Développer des définitions opérationnelles pour chacune des questions.

  1. Qui a rempli la liste de contrôle ?
  2. Ce qui a été collecté (ce que représente chaque marque, numéro d'identification du lot ou nombre d'articles dans le lot)
  3. Où a eu lieu la collecte des données (équipements, locaux, outils)
  4. Quand les données ont été collectées (heure, équipe, jour de la semaine)
  5. Pourquoi ces données ont été collectées

Outil n°3 :

Il s'agit d'un affichage d'informations statistiques représenté par des rectangles pour montrer la fréquence des éléments de données dans des intervalles numériques successifs de même taille. Dans la forme la plus courante d'histogramme, la variable indépendante est tracée sur l'axe horizontal et la variable dépendante est tracée sur l'axe vertical.

L'objectif principal d'un histogramme est de clarifier les données présentées. C'est un outil utile pour tracer les données traitées dans des zones ou des barres d'un histogramme afin d'établir la fréquence de certains événements ou catégories de données. Ces histogrammes peuvent aider à refléter la fréquence la plus élevée. Les applications typiques des histogrammes d'analyse des causes profondes incluent la présentation de données pour déterminer la cause dominante ; comprendre la répartition des manifestations de divers problèmes, causes, conséquences, etc. Un diagramme de Pareto (expliqué plus loin dans l'article) est un type spécial d'histogramme.


Outil n°4 :

Est un outil et une solution importants. Étant donné que les ressources organisationnelles sont limitées, il est important que les propriétaires de processus et les parties prenantes comprennent les causes profondes des erreurs, des défauts, etc. Pareto excelle dans la représentation de ce mécanisme en classant clairement les causes profondes d'un défaut. Le diagramme est également connu sous le nom de principe 80:20.

Un graphique, nommé d'après l'économiste et politologue Vilfredo Pareto, est un type de graphique qui contient des barres et un graphique linéaire, où les valeurs individuelles sont présentées par ordre décroissant des barres et la somme accumulée est représentée par une ligne. L’axe vertical gauche représente généralement la fréquence des occurrences. L’axe vertical droit représente le pourcentage total du nombre total de manifestations. Puisque les causes sont classées par ordre décroissant de leur importance, la fonction cumulative est concave. A titre d'exemple, pour réduire de 78% le nombre de retards, il suffit d'éliminer les trois premières raisons.

Outil n°5 : Nuage de points ou nuage de points

Un nuage de points est souvent utilisé pour identifier les relations potentielles entre deux variables, l'une pouvant être considérée comme la variable explicative et l'autre comme la variable dépendante. Cela donne une bonne image visuelle de la relation entre deux variables et aide à analyser le coefficient de corrélation et le modèle de régression. Les données sont affichées sous forme d'un ensemble de points, chacun ayant la valeur d'une variable qui définit la position sur l'axe horizontal et la valeur d'une seconde variable qui définit la position sur l'axe vertical.

Un nuage de points est utilisé lorsqu'il existe une variable sous le contrôle de l'expérimentateur. S’il existe un paramètre qui augmente et/ou diminue systématiquement lorsqu’il est influencé par un autre, on l’appelle paramètre de contrôle ou variable indépendante et est généralement tracée le long de l'axe horizontal. La variable manipulée ou dépendante est généralement tracée le long de l'axe vertical. S'il n'y a pas de variable dépendante ou si la variable peut être tracée sur l'un des axes ou sur un nuage de points, elle affichera uniquement le degré de corrélation (et non la relation de cause à effet) entre les deux variables.


Outil n°6 :

C'est une méthode d'échantillonnage de la population. Dans les enquêtes statistiques, lorsque les groupes de population de la population sont différents, il est conseillé d'échantillonner chaque groupe (strate) séparément. Stratification est le processus de division des membres d'une société en sous-groupes homogènes avant l'échantillonnage.

Les strates doivent s'exclure mutuellement : chaque unité de population doit être affectée à une seule strate. Les strates doivent être exhaustives : aucune unité de population ne peut être exclue. Un échantillon aléatoire simple ou un échantillon systématique est ensuite prélevé au sein de chaque strate.

Cela améliore souvent la représentativité de l'échantillon en réduisant l'erreur d'échantillonnage. Il peut produire une moyenne pondérée qui présente moins de variabilité que la moyenne arithmétique d’un simple échantillon aléatoire de la population. Je dis souvent aux groupes que je supervise que des procédures de sélection appropriées sont plus importantes que le simple fait d'avoir un échantillon de taille suffisante !!


Outil n°7 : Cartes de contrôle, également appelées cartes de Shewhart ou cartes de comportement des processus

Il s'agit d'un type particulier de diagramme temporel qui permet de différencier un changement significatif en raison de la variabilité naturelle du processus.

Si l'analyse de la carte de contrôle montre que le processus est sous contrôle (c'est-à-dire stable, changeant uniquement pour des raisons inhérentes au processus), alors aucune correction ou modification du paramètre de contrôle du processus n'est requise ou souhaitée. De plus, les données de ce processus peuvent être utilisées pour prédire les performances futures du processus.

Si une carte montre qu'un processus observé est hors de contrôle, l'analyse de la carte peut aider à identifier les sources de variation qui peuvent ensuite être traitées pour ramener le processus sous contrôle.

Une carte de contrôle peut être considérée comme faisant partie d'une approche objective et disciplinée qui facilite des décisions judicieuses en matière de contrôle des processus, notamment si les paramètres de contrôle des processus doivent être modifiés. Les paramètres du processus ne doivent pas être ajustés pour un processus sous contrôle, car cela réduirait les performances du processus. Un processus stable mais fonctionnant en dehors d’une plage donnée (le taux de rebut, par exemple, peut être statistiquement contrôlable mais supérieur à une norme donnée) doit être amélioré grâce à des efforts ciblés pour comprendre les causes des performances actuelles et améliorer fondamentalement le processus.

Lorsque je gère des projets Six Sigma simples (communément appelés projets Yellow Belt), où les problématiques ne sont pas complexes et où l'équipe projet est composée de personnes ayant 3 à 5 ans d'expérience dans le processus, je préconise fortement l'utilisation de ces des outils simples pour résoudre les problèmes liés au processus.

En règle générale, tout processus démontrant une répétabilité dans un écart type de 1 à 2 % peut être amélioré par une simple analyse à l’aide de ces outils. Ce n'est que lorsque la reproductibilité du processus est supérieure à un écart type de 2,5 à 3 % que des outils moyens à avancés doivent être utilisés pour identifier et résoudre les problèmes de processus. Je recommande également à tout le monde cours initial L'éducation et la formation Six Sigma utilisent les sept outils de contrôle qualité pour créer un terrain fertile pour le développement des ceintures vertes et noires au sein de l'organisation.

Matériel préparé par Andrey Garin
basé sur des matériaux provenant de publications étrangères
http://www.site/

État fédéral autonome

établissement d'enseignement

formation professionnelle supérieure

"UNIVERSITÉ FÉDÉRALE SIBÉRIENNE"

Institut de gestion des processus métier et d'économie

Département d'économie et de gestion des processus métiers

ABSTRAIT

Selon les méthodes d'évaluation du niveau technique des machines

Sept outils pour le contrôle et la gestion de la qualité

Enseignant ______________ enseignant principal V.V. Kostina

Étudiant UB 11-01 ____________________ V.A. Ivkina

Krasnoïarsk 2014

La méthode est utilisée à la fois directement en production et à différentes étapes cycle de vie des produits. 4

Le but de la méthode est d'identifier les problèmes qui doivent être résolus en priorité, sur la base du suivi du processus en cours, de la collecte, du traitement et de l'analyse du matériel statistique obtenu pour l'amélioration ultérieure de la qualité du processus. 4

L'essence de la méthode est que le contrôle qualité est l'une des fonctions principales du processus de gestion de la qualité et que la collecte, le traitement et l'analyse des faits sont l'étape la plus importante de ce processus. 4

Sept outils de contrôle qualité de base (Fig. 1) constituent un ensemble d'outils qui facilitent le contrôle des processus en cours et fournissent divers types de faits pour l'analyse, l'ajustement et l'amélioration de la qualité des processus. 4

Figure 1 – 7 Outils de contrôle qualité 5

LISTE DES SOURCES UTILISÉES 19

INTRODUCTION

Dans l'économie moderne, une place importante est occupée par un concept tel que la qualité des biens et services produits. Cela dépend si le fabricant survivra ou non à la concurrence. Les produits de haute qualité augmentent considérablement les chances du fabricant de réaliser des bénéfices importants et des consommateurs réguliers.

La qualité du produit s'établit dans le processus de recherche scientifique, de conception et de développement technologique, est assurée par une bonne organisation de la production et, enfin, est maintenue pendant l'exploitation ou la consommation. À toutes ces étapes, il est important d'effectuer un contrôle en temps opportun et d'obtenir une évaluation fiable de la qualité du produit.

Les fabricants modernes tentent de prévenir l’apparition de défauts plutôt que de les éliminer dans les produits finis.

Afin de prendre la bonne décision, c'est-à-dire une décision fondée sur des faits, il est nécessaire de se tourner vers des outils statistiques qui permettent d'organiser le processus de recherche de faits, à savoir du matériel statistique.

La séquence d'application des sept méthodes peut être différente selon l'objectif fixé pour le système. De même, le système utilisé ne doit pas nécessairement inclure les sept méthodes.

1 Sept outils de contrôle qualité

La méthode est utilisée à la fois directement dans la production et à différentes étapes du cycle de vie du produit.

Le but de la méthode est d'identifier les problèmes qui doivent être résolus en priorité, sur la base du suivi du processus en cours, de la collecte, du traitement et de l'analyse du matériel statistique obtenu pour l'amélioration ultérieure de la qualité du processus.

L'essence de la méthode est que le contrôle qualité est l'une des fonctions principales du processus de gestion de la qualité et que la collecte, le traitement et l'analyse des faits sont l'étape la plus importante de ce processus.

La base scientifique du contrôle technique moderne réside dans les méthodes mathématiques et statistiques.

Parmi les nombreuses méthodes statistiques, seules sept ont été sélectionnées pour une utilisation généralisée, qui sont compréhensibles et peuvent être facilement utilisées par des spécialistes dans divers domaines. Ils vous permettent d'identifier et d'afficher les problèmes en temps opportun, d'établir les principaux facteurs à partir desquels vous devez commencer à agir et de répartir les efforts afin de résoudre efficacement ces problèmes.

La mise en œuvre des sept méthodes devrait commencer par une formation à ces méthodes pour tous les participants au processus.

Sept outils de contrôle qualité de base (Fig. 1) constituent un ensemble d'outils qui facilitent le contrôle des processus en cours et fournissent divers types de faits pour l'analyse, l'ajustement et l'amélioration de la qualité des processus.

Figure 1 – 7 Outils de contrôle qualité

    La liste de contrôle (Fig. 2) est un outil permettant de collecter des données et de les organiser automatiquement pour faciliter une utilisation ultérieure des informations collectées. Une feuille de contrôle est un formulaire papier sur lequel sont pré-imprimés les paramètres contrôlés, selon lesquels les données peuvent être saisies à l'aide de marques ou de symboles simples. Le but de l'utilisation de listes de contrôle est de faciliter le processus de collecte de données et d'organiser automatiquement les données pour une utilisation ultérieure. Quel que soit le nombre d’objectifs d’une entreprise, vous pouvez créer une liste de contrôle pour chacun d’eux.

Figure 2 – Exemple de feuille de contrôle

    Un histogramme (Fig. 3) est un outil qui vous permet d'évaluer visuellement la distribution des données statistiques, regroupées selon la fréquence des données tombant dans un certain intervalle prédéterminé. Les histogrammes sont utiles pour décrire un processus ou un système. Il ne faut pas oublier qu'un histogramme sera efficace si les données nécessaires à sa construction ont été obtenues sur la base d'un processus de fonctionnement stable. Cet outil statistique peut être une bonne aide pour construire des cartes de contrôle.

Figure 3 – Exemple d'histogramme

    Le diagramme de Pareto (Fig. 4) est un outil qui permet de présenter et d'identifier objectivement les principaux facteurs influençant le problème étudié, et de répartir les efforts pour le résoudre efficacement. Le diagramme de Pareto repose sur le principe selon lequel 80 % des défauts dépendent à 20 % des raisons qui les ont provoqués. Dr D.M. Juran a utilisé ce postulat pour classer les problèmes de qualité en quelques problèmes essentiels et en plusieurs problèmes sans importance, et a appelé cette méthode l'analyse de Pareto. La méthode Pareto permet d'identifier les principaux facteurs à l'origine d'un problème et de prioriser leur solution.

Figure 4 – Exemple de diagramme de Pareto

    La méthode de stratification (stratification des données) (Fig. 5) est un outil qui permet de diviser les données en sous-groupes selon un certain critère.

Figure 5 – Exemple de superposition de données

    Un diagramme de dispersion (Fig. 6) est un outil qui vous permet de déterminer le type et la force de la relation entre des paires de variables correspondantes.

Figure 6 – Exemple de nuage de points

    Le diagramme d'Ishikawa (diagramme de cause à effet) (Fig. 7) est un outil qui vous permet d'identifier les facteurs (raisons) les plus importants influençant le résultat final (effet). L'utilisation systématique d'un diagramme de cause à effet vous permet d'identifier toutes sortes de causes à l'origine d'un certain problème et de séparer les causes des symptômes.

Figure 7 – Exemple de diagramme de cause à effet

    Une carte de contrôle (Fig. 8) est un outil qui permet de suivre l'évolution d'un processus et de l'influencer (à l'aide d'un retour d'information approprié), en évitant ses écarts par rapport aux exigences présentées au processus.

Figure 8 - Exemple de carte de contrôle

Les avantages de la méthode sont la clarté, la facilité d’apprentissage et d’application. Les inconvénients de la méthode incluent une faible efficacité lors de l'analyse de processus complexes. Mais lorsqu'il est utilisé en production, jusqu'à 95 % de tous les problèmes sont résolus.

2 Sept outils de gestion de la qualité

Le plus souvent, ces outils sont utilisés pour résoudre des problèmes qui surviennent lors de la phase de conception.

Le but de la méthode est de résoudre les problèmes qui surviennent dans le processus d'organisation, de planification et de gestion d'une entreprise sur la base de l'analyse de divers types de faits.

Sept outils de gestion de la qualité donnent un aperçu de situations complexes et contribuent à faciliter la gestion de la qualité en améliorant le processus de conception de produits ou de services.

Les outils de gestion de la qualité améliorent le processus de planification grâce à leur capacité à :

    comprendre les tâches;

    éliminer les carences;

    faciliter la diffusion et l'échange d'informations entre les parties prenantes ;

    utiliser le vocabulaire de tous les jours.

Ainsi, les outils de gestion de la qualité vous permettent de développer des solutions optimales dans les plus brefs délais. Le diagramme d’affinité et le diagramme de liens prennent en charge la planification globale. L’arborescence, le diagramme matriciel et la matrice des priorités fournissent une planification intermédiaire. L'organigramme du processus décisionnel et le diagramme en flèche fournissent une planification détaillée.

La séquence d'application des méthodes peut être différente selon l'objectif.

Ces méthodes peuvent être considérées à la fois comme des outils individuels et comme un système de méthodes. Chaque méthode peut trouver sa propre application indépendante en fonction de la classe à laquelle appartient la tâche.

Sept outils de gestion de la qualité - un ensemble d'outils pour faciliter la tâche de gestion de la qualité dans le processus d'organisation, de planification et de gestion d'une entreprise lors de l'analyse de divers types de faits.

Le diagramme d'affinité (Fig. 9) est un outil qui permet d'identifier les principales violations du processus en résumant et en analysant des données orales proches.

Figure 9 - Exemple de diagramme d'affinité

Un diagramme de connexion (Fig. 10) est un outil qui vous permet d'identifier des liens logiques entre l'idée principale, le problème et divers facteurs d'influence.

Figure 10 - exemple de schéma de communication

L'arborescence (Fig. 11) est un outil pour stimuler le processus de pensée créative, facilitant la recherche systématique des moyens les plus appropriés et les plus efficaces pour résoudre les problèmes.

Figure 11 - Exemple d'arborescence

Le diagramme matriciel (Fig. 12) est un outil qui permet d'identifier l'importance de diverses connexions non évidentes (cachées). Habituellement, les matrices bidimensionnelles sont utilisées sous forme de tableaux avec des lignes et des colonnes a1, a2,., b1, b2. - les composants des objets étudiés.

Figure 12 - exemple de diagramme matriciel

La matrice de priorité (Fig. 13) est un outil de traitement d'une grande quantité de données numériques obtenues lors de la construction de diagrammes matriciels afin d'identifier les données de priorité. Cette analyse est souvent considérée comme facultative.

Figure 13 - exemple de matrice de priorités

L'organigramme du processus de prise de décision (Fig. 14) est un outil qui permet de lancer le mécanisme de planification continue. Son utilisation contribue à réduire les risques dans presque toutes les entreprises. Plans pour chaque éventualité imaginable qui pourrait se produire, en passant des énoncés du problème aux solutions possibles.

La figure 14 est un exemple d'organigramme du processus de prise de décision.

Un diagramme fléché (Fig. 15) est un outil qui vous permet de planifier des délais optimaux pour réaliser tous travail nécessaire pour atteindre l'objectif fixé et les contrôler efficacement.

Figure 15 - exemple de diagramme en flèche

Les sept outils de gestion de la qualité fournissent les moyens de comprendre et de planifier en conséquence dans des situations complexes, de parvenir à un consensus et de mener au succès dans la résolution collaborative de problèmes.

La collecte initiale de données est généralement effectuée lors de séances de brainstorming.

Les avantages de la méthode sont la clarté, la facilité d’apprentissage et d’application.

L'inconvénient de la méthode est sa faible efficacité lors de l'analyse de processus complexes.

L'utilisation d'outils de gestion de la qualité vous permet d'économiser des ressources et ainsi d'améliorer les résultats de l'entreprise.

CONCLUSION

Sept méthodes statistiques simples sont des outils de connaissance et non de gestion. La capacité de visualiser les événements d’un point de vue statistique est plus importante que la connaissance des méthodes elles-mêmes. Dans les grandes entreprises étrangères, absolument tous les salariés doivent maîtriser sept méthodes statistiques simples. Les données doivent être collectées de manière à faciliter leur traitement ultérieur. Vous devez comprendre les finalités pour lesquelles les données sont collectées et traitées.

Généralement, les objectifs de la collecte de données au cours du processus de contrôle qualité sont les suivants :

    contrôle et régulation du processus;

    analyse des écarts par rapport aux exigences établies ;

    contrôle de la sortie du processus.

L'utilisation de sept outils de gestion de la qualité permet de :

    identifier les principales violations du processus en combinant les données orales associées ;

    identifier, analyser et classer les causes et les résultats des interactions qui existent entre les principaux problèmes et, sur la base des forces motrices identifiées et des résultats probables, une solution plus efficace ;

    montrer les liens entre le sujet et ses éléments constitutifs ;

    montrer clairement l'interdépendance des processus et des événements ;

    identifier les solutions possibles aux problèmes et les opportunités potentielles d'amélioration de la qualité ;

    décrire un processus technologique existant ou en concevoir un nouveau.

LISTE DES SOURCES UTILISÉES

    7 outils simples de contrôle qualité // sur la gestion de la qualité.- Mode d'accès : http://quality.eup.ru/DOCUM4/7_instrum.htm

    7 outils de gestion de la qualité // sur la gestion de la qualité. - Mode d'accès : http://www.inventech.ru/pub/methods/metod-0005/

Les principaux outils de contrôle qualité sont des méthodes d'analyse statistique des conditions et des facteurs affectant la qualité du produit. Il comprend une analyse des types et des causes de défauts, une analyse de l'influence de facteurs de processus technologiques individuels sur les indicateurs de qualité. Lors de l'analyse, il est recommandé d'utiliser des méthodes graphiques spéciales (parfois appelées statistiques descriptives) pour présenter visuellement des données de qualité. Ceux-ci comprennent sept outils de contrôle qualité (Fig. 2.1).

Riz. 2.1.

Une liste de contrôle (feuille) est un outil de collecte et d'organisation des données pour faciliter une utilisation ultérieure des informations collectées (Fig. 2.2).


Dans la figure 2.1, ce n’est pas un hasard si la fiche de contrôle est située au centre des sept instruments. Son rôle particulier réside dans le fait que la mise en œuvre de toute tâche d'analyse de la qualité commence par la collecte des données initiales.

Une feuille de contrôle est un formulaire papier (Fig. 2.2), sur lequel sont pré-imprimés les types de défauts contrôlés, selon lesquels la fréquence de leur apparition est indiquée sous forme de symboles simples.

Le nombre de fiches différentes dans une entreprise se compte par centaines et pour chaque objectif spécifique, sa propre fiche peut être développée. Mais le principe de leur conception reste inchangé : la forme de la feuille doit être simple et compréhensible (sans explications supplémentaires) ; Il est nécessaire d’indiquer qui a collecté les données, à quel stade et pendant combien de temps.

Diagramme de cause à effet (diagramme d'Ishikawa). Un diagramme de cause à effet est un outil qui vous permet d'identifier les causes (facteurs) les plus importantes influençant le résultat final (effet). Il a été proposé en 1953 par le professeur de l'Université de Tokyo K. Ishikawa.

Les raisons qui influencent le problème sont représentées (Fig. 2.3) par des flèches inclinées, avec les causes générales (raisons du premier ordre) - par de grandes flèches inclinées, et les causes particulières (raisons du deuxième ordre et des ordres suivants) - par de petites flèches inclinées.

Dans la littérature, le diagramme en question est aussi appelé « arête de poisson ». Le problème étudié est la « tête » d’une arête de poisson. La «crête» est classiquement représentée par une flèche horizontale droite, les «os» - les causes, sont représentés par des flèches inclinées.


Riz. 2.3.

Tout en production raisons possibles répartis en groupes (catégories) selon le principe « 5M » :

  • ? Homme (personne) - raisons associées au facteur humain ;
  • ? Machines (machines, équipements) - raisons liées à l'équipement ;
  • ? Matériaux - raisons liées aux matériaux ;
  • ? Méthodes (méthodes, technologie) - raisons liées à la technologie du travail, à l'organisation des processus ;
  • ? Mesures - raisons liées aux méthodes de mesure, contrôle qualité.

Pour chaque groupe, des « os » supplémentaires sont construits, représentant des causes individuelles, et celles-ci, à leur tour, leurs propres sous-causes. Le résultat est un arbre ramifié qui relie les causes de non-conformité à différents niveaux de détail. De cette façon, vous pouvez accéder aux causes principales, dont l'élimination affectera de la manière la plus significative la solution au problème.

En science des produits de base, lorsqu’on examine les problèmes de qualité, on identifie

deux principaux groupes de raisons (facteurs) : raisons qui façonnent la qualité

biens et les raisons qui contribuent à maintenir la qualité des biens. Ce

raisons de premier ordre. Chaque groupe est détaillé jusqu'aux causes de second ordre. Par exemple, le premier groupe est représenté par les matières premières, la technologie, le design, le second par l'emballage, le transport et le stockage. Dans certains cas, des détails supplémentaires sur les causes de troisième ordre sont nécessaires. Par exemple, la raison « stockage » peut être représentée par la température, l’humidité, la composition de l’air.

Lors de l'analyse, toutes les raisons doivent être identifiées et enregistrées, même celles qui semblent insignifiantes, puisque le but du diagramme est de trouver la raison la plus correcte et la plus correcte. méthode efficace solutions au problème.

Mais il est impossible, voire peu rentable, d’éliminer toutes les causes identifiées et enregistrées. Les causes les plus importantes doivent être identifiées et gérées. Le classement des causes est réalisé selon la méthode experte, notamment la méthode du brainstorming.

Le diagramme de Pareto est un outil qui vous permet de répartir les efforts pour résoudre les problèmes émergents et d'identifier les principales raisons à partir desquelles vous devez agir. Nommé d'après l'économiste italien V. Pareto (1845-1923).

Pareto a proposé une formule montrant que les bénéfices sont inégalement répartis : dans la plupart des cas, la plus grande part des revenus ou des bénéfices appartient à un petit nombre de personnes. La même théorie a été illustrée par l'économiste américain M. Lorenz en 1907 dans un diagramme. Le Dr D. Juran a appliqué le diagramme de Lorenz au contrôle qualité pour classer les problèmes de qualité en ceux qui sont peu nombreux mais importants et ceux qui sont nombreux mais non significatifs. Il a appelé cette méthode l'analyse de Pareto. Juran a souligné que dans la plupart des cas, la grande majorité des défauts et des pertes associées proviennent d'un nombre relativement restreint de causes.

Le diagramme de Pareto est représenté sous la forme d'un graphique à barres (Fig. 2.4). Lors de sa construction, les caractéristiques quantitatives (parts en %, pertes, etc.) sont portées le long de l'axe des ordonnées, et les caractéristiques qualitatives (nombre de causes de défauts, nombre de types de défauts, etc.) sont portées le long de l'axe des abscisses. Il existe deux types de graphiques de Pareto :

pour des raisons(facteurs). Ils reflètent les causes des problèmes qui surviennent lors de la production (Fig. 2.4, i) ;

résultats de performances. Ils servent à identifier le problème principal et reflètent les résultats de performance indésirables (pertes, défauts, etc.).

D'après le diagramme de la Fig. 2.4, UN On peut constater qu'en éliminant les causes liées à la violation de la discipline technologique et à une mauvaise conception des équipements technologiques, les défauts peuvent être réduits de près de 88 %.

D'après le diagramme de la Fig. 2.4 ,6 il est clair que le principal problème réside dans les pertes importantes (près de 24 000 roubles) causées par des matériaux défectueux.

Riz. 2.4.

UN- Diagramme de Pareto par types de motifs de mariage : 1 - violation de la discipline technologique sur le site ; 2 - conception infructueuse d'équipements technologiques ; 3 - défauts des composants ; 4 - un éclairage insuffisant ; 5 - autres raisons ; Diagramme b-Pareto - pertes par type de mariage : 1 - défauts de taille (11 000 roubles);

  • 2 - matériaux défectueux (24 000 roubles); 3 - revêtement galvanique défectueux (15 000 roubles);
  • 4 - rivet défectueux (1 000 roubles); 5 - autres types de défauts (5 000 roubles)

Un type d’analyse Pareto est l’analyse ABC. Cette analyse examine la dépendance du montant des pertes (ou des bénéfices, ou du chiffre d'affaires) sur le type de produit. En conséquence, trois groupes de produits sont établis : A, B et C.

Le groupe A est constitué d'une petite partie (en nombre d'articles) de produits, qui représente la plus grande part (jusqu'à 80 %) des pertes (soit en chiffre d'affaires, soit en bénéfice). Le groupe C est constitué d'une grande partie des produits, qui constituent la plus petite part (jusqu'à 10 %) des pertes, du chiffre d'affaires ou des bénéfices.

Le groupe B occupe une place intermédiaire.

Dans le domaine du contrôle qualité, en règle générale, le groupe A est le produit le plus problématique, car il représente la plus grande part des coûts (pertes) associés à l'élimination des défauts.

Dans le domaine de l'analyse de la structure de l'assortiment de produits, les groupes A constituent la partie la plus précieuse du produit, car ils fournissent au magasin la plus grande partie du chiffre d'affaires et des bénéfices. L'analyse ABC est généralement présentée sous forme de tableau.

Les cartes de contrôle sont un outil qui vous permet de suivre la progression d'un processus et de l'influencer, en évitant les écarts par rapport aux exigences du processus.

À l'aide de cartes de contrôle, une régulation statistique du processus technologique est effectuée, en particulier l'ajustement des paramètres du processus sur la base des résultats d'un suivi sélectif des paramètres des produits fabriqués. Ils vous permettent d'analyser la stabilité du processus technologique, de séparer les erreurs aléatoires des erreurs systématiques et d'identifier les facteurs aléatoires qui affectent considérablement la qualité des produits fabriqués.

La carte de contrôle (CC) reflète graphiquement l'évolution des indicateurs de qualité au fil du temps (Fig. 2.5). Il existe des QC basés sur des critères qualitatifs (proportion de produits défectueux, nombre de produits défectueux, nombre total de défauts par unité de production) et des QC basés sur des critères quantitatifs (pour valeurs moyennes et fourchette, pour médiane et fourchette, pour valeurs moyennes. ​​et écart type). Le QC indique la plage de dispersion inévitable des valeurs de l'indicateur, c'est-à-dire dispersion causée par des erreurs de production aléatoires, provoquées par des changements dans la qualité des matières premières (dans les limites des écarts admissibles), ainsi que par les conditions de production.


Riz. 2.5. Carte de contrôle de la part des produits défectueux p

La propagation inévitable ne peut être éliminée, mais il faut pouvoir l’évaluer. L’inévitable propagation se situe entre les limites supérieure et inférieure. Pour évaluer les limites de contrôle (limites de contrôle), trois fois l’écart type (la règle des « trois sigma ») est utilisé. Si les points appliqués à la vanne de régulation ne dépassent pas les limites de régulation, le processus technologique est considéré comme fonctionnant de manière stable.

Si les points du QC dépassent les limites de contrôle, on considère alors que certaines erreurs systématiques sont survenues dans le processus technologique qui doivent être identifiées et éliminées.

Exemple. Il existe des données sur la réception des manomètres pour décembre : le nombre d'appareils contrôlés par date, le nombre d'appareils défectueux. Sur cette base, la proportion de manomètres défectueux (en %), la proportion moyenne p et l'écart type (sigma) sont calculés. Sur la base des données spécifiées, le CC est construit (voir Fig. 2.5). Dans le formulaire QC, la proportion de produits défectueux p (%) est tracée verticalement, et la date d'échantillonnage horizontalement. La valeur p = 3,5 % détermine la position de la ligne médiane. Si la valeur o = 0,918, alors la limite supérieure de régulation est p + 3st = 3,5 + 3 * 0,918 = 6,254 %, et la limite inférieure p - 3 o = 3,5 - 3 * 0,918 = 0,746 %.

Lors de l'analyse du QC, il apparaît clairement qu'au 11 décembre, la proportion de manomètres défectueux (p = 10,7) dépasse la limite supérieure de contrôle. Disons que nous avons réussi à établir la cause d'un défaut élevé - il s'agit de l'utilisation par un contrôleur de la circulation avec un indice de 24 d'un manomètre de contrôle, qui a été mal marqué par les travailleurs du laboratoire de métrologie. La cause a été éliminée. Le 6 décembre, la proportion de manomètres défectueux était également assez élevée (proche de la limite supérieure), mais la cause du défaut n'a pas pu être identifiée. Par conséquent, lors du calcul du niveau réel de défauts pour la prochaine période de planification, il y a tout lieu de supposer qu'en janvier les mêmes relations de cause à effet dans la production de manomètres auront lieu comme dans la période d'étude (de base).

Compte tenu de la correction des défauts provoquée par le facteur survenu le 11 décembre, le niveau réel de défauts en janvier, selon les calculs, sera inférieur : p = 3,1%, et les limites supérieure et inférieure seront de 5,699 et 0,501, respectivement. Ainsi, les calculs montrent qu'en janvier on peut s'attendre à une certaine amélioration des indicateurs de qualité.

Ainsi, les résultats de contrôle qui se situent dans les limites de contrôle indiquent le déroulement normal du processus. Chaque violation de la limite supérieure de contrôle doit être enregistrée et immédiatement analysée minutieusement afin d'identifier et d'éliminer les causes des défauts. La technique QC permet également d'établir des jours avec un faible niveau de défauts et donc d'identifier les situations de production existantes qui conduisent à une diminution de la qualité.

Si, sur la base des résultats de l'analyse QC, un processus technologique stable est établi, il peut alors être recommandé de passer du contrôle continu au contrôle sélectif, ce qui réduit les coûts de main-d'œuvre pour le contrôle.

Un diagramme de dispersion est un outil qui vous permet de déterminer le type et la force de la relation entre des paires de variables correspondantes (voir Fig. 2.1).

Ces deux variables peuvent faire référence à :

  • 1) à la caractéristique de qualité et au facteur qui l'influence ;
  • 2) deux diverses caractéristiques qualité;
  • 3) deux facteurs influençant une caractéristique de qualité. Un diagramme de dispersion est utilisé pour identifier la relation entre eux. Un diagramme de dispersion est construit comme un graphique de la relation entre

deux variables (voir Fig. 2.1). Si une telle relation existe, il est alors possible d'éliminer l'écart d'un paramètre par rapport à la valeur standard en influençant l'autre.

Il peut y avoir une relation positive, une relation négative ou aucune relation entre les variables.

L’utilisation d’un nuage de points ne se limite pas à simplement identifier le type et la force des relations entre des paires de variables. Le nuage de points est également utilisé pour identifier les relations de cause à effet entre les indicateurs de qualité et les facteurs d'influence lors de l'application du diagramme d'Ishikawa.

La méthode de stratification (stratification des données) est un outil qui vous permet de sélectionner des données qui reflètent les informations requises sur le processus.

Conformément à cette méthode, les données statistiques sont stratifiées, c'est-à-dire regrouper les données en fonction du facteur de stratification sélectionné et traiter chaque groupe de données séparément.

Les données divisées en groupes selon leurs caractéristiques sont appelées couches (strates), et le processus de division en couches (strates) - délaminage (stratification).

Dans les processus de production, lors du choix d'un facteur de stratification, la méthode « 5M » évoquée ci-dessus est souvent utilisée. En particulier, des facteurs dépendant de la personne, de l'équipement, du matériel, de la méthode de contrôle et de la mesure sont pris en compte.

Dans le service, pour la stratification, on utilise la méthode « 5P », qui prend en compte des facteurs qui dépendent des travailleurs (peuples), des procédures du service, des consommateurs qui sont les véritables clients du service, du lieu où le service est transporté. et détermine son environnement externe, fournisseurs fournissant des fournitures (provisions).

Pour illustrer la méthode, considérons un exemple d'analyse des causes de défauts (Fig. 2.6). Tous les défauts (100 %) ont été classés en quatre groupes (strates) : par fournisseur, opérateur, équipe, équipement. L'analyse montre que le fournisseur 2 contribue le plus à la présence de défauts.


Riz. 2.6.

Un histogramme est un outil qui permet d'évaluer visuellement la loi de distribution des données statistiques.

L'histogramme est un graphique à barres (Fig. 2.7), construit pour les changements d'intervalle de la valeur du paramètre. Pour ce faire, des rectangles (colonnes) sont construits sur les intervalles portés sur l'axe des abscisses dont la hauteur est proportionnelle aux fréquences des intervalles. Si l'histogramme a une apparence symétrique (en forme de cloche), alors nous pouvons supposer une loi gaussienne de distribution de la variable aléatoire. La fréquence la plus élevée se situe au milieu et diminue progressivement dans les deux sens.

L'importance pratique de l'histogramme est qu'il permet d'évaluer la stabilité de la qualité du produit en volume.


Riz. 2.7.

L'histogramme (voir Fig. 2.7) détermine la constance des principaux paramètres du processus : la valeur moyenne x ou l'espérance mathématique M(x) et écart type au fil du temps. Ceci est important lors de l'évaluation d'un processus à l'aide de données d'échantillonnage, lorsqu'il est nécessaire de déterminer la probabilité que la répartition de la population franchisse les limites de la zone de tolérance et, par conséquent, le non-respect des exigences des consommateurs. Dans un histogramme symétrique, il n'est pas difficile de déterminer la possibilité de répartition de la population à valeurs données M(x) et UN basé sur une comparaison des limites trois sigma et des limites de tolérance correspondantes.

D'après la figure 2.7, il est clair que si nous prenons les limites trois sigma comme limites de tolérance, alors 99,73 % de toutes les données de la population générale seront considérées comme appropriées, et seulement 0,27 % des données seront considérées comme non-conformités (NC) à exigences du consommateur, car situé en dehors de la zone de tolérance spécifiée.

L’histogramme a commencé à être largement utilisé à la fin des années 1980 et dans les années 1990. pour illustrer le programme Six Sigma en tant que méthodologie permettant d'assurer la cohérence de la qualité.

L'analyse de la stabilité d'un processus (processus de production, processus métier) revient à évaluer ses paramètres : un processus de tolérance Z produit environ 2 700 défauts pour 1 million de produits ou d'événements ; dans un processus avec tolérance 6a, il existe déjà plusieurs défauts - 3,4 défauts pour 1 million de produits.

Les entreprises qui assurent la reproductibilité 6a sont classées comme « classe mondiale » en termes de compétitivité, 4a sont classées comme « classe moyenne », 2a sont classées comme non compétitives.

Le programme Six Sigma a été développé par Motorola dans les années 1980. Sa mise en œuvre a permis de réduire les défauts de 99,7 % et d'économiser à l'entreprise de 1987 à 1996 11 milliards de dollars. En 1998, Motorola est devenue l'une des premières entreprises à recevoir le prix national de qualité M. Baldrige aux États-Unis.

Ainsi, 255 des plus grandes entreprises mondiales (de la liste Fortune 500) utilisent Six Sigma. Il s’agit de l’un des concepts de gestion les plus largement mis en œuvre au monde. En Russie, le concept Six Sigma n'est maîtrisé principalement que par les grandes entreprises orientées vers l'exportation. Pour eux, c’est la « clé » qui ouvre l’accès aux grands contrats et projets internationaux. Parmi les entreprises russes utilisant Six Sigma figurent VSMPO-AVISMA, Krasnoyarsk Aluminium Plant, Alfa-Bank, Citibank, RUSAL, Dzerzhinskoye Plexiglas, Instrum-Rand, etc.

L'Union japonaise des ingénieurs et des scientifiques a identifié sept outils principaux pour la gestion opérationnelle (assurance qualité) (Fig. 2.38) :

  • 1) diagramme d'affinité (Diagramme d'affinité);
  • 2) schéma de connexion (diagramme d'interrelation);
  • 3) diagramme en arbre (diagramme en arbre) ;
  • 4) diagramme matriciel ou tableau de qualité (schéma matriciel ou tableau de qualité) ;
  • 5) diagramme en flèche (schéma en flèche);

Riz. 2.38.

  • 6) diagramme du processus de mise en œuvre du programme PDPC (graphique de programme de décision de processus - diagramme du processus de mise en œuvre du programme);
  • 7) matrice prioritaire (analyse des données matricielles) (analyse des données matricielles).

Parfois ces sept instruments sont appelés nouveaux outils de gestion de la qualité - N1. Ces outils sont utilisés dans le pilotage opérationnel de la qualité des projets et sont à caractère généraliste. Stratégiquement, ils peuvent être considérés comme Sept méthodes stratégiques gestion de la qualité - S7. Ceux-ci inclus:

  • 1) évaluer l'attractivité de l'entreprise ;
  • 2) analyse comparative ;
  • 3) analyse de la segmentation du marché ;
  • 4) évaluation de la position sur le marché ;
  • 5) gestion de portefeuille de projets ;
  • 6) analyse stratégique des facteurs de développement ;
  • 7) optimisation des ressources.

D'un point de vue stratégique GQT devient un concept de gestion d'entreprise qui détermine l'efficacité actuelle de l'entreprise et les perspectives de son développement.

Le schéma de partage des outils qualité est illustré à la Fig. 2.39. Au stade de l'analyse préliminaire et de la définition du problème, des outils de gestion de la qualité tels que le diagramme d'affinité et le diagramme de liens sont utilisés ; au stade du déploiement des outils - un diagramme matriciel et un diagramme arborescent ; au stade de la systématisation des moyens - un diagramme en flèche et un diagramme de processus. La dernière étape est la matrice des priorités, qui nous permet d'identifier les segments de marché prioritaires qui accepteront le produit amélioré. Les possibilités de connecter les outils de contrôle qualité existants, si nécessaire, et les outils potentiels pour des situations complexes sous forme d'analyse multivariée, si nécessaire, sont présentées.

Considérons une solution pratique au problème de l'augmentation de la durée de vie de la garantie du produit (usine de bureau), pour laquelle la « maison de la qualité » a été construite (voir Fig. 2.16).

Diagramme d'affinité est un moyen de structurer une grande quantité de données diverses sur le problème considéré selon le principe de l'affinité de diverses données et illustre des connexions associatives plutôt que logiques. Cet outil


Riz. 2.39. Partager des outils de qualité est parfois appelé une méthode KJ. Cette méthode trouve son origine dans les premiers travaux du scientifique japonais Jiro Kawakita dans les années 1950. Les méthodes ensuite développées pour la collecte et l’analyse des données ont abouti à l’approche de résolution de problèmes identifiée par ses initiales. En 1967, Kawakita décrit sa méthode et développe un système d'enseignement. Les informations proviennent souvent de données linguistiques provenant de sources multiples : réponses des clients aux avis, notes de visite client transcrites ou GQT ou des résultats synthétisés de plusieurs diagrammes AU. Chacun d’entre eux peut donner lieu à des dizaines ou des centaines de déclarations. Méthode d'échantillonnage multiple MRM il existe une méthodologie pour filtrer ces déclarations jusqu'à un montant gérable. Kawakita a créé cette méthode avec la méthode A/. Comme le dernier, MRM utilise des faits ou des idées. Il existe deux principes pour réduire la quantité de données : 1) renforcer les plus forts et 2) éliminer faiblesses. MRM suit le premier principe : se concentrer sur l’importance des données pertinentes pour le sujet. Idée MRM présente certaines similitudes avec la théorie de W. McGregor.

Il est préférable de créer un diagramme d’affinité en groupe. L'expérience montre qu'à cette fin, il est préférable de créer un groupe composé de 6 à 8 personnes ayant une expérience préalable. collaboration. La procédure de création d'un diagramme peut être organisée comme suit. Tout d'abord, le sujet (thème) qui sert de base à la collecte de données est déterminé. Méthode MRM est mis en œuvre en plusieurs étapes :

  • préparation, qui comprend un échauffement et une discussion sur le sujet ;
  • collecter des données sur un sujet en utilisant la méthode du brainstorming. Les membres de l’équipe étiquettent les déclarations qui seront probables lors de l’examen final. Chaque membre du groupe note tout ce qui lui semble important. Les déclarations non vérifiées ne sont pas discutées. Il existe plusieurs tentatives de sélection avec une réduction progressive de la sélection. En vérifiant constamment la liste des déclarations et en les étiquetant, les membres de l'équipe parviennent à un accord sur les plus importantes sans perdre de temps en discussion ;
  • sélection ciblée - 20 à 30 % du matériel précédent est écarté de la sélection finale. Chaque participant dispose d'un choix limité pour indiquer les conclusions finales. À ce stade, tout le monde a déjà examiné plusieurs fois les déclarations restantes et tout le monde est prêt à se concentrer sur les plus importantes.

Lors de la construction d'un diagramme MRM et les graphiques d'affinité, les outils de contrôle de qualité tels que les cartes de contrôle, les nuages ​​de points, les graphiques de stratification et les graphiques de Pareto sont largement utilisés. En figue. 2.40 montre le diagramme MRM en relation avec le problème considéré d'augmentation de la durée de vie du produit (augmentation de la durabilité).

La limitation des données initiales a montré qu'il existe une insatisfaction des consommateurs quant à la durée de vie garantie des produits (1 an). Cela est dû à des réparations fréquentes pour restaurer la fonctionnalité du produit. Dans le même temps, la fonctionnalité des échantillons de haute qualité détermine généralement l’attractivité du produit sur le marché. Ces résultats sont confirmés par des produits qui fonctionnent longtemps sans réparations supplémentaires. L'essence du problème est précisée : augmenter la durée de vie de la garantie à quatre ans afin d'assurer une durabilité stable et ainsi la satisfaction du client.

Pour construire un diagramme d'affinité, les données associées sont regroupées selon des directions à différents niveaux. Le travail est considéré comme terminé lorsque toutes les données sont en règle, c'est-à-dire collecté


Riz. 2. 40. Schéma MRM

en groupes préliminaires de données connexes, et la plupart des désaccords sont résolus. Les questions restantes sont généralement résolues au cours de la discussion.

Tout d’abord, vous devez essayer de déterminer la directionnalité de chaque groupe de données en fonction de l’affinité des données du groupe. Cela peut être fait différemment : sélectionnez une carte dans le groupe, placez-la en tête ou formez une nouvelle direction. Cette procédure peut être répétée pour résumer les principales orientations et ainsi créer une hiérarchie. L'analyse est terminée lorsque les données sont regroupées en zones principales. En figue. La figure 2.41 montre un diagramme d'affinité pour le problème de l'augmentation de la durée de vie sous garantie d'un produit. On peut voir que les données sont regroupées en trois domaines, chacun contenant des déclarations substantielles sur le problème.


Riz. 2.41. Mon diagramme d'affinité. Pour cela, un outil tel qu'un diagramme de stratification est utilisé.

Un outil qui vous permet d'identifier des liens logiques entre une idée principale, un problème ou diverses données. Le but de cet outil de gestion est de faire correspondre les causes profondes des perturbations de processus identifiées par le diagramme d'affinité aux problèmes qui nécessitent des solutions (cela explique certaines des similitudes entre le diagramme de liens et le diagramme de cause à effet - le diagramme d'Ishikawa) . Le classement de ces motifs par importance est effectué en tenant compte des ressources utilisées dans l'entreprise, ainsi que des données numériques caractérisant les motifs.

Les données utilisées ici peuvent par exemple être générées en appliquant un diagramme d'affinité. Le diagramme mental est avant tout un outil logique, par opposition au diagramme d’affinité, qui est créatif. Un diagramme mental peut être utile dans les situations :

  • lorsque le sujet (sujet) est si complexe que les liens entre différentes idées ne peuvent être établis par une discussion ordinaire ;
  • le calendrier selon lequel les mesures sont prises est déterminant ;
  • on soupçonne que le problème soulevé dans la question n’est que le symptôme d’un problème plus fondamental non résolu. Comme pour le diagramme d’affinité, le travail sur le diagramme de liens doit être effectué par le groupe approprié. L’important est qu’il faut d’abord définir le sujet étudié (résultat). Les causes profondes peuvent être déterminées à partir d’un diagramme d’affinité ou à l’aide d’un outil de contrôle qualité tel qu’un diagramme d’Ishikawa.

En figue. La figure 2.42 montre un schéma de connexion pour résoudre le problème de l'augmentation de la durée de vie de la garantie d'un produit à quatre ans. Les principales tâches du problème à résoudre sont identifiées, les personnes responsables de leur mise en œuvre sont identifiées et des liens logiques entre elles sont établis. La sous-estimation de l'importance du problème sur le marché a empêché sa solution. La prise de conscience de la dépendance de l'entreprise à l'égard de l'état des conditions du marché peut constituer une menace pour elle à l'avenir. Pour réduire son risque, le modèle de production est en cours de révision. Un facteur important est également la nécessité d'utiliser une base technologique actualisée, ce qui n'est pas dû


Riz. 2.42.

seulement avec l'achat équipement moderne, mais aussi avec son utilisation efficace. Pour ce faire, le personnel doit disposer des compétences nécessaires. Pour garantir la qualité, un support métrologique est nécessaire, ce qui résoudra les problèmes de précision du contrôle.

(schéma systématique) - un outil qui fournit un moyen systématique de résoudre le problème considéré afin d'augmenter la satisfaction des consommateurs représentés à différents niveaux.

Contrairement au diagramme d’affinité et au diagramme de connexion, cet outil est plus ciblé. Un diagramme arborescent est construit sous la forme d'une structure à plusieurs étapes, dont les éléments sont divers moyens et méthodes pour résoudre un problème. Le principe de construction d’un diagramme en arbre est illustré à la Fig. 2.43.

Un diagramme en arbre peut être utilisé dans les cas suivants :

Riz. 2.43.

  • lorsque des souhaits vaguement formés des consommateurs pour un produit se transforment en souhaits des consommateurs à un niveau gérable ;
  • il est nécessaire d'explorer tous les aspects possibles du problème ;
  • les objectifs à court terme doivent être atteints avant que tous les travaux ne soient terminés, c'est-à-dire au stade de la conception.

Diagramme matriciel - un outil qui permet d'établir l'importance des différentes connexions et constitue le lien central des sept outils de gestion de qualité de la maison.

Un diagramme matriciel permet de structurer une grande quantité de données afin que les connexions logiques entre les différents éléments soient représentées graphiquement. Son objectif est de décrire les liens et les corrélations entre les tâches, les fonctions et les caractéristiques, en soulignant leur importance relative. Dans sa forme finale, le diagramme matriciel montre la correspondance de certains facteurs et phénomènes avec diverses causes de leur apparition et les moyens d'éliminer leurs conséquences, ainsi que le degré de dépendance de ces facteurs vis-à-vis des causes de leur apparition et des mesures pour les éliminer. . Les diagrammes matriciels, également appelés matrices de connexion, sont présentés sur la Fig. 2.44. Dans le cas considéré, ils déterminent la présence et l'étroitesse des liens entre les facteurs T - facteurs techniques, P - facteurs de marché, K - facteurs de compétence. La connexion entre eux est représentée à l'aide de symboles spéciaux :

Connexion forte (définie comme 9 points);

O - connexion moyenne (définie comme 3 points) ;

Faible connexion (définie comme 1 point).

Nous déterminons l'importance des liens entre les principaux facteurs lors de la résolution du problème de l'augmentation de la durée de vie de la garantie du produit fabriqué (usine de bureau). Le diagramme matriciel se compose de trois diagrammes linéaires (simples), sous forme de combinaisons de facteurs : diagramme a) - une combinaison de T et P ; diagramme b) - combinaison de T et K ; schéma c) - combinaison de K et R.

Nous formulons les principaux facteurs influençant le processus d'amélioration du produit afin d'augmenter sa durée de vie sous garantie :

1. Facteurs techniques en tant qu'ensemble T = }