Q-LEARNING Content Feed
Wissen | Content | Aktuelles
Nutzen Sie – wie in unseren Social Media Kanälen – die Kleinen Wissens-Nuggets rund um die Methoden- und Qualitätswelt. Der Content-Feed kann Trigger, Reminder, Aktivator sein für diverse Themen – und enthält Links zu weiteren Artikeln und Content-Formaten.
Sie können uns auch auf LinkedIn folgen: https://www.linkedin.com/school/q-learning/
Das Parameter-Diagramm (P-Diagramm) ist ein leistungsstarkes Werkzeug in der Systemanalyse, das zur Definition von Systemgrenzen und Schnittstellen genutzt wird.
Es bietet eine visuelle Übersicht über alle wichtigen Einflussfaktoren, die auf das System einwirken, und unterstützt so eine präzise Analyse von Systemleistung und -verhalten.
Hauptbestandteile des P-Diagramms:
Eingangsgrößen/Input:
Faktoren oder Parameter, die in das System einfließen und es direkt oder indirekt beeinflussen. Dazu zählen z. B. Materialeigenschaften, Umweltbedingungen oder Nutzereingaben.
Kontrollfaktoren/Stellgrößen:
Diese Parameter sind beeinflussbar und dienen der Regulierung oder Optimierung des Systems. Sie umfassen alle Einstellungen, die während des Betriebs angepasst werden können, wie Temperatur oder Druck.
Störgrößen:
Faktoren, die das System beeinflussen können, jedoch oft schwer oder gar nicht kontrollierbar sind. Beispiele hierfür sind Umgebungsfaktoren wie Feuchtigkeit oder Vibrationen. Sie dienen oft als Testkriterien, um die Robustheit eines Systems zu prüfen.
Ausgangsgrößen/Output:
Das Ziel des P-Diagramms ist es, die angestrebten Ergebnisse, also die Ausgangsgrößen des Systems, zu definieren. Sie stehen für die gewünschten Systemantworten oder -funktionen.
Systemreaktion/Fehlerzustand:
Das Verhalten des Systems unter dem Einfluss der beschriebenen Faktoren. Es wird bewertet, ob das System innerhalb der festgelegten Grenzen funktioniert.
Nutzen des Parameter-Diagramms in der Systemanalyse:
Grenzdefinition:
Das P-Diagramm hilft dabei, die Grenzen des Systems zu definieren und klar festzulegen, welche Elemente zum System gehören und welche nicht.
Schnittstellendefinition:
Schnittstellen zu anderen Systemen oder externen Einflüssen werden deutlich sichtbar, sodass mögliche Wechselwirkungen berücksichtigt und analysiert werden können.
Robustheitsprüfung:
Durch das Verständnis der Störgrößen und deren Auswirkungen können Schwachstellen identifiziert und das System optimiert werden, um robuste Ergebnisse trotz variierender Einflüsse zu gewährleisten.
Zusammengefasst, ermöglicht das P-Diagramm eine strukturierte Darstellung der Einflussfaktoren auf ein System und bildet die Grundlage für eine gezielte Optimierung und Fehlervermeidung, indem Systemgrenzen und Schnittstellen klar beschrieben und visualisiert werden.
Ein Blockschaltbild in der Systemanalyse bietet eine strukturierte, visuelle Methode zur Darstellung und Untersuchung eines Systems. Es ermöglicht die Reduktion der Komplexität und fördert ein besseres Verständnis des Gesamtprozesses und der funktionalen Abhängigkeiten. Diese Methode ist in vielen technischen und organisatorischen Bereichen unverzichtbar, da sie nicht nur die Systemanalyse unterstützt, sondern auch die Kommunikation und Optimierung innerhalb des Systems vereinfacht.
Prinzipiell werden dazu die Subfunktionen als Teilblöcke dargestellt.
Der Rahmen (oder Block) aller Subfunktionen ist die Hauptfunktion (hier: „Kaffee kochen“).
An diesen Rahmen werden zusätzlich die relevanten Schnittstellen gebracht, um das System mit der „Umwelt“ zu verbinden. Diese Verbindung erfolgt auf Basis der Standardkategorien „Input“ und „Output“ sowie deren Größen „Energie“, „Material“ und „Information“.
Die Erstellung eines Blockschaltbildes erfordert eine systematische Herangehensweise, um sicherzustellen, dass alle relevanten Komponenten und Beziehungen des Systems klar und übersichtlich dargestellt werden.
Nachfolgend eine Schritt-für-Schritt-Anleitung zur Erstellung eines Blockschaltbildes für die Hauptfunktion „Kaffee kochen:
1. Systemgrenze festlegen
System umfasst Wasser, Kaffeepulver und Kaffeebereitung bis zur Tasse.
2. Hauptkomponenten identifizieren
Wasseraufbereitung, Kaffeezubereitung, Filter, Kaffeeauffangbehälter (Tasse/Kanne).
3. Beziehungen definieren
Erhitztes Wasser durchläuft Kaffeepulver, Filter und Auffangbehälter.
4. Komponenten anordnen
Anordnung: Wasseraufbereitung → Kaffeezubereitung → Filter → Auffangbehälter.
5. Komponenten verbinden
Verbindungen mit Pfeilen, die den Prozessfluss darstellen.
6. Details ergänzen
Temperatur, Kaffeemenge und Filterart ergänzen.
7. Vollständigkeit prüfen
Alle Komponenten und Verbindungen vorhanden und verständlich?
8. Dokumentation bereitstellen
Kurzbeschreibung und Bereitstellung für Präsentation oder Schulung.
Das Blockschaltbild bietet damit eine klare Übersicht über Systemfunktionen und ihrer Zusammenhänge und erleichtert die Systemanalyse und -optimierung.
LEAN und SIX SIGMA für Lieferantenmanager
Lieferantenmanager (Supplier Manager) spielen eine entscheidende Rolle bei der Sicherstellung einer effizienten und qualitativ hochwertigen Lieferkette. Die Anwendung von Methoden aus LEAN und SIX SIGMA bringt sowohl taktischen als auch strategischen Mehrwert für Fachbereiche mit Lieferantenverantwortung.
🟠 Vorteile der praktischen Anwendung:
1- LEAN: Bedarfsorientierte Lagerbestände
Beispiel:
Ein Lieferantenmanager implementiert das Kanban-System bei einem Zulieferer. So wird der Materialfluss an den tatsächlichen Bedarf angepasst, Überbestände werden eliminiert.
Ergebnis:
Niedrigere Lagerkosten, geringere Kapitalbindung, flexiblere Reaktion auf Änderungen.
2- SIX SIGMA: Reduktion von Qualitätsmängeln
Beispiel:
Ein Lieferant liefert Bauteile mit einer Fehlerquote von 5 %. Der Lieferantenmanager initiiert ein SIX SIGMA-Projekt, um mit strukturierten Methoden mögliche Gründe zu identifizieren (z.B. Ishikawa-Diagramm) und mit statistischen Werkzeugen (z.B. Prozessfähigkeitsanalyse) die Hauptursachen zu identifizieren und abzustellen.
Ergebnis:
Fehlerquote wird signifikant reduziert, Qualität steigt, Reklamationen nehmen ab.
3- Kombination: Optimierung von Lieferzeiten
Beispiel:
Lieferzeiten variieren stark bei einem Zulieferer. LEAN-Prinzipien (z.B. Wertstromanalyse) werden eingesetzt, um die Produktionsplanung zu straffen, und SIX SIGMA reduziert Prozessvariationen.
Ergebnis:
Verlässliche Lieferzeiten, weniger Verzögerungen in der Lieferkette.
4- Risikomanagement in der Lieferkette
Beispiel:
Ein Lieferantenmanager wendet LEAN an, um potenzielle Engpässe zu identifizieren, und SIX SIGMA zur Analyse von Prozessabweichungen bei kritischen Lieferanten. Maßnahmen wie alternative Beschaffungsquellen werden implementiert.
Ergebnis:
Minimierung von Risiken und Stabilität in der Lieferkette.
🟠 Erfolgsfaktoren für Lieferantenmanager durch LEAN und SIX SIGMA sind u.a.:
– Verbesserte Lieferqualität
– Kosteneinsparungen
– Effizienzsteigerung
– Proaktive Problemlösung
– Stärkere Partnerschaften
– Kompetenzerweiterung
– Erhöhte Flexibilität
– Karriereentwicklung
Zusammenfassung
Methoden aus LEAN und SIX SIGMA unterstützen Lieferantenmanager bei der Verbesserung der Lieferkette. Während LEAN hilft, Verschwendung zu eliminieren und Prozesse schlank zu gestalten, sorgt SIX SIGMA für Stabilität und konsistente Qualität. Positive Ergebnisse sind Kostenreduzierungen, Risikominimierung, zuverlässige Partnerschaften und die Steigerung der Lieferperformance.
Die Baumstruktur ist ein wichtiges Werkzeug in der Systemanalyse, da sie das System in hierarchisch gegliederte Subfunktionen und Komponenten aufteilt.
Sie ermöglicht eine detaillierte Darstellung und hilft, komplexe Strukturen zu vereinfachen und visuell darzustellen, wie verschiedene Teile zusammenwirken. Dadurch werden Abhängigkeiten und Zusammenhänge klar sichtbar, was die Identifikation kritischer Komponenten erleichtert.
Die Baumstruktur bildet eine solide Basis für tiefere Analysen und Prozessoptimierungen.
Die Erstellung einer Baumstruktur als Teil der Systemanalyse erfolgt in mehreren Schritten, um das System detailliert und hierarchisch zu gliedern:
1. Systemziel definieren:
Beginne mit dem Ziel oder der Hauptfunktion des Systems. Diese bildet die Wurzel der Baumstruktur und stellt das übergeordnete Ziel dar.
2. Hauptfunktionen identifizieren:
Teile das Hauptziel in mehrere Hauptfunktionen auf, die zur Zielerreichung notwendig sind. Diese bilden die erste Verzweigungsebene.
3. Subfunktionen entwickeln:
Zerlege jede Hauptfunktion weiter in Subfunktionen oder kleinere Teilaufgaben. Dieser Schritt geht von allgemeinen zu detaillierteren Funktionen über.
4. Hierarchische Beziehungen darstellen:
Ordne alle Funktionen so an, dass die hierarchischen Beziehungen klar werden. Jede Funktion hängt von der übergeordneten Ebene ab und trägt zum Gesamtsystem bei.
5. Abhängigkeiten prüfen:
Überprüfe, ob Abhängigkeiten zwischen Funktionen bestehen, die den Aufbau beeinflussen könnten. Diese Verbindungen sind entscheidend für das Verständnis des Gesamtsystems.
6. Visualisieren:
Zeichne die Baumstruktur in Form einer Grafik, die von der Hauptfunktion bis hin zu den kleinsten Subfunktionen reicht.
Die Baumstruktur gibt so eine übersichtliche Darstellung aller Systemelemente und ihrer Beziehungen und ermöglicht eine tiefergehende Analyse und Identifikation von Optimierungsmöglichkeiten.
Das Input-Output-Diagramm bildet den idealen Ausgangspunkt für die Systemanalyse, da es eine klare Übersicht über die Hauptfunktionen und grundlegenden Prozesse eines Systems bietet.
Es visualisiert, welche Eingaben (Inputs) in das System fließen, wie diese verarbeitet werden, und welche Ausgaben (Outputs) resultieren.
Die Erstellung eines Input-Output-Diagramms als Start der Systemanalyse erfolgt in mehreren Schritten, um eine umfassende Übersicht über die Hauptprozesse und Ressourcenflüsse des Systems zu erhalten:
1. Systemgrenzen festlegen: Zuerst wird das System definiert und abgegrenzt. Es muss klar sein, welche Prozesse und Elemente zur Analyse gehören und welche nicht.
2. Inputs identifizieren: Bestimmen der Hauptfaktoren, die in das System fließen. Dazu gehören Ressourcen, Daten, Rohstoffe oder Informationen, die notwendig sind, um das System zu betreiben.
3. Prozesse im System beschreiben: Die zentralen Abläufe und Funktionen, die innerhalb des Systems stattfinden, werden beschrieben. Dieser Schritt verdeutlicht, wie die Inputs verarbeitet werden.
4. Outputs festlegen: Ermitteln, welche Ergebnisse das System erzeugt. Das können Produkte, Dienstleistungen, Berichte oder Daten sein, die aus dem System hervorgehen.
5. Interne und externe Einflüsse berücksichtigen: Überlegen, welche externen und internen Faktoren das System beeinflussen, etwa regulatorische Anforderungen, Marktbedingungen oder Ressourcenverfügbarkeit.
6. Visualisierung im Diagramm: Alle identifizierten Inputs, Prozesse und Outputs werden grafisch dargestellt, oft in einem einfachen Blockdiagramm, um die Beziehungen und Abläufe verständlich zu machen.
Ein gut strukturiertes Input-Output-Diagramm schafft so eine klare Grundlage für die folgenden Schritte der Systemanalyse, indem es die Hauptelemente und Abhängigkeiten des Systems übersichtlich darstellt.
In der Konzeptphase der DFSS-Vorgehensweise zur Entwicklung neuer Produkte oder Prozesse liegt der Fokus auf der Definition der Systemanforderungen, der Analyse von Kundenbedürfnissen und der Erstellung erster Lösungsansätze.
Die Systemanalyse trägt in dieser Phase entscheidend dazu bei, die Funktionsweise, Anforderungen und Wechselwirkungen des gesamten Systems genau zu verstehen.
Sie hilft dabei, technische und wirtschaftliche Anforderungen frühzeitig zu identifizieren, mögliche Schwachstellen oder Risiken zu erkennen und klare Spezifikationen zu definieren.
Dadurch wird sichergestellt, dass das entwickelte Konzept alle nötigen Funktionen erfüllt, effizient umgesetzt werden kann und mögliche Fehler oder Komplikationen bereits im Vorfeld vermieden werden.
So legt die Systemanalyse eine fundierte Basis für die weitere Produktentwicklung.
Eine strukturierte Vorgehensweise bei der Systemanalyse trägt dazu bei, von Anfang an ein umfassendes Verständnis des Systems, seiner Funktionen und seiner Schnittstellen zu gewinnen. Potenzielle Risiken können so frühzeitig identifiziert und verhindert werden, sodass eine solide Grundlage für die weitere fehlerfreie und effiziente Entwicklung oder Optimierung sichergestellt wird.
4 Schritte der Systemanalyse:
- Input-Output-Diagramm:
Ermöglicht eine klare Beschreibung der Hauptfunktionen des Systems und zeigt, wie Inputs in Outputs umgewandelt werden. Dies schafft eine erste Übersicht über die zentralen Aufgaben des Systems. - Baumstruktur:
Bricht das System in seine Subfunktionen auf und strukturiert diese hierarchisch, um die Komplexität des Systems zu reduzieren und Abhängigkeiten klar darzustellen. - Blockschaltbild:
Stellt die funktionalen Beziehungen zwischen den Subsystemen dar und visualisiert, wie die einzelnen Komponenten miteinander interagieren, was das Verständnis der Systemarchitektur erleichtert. - Parameter-Diagramm:
Definiert die Systemgrenzen und Schnittstellen, wodurch mögliche Störungen oder externe Einflüsse identifiziert werden können. Dies hilft, die Stabilität und Zuverlässigkeit des Systems zu gewährleisten.
Die Werkzeuge der einzelnen 4 Schritte erläutern wir in den nächsten Beiträgen am Beispiel „Kaffee kochen“ detailliert.
Eine Stichprobe ist eine Teilmenge der Grundgesamtheit, die ausgewählt wird, um Informationen über die gesamte Population zu erhalten. Der Vorteil der Stichprobennutzung liegt darin, dass sie eine schnelle und kosteneffiziente Datenerhebung ermöglicht, ohne den gesamten Umfang untersuchen zu müssen. Wenn die Stichprobe repräsentativ ist, können dennoch verlässliche Rückschlüsse auf die Grundgesamtheit gezogen werden.
Das allgemeine Verfahren beruht auf:
■ Erfassung von Stichprobendaten
■ Beschreibung der Stichprobe (Deskriptive Statistik)
■ Rückschluss auf die Grundgesamtheit (Induktive Statistik)
Eine gute Planung der Datenerhebung ist entscheidend für die Aussagekraft einer Stichprobe um verlässliche Auswertungsergebnisse zu erhalten. Durch die Analyse einer Stichprobe lassen sich statistische Aussagen treffen, Muster erkennen und Prognosen erstellen, die Gültigkeit für die Grundgesamtheit haben. Die Qualität der Stichprobe bestimmt die Genauigkeit der Ergebnisse.
Idealerweise wird die Stichprobe als zufällige Auswahl aus der Grundgesamtheit gezogen. Dies bedeutet, dass alle Einheiten der Grundgesamtheit die gleiche Chance haben, in die Stichprobe zu gelangen.
Beispiel:
Will man die relative Häufigkeit von Grippeerkrankungen in einem Land erfassen, sollte die Stichprobe nicht nur in den Wartezimmern von Hausärzten erhoben werden, da hier mit einer höheren Häufigkeit von Grippeerkrankungen zu rechnen ist. Die Stichprobe würde kein repräsentatives Bild wiedergeben.
Es gibt verschiedene Arten von Stichproben, die je nach Ziel und Rahmenbedingungen der Untersuchung ausgewählt werden. Zu den wichtigsten gehören:
📍 Zufallsstichprobe:
Jeder in der Grundgesamtheit hat die gleiche Chance, ausgewählt zu werden.
Beispiel: Ziehen von Losen.
📍 Geschichtete Stichprobe:
Die Grundgesamtheit wird in Gruppen (Schichten) aufgeteilt, und aus jeder Schicht wird eine Zufallsstichprobe gezogen.
Beispiel: Stichproben aus Altersgruppen.
📍 Klumpenstichprobe:
Die Grundgesamtheit wird in natürliche Gruppen (Klumpen) unterteilt, und ganze Gruppen werden zufällig ausgewählt.
Beispiel: Stichprobe von Schulen, bei der alle Schüler einer Schule untersucht werden.
📍 Systematische Stichprobe:
Jede n-te Person oder Einheit aus einer geordneten Liste wird ausgewählt.
Beispiel: Jeder 10. Kunde auf einer Liste wird befragt.
📍 Quota-Stichprobe:
Die Stichprobe wird basierend auf bestimmten Quoten ausgewählt, die die Grundgesamtheit widerspiegeln sollen.
Beispiel: Befragung nach dem Verhältnis von Männern und Frauen in der Bevölkerung.
📍 Convenience-Stichprobe:
Die Stichprobe wird aus einer leicht zugänglichen Gruppe ausgewählt.
Beispiel: Befragung von Passanten an einem bestimmten Ort.
Diese Stichprobenarten unterscheiden sich hinsichtlich der Genauigkeit, Repräsentativität und des Aufwands, der für die Datenerhebung notwendig ist.
Ein Hypothesentest prüft anhand von Stichproben, ob eine Annahme über eine Population (Grundgesamtheit) zutrifft.
Getestet wird die Ausgangsvermutung (=Nullhypothese H₀) gegen eine Alternativhypothese (H₁).
Irrtümer sind möglich, weil der Test auf Wahrscheinlichkeiten basiert und Stichproben nur eine Teilmenge der Gesamtpopulation repräsentieren. Zufallsschwankungen können daher zu falschen Schlussfolgerungen führen, daher wird das Irrtumsrisiko festgelegt und 2 Risikoarten bzw. Fehlerarten unterschieden:
■ Das α-Risiko entspricht dem Fall, dass die Hypothese H0 verworfen wird, obwohl sie in der Realität zutrifft
■ Das β-Risiko entspricht dem Fall, dass die Hypothese H0 akzeptiert wird, in der Realität jedoch nicht zutrifft
Mit Hilfe eines Beispiels wird die Problematik der Entscheidung eines Hypothesentests verdeutlicht –> Ein Richter verurteilt einen Angeklagten. Es bestehen nun vier verschiedene Möglichkeiten der „Tatsachen/ Richtigkeit“:
- Der Angeklagte ist unschuldig, der Richter spricht den Angeklagten frei.
- Der Angeklagte ist schuldig, der Richter spricht ihn schuldig.
- Der Angeklagte ist unschuldig, der Richter irrt sich und spricht ihn schuldig.
- Der Angeklagte ist schuldig, der Richter irrt sich und spricht ihn frei.
Zwei Entscheidungen wären korrekt, zwei Entscheidungen wären falsch und würden entweder zu Ungunsten des Angeklagten (Möglichkeit 3) oder zu Ungunsten des Anklägers (Möglichkeit 4) ausfallen.
Hypothesentests werden in vielen Bereichen der Praxis eingesetzt:
Medizin:
Zur Überprüfung der Wirksamkeit von Medikamenten, indem die Wirksamkeit einer neuen Behandlung gegen eine Standardbehandlung getestet wird
Marktforschung:
Um herauszufinden, ob eine neue Werbekampagne den Umsatz signifikant steigert
Psychologie:
Um Verhaltensweisen oder Meinungen zu analysieren, z. B. ob ein Training das Verhalten verändert
Qualitätskontrolle:
In der Industrie, um festzustellen, ob ein Produktionsprozess stabil ist oder eine Änderung erfordert
Hypothesentests helfen also dabei, fundierte Entscheidungen auf Basis von Daten zu treffen.
In der Praxis reduziert man die Fehlermöglichkeiten bei Hypothesentests durch das Festlegen eines Signifikanzniveaus, größere Stichproben, Konfidenzintervalle und Korrekturen bei mehrfachen Tests. Dadurch kann die Aussagegenauigkeit erhöht werden.
Wir lieben Daten, weil sie uns helfen, fundierte Entscheidungen zu treffen und die Welt besser zu verstehen. Daten ermöglichen es uns, Muster zu erkennen, Trends vorherzusagen und Probleme zu lösen.
Aber nicht alle Daten können auf die gleiche Weise verwendet werden, daher unterscheiden wir folgende Datenarten:
Qualitative Daten erfassen nicht messbare Informationen wie Meinungen, Verhaltensweisen oder Erfahrungen. Sie können nicht für numerische Auswertungen herangezogen werden.
Man unterscheidet dabei….
Nominale Daten:
Sie kategorisieren Informationen ohne eine bestimmte Reihenfolge oder numerischen Wert. Beispiele sind Geschlecht, Farben oder Wohnorte. Sie dienen dazu, Objekte oder Personen in Gruppen einzuteilen für Vergleiche oder Analysen.
Ordinale Daten:
Sie ordnen Informationen in eine sinnvolle Reihenfolge oder Rangfolge, wie z. B. Bewertungen („gut“, „besser“, „am besten“) oder Zufriedenheitsskalen. Sie zeigen relative Positionen, aber der Abstand zwischen den Werten ist nicht gleichmäßig. Ordinale Daten werden häufig in Umfragen oder Beurteilungen verwendet, um Präferenzen oder Meinungen darzustellen.
Quantitative Daten messen numerische Informationen, z. B. Größe, Gewicht oder Einkommen. Sie ermöglichen genaue Berechnungen und statistische Analysen, um Trends zu erkennen, Vorhersagen zu treffen und fundierte Entscheidungen zu treffen.
Hier unterscheidet man…
Diskrete Daten:
Sie sind zählbar und ganzzahlig und nehmen feste, begrenzte Werte an. Sie werden verwendet, um Häufigkeiten oder Bestandsmengen darzustellen, z.B. Anzahl von Kindern in einer Klasse oder Autos auf einem Parkplatz. Man kann sie nicht halbieren, da halbe Autos oder ein halber Fehler beispielsweise keinen Sinn ergeben.
Stetige Daten:
Sie können jeden beliebigen Wert innerhalb eines Intervalls annehmen, wie z. B. Höhe, Gewicht oder Zeit. Sie ermöglichen präzise Messungen und werden in Bereichen wie Wissenschaft und Wirtschaft genutzt, um kontinuierliche Veränderungen zu analysieren und Optimierungspotenziale daraus abzuleiten.
Statustische Kennzahlen wie Mittelwert, Median, Standardabweichung etc. sind aus diesen Gründen nicht für alle Datenarten ermittelbar. Der Modalwert jedoch (oder Modus) kann immer ermittelt werden, denn es ist in jedem Datensatz der Wert, der am häufigsten vorkommt.
Selbst bei nominalen Daten kann man somit durch den Modalwert bestimmen, welcher Beruf beispielsweise in einer Altersgruppe zwischen 20 und 30 am häufigsten erlernt wird oder welche Ursache im Straßenverkehr am häufigsten zu Unfällen beigetragen hat.
Ohne Daten gäbe es also keine Weiterentwicklung, denn sie helfen uns zu verstehen, in welche Richtung wir besser werden können oder müssen, in jedem Bereich!
Erfolgeiche Innovationsfähigkeit setzt voraus, dass neue Ideen unter Berücksichtigung bekannter Erkenntnisse und den Wünschen und Anforderungen der Zielgruppe erarbeitet werden.
Die moderative Nutzung strukturierter Kreativprozesse hat dabei folgende Vorteile:
■ Förderung neuer Ideen durch Anregung unkonventionelles Denkens
■ Verbesserung der Teamarbeit durch gezielte Förderung von konstruktivem Austausch
■ Lösung komplexer Probleme durch Betrachtung neuer Perspektiven
■ Systematische Ansätze unterstützen strukturiertes Denken
■ Effiziente Entscheidungsfindung durch Verkürzung des Prozesses zur Ideenpriorisierung
Es gibt verschiedene Kreativitätsmethoden, die je nach Anspruch und Motivation unterschiedliche Vorgehensweisen bei der Erarbeitung von Ideen und Lösungen bieten:
■ Intuitive Methoden basieren auf spontaner, unbewusster Ideenfindung und Kreativität. Sie fördern freies Denken ohne Einschränkungen
Beispiele:
– Brainstorming: Spontanes Sammeln von Ideen in Gruppen ohne Bewertung
– Mind Mapping: Visuelle Darstellung von Ideen und deren Verknüpfungen
– 6-3-5 Methode: Jeder Teilnehmer entwickelt 3 Ideen in 5 Minuten, die von anderen weitergeführt werden
■ Systematische Methoden arbeiten strukturiert und zerlegen Probleme systematisch in ihre Bestandteile
Beispiele:
– Morphologischer Kasten: Kombiniert verschiedene Lösungselemente zu neuen Ideen
– SCAMPER: Bestehende Ideen werden systematisch durch sieben Fragen modifiziert
– Brainwriting: Teilnehmer schreiben still ihre Ideen auf und tauschen sie dann aus
■ Widerspruchsorientierte Methoden zielen darauf ab, Konflikte oder Widersprüche im System zu erkennen und durch innovative Lösungen zu überwinden
Beispiele:
– TRIZ: Analysiert Widersprüche und nutzt systematische Prinzipien zur Lösung
– Bionik: Widersprüche werden durch Inspiration aus der Natur aufgelöst
– Contradiction Matrix: TRIZ-Tool, das Widersprüche mithilfe von Erfindungsprinzipien systematisch löst
Unabhängig von der Wahl der Kreativitätsmethode ist die Einhaltung von Spielregeln entscheidend, um den Kreativprozess effizient und ergebnisorientiert gestalten zu können. Sie fördern ein strukturiertes, respektvolles und produktives Umfeld, das freies Denken und sorgloses Äußern ermöglicht. Dadurch kommt jeder zu Wort und ein Raum für Gleichberechtigung, Offenheit und Innovation kann entstehen.
COST OF POOR QUALITY (COPQ bzw. Kosten schlechter Qualität) fasst die Gesamtkosten, die einem Unternehmen aufgrund von Fehlern, Mängeln oder ineffizienten Prozessen entstehen, zusammen.
Diese Kosten werden verursacht, wenn Produkte oder Dienstleistungen die Qualitätsanforderungen nicht erfüllen und entweder nachgebessert, ersetzt oder verworfen werden müssen.
Sie beeinflussen direkt den Unternehmenserfolg, da sie den Ertrag der Wertschöpfung reduzieren und auch Einfluss auf die Kundenzufriedenheit haben.
Daher wird COPQ heutzutage besonders im produzierenden Umfeld als wichtige Kennzahl zur Prozesskontrolle beobachtet, um rechtzeitig korrigierende Gegenmaßnahmen daraus ableiten zu können, je nach Ursache der Kostenentstehung.
COPQ umfasst folgende Kostenkategorien:
1.Interne Fehlerkosten:
Kosten, die entstehen, bevor das Produkt den Kunden erreicht, z. B. durch Ausschuss, Nacharbeit, zusätzliche Prüfungen oder ineffiziente Prozesse.
2. Externe Fehlerkosten:
Kosten, die entstehen, nachdem das Produkt den Kunden erreicht hat, z. B. durch Garantieansprüche, Rückrufaktionen, Kundenbeschwerden oder Reputationsverlust.
3. Prüfkosten:
Kosten, die anfallen, um sicherzustellen, dass Produkte oder Dienstleistungen die Qualitätsanforderungen erfüllen, z. B. durch Inspektionen, Tests oder Audits.
4. Präventionskosten:
Kosten, die entstehen, um Fehler von vornherein zu vermeiden, z. B. durch Schulungen, Qualitätsplanung oder Prozessverbesserungen.
Das Verständnis zur Bedeutung und Wirkweise der COPQ ist wichtig für Unternehmen, da ihre Minimierung zu Effizienzsteigerung, Kostensenkung und Erhöhung der Kundenzufriedenheit beiträgt und somit Einfluss auf den Gewinn hat.
Nutzung der Regressionsanalyse im SIX SIGMA Projekt
Die Regressionsanalyse ist ein kraftvolles Werkzeug in SIX SIGMA Projekten, um Beziehungen zwischen Variablen zu verstehen und Prozesse zu optimieren. Hier ein kurzer Überblick über die Vorgehensweise und den Nutzen dieser Analysemethode:
📌 Vorgehensweise:
✅ Daten sammeln:
Zuerst werden relevante Daten aus dem Prozess gesammelt, die die zu untersuchenden Variablen abdecken.
✅ Modellbildung:
Mit Hilfe statistischer Software wird ein Regressionsmodell erstellt, das die Abhängigkeit der Zielvariablen von einer oder mehreren unabhängigen Variablen beschreibt.
✅ Modellbewertung:
Das Modell wird anhand von Gütemaßen wie dem R²-Wert und der Signifikanz der Variablen bewertet.
✅ Interpretation:
Die Ergebnisse werden interpretiert, um zu verstehen, welche Faktoren den Prozess am stärksten beeinflussen.
✅ Implementierung:
Auf Basis der Analyseergebnisse werden Maßnahmen zur Prozessverbesserung entwickelt und umgesetzt.
📌 Nutzen:
Verständnis für Prozesse verbessern: Die Regressionsanalyse hilft, die Schlüsselfaktoren zu identifizieren, die den Prozess beeinflussen, und deren Auswirkungen zu quantifizieren.
Entscheidungsfindung unterstützen: Durch fundierte Datenanalyse können gezielte Maßnahmen zur Prozessverbesserung entwickelt werden.
Ressourcen optimieren: Indem ineffiziente Prozesse identifiziert und verbessert werden, können Kosten gesenkt und Ressourcen besser genutzt werden.
Qualität steigern: Durch die Identifikation und Kontrolle von Einflussfaktoren können Fehler reduziert und die Produktqualität gesteigert werden.
Die Regressionsanalyse ist ein essenzieller Bestandteil des SIX SIGMA Werkzeugkastens und trägt maßgeblich dazu bei, datenbasierte Entscheidungen zu treffen und kontinuierliche Verbesserungen zu erzielen.
Rüstzeitoptimierung mit SMED in LEAN Manufacturing: Effiziente Produktion leicht gemacht!
In der modernen Produktion ist Zeit Geld, und eine der effektivsten Methoden zur Reduzierung von Rüstzeiten ist die SMED-Methode (Single Minute Exchange of Die). Doch wie funktioniert das genau?
📌 Vorgehensweise:
Analyse des Rüstvorgangs:
✔ Beobachtung und Dokumentation: Der gesamte Rüstvorgang wird detailliert beobachtet und dokumentiert.
✔ Identifizierung von Abläufen: Einzelne Schritte des Rüstprozesses werden klar identifiziert und kategorisiert.
Reduktion der Verschwendung:
✔ Trennung von inneren und äußeren Rüstvorgängen: Innere Rüstzeiten (die nur bei Maschinenstillstand durchgeführt werden können) und äußere Rüstzeiten (die während des Maschinenlaufs durchgeführt werden können) werden klar getrennt.
✔ Parallelisierung von Prozessen: Äußere Rüstvorgänge werden parallel zum Produktionsprozess durchgeführt, um die Maschinenstillstandszeit zu minimieren.
Neuorganisation der Rüstanteile:
✔ Standardisierung und Vereinfachung: Rüstvorgänge werden standardisiert und vereinfacht, um eine schnelle und fehlerfreie Durchführung zu gewährleisten.
✔ Verbesserung der Werkzeuge und Vorrichtungen: Einsatz von Schnellspannvorrichtungen und multifunktionalen Werkzeugen zur weiteren Verkürzung der Rüstzeiten.
✔ Schulung und Training: Mitarbeiter werden intensiv geschult, um die neuen Abläufe effizient umzusetzen.
Nutzen der SMED-Methode:
✔ Verkürzte Rüstzeiten: Signifikante Reduzierung der Maschinenstillstandszeiten durch schnellere Umrüstung.
✔ Höhere Flexibilität: Schnelle Wechsel zwischen verschiedenen Produktionsaufträgen erhöhen die Flexibilität und Reaktionsfähigkeit der Produktion.
✔ Geringere Bestände: Durch kürzere Rüstzeiten können kleinere Losgrößen produziert und somit Lagerbestände reduziert werden.
✔ Erhöhte Produktivität: Maximierung der Maschinenlaufzeiten und Steigerung der Gesamtproduktivität.
Mit SMED können Sie die Produktionsprozesse optimieren und die Effizienz auf ein neues Level heben!
SIX SIGMA und die Bedeutung von 3,4 ppm
Haben Sie sich jemals gefragt, warum SIX SIGMA so oft als Goldstandard für Prozessverbesserung und Qualitätsmanagement betrachtet wird? Der Schlüssel liegt in einem magischen Wert: 3,4 ppm.
Was bedeutet 3,4 ppm❓
3,4 ppm steht für „Parts per Million“ und beschreibt die Anzahl der Fehler, die in einem Prozess erlaubt sind – nämlich 3,4 Fehler pro Million Möglichkeiten. Dies ist die Definition von SIX SIGMA, einem Niveau der Prozessleistung, das nahezu fehlerfrei ist.
Warum ist 3,4 ppm so wichtig❓
🔸Kundenzufriedenheit: Ein Prozess, der auf SIX SIGMA-Niveau arbeitet, liefert konsistent hohe Qualität, was zu zufriedeneren Kunden führt.
🔸Kostenreduktion: Fehlerkosten sinken dramatisch, da weniger Nacharbeit, Ausschuss und Garantieansprüche anfallen.
🔸Wettbewerbsvorteil: Unternehmen, die SIX SIGMA implementieren, können sich durch ihre Zuverlässigkeit und Qualität von der Konkurrenz abheben
Wie erreicht man 3,4 ppm❓
🔸Datengetriebene Entscheidungen: Nutzung statistischer Methoden zur Analyse und Verbesserung von Prozessen.
🔸Kontinuierliche Verbesserung: Ständige Suche nach Möglichkeiten zur Prozessoptimierung.
🔸Mitarbeiterschulung: Qualifizierung der Mitarbeiter in SIX SIGMA-Methoden, z.B. durch Green Belt oder Black Belt Zertifizierungen.
✅ Fazit:
Die Implementierung von SIX SIGMA und das Streben nach 3,4 ppm ist nicht nur eine technische Herausforderung, sondern eine strategische Entscheidung, die nachhaltigen Erfolg und überlegene Qualität sichert.
Gage R&R: Qualitätssicherung auf höchstem Niveau und seine Rolle in SIX SIGMA
Was ist Gage R&R?
Gage Repeatability and Reproducibility (Gage R&R) ist ein wesentlicher Bestandteil der Qualitätssicherung in der Fertigung. Es handelt sich um eine statistische Methode, die darauf abzielt, die Genauigkeit und Zuverlässigkeit von Messsystemen zu bewerten. Mit anderen Worten: Gage R&R hilft uns sicherzustellen, dass unsere Messwerkzeuge und -verfahren präzise und konsistent sind.
Warum ist Gage R&R wichtig?
Gage R&R spielt eine entscheidende Rolle bei der Sicherung der Präzision unserer Messsysteme, was wiederum die Qualität unserer Produkte garantiert. Indem wir potenzielle Fehlerquellen in unseren Messverfahren identifizieren und eliminieren, tragen wir dazu bei, die Gesamtqualität zu erhöhen und die Kundenzufriedenheit zu steigern.
Wie funktioniert Gage R&R?
Der Prozess beginnt mit der Sammlung von Messdaten, die durch wiederholte Messungen der Teile von verschiedenen Prüfern erhoben werden. Diese Daten werden dann analysiert, um die Wiederholbarkeit (Repeatability) und Reproduzierbarkeit (Reproducibility) zu bewerten. Die Ergebnisse dieser Analyse geben uns Aufschluss darüber, ob unser Messsystem zuverlässig und robust ist oder ob Anpassungen erforderlich sind.
Gage R&R und SIX SIGMA
Gage R&R ist ein unverzichtbares Werkzeug im SIX SIGMA-Ansatz, der darauf abzielt, Prozesse zu verbessern und die Produktqualität zu maximieren. SIX SIGMA verwendet eine Vielzahl von Methoden und Werkzeugen, um Prozessvariationen zu reduzieren und Defekte zu minimieren. Eine der zentralen Phasen von SIX SIGMA ist die „Measure“-Phase, in der die Genauigkeit und Zuverlässigkeit der Messsysteme überprüft wird. Hier kommt Gage R&R ins Spiel. Durch die Durchführung von Gage R&R-Studien können Unternehmen sicherstellen, dass ihre Messergebnisse genau und wiederholbar sind, was die Grundlage für zuverlässige Daten und fundierte Entscheidungen bildet. Ohne genaue Messsysteme wäre es unmöglich, die Prozessleistung präzise zu bewerten und Verbesserungen umzusetzen, die den hohen Standards von SIX SIGMA entsprechen.
Wertstromanalyse: Kundenorientierte Wertschöpfung maximieren
Die Wertstromanalyse ist ein zentrales Werkzeug der Lean Methode und hilft Unternehmen, ihre Prozesse effizienter zu gestalten. Doch was genau bedeutet das?
💡 Was ist die Wertstromanalyse?
Die Wertstromanalyse ist eine Methode, um den Fluss von Materialien und Informationen in einem Produktionsprozess zu visualisieren. Ziel ist es, alle Aktivitäten und Abläufe zu identifizieren, die zur Herstellung eines Produkts oder zur Erbringung einer Dienstleistung notwendig sind. Somit gilt es, Prozessketten mit hohem Wertschöpfungsanteil und geringen Durchlaufzeiten zu gestalten.
❓ Wie funktioniert die Wertstromanalyse?
✅ Fokussierung auf eine Produktfamilie: Die Auswahl einer Produktfamilie erfolgt über den Anteil gleicher Prozessschritte. Hierbei sollte zusätzlich die Streubreite der Zykluszeit 25% nicht überschreiten.
✅ Beschreibung des Ist-Zustands: Das Ziel der Ist-Zustandsaufnahme ist das Verstehen der Material- und Informationsflüsse. Zur Quantifizierung werden Zahlen, Daten und Fakten zu den Prozessschritten gesammelt und ausgewertet.
✅ Beschreibung des Soll-Zustands: Das Ziel der Soll-Entwicklung ist es, Prozessketten mit hohem Wertschöpfungsanteil und geringen Durchlaufzeiten zu gestalten.
✅ Umsetzung: Zur Realisierung des Soll-Zustandes werden, je nach Bedarf, weitere Lean Methoden angewandt, um Verschwendungen in den Prozessschritten zu eliminieren. Ziel hierbei ist es möglichst eine Fließfertigung, ausgerichtet an der kundenorientierten Schrittmachertaktzeit, zu erreichen.
❓Warum ist die Wertstromanalyse wichtig?
✅ Transparenz: Sie schafft ein klares Bild über den gesamten Produktions- und Informationsfluss.
✅ Effizienz: Verschwendungen werden reduziert, was zu kürzeren Durchlaufzeiten und geringeren Kosten führt.
✅ Kontinuierliche Verbesserung: Durch regelmäßige Anwendung werden Prozesse stetig optimiert.
Mit der Wertstromanalyse können Unternehmen nicht nur ihre Effizienz steigern, sondern auch die Qualität ihrer Produkte verbessern und schneller auf Kundenbedürfnisse reagieren.
Der Begriff „LEAN SIX SIGMA“ hat sich international und branchenübergreifend etabliert als Synonym für Qualität. Es handelt sich dabei um ZWEI Methoden grundsätzlich unterschiedlicher Ausrichtung, deren Synergie in der Anwendung für perfekte Prozesse sorgt. Während LEAN seinen Fokus auf nicht-wertschöpfende Anteile legt, widmet sich SIX SIGMA der Optimierung der Wertschöpfung.
LEAN: Verschwendung eliminieren
LEAN ist die allgemeine Umschreibung eines (Produktions-)Systems, dessen Grundlage die vollständige Beseitigung von Verschwendung ist. Durch die besonderen Erfolge der Firma Toyota mit diesem Ansatz prägte sich der Begriff des Toyota Produktionssystems | TPS.
SIX SIGMA: Zero Defects
Fehlerfreie Produkte und zufriedene Kunden sind Grundvoraussetzungen unternehmerischen Erfolgs – und gleichzeitig eine hohe Kunst. SIX SIGMA ist dabei ein idealer Wegbegleiter: Weltweit verbreitet und bewährt, gehört der Standard heute in Deutschland zu den Top-Qualitätsmethoden.
Nicht nur in der Anwendung, auch in der Ausbildung zeigen sich Synergien. Wichtig dabei: Zwei Methoden, zwei getrennte Zertifikate, den „LEAN SIX SIGMA“ ist zwar ein Kunstwort, aber normativ (ISO 18404) keine Ausbildung und kein Abschluss.
LEAN ist die allgemeine Umschreibung eines Produktions-/ Managementverfahrens, dessen Grundlage die vollständige Beseitigung der Verschwendung ist. Hier ist die klassische LEAN PRODUCTION mittels acht Charakteristika skizziert:
🟧 Kundenorientierung: Die Prozesse werden vom Kunden her betrachtet, er zieht das Material/ Produkt durch die Prozesskette und gibt den Takt vor.
🟧 Nivellierte Prozesse
Alle Prozesse laufen im gleichen Takt; Engpässe und Überkapazitäten werden angeglichen. Der Kundentakt ist das Maß der Dinge.
🟧 Standardisierung
Ein Standard ist der beste, sicherste und einfachste Weg, etwas zu tun – und damit zentral im LEAN. Er ist Grundlage für nivellierte Prozesse und eine wichtige Voraussetzung für kontinuierliche Verbesserung.
🟧 Pull-Prinzip
Im LEAN stehen der Wertstrom und damit die prozessualen Abläufe im Vordergrund. Dabei werden die Prozesse vom Wertschöpfungsende her, vom Kunden aus betrachtet. Er zieht das Material, bzw. das Produkt sozusagen aus der Prozesskette heraus. Wenn ein Teil herausgezogen wurde, kann ein neues Teil in den Prozess einfließen. Das ist das Pull-Prinzip.
🟧 internationaler Standard
Ursprung des LEAN MANAGEMENT ist das LEAN MANUFACTURING, das in den 1950er Jahren bei Toyota in Japan entstand und als „Toyota Production System“ weltweit Bekanntheit und – basierend auf seinen großen Erfolgen – Anerkennung erlangte. Seither ist LEAN bzw. das TPS ein weltweiter Standard, der sich über (fast) alle Branchen erstreckt.
🟧 Kontinuierliches Teamwork
LEAN ist Aufgabe aller Mitarbeiter – jeden Tag! Management-Attention, Transparenz, eine gelebte Fehlerkultur und offene Kommunikation nebst Anerkennung und Lob sind wichtige Pfeiler der LEAN-Initiative. Spezielle Qualitätszirkel sind feste Einrichtungen, um die Anwendung der Methoden und Vorgehensweisen zu systematisieren. LEAN ist Aufgabe aller Mitarbeiter – jeden Tag.
🟧 Just-in-Time
Der Materialstrom richtet sich dabei nach dem Just-in-Time Prinzip (JIT). Die Steuerung des Materialflusses erfolgt über Kanban. Dadurch wird sichergestellt, dass die richtigen Teile, in der benötigten Menge zum richtigen Zeitpunkt hergestellt werden.
🟧 Verschwendung eliminieren
Verschwendung ist teuer und stört den Prozessfluss! Dabei hat Verschwendung viele Gesichter: Zum einen sind alle Aktivitäten gemeint, die nicht der Erfüllung eines Ziels (des Kundenwunsches) dienen. Ebenso sind zeitliche Aspekte gemeint, die z. B. den Material- und Wertschöpfungsfluss beeinflussen. Asynchrone Abläufe und Zwischenlager sind hier die wohl bekanntesten Verschwendungsarten. Verschwendung wird systematisch und methodisch bekämpft im LEAN.
Einige Kernelemente, Begrifflichkeiten und Assoziationen die Manager und Projektprofis zur DESIGN FOR SIX SIGMA (DFSS) Methode und ihrem Einsatz parat haben:
1- Innovationsmanagement:
DFSS dient der Neuentwicklung von Produkten. Dabei stehen die Kunden- bzw. die Marktanforderungen an erster Stelle, denn nur kunden- und marktorientierte Produkte und Dienstleistungen sind wirtschaftlich erfolgreich.
2 – Datenbasierte Entscheidungen:
DFSS ist keine prosaische Methode; Konklusionen basieren stets auf Messungen, Analysen, Kausalitäten. Das „Quality Function Deployment“ dekliniert die obersten Anforderungen sauber und stringent bis in die produktiven Einstellungen.
3 – Prävention statt Reaktion:
DFSS setzt ganz vorne an und dient dazu, Fehler im späteren Produktdesign oder Herstellungsprozess gar nicht erst entstehen zu lassen und auch nachträgliche, teure Änderungen an Produkt und Prozessen obsolet zu machen. Das ist nicht nur gut für das Image, sondern ein immens großer wirtschaftlicher Vorteil.
4 – Time-to-Market:
Auch wenn DFSS eine aufwändige Herangehensweise ist; Studien haben gezeigt, dass Markteinführungen mit DFSS deutlich schneller und pünktlicher verlaufen. Ein geldwerter Vorteil in vielen Belangen.
5 – DMADV-Projektmanagement:
Für Insider ein bekanntes Synonym für DFSS: Der DMADV-Prozess (Define-Measure-Analyse-Design-Verify) ist der rote Faden eines DFSS Projekts.
6 – Strukturiertes Reporting:
DFSS bietet klare Kennzahlen und Meilensteine. Ein „wasserdichtes“ Reporting gibt Luft und Sicherheit für die inhaltliche Arbeit.
7 – Exponierte Top-Projekte:
Mit DFSS sind Sie an den Zukunftsthemen des Unternehmens; das erzeugt Sichtbarkeit und kann als Karrieresprungbrett genutzt werden.
8- Systematisch-stringentes Arbeiten:
Der Namensteil „SIX SIGMA“ ist auch hier Programm: vieles dreht sich um statistische Analysen. Darüber hinaus sorgt das Quality Function Deployment (QFD) für einen weiteren Logikstrang im Projekt. Das macht DFSS so effektiv und nachhaltig. Und: kaum einer kann und will da „reinreden“.
DESIGN FOR SIX SIGMA ist mehr als nur ein Werkzeug; es ist eine Philosophie, die, wenn richtig umgesetzt, Ihr Unternehmen auf das nächste Level und sicher in die Zukunft bringt.
Reaktive Qualitätsmethoden werden angewendet, wenn Qualitätsprobleme aufgetreten sind und Mängel beseitigt werden müssen. Doch ist der Handlungsbedarf nicht immer gleicher Natur: Für unterschiedliche Aufgabenstellungen sind entsprechende Herangehensweisen und Methoden verfügbar. Zwei international standardisierte Methoden in der Gegenüberstellung:
Spezielle Problemlösung: 8D-METHODE
Tritt durch einen speziellen Umstand ein Problem auf, wird durch die Anwendung systematischer Problemlösungsprozesse eine nachhaltige Lösung generiert. Solche Problemlösungsprozesse sind z. B. der sechsstufige Problemlösungsprozess (PLP) oder der achtstufige 8D-Prozess (8D = Acht Disziplinen). Großen Wert wird dabei auf die Ursachenanalyse gelegt, denn Ziel ist die nachhaltige, dauerhafte Beseitigung des Qualitätsdefizits.
Systematische Prozessoptimierung: SIX SIGMA
Im Gegensatz zu speziellen Einflüssen, können auch die Grundvariation sowie ggf. die Lage von Prozessen zu Fehlerraten führen. Die Bekämpfung dieser systematischen Fehler obliegt der SIX SIGMA Methode. Der DMAIC-Prozess (Define-Measure-Analyse-Improve-Control) ist darauf ausgelegt, Variation in Prozessen zu erkennen und zu bewerten sowie darüber hinaus auch die Prozesslage im Hinblick auf die Kundenvorgaben zu bewerten und ggf. zu rejustieren.
Von großer Wichtigkeit ist im Problemfall also der Auswahl des passenden Methodenwerkzeugs. Hier zahlen sich Methodenwissen und natürlich Erfahrung aus. Denn: Qualitätsmethoden an sich sind frei von Scheitern oder Erfolg. Die Auswahl, Akzeptanz und der Umgang mit der Methode bestimmen den Erfolg!
Lean Manufacturing verlangt die Gestaltung von Prozessen, die in gleichmäßigem Fluss, ohne Umwege und Qualitätsverluste, in kürzester Zeit und zu niedrigsten Kosten die Kundenwünsche erfüllen. Der gleichmäßige Fluss ist Gegenstand der Prozessnivellierung, einem zentralen LEAN-Tool. In ihrem Zentrum steht der Kundenabruf, die gesamte Prozesskette orientiert sich an der Kundentaktzeit. Diese Meta-Größe wird auch „Schrittmachertaktzeit“ genannt.
🟧 Definition
Die Schrittmachertaktzeit ist die gemittelte, periodische Zeiteinheit, mit der es möglich ist, die Kundenanforderungen hinsichtlich der geforderten Menge zu erfüllen. In einer Fließproduktion richten sich alle Prozessschritte nach dieser Taktzeit.
🟧 Berechnung
Die Schrittmachertaktzeit ermittelt sich aus der Betriebszeit (BZ) und dem Kundenabruf (KA) wie folgt: SMTZ = BZ/KA. Sie trägt die Einheit „Zeit / Stück“.
🟧 Achtung: Störungsanfällig!
Treten Störungen im Prozess auf, kann das schnell ein Abweichen von der Schrittmachertaktzeit nach sich ziehen. Das ist unbedingt zu vermeiden. Ebenso wenig ist es aber zulässig, die Schrittmachertaktzeit bereits mit einem gewissen „Fehlerpuffer“ zu beaufschlagen. Die Schrittmachertaktzeit wird unabhängig vom Grad der eigenen Verschwendung berechnet. Vielmehr stellen Diskrepanzen zwischen der Schrittmachertaktzeit und der Realität das Verbesserungspotenzial einer Prozesskette dar.
Soll ein Produktionsprozess mittels KANBAN gesteuert werden, müssen Teile und Materialbereitstellung dazu geeignet sein. Die wichtige Kanban-Voraussetzung ist: 🏴 Möglichst konstante Entnahme bei sicherer Prognose.
Für die Untersuchung der Teile auf ihre Adäquatheit gibt es zwei gängige Analysen, die die Teile wie folgt klassifizieren:
🟧 ABC-Analyse -> Teile nach Wert bzw. die Menge
🟧 XYZ-Analyse -> Teile nach Vorhersagegenauigkeit
A-Teile | Teile mit hohem Wertanteil, aber geringem Mengenanteil
B-Teile | Teile mit mittlerem Wert- und Mengenanteil
C-Teile | Teile mit geringem Wertanteil, aber hohem Mengenanteil
X-Teile | Teile mit hoher Vorhersagegenauigkeit, konstanter Verbrauch
Y-Teile | Teile mit mittlerer Vorhersagegenauigkeit, saisonaler/ zyklischer Verbrauch
Z-Teile | Teile mit geringer Vorhersagegenauigkeit, azyklischer/ unregelmäßiger Verbrauch
🔎 Was eignet sich nun für die KANBAN-Steuerung?
Kanban-geeignet | AX, AY, BX: hoher Wertanteil, geringer Mengenanteil, hohe Vorhersagegenauigkeit (konstanter Verbrauch).
Kanban-ungeeignet | CY-Teile und alle Z-Teile.
☞ Hinweis:
In der Kategorie „C-Teile“ sind häufig auch Standard- oder Normteile enthalten. Das können Schrauben, Muttern, Splinte, Etiketten etc. sein. Es ist genau zu prüfen, ob solche Teile für eine Kanban-Steuerung geeignet sind oder ob diese Art der C-Teile nicht als Schütt- oder Mengengut am Arbeitsplatz bereitgestellt werden sollte. Ggf. sind darüber hinaus weitere (regulatorische) Anforderungen zu beachten. Wie immer gibt es bei LEAN-Systemen kein pauschales „richtig“ oder „falsch“.
Die Produktionssteuerung unterscheidet zwischen zwei gänzlich verschiedenen Konzepten: PUSH und PULL.
🟧 PUSH-SYSTEME sind planorientiert: Die Produktion erfolgt im Hinblick auf eine prognostizierte bzw. erwartete Abnahmemenge. Die Ausbringung wird in aller Regel durch den Materialinput gesteuert. Am Anfang des Prozesses wird durch Bereitstellung von Material die Produktion „in Gang gehalten“. Das Material wird in den Prozess geschoben.
Die „Spezifik“: Durch ungleiche Taktzeiten von Fertigungseinheiten entstehen Zwischenlager und die Notwendigkeit, einzelne Fertigungszellen zusätzlich durch die Produktionsplanung steuern zu müssen. Ein wesentlicher Aspekt ist die Produktion ins Lager. Die Kundenabrufe werden höchstens sekundär berücksichtigt.
🟧 PULL-SYSTEME sind hingegen bedarfs-/ kundenorientiert: Der letzte Prozess in der Wertschöpfung orientiert sich am Abrufverhalten des Kunden. Alle vorgelagerten Prozesse wiederum orientieren sich am letzten Prozess (als internem Kunden). Dieser Schrittmacherprozess „zieht“ die Einheiten aus dem vorgelagerten Prozess, so wie sie (vom Kunden) benötigt werden. Es wird systematisch genau die Menge produziert, die angefordert wird.
🔎 Der charakteristische Unterschied:
PUSH | Informations- und Güterfluss sind gekoppelt und bewegen sich beide mit dem Wertstrom.
PULL | Der Informations- läuft dem Güterfluss entgegen, da die Information vom Kunden gegen den Wertstrom in Richtung Produktionsbeginn fließt.
Das LEAN-Konzept hat – mit Blick auf „schlank“ und verschwendungsfrei – einen unschwer erkennbaren Favoriten: Es setzt auf PULL-Systeme und richtet seinen Wertstrom am realen Kundenbedarf statt an theoretischen Prognosen aus. Kanban-Systeme bilden die operative Basis für eine effektive Steuerung.
💡 Übrigens:
Das Push-und-Pull-Prinzip ist ein übergeordnetes Konzept, das in verschiedensten Bereichen Einsatz findet. Beispielsweise im Marketing: Während beim Push Marketing Produkte oder Dienstleistungen von Anbietern mit großem werblichen Druck in den Markt hineingedrückt werden (vgl. auch „Outbound-Marketing“), geht die Pull Strategie von einem bereits bestehenden Interesse der potenziellen Kundschaft aus (vgl. auch Inbound-Marketing). Die Mischung macht hier oftmals den Erfolg.
Mit der LEAN Master Qualifikation sind Sie in der Lage, die Methode wirtschaftlich im Unternehmen zu platzieren, sie strategisch zu nutzen und zu begleiten sowie Bereiche, Direktionen und Teams damit anzuleiten. Als Projektleiter:in sind Sie mit allen Hilfsmitteln ausgestattet und rundum in Projekten arbeitsfähig. Sie sind der Macher der Initiative!
✅ LEAN Manufacturing | Production | Management
Im LEAN haben sich (international) verschiedene Begrifflichkeiten etabliert: Die Methode selbst wird – aus dem produktiven Umfeld stammend – als „Manufacturing“ betitelt. Es hat sich hier auch die Bezeichnung „LEAN Production“ etabliert. Ebenso gibt es neuerdings auch „Lean Management“ als Überbegriff bzw. auf die nicht-produktiven Bereiche gemünzt. Normativ wird hier allerdings noch nicht unterschieden.
✅ LEAN Master | Expert | Manager
Gleichbedeutend mit dem Begriff LEAN MASTER (Industrie) sind die Begriffe LEAN EXPERT (ISO) und LEAN MANAGER (USA).
🔶 LEAN – die Methode
LEAN ist eine der Standardmethoden in Unternehmensführung und Qualitätsmanagement und global im Einsatz. Dabei ist LEAN die allgemeine Umschreibung einer Philosophie, konkreter eines Konzepts und Verfahrens, dessen Ziel die vollständige Beseitigung von Verschwendung ist – sei es im Produktionsprozess, im Dienstleistungs- oder Verwaltungsumfeld oder in anderen Bereichen. Prozesse und Prozessschritte werden systematisch untersucht, organisiert und aufeinander abgestimmt.
🔸 Blick über den Tellerrand
LEAN kümmert sich um die Eliminierung nicht-wertschöpfender Anteile. Um die Wertschöpfung aber auch im kunden- und betriebsorientierten Teil zu optimieren, bedarf es des „Teamplayers“ von LEAN, der SIX SIGMA Methode. Entsprechende Kombinationen: LEAN + SIX SIGMA Green Belt und LEAN + SIX SIGMA Black Belt
SIX SIGMA: 8 wichtige Charakteristika
SIX SIGMA ist einer der Grundpfeiler in der Welt des Qualitäts- und Prozessmanagements. Einige Kernelemente, Begrifflichkeiten und Assoziationen sollten Manager und Projektprofis dazu parat haben:
1- Qualitätsverbesserung:
Fehlerfreiheit ist das erklärte Ziel der Methode, das sich in den oft zitierten 3,4 ppm widerspiegelt.
2 – Datenbasierte Entscheidungen:
SIX SIGMA ist keine prosaische Methode; Konklusionen basieren stets auf Messungen, Analysen, Kausalitäten.
3 – Internationaler Standard:
Weltweit ist SIX SIGMA ein Synonym für Qualität, das Vorgehen ist weltweit anerkannt und geschätzt. Beste Vorzeichen für die interne und externe Anwendung.
4 – Kostenreduktion:
Fehler reduzieren heißt Kosten minimieren. Die „Kosten schlechter Qualität“ stellen ein enormes Einsparpotenzial in Unternehmen dar – hier greift SIX SIGMA an.
5 – DMAIC-Projektmanagement:
Für Insider ein bekanntes Synonym für SIX SIGMA: Der DMAIC-Prozess (Define-Measure-Analyse-Improve-Control) ist der rote Faden eines jeden SIX SIGMA Projekts.
6 – Strukturiertes Reporting:
SIX SIGMA bietet klare Kennzahlen und Meilensteine. Ein „wasserdichtes“ Reporting nach gibt Luft und Sicherheit für die inhaltliche Arbeit.
7 – Exponierte Top-Projekte:
Mit SIX SIGMA sind sie an den Kernthemen des Unternehmens; das erzeugt Sichtbarkeit und kann als Karrieresprungbrett genutzt werden.
8- Systematisch-logisches Arbeiten:
Der Name ist Programm: vieles dreht sich um statistische Analysen. Das macht SIX SIGMA so effektiv und nachhaltig. Und kaum einer kann und will da „reinreden“.
SIX SIGMA ist mehr als nur ein Werkzeug; es ist eine Philosophie, die, wenn richtig umgesetzt, Ihr Unternehmen auf das nächste Level bringen kann.
📊 Die wichtige Rolle des Streudiagramms in der SIX SIGMA Anwendung!
Ein Streudiagramm (umgangssprachlicher auch als „Punktewolke“ bezeichnet | engl.: Scatter Plot) dient zur Visualisierung der Beziehung zwischen zwei Variablen. Jeder Punkt des Diagramms hat quasi eine „doppelte Bedeutung“, indem er den Wert einer Variablen in Bezug auf eine andere zeigt. 🌟
🏴 Warum Streudiagramme verwenden?
Streudiagramme geben auf einfache Weise Hinweise dazu, ob und auch wie – in welcher Verstärkungsrichtung und Intensität – zwei Faktoren miteinander in Verbindung stehen. Sie weisen auf Extrempunkte (quasi „Ausreißer“) hin und helfen, erste Hypothesen für vertiefte Analysen und weitere Modellierungen zu formulieren.
💡 Das Beispiel im Bild
Die (exemplarische!) Abbildung zeigt für die Faktoren x (Außentemperatur) und y (Eiskonsum) einen Zusammenhang: Wächst die Außentemperatur, wächst auch der Konsum von Speiseeis.
Erkenntnis am Rande – wichtig für weitere Interpretationen: Eine vermeintliche Beziehung (Korrelation) muss nicht immer (direkt) kausal sein!
📈 Die Bedeutung in der SIX SIGMA Anwendung:
In der SIX SIGMA-Welt sind Streudiagramme unentbehrlich. Sie dienen im Rahmen der grafischen Analyse dem ersten Screening von potenziellen Prozessvariablen und deren möglicher Wirkung auf das Prozessergebnis oder eine Problemstellung. Dank der Streudiagramm-basierten Indikationen können gezielt aufwändigere statistische Analysen (z. B. Korrelationen, Regressionen) angegangen werden. Darüber hinaus sind Streudiagramme im Rahmen der statistischen Analysen wiederum wichtige Visualisierungswerkzeuge für die Interpretation der Ergebnisse (z. B. im Rahmen der statischen Versuchsplanung).
✓ Kurz gesagt:
Das Streudiagramm ist ein einfaches, aussagekräftiges Werkzeug. Streudiagramme tragen im SIX SIGMA Projekt dazu bei, kritische (=relevante) Einflussfaktoren zu identifizieren und damit Verbesserungsmaßnahmen einzuleiten bzw. die Qualität von Prozessen und Produkten signifikant zu verbessern. 🚀
Die Optimierung von Prozessen dient in der Regel – direkt oder indirekt – der Maximierung der Wirtschaftlichkeit. Das bedeutet, den Prozess innerhalb des vorgegebenen Prozessfensters, d. h. innerhalb der von intern oder extern vorgegebenen Spezifikationsgrenzen zu situieren. Grundsätzlich können dem zwei verschiedenartige Probleme im Weg stehen: Die Lage (Mittelwert) und die Streuung des Prozesses.
🟧 Schritt 1: Streuung minimieren
Im ersten Ansatz gilt es, den Prozess von übermäßiger Streuung zu befreien. Seine Streubreite soll die Breite des Prozessfensters nicht überschreiten. Die Streuung sollte so gering wie nötig sein, in der Regel aber – auch aus Wirtschaftlichkeitsgründen – so groß wie möglich eingestellt werden. Ein in seiner Streuung beherrschter Prozess ist robust und stabil. Wichtige Voraussetzungen für einen auch langfristig sicheren Betrieb.
🟧 Schritt 2: Lage optimieren
Ist die Streuung eingestellt, kann zusätzlich die Justage der Lage notwendig sein. Geeignete Vorgehensweisen helfen, den Mittelwert des Prozesses (zentriert) in das Kundenfenster zu verschieben.
„Reduce Variance – shift the Mean“ – so lautet die prägnante Zusammenfassung diese Vorgehens, die international quasi zum „Untertitel“ der SIX SIGMA Methode avanciert ist.
Der DMAIC-Prozess (Define, Measure, Analyse, Improve und Control) geht genau diesen Weg, bedient sich dabei u. a. der Statistischen Versuchsplanung, der Toleranzrechnung und der mathematischen Modellierung und hat den quasi fehlerfreien Prozess (3,4 ppm – im Hinblick auf die Spezifikationsvorgaben) zum Ziel.
Das Kano-Modell dient der Priorisierung von Produktanforderungen hinsichtlich ihrer Auswirkung auf die Kundenzufriedenheit.
LOGIK IN VIER QUADRANTEN
Im Mittelpunkt der Vier-Quadranten-Betrachtung stehen die Kundenzufriedenheit (y) und der Erfüllungsgrad der Kundenerwartungen (x) mit jeweils zwei Ausprägungsrichtungen:
– Zufriedenheit: Begeisterung vs. Enttäuschung
– Erfüllungsgrad: Erwartung übertroffen vs. Erwartung nicht erfüllt
DREI FAKTORTYPEN
Die Beurteilung erfolgt durch eine systematische Kundenbefragung. Aus den Korrelationen der Antworten wird die Auswirkung der Produktanforderungen auf die Kundenzufriedenheit hergestellt. Die Zuordnung erfolgt dabei in drei wichtige Kategorien:
✅ Basisfaktoren | MUSS
Anforderungen, die aus Kundensicht erst dann ins Gewicht fallen, wenn sie nicht erfüllt werden, da sie als selbstverständlich vorausgesetzt werden. Bei Nichterfüllung einer Basisanforderung wird Unzufriedenheit generiert. Die Erfüllung einer Basisanforderung hingegen schafft keine zusätzliche Zufriedenheit.
📈 Leistungsfaktoren | NICE-TO-HAVE
Leistungsfaktoren sind eindimensionale Faktoren und steigern oder schmälern die Kundenzufriedenheit direkt durch ihr Vorhandensein, bzw. ihre Ausprägung. Leistungsfaktoren stehen in direkten Wettbewerb mit ähnlichen Funktionen der Wettbewerbsprodukte. Leistungsmerkmale werden vom Kunden bewusst wahrgenommen.
💡 Begeisterungsfaktoren | WOW
Anforderungen, die vom Kunden nicht erwartet werden, jedoch bei Vorhandensein die Kundenzufriedenheit verstärken. Begeisterungsfaktoren stehen sehr häufig in Verbindung mit Alleinstellungsmerkmalen oder Mehrwert gegenüber Wettbewerbsprodukten.
🔄 Die Dynamik zeigt, wie sich Erwartungen im Laufe der Zeit ändern. Was heute begeistert, kann morgen schon Standard sein.
DIE BEDEUTUNG FÜR DIE PROODUKTENTWICKLUNG
Basis-, Begeisterungs- und Leistungsfaktoren sind diejenigen Faktoren, die eindeutig zur Steigerung der Kundenzufriedenheit beitragen. Daraus leitet sich folgendes Vorgehen für die Berücksichtigung der Anforderungen ab:
1. Zuerst alle Basisfaktoren realisieren, diese sind obligatorisch!
2. Danach die Leistungsfaktoren realisieren, sie schaffen Mehrwert gegenüber dem Wettbewerb.
3. Danach die Begeisterungsfaktoren umsetzen, sie schaffen „Unique Selling Points“ (USP).
Ein Fehler ist (noch lange) kein Defekt!
Fehler und Defekt sind zwei Begriffe, die oft synonym verwendet werden. Schaut man als Qualitäts- oder Prozessexperte auf diese Begriffe, sind es aber sehr wohl unterschiedliche Dinge, die miteinander einer Chronologie und Kausalität unterliegen.
FEHLER = Prozessebene, intern
Als Fehler wird (DIN-konform) eine Abweichung von einem vorgeschriebenen (oder erwarteten) Zustand bezeichnet. Ein Fehler passiert auf Prozessebene, egal ob im produktiven oder administrativen Umfeld. Er ist an sich noch nicht schlimm und viele Fehler bleiben ohne Folgen.
🔎 Beispiel: In einem Lötprozess ist die Temperatur des Lots zu gering (unter der Spezifikationsvorgabe).
DEFEKT = Produkt-/ Service-Ebene, kundenrelevant
Aus Fehlern können im Nachgang aber Defekte entstehen. Defekte sind nicht gewünschte Eigenschaften, Fehlfunktionen oder sogar der komplette Funktionsausfall eines Produktes (einer Dienstleistung). Das ist kundenrelevant und kann zu Unzufriedenheit oder gar Reklamation führen; im Worst Case sind Defekte sicherheits- und haftungsrelevant.
🔎 Beispiel: Die geringe Lottemperatur führt zu einer kalten Lötstelle, es entsteht keine stoffschlüssige und es kommt zu Zuverlässigkeitsproblemen in einer elektronischen Baugruppe.
Prävention und Kontrolle
Prozessmanager und Qualitäter kennen diese Themen nur zu gut. Es gilt, Fehler im Prozess zu vermeiden, dennoch auftretende Fehler zeitnah nach Entstehung zu erkennen und das Entstehen eines kundenrelevanten Defekts zu verhindern. LEAN, Poka Yoke, Standardisierung, 5S sind nur einige der Logiken, Methoden und Hilfsmittel, die dabei zum Einsatz kommen.
SIX SIGMA ohne LEAN-Standards – ein kurzes Vergnügen
SIX SIGMA ist die Methode der Wahl zur Optimierung von Prozessen. Doch wenn es um das langfristige Aufrechterhalten der Verbesserung geht, greift man im SIX SIGMA Projekt zwecks Standardisierung von Prozessen und Abläufen auf bewährte LEAN Elemente zurück.
STANDARDS über alle Bereiche
Ein Standard ist der beste, sicherste und einfachste Weg, etwas zu tun. Das Spektrum umfasst dabei alle wesentlichen Faktoren eines Prozesses:
Ⓜ Methoden (z. B. Qualitätsstandards)
Ⓜ Maschinen (z. B. Bedienanweisungen)
Ⓜ Materialien (z. B. Stellplatzvorgaben)
Ⓜ Menschen (z. B. Qualifikationsmatrix)
WICHTIGE ELEMENTE der Standardisierung
✓ Dokumentation | Der Kontrollplan (auch: Produktionslenkungsplan PLP) ist eine prägnante Kurzbeschreibung aller Notwendigkeiten zur Kontrolle eines Prozesses
🔎 Sichtbarkeit | Das Visuelle Management dient mit Markierungen, Kennzeichnungen etc. dazu, Abweichungen vom Standard sofort sichtbar zu machen.
☝ Ordnung und Sauberkeit | Mit der 5S-Methode widmet man sich dem Aussortieren, der Strukturschaffung, der Reinigung, der Sauberkeit und der zugehörigen Selbstdisziplin.
☔ Robustheit | Um Fehler zu vermeiden bzw. zeitnah zu erkennen und zu eliminieren (bevor sie zu kundenrelevanten Defekten werden), ist Poka Yoke (Error Proofing) das Tool der Wahl.
VORTEIL
Wird Standardisierung systematisch betrieben, fallen Abweichungen schnell auf, können neue Mitarbeiter schnell eingelernt, Betriebsmittel effektiv genutzt und die Qualität messbar gesteigert werden. Darüber hinaus sind Standards eine wichtige Voraussetzung für kontinuierliche Verbesserung.
5S ist ein einfaches Hilfsmittel, um Struktur, Ordnung und Sauberkeit zu fördern – besser gesagt: um (teure und nervige) Verschwendung zu eliminieren. Das Vorgehen, das vom Einsatz der Mitarbeitenden lebt, zielt darauf ab, eine prozessoptimale Umgebung zu schaffen, in der die Arbeitsabläufe reibungslos und effektiv funktionieren.
Die Bedeutung der 5S:
🔸 Seiri | Aussortieren:
Es geht darum, den Arbeitsplatz zu organisieren, indem unnötige Gegenstände entfernt werden. Nur das Notwendige bleibt.
🔸 Seiton | Struktur und Ordnung schaffen:
Alles, was benötigt wird, wird an einem festen Platz angeordnet. Dies erleichtert den Zugang und die Nutzung der Gegenstände.
🔸 Seiso | Reinigen:
Der Arbeitsplatz wird gründlich gereinigt. Sauberkeit trägt zur Effizienz und Sicherheit bei.
🔸 Seiketsu | Sauberkeit bewahren:
Es werden Standards für Ordnung und Sauberkeit festgelegt, um sicherzustellen, dass diese Praktiken beibehalten werden.
🔸 Shitsuke | Selbstdisziplin üben:
Dieser Schritt beinhaltet die Schaffung einer Kultur, in der alle Teammitglieder die vorherigen Schritte konsequent einhalten und selbstverantwortlich sind.
Praktische Beispiele:
1- Fertigungsindustrie:
In einem führenden Fertigungsunternehmen wurde 5S erfolgreich eingeführt, um Arbeitsplätze zu organisieren und Materialien leicht zugänglich zu machen. Das Ergebnis: Kürzere Produktionszeiten und eine deutliche Reduzierung des Ausschusses.
2- Gesundheitswesen:
Ein renommiertes Krankenhaus setzt 5S in seinen Pflegestationen um. Die Methode optimiert die Arbeitsabläufe, ermöglicht schnelleren Zugriff auf lebenswichtige Materialien und verbessert die Patientenversorgung.
3- Büroumgebung:
Ein großes IT-Unternehmen implementiert 5S in seinen Büros, um Schreibtische und Dokumente zu organisieren. Das Ergebnis: Eine übersichtlichere Arbeitsumgebung, die die Produktivität der Mitarbeiter steigert.
📈 Zusammenfassung:
Die 5S-Methode bewährt sich als wertvolles Instrument zur Effizienzsteigerung und Prozessoptimierung. Durch ihre Anwendung ermöglicht sie klare, organisierte Arbeitsumgebungen, die zu kürzeren Durchlaufzeiten, verbesserten Arbeitsabläufen und letztendlich zu einer gesteigerten Leistungsfähigkeit führen. Überlegen Sie, wie 5S Ihrem Unternehmen helfen kann, nachhaltig erfolgreicher zu werden!
Die Kraft des Ursache-Wirkungs-Diagramms in der Problemlösung
Das Ursache-Wirkungs-Diagramm, auch als Fischgrätendiagramm oder Ishikawa-Diagramm bekannt, ist ein visuelles Tool, das dazu dient, die Ursachen eines bestimmten Problems oder einer bestimmten Situation zu identifizieren. Es wurde von Kaoru Ishikawa entwickelt und ist besonders nützlich im Rahmen von Qualitätsmanagement und Prozessverbesserung, wie es beispielsweise bei LEAN und SIX SIGMA angewendet wird. Hier ist eine kurze Erklärung, wie das Ursache-Wirkungs-Diagramm funktioniert:
1. Festlegung des Problems:
Beginnen Sie mit der klaren Definition des Problems, das Sie untersuchen möchten. Dies dient als der „Fischkopf“ des Diagramms.
2. Hauptkategorien identifizieren:
Zeichnen Sie eine horizontale Linie, die den „Fischkörper“ darstellt, und identifizieren Sie Hauptkategorien von potenziellen Ursachen. Diese Kategorien können je nach Kontext variieren, könnten jedoch Dinge wie Personal, Prozesse, Ausrüstung, Material und Umwelt umfassen.
3. Unterkategorien hinzufügen:
Von jeder Hauptkategorie aus erstrecken sich Linien (die „Gräten“) nach außen. Auf diesen Linien werden Unterkategorien oder spezifische Faktoren aufgeführt, die möglicherweise das Problem beeinflussen könnten. Diese Unterkategorien sind die potenziellen Ursachen des Problems.
4. Ursachen identifizieren:
Beginnen Sie, die Ursachen jeder Unterkategorie zu identifizieren. Dies kann durch Brainstorming und Analyse erfolgen. Die Idee ist, so viele potenzielle Ursachen wie möglich zu erfassen.
5. Zusammenhänge verstehen:
Verwenden Sie das Diagramm, um die Zusammenhänge zwischen verschiedenen Ursachen und dem Hauptproblem zu visualisieren. Dies ermöglicht es Teams, gemeinsam Ursachen zu diskutieren und zu verstehen.
6. Priorisierung:
Nachdem alle potenziellen Ursachen identifiziert sind, können Teams die wichtigsten und einflussreichsten Ursachen priorisieren. Dies erleichtert die gezielte Umsetzung von Maßnahmen zur Problemlösung.
7. Maßnahmen ableiten:
Basierend auf der Priorisierung können nun konkrete Maßnahmen abgeleitet werden, um die identifizierten Ursachen anzugehen. Dies führt zu einer gezielten und effektiven Problemlösung.
Das Ursache-Wirkungs-Diagramm fördert die teambasierte Ursachenanalyse und ermöglicht es, Probleme systematisch zu identifizieren und zu beheben. Es ist ein leistungsfähiges Werkzeug, um komplexe Zusammenhänge zu verstehen und verbesserte Lösungen zu entwickeln.
Optimierung von Marketing-Exzellenz mit SIX SIGMA! 🚀
SIX SIGMA kann auch im Marketingbereich angewendet werden, um Prozesse zu optimieren, die Effizienz zu steigern und die Qualität von Marketingkampagnen zu verbessern. Verlaufsdiagramme spielen eine Schlüsselrolle bei der Visualisierung von Trends und der Identifizierung von Verbesserungspotenzialen. Hier sind drei Beispiele, die die praktische Anwendung von SIX SIGMA und Verlaufsdiagrammen im Marketing zeigen:
1- Verbesserung der Kampagneneffektivität:
🔸Problem: Ein Unternehmen stellt fest, dass die Ergebnisse seiner Marketingkampagnen schwanken und der ROI (Return on Investment) nicht konsistent ist.
🔸Lösung mit SIX SIGMA und Verlaufsdiagramm: Das Marketingteam verwendet SIX SIGMA, um den gesamten Kampagnenprozess zu analysieren. Verlaufsdiagramme helfen dabei, Schwankungen in den Ergebnissen über verschiedene Kampagnen hinweg zu visualisieren. Durch die Identifizierung von Schlüsselfaktoren, die die Effektivität beeinflussen, können gezielte Maßnahmen ergriffen werden, um konsistente und verbesserte Ergebnisse zu erzielen.
2- Optimierung des Lead-Generierungsprozesses:
🔸Problem: Ein Unternehmen erfährt Schwierigkeiten bei der Umwandlung von Leads in Kunden und möchte den Lead-Generierungsprozess verbessern.
🔸Lösung mit SIX SIGMA und Verlaufsdiagramm: Das Marketingteam analysiert den Lead-Generierungsprozess mithilfe von SIX SIGMA-Methoden und erstellt Verlaufsdiagramme, um den Fluss der Leads durch den gesamten Prozess zu verstehen. Durch die Identifizierung von Engpässen, Zeitverzögerungen oder ineffizienten Schritten können sie den Prozess optimieren und die Conversion-Rate verbessern.
3- Reduzierung von Kundenbeschwerden in sozialen Medien:
🔸Problem: Ein Unternehmen erhält vermehrt negative Rückmeldungen und Beschwerden in sozialen Medien, was das Markenimage beeinträchtigt.
🔸Lösung mit SIX SIGMA und Verlaufsdiagramm: Das Marketingteam nutzt SIX SIGMA, um Daten über Kundenbeschwerden in sozialen Medien zu sammeln und Verlaufsdiagramme zu erstellen. Die Analyse von Trends und Mustern können sie in der Identifizierung von Gründen für Beschwerden unterstützen. Anschließend können gezielte Maßnahmen ergriffen werden, um diese Probleme zu lösen und die Kundenzufriedenheit zu verbessern.
Diese Beispiele zeigen, wie SIX SIGMA im Marketing eingesetzt werden kann, um Prozesse zu optimieren, die Qualität zu steigern und letztendlich die Effizienz von Marketingaktivitäten zu verbessern. Verlaufsdiagramme sind dabei ein wichtiges Werkzeug, um den Verlauf von Prozessen über die Zeit hinweg zu verstehen und gezielte Verbesserungen vorzunehmen.
Alles im Griff mit dem Eisenhower-Prinzip: Priorisieren für den Erfolg! 🚀
Die ständig wachsende Flut von Aufgaben kann überwältigend sein! Das Eisenhower-Prinzip bietet dabei einen klaren Weg zur Priorisierung. Basierend auf der einfachen Unterscheidung zwischen „wichtig“ und „dringend“ ermöglicht es eine effektive Matrix-Organisation.
Das von Dwight D. Eisenhower inspirierte Prinzip klassifiziert Aufgaben in vier Quadranten, abhängig von ihrer Wichtigkeit und Dringlichkeit. Diese klare Struktur bildet die Grundlage für effizientes Zeitmanagement.
Erstmal muss DRINGENDES „vom Hof“:
➊ Priorität 1a: Sofortige Erledigung von wichtig und dringend.
➋ Delegieren an andere: Übertragung von dringenden, aber unwichtigen Aufgaben.
Dann in Ruhe konzentrieren auf das WICHTIGE:
➌ Terminierung für später: Planung von wichtigen, aber nicht dringenden Aufgaben.
➍ Nicht bearbeiten: Aufgaben ohne Wichtigkeit und Dringlichkeit können vorerst ignoriert werden.
Langfristig zielt das Prinzip darauf ab, durch systematisches Aufgabenmanagement die Anzahl dringender Aufgaben zu minimieren. Dies schafft Raum für die Konzentration auf langfristig wichtige, aber nicht dringende strategische Themen.
Die Umsetzung erfordert stets richtige Bewertung und Disziplin. Aufgrund der Dynamik im Arbeitsumfeld sollten Ziele und Rahmenbedingungen stets im Blick behalten werden. Die regelmäßige Anpassung an Veränderungen gewährleistet eine effektive Umsetzung.
🟧 FAZIT – Einfacher Ansatz, überzeugende Ergebnisse:
Das Eisenhower-Prinzip ist einfach und leicht umsetzbar. Die Anwendung führt zu zeitnahen Erfolgen, gesteigerter Entscheidungsqualität und erhöhter Effektivität. Vielleicht auch etwas für Sie? Einen Versuch ist es wert! 🚀
Six Sigma DMAIC ist der methodische Ansatz zur Optimierung bestehender Prozesse mit dem Ziel, die Variation eines Prozesses zu reduzieren. DMAIC steht für Define, Measure, Analyse, Improve und Control.
Die DMAIC Methode ist sowohl für Produktionsprozesse (operationale Prozesse), als auch für transaktionelle Prozesse (Entwicklung, Administration, Marketing etc.) geeignet. Der Unterschied liegt in der Wiederholrate: Operationale Prozesse sind durch hohe Wiederholraten gekennzeichnet, transaktionelle Prozesse durch geringe Wiederholraten und längere Durchlaufzeiten. Für Produktionsprozesse stehen darüber hinaus häufig (viele) historische Daten zur Prozessbewertung zur Verfügung. Die DMAIC Methode trägt dem Rechnung, indem bei der Optimierung dieser Prozesse mehr statistische Hilfsmittel zur Anwendung kommen (zumeist Black Belt Niveau).
Im Projektgeschehen geht es um Effizienz und gute Entscheidungen:. Um dabei fundiert das Wichtige vom Unwichtigen zu trennen, ist das Pareto-Prinzip ein wichtiger Helfer.
Folgt man der auf Studien begründeten Argumentation von Vilfredo Pareto (1848-1923), sind es gewöhnlich 20 Prozent der Einflussgrößen (Aufwand), welche 80 Prozent des Erfolgs (Nutzen) ausmachen. Eine Erkenntnis, die seither als „Pareto-Prinzip“ anerkannt und als „80-20-Regel“ geläufig ist.
Auch SIX SIGMA bedient sich für die Prozessoptimierung des Pareto-Prinzips. Bereits in der Projektdefinitionsphase („Define Phase“) kommt es filternd und lenkend zum Einsatz. Hier wird das Hauptproblem identifiziert. Das ist wichtig, um eine Vermengung von mehreren Problemen zu vermeiden, denn dies könnte die spätere Ursachenanalyse unscharf und unnötig aufwändig werden lassen.
Selbstverständlich reduziert sich die Anwendung des Pareto-Diagramms nicht alleine auf ein SIX SIGMA Projekt. In vielen anderen Problemlösungsmethoden ist das Pareto-Diagramm ein wichtiger Bestandteil. Ebenso ist Pareto beispielsweise wichtiger Helfer im Beschaffungsmanagement. Vor allem aber sind Paretos Lehren im volkswirtschaftlichen Kontext international verbreitet.
Quality Function Deployment – kurz: QFD – ist eine Methode, die die durchgängige Übersetzung der Kundenanforderungen in Qualitätsmerkmale, Spezifikationen und Prozessvorgaben ermöglicht. Vereinfacht ausgedrückt handelt es sich um die Übersetzung der „Stimme des Kunden“ in die „Stimme des Entwicklers“ und die „Stimme der Produktion“.
QFD bietet mit dieser Logik eine stringente Vorgehensweise für einen durchgängigen und transparenten Entwicklungsprozess. Die Reduktion der Entwicklungszeit (Time to Market), das Verhindern „später“ (=teurer) Fehler und das Hervorbringen markt- und kundenorientierter Produkte sind wichtige Voraussetzungen für Wirtschaftlichkeit, Produkterfolg und Unternehmensimage.
International anerkannt und bewährt bedarf es im Unternehmen strategisch und operativ der Anwendungsakzeptanz, einer gewissen Schulung der Beteiligten und einer guten Moderation. Heute ist QFD unter anderem zentraler Bestanteil des DESIGN FOR SIX SIGMA Vorgehens.
Wird die Qualität eines Prozesses ausschließlich in der Endkontrolle gemessen, kann das Ergebnis trügen! Denn die hier ermittelte „Erfolgsrate“ lässt interne Verluste – wie z. B. Nacharbeit – unberücksichtigt. Der Rolled Throughput Yield berücksichtigt diese sog. „versteckte Fabrik“ und rechnet anders:
Es werden die Erträge der einzelnen Schritte erfasst. Allerdings wird als Eingangsgröße für den nachfolgenden Schritt lediglich der Ertrag des vorangegangenen Schrittes genutzt.
Daraus ergibt sich der Gesamtertrag basierend auf den Teilen, die in allen Prozessschritten beim ersten Mal fehlerfrei erzeugt wurden.
Wozu das Ganze?
Unternehmen weisen Verbesserungspotenzial, welches die versteckte Fabrik birgt, im zweistelligen Prozentbereich (bezogen auf die Prozesskosten) aus. Ein lohnenswerter Ansatz also, zumal Methoden wie LEAN oder auch SIX SIGMA geeignet sind, hier systematisch anzusetzen.
Wird die Qualität eines Prozesses ausschließlich in der Endkontrolle gemessen, kann das Ergebnis trügen! Denn die hier ermittelte „Erfolgsrate“ lässt interne Verluste – wie z. B. Nacharbeit – unberücksichtigt. Der Rolled Throughput Yield berücksichtigt diese sog. „versteckte Fabrik“ und rechnet anders:
Es werden die Erträge der einzelnen Schritte erfasst. Allerdings wird als Eingangsgröße für den nachfolgenden Schritt lediglich der Ertrag des vorangegangenen Schrittes genutzt.
Daraus ergibt sich der Gesamtertrag basierend auf den Teilen, die in allen Prozessschritten beim ersten Mal fehlerfrei erzeugt wurden.
Wozu das Ganze?
Unternehmen weisen Verbesserungspotenzial, welches die versteckte Fabrik birgt, im zweistelligen Prozentbereich (bezogen auf die Prozesskosten) aus. Ein lohnenswerter Ansatz also, zumal Methoden wie LEAN oder auch SIX SIGMA geeignet sind, hier systematisch anzusetzen.
Brainstorming ist die wohl bekannteste und meistgenutzte Kreativitätstechnik. Sie dient primär der Sammlung von Ideen – beispielsweise um ein neues Produkt zu entwickeln oder ein Problem zu lösen. Für den Erfolg sind das Durchwandern zweier Phasen und die Beachtung dreier Regeln bedeutsam.
➡ Zwei Phasen
Ein Kreativprozess vollzieht sich in zwei Phasen.
🔸 Phase 1:
Sie fördert bestehendes Wissen zu Tage („Download von Erfahrungsschatz“).
🔸 Pause:
Nach einer natürlichen Pause, die es moderiert zu überbrücken gilt, folgt Phase 2.
🔸 Phase 2:
Sie ermöglicht frei-kreatives Denken und neue Ideen, außerhalb der gewohnten Denkrahmen.
➡ Drei Regeln
Kreativität braucht unbedingt ein paar Regeln:
🔸 1 | Stets mit Moderation! Ein erfahrener Moderator lenkt Teilnehmer und Kreativprozess in erfolgreiche Bahnen.
🔸 2 | Keine Kritik! Jegliche Kritik und Bewertung ist untersagt, jeder darf seine Vorschläge unzensiert einbringen.
🔸 3 | Quantität geht vor Qualität! Wilde Andersartigkeit ist erwünscht – ab an die Wand mit den Ideen! Denkrahmen sprengen!
Material-Überbestände machen Prozesse träge, führen zu Fehlern und erzeugen hohe Kosten. Kanban ist die Methode, welche durch einfachste Prinzipien diese hohen Materialumlaufbestände reduziert.
Es wird genau analysiert, welcher Bestand notwendig ist. Dabei wird der sogenannte Sicherheitsbestand mit eingerechnet. Im nächsten Schritt wird festgelegt, wie viele Einheiten Material pro Zeiteinheit benötigt werden. Dabei orientiert man sich häufig an den kleinsten Transportkästen im Prozess. Nun ist geregelt, in welchen Abständen neues Material in den Prozess einfließen darf.
Was noch fehlt, ist eine Anpassung an Prozessschwankungen – und da kommt der Kanban als Signal ins Spiel. Erst wenn einem Kanban-Transportbehälter Material bis zu einem definierten Stand entnommen wurde, darf ein Kanban die Bereitstellung des nächsten Behälters auslösen. Das Prinzip kann auch auf die Anzahl der produzierten bzw. weiterverarbeiteten Artikel angewendet werden.
Damit ist der Materialfluss vollständig vom kundenseitigen Prozessende gesteuert. Das Pull-Prinzip, Materialfluss gesteuert durch Kundenabrufe, in Vollendung.
💡 Merke:
📌 Kanban ist eine hervorragende Methode, um Materialbestände zu reduzieren.
📌 Der Materialfluss wird vom Kunden her gesteuert (Pull-Prinzip).
📌 Wenige wichtige Regeln und Abläufe sind zu beachten.
📌 Verschwendung im Sinne von Überproduktion wird vermieden.
📌 Kanban ist ein mächtiges Hilfsmittel in Produktion, Logistik, Administration.
📌 Kanban ist die Grundlogik des agilen Projektmanagements zur Steuerung von Arbeitspaketen.
SIX SIGMA setzt in Sachen Prozessoptimierung auf funktionale, kausale Wirkweisen in Produkten bzw. Prozessen. y=f(x) beschreibt den logischen Zusammenhang zwischen Erfolgsfaktoren (y) und – üblicherweise mehreren – Einflussfaktoren (x1 … xn). Sprich: Das Ergebnis y ist eine Funktion der Stellgrößen x1, x2, bis xn.
Wenn das Ergebnis zum Beispiel zu starke Variation aufweist, muss es entsprechende Einflussfaktoren geben, die für diese Variation verantwortlich sind. SIX SIGMA identifiziert genau diese Einflussfaktoren, modelliert den zugrundeliegenden Wirkzusammenhang und ermöglicht eine neue, verbesserte Einstellung der x-Faktoren, um das gewünschte y-Ergebnis erzielen zu können. Weiterhin gilt es das Ergebnis zu stabilisieren und reproduzierbar zu machen, denn nur stabile Einflussfaktoren sorgen auch für ein stabiles Ergebnis.
SIX SIGMA bedient sich zahlreicher Standardtools, so auch der „SMART-Formel“. Sie dient der klaren Definition der Projektziele und hat damit einen deutlichen Einfluss auf den Projekterfolg:
S | specific | spezifisch, präzise
M | measureable | messbar
A | attractive | attraktiv für Team, Unternehmen
R | reachable | realistisch, erreichbar
T | time-related | terminiert, zeitbezogen
Die SMART-Ziele finden Ihren Niederschlag im Projektvertrag sowie im Projektplan und ziehen sich damit als übergeordnete Anforderung durch das gesamte SIX SIGMA Projekt. Das gilt sowohl für den reaktiven DMAIC-Prozess als auch für den DMADV-Prozess des strategisch-entwickelnden DESIGN FOR SIX SIGMA Vorgehens.
Insbesondere die Messbarkeit und Erreichbarkeit sind im SIX SIGMA von zentraler Bedeutung, vielmehr ist sie gar eine methodeninhärente Eigenschaft. Aber auch die Präzisierung ist wesentlich, denn ein Projekt kann sich stets nur auf einen Hauptpfad konzentrieren (Pareto-Gedanke). Schlussendlich unterliegen auch SIX SIGMA Projekte mit ihrem DMAIC/DMADV-Projektmanagement einer straffen zeitlichen Planung und leben von einem motivierten Team das unbeirrbar auf die Projekt- und Unternehmensziele ausgerichtet ist.
Für die Beschreibung des Ausgangszustands bzw. der zu verbessernden Situation bedient sich SIX SIGMA der gängigen Kennzahlen zur Beschreibung der Prozessleistung. Häufig genutzte Kennzahlen sind:
🔸PPM | Parts per Million | Anteil fehlerhafter Einheiten pro Million produzierter Einheiten
🔸DPU | Defects per Unit | Fehler pro Einheiten
🔸DPMO | Defects per Million Opportunities | Anzahle Fehler pro Million produzierter Einheiten
🔸FTY | First Time Yield | Erstausbeute (fehlerfreier Geradeauslauf, ohne Nacharbeit)
🔸RTY | Rolled Throughput Yield | gestufter Durchsatzertrag (FTY über mehrere Prozessschritte)
🔸SN | Sigma-Niveau | Prozessgüte (statistische Kennzahl auf Basis der Normalverteilung, Z-Tabelle)
Im nach der Bestandsaufnahme anschließenden SIX SIGMA Projekt wird vorrangig mit dem SIGMA-NIVEA gearbeitet. Es hat den großen Vorteil, dass es für alle Arten von Prozessen und Daten verwendet werden kann und somit als Universalgröße einsetzbar ist.
Der Erfolg von SIX SIGMA fußt nicht zuletzt auf soliden Hilfsmitteln und Tools des Qualitäts- und Prozessmanagements. Im DMAIC-Kontext sind diese Komponenten fester Bestandteil des stringenten Vorgehens. Aber sie können auch losgelöst daraus in Qualitäts- und Entwicklungsprojekten zur Anwendung kommen. Zu unterscheiden ist insbesondere zwischen teamorientierten und statistischen Vorgehensweisen.
Teamorientierte Tools: Sie machen das Expertenwissen von Einzelnen und der übergeordneten „Teamintelligenz“ nutzbar. Beispiele sind: Ist/IstNicht-Analyse, CTS-Tree, Brainstorming, Ishikawa / Fischgräte, Prio-Matrizen, Projektmanagement, Changemanagement
Statistische Tools: Sie basieren auf mathematischen Regeln und machen Zusammenhänge in Daten sichtbar. Beispiele sind: Regelkarten, Prozessfähigkeit, Korrelation, Regression, Hypothesentests, Varianzanalyse, Stat. Versuchsplanung, Toleranzrechnung
Übrigens: Auch einige Bestandteile von LEAN sind im SIX SIGMA genutzt, doch ist LEAN in Gänze eine eigenständige Methode mit eigenem Toolset.
Hin und wieder steht die Frage im Raum, ob die SIX SIGMA Methode noch in die Zeit passe. „Nicht kompatibel zu Industrie 4.0“ wird vorschnell behauptet. Aber wer SIX SIGMA und die Welt der Prozesse kennt weiß um die Stärken der Methode – gerade im Rahmen der aktuellen Industriellen Revolution.
🔎 Daten, Daten, Daten …
In Zeiten des (Industrial) Internet-of-Things treten große Datenmengen und deren Handling auf den Plan. Data Mining und statistische Methoden sind die Mittel der Wahl, um Sachverhalte zu verstehen, um Muster zu erkennen, um Rauschen zu filtern und um zielgerichtete Optimierungen in immer komplexeren Prozessen und Netzwerken vornehmen zu können.
🏁 SIX SIGMA fühlt sich wie zuhause!
Vor diesem Hintergrund von Datenverfügbarkeit und Komplexität ist es zu sehen, dass SIX SIGMA und seine Black Belt Experten:innen umso mehr gefragt und gebraucht sind. Sie sorgen mit ihrem systematischen Vorgehen für Fehlerfreiheit und – existenziell wichtige – Wirtschaftlichkeit und so erlebt die 1987 entwickelte Methode nach 35 Jahren einmal mehr einen Aufschwung.
Die Beschreibung der Zuverlässigkeit technischer Komponenten (Systeme) basiert auf der Ausfallrate. Wird die Ausfallrate über der Zeit t dargestellt, ergibt sich eine charakteristische Kurve: die „Badewannenkurve“. Sie offenbart drei Phasen eines Produktlebens mit den typischen Ausfallraten:
🔶 Phase 1: Frühausfälle
Es sind Ausfälle, welche bei der Inbetriebnahme / Erstnutzung auftreten. Sie werden durch Fehler verursacht, die zum Zeitpunkt der Inbetriebnahme bereits im Produkt vorhanden sind. Die Tendenz der Frühausfälle ist über die Zeit abnehmend.
🔶 Phase 2: Zufallsausfälle
Zufallsausfälle sind während der Betriebszeit auftretende, zufällige Fehler. Die erwartete Fehlerhäufigkeit der Zufallsausfälle ist nahezu konstant.
🔶 Phase 3: Verschleiß- und Ermüdungsausfälle
Diese Ausfälle betreffen Produkte die altern. Alterung beutet u. a. Verschleiß, Ermüdung oder Zersetzung bzw. strukturelle Veränderungen von Materialien. Alterungsbedingte Ausfälle nehmen mit der Zeit zu, der Anstieg der Fehlerrate ist signifikant.
Im Rahmen der Produktentwicklung wird dieses Wissen verwendet, um die Lebensdauer eines Geräts / Produkts wirtschaftlich zu dimensionieren (Minimierung der Garantie- und Kulanzkosten für den Hersteller).
Fehlerkosten stellen einen zumeist großen Kostenblock in Unternehmen dar. Sie schmälern den Unternehmensgewinn und können zudem von Imageverlust begleitet werden.
Empirische Studien weltweit haben gezeigt, dass Fehler zumeist in den frühen Produktentstehungsphasen (Konzeption, Entwicklung) entstehen. Entdeckt werden sie dann jedoch erst in den späten Phasen – oder beim Kunden:innen. Die Fehlerbehebung ist dann sehr schwierig bzw. äußerst teuer.
Somit ist es erstrebenswert, Fehler zeitnah zu entdecken oder – besser: Fehler gar nicht erst entstehen zu lassen, insbesondere nicht in den frühen Entstehungsphasen. Je früher im Produktentstehungsprozess Methoden zur Fehlervermeidung eingesetzt werden, desto geringer sind die zu erwartenden Änderungskosten. DESIGN FOR SIX SIGMA sei hier als mächtiges Methodenbeispiel entlang der gesamten Wertschöpfungskette genannt.
💡 MERKE:
Die Zehnerregel der Fehlerkosten („Rule Of Ten“) besagt, dass sich die Fehlerkosten für einen nicht entdeckten Fehler von Phase zu Phase entlang der Wertschöpfung um den Faktor 10 erhöhen.
🎯 ZIELE:
✔ Prio 2 | Fehlerbehebung: Fehler zeitnah nach ihrer Entstehung entdecken und ursächlich beseitigen.
✔ Prio1 | Fehlerprävention: Fehler mittels geeigneter Methoden systematisch nicht entstehen lassen.
Die Begriffe „effektiv“ und „effizient“ liegen sprachlich nah beieinander (und werden hin und wieder in der Anwendung verwechselt), meinen aber sehr Unterschiedliches:
🟧 EFFEKTIVITÄT: Die richtigen Dinge tun.
🟧 EFFIZIENZ: Die Dinge richtig tun.
Im LEAN und SIX SIGMA sind sie von großer Bedeutung, dient das kombiniert-methodische Vorgehen doch der Justage von Prozessen und deren absoluter Ausrichtung auf die Kundenwünsche und Marktnotwendigkeiten (Effektivität) und ebenso der Eliminierung von Verschwendung (Effizienz).
Um den Ursachen eines Problems auf die Spur zu kommen, bedarf es eines genauen Verständnisses des Problems. Verschiedene Hilfsmittel sind diesbezüglich dienlich, unter anderem die IST / IST-NICHT Analyse.
🟧 HERANGEHENSWEISE
Anhand der IST / IST NICHT Analyse erfolgt die Beschreibung des Problems durch genau das, was das Problem ausmacht und durch diejenigen Bereiche und zeitlichen Aspekte, die das Problem eben nicht aufweisen.
🟧 GRUNDIDEE
Es wird versucht, das Problem in seiner räumlichen und auch zeitlichen Ausprägung abgrenzend zu beschreiben. Auch weitere Kategorien sind denkbar.
■ IST: Wo/ wann tritt das Problem auf?
■ IST-NICHT: Wo/ wann tritt das Problem nicht auf?
🟧 FRAGESTELLUNGEN
Für eine strukturierte Herangehensweise sind Fragen hilfreich: Wo genau tritt das Problem auf? An welchem Produkt, an welcher Baugruppe? Gibt es ähnliche Produkte, die das Problem nicht haben? Möglicherweise sind zu diesem Zeitpunkt schon Unterschiede zu erkennen, die eine Eingrenzung des Problems auf bestimmte Prozesse, z. B. verschiedene Produktionsstandorte oder Produktlinien, möglich machen.
Beispiele: Das Problem tritt an blauen, nicht an roten Fahrzeugen auf. Das Problem tritt bei Rechtslenkern, nicht bei Linkslenkern auf. Das Problem tritt im europäischen, nicht im asiatischen Markt auf.
🟧 DARSTELLUNG
Die Darstellung erfolgt üblicherweise in einer Matrix aus Zeilen (FRAGEN RÄUMLICH | FRAGEN ZEITLICH) und Spalten ( IST | IST-NICHT | ggf. BEMERKUNGEN).
🟧 EINSATZ IM WEITEREN KONTEXT
Die präzise Beschreibung des zeitlichen/ räumlichen (Nicht-)Vorkommens eines Problems liefert wichtige Informationen für die Ursachenanalyse und Projekteingrenzung – zum Beispiel im SIX SIGMA- oder im 8D-Projekt.
Der Name SIX SIGMA beschreibt das Ziel der Methode: nahezu fehlerfreie Abläufe und Produkte. Das sog. „Sigma-Niveau“ eines Prozesses beschreibt die Prozessgüte: Je größer der Sigma-Wert, desto höher die Prozessgüte. Sechs Sigma umschreibt eine Fehlerwahrscheinlichkeit von 3,4 ppm. Ein zumeist wünschenswertes Ziel, das in seiner Betrachtung zwei Komponenten haben kann: Reaktion und Prävention – SIX SIGMA und DESIGN FOR SIX SIGMA.
🟠 SIX SIGMA | Reaktiv | Bestehendes optimieren
Six Sigma ist der methodische Ansatz zur Optimierung bestehender Prozesse bzw. Produkte. Ziel ist insb. die Reduktion der Prozessvariation, denn diese manifestiert sich zumeist in Fehlern, Kosten, Unzufriedenheit. Die gemäß ISO 13053 definierte Methode kommt sowohl für operationale Prozesse (hohe Stückzahlen, z. B. in der Serienproduktion, Logistik) als auch für transaktionelle Prozesse (geringe Wiederholungsraten, z. B. in Administration, Marketing) zum Einsatz. Seit vielen Jahr(zehnt)en stellt sie einen internationalen Standard dar, der die Prozesskosten signifikant und nachhaltig zu reduzieren vermag.
🟠 DFSS | Präventiv | Neues entwickeln
DESIGN FOR SIX SIGMA setzt deutlich früher / vorne in der Wertschöpfungskette an. Das Vorgehen dient dazu, ein Produkt bzw. einen Prozess von der Marktanalyse über die Konzeption und Entwicklung bis zum Serienanlauf so zu gestalten, dass von Anfang an Markt-/ Kundenorientierung und Fehlerfreiheit gegeben sind. Das Verstehen der Kundenanforderungen und die methodische Umsetzung in entsprechende Konzepte, Systeme, Funktionalitäten und Spezifikationen ist dabei die Hauptaufgabe. Entwicklungszeiten und Anlaufkosten können nachweislich reduziert werden und ein deutlicher Marktvorteil realisiert werden.
Die verschiedenen SIX SIGMA Belts und deren Darstellungen werden oftmals als Stufenausbildungssystem interpretiert. Doch dies ist weder methodisch noch originär so gedacht. Vielmehr ist für die Auswahl des richtigen Belt bzw. Lehrgangs das Anwendungsziel entscheidend: Teammitglied vs. strategische Führungskraft vs. operativer Experte.
🏳 YELLOW BELT | TEAMMITGLIED:
Sie erlangen Grundkenntnisse der Methode und einiger ausgewählter Hilfsmittel und können im SIX SIGMA Projektteam effektiv zuarbeiten.
🏳 GREEN BELT | FÜHRUNGSKRAFT:
Sie sind im mittleren oder oberen Management verantwortlich für den wirtschaftlichen Einsatz der Projekte bzw. Methode im Unternehmen.
🏳 BLACK BELT | PROJEKTLEITER UND COACH:
Als Projektleiter managen sie auch komplexe Projekte, vermögen die Methode strategisch im Unternehmen voranzubringen und sind Coach und Wegbereiter.
Ihr Anwendungszweck bestimmt also die Rolle. Konsequent geht es im entsprechenden Kurs – ohne Umwege über andere Belts – direkt geradeaus zum Ziel.
Ein Hinweis sei gegeben:
Oftmals ändern sich die beruflichen Rollen und Anforderungen mit der Zeit. Dann kommen passende Aufbaukurse zum Tragen, die z. B. für eine „Umschulung“ vom Green zum Black Belt sorgen.
Weitere Hintergründe, Details und etwas Kontext ersehen Sie in unserem Magazin:
Ein Sechs-Sigma-Prozess erzeugt systematisch hohe Qualität und reduziert damit die Kosten schlechter Qualität. Speziell geht es dabei um die Prozessqualität, denn hier liegen mit einem durchschnittlichen Anteil von 30 % die mitunter größten Kostenblöcke des Unternehmens.
Kosten schlechter Qualität entstehen dann, wenn beim ersten Versuch nicht zu 100 % fehlerfreie Wertschöpfung erzeugt wurde. Sie korrelieren mit der Prozessqualität: Je höher die Prozessstreuung, desto höher die Kosten schlechter Qualität. Geringere Streuung bedeutet geringere Fehlerwahrscheinlichkeit und damit höhere Qualität bei geringeren Kosten. Messbar und quantifizierbar wird das mit der Kennzahl des Sigma-Niveaus. Sie gilt übergreifend für alle Prozesstypen und macht diese messbar und auch vergleichbar.
Während ein heute im europäischen Mittel üblicher Drei-Sigma-Prozess (3σ) einen Fehleranteil von fast 67.000 ppm hervorbringt, liefert ein Sechs-Sigma-Prozess (6σ) gerade einmal 3,4 ppm – eine im SIX SIGMA Kontext bekannte und begehrte Zahl. Das bedeutet eine Reduktion des Kostenanteils der Prozesskosten an den Kosten schlechter Qualität von rund 30 % (bei 3σ) auf rund 5 % (bei 6σ).
SIX SIGMA als Methode und Ziel ist daher ein weltweit eingesetztes Vorgehen und „Mindset“ das signifikante Einsparpotenziale im Unternehmen zu realisieren vermag.