Qualität produzieren: Effizienz und Effektivität in der Fertigung vereinen
Schnellnavigation: Effektivität vs. Effizienz | Qualität produzieren | Vorurteile | CAQ & Core Tools | Demings Philosophie | Angstfreie Fehlerkultur | Methodenkompetenz | Effizienz steigern | REFA-Zeitgrundlagen | Gesamtanlageneffektivität | Vernetzte Fertigung | Ziel: Zero Defects | Fazit
Effektivität vs. Effizienz in der Produktion

In der Fertigung wird häufig zwischen Effektivität (die richtigen Dinge tun) und Effizienz (die Dinge richtig tun) unterschieden.
Effektivität zielt darauf ab, gesetzte Qualitäts- und Leistungsziele überhaupt zu erreichen – es geht also um die Wirksamkeit der Maßnahmen.
Effizienz hingegen bewertet, mit welchem Aufwand diese Ziele erreicht werden, also wie wirtschaftlich und zeitsparend Prozesse ablaufen.
Beide Aspekte sind entscheidend:
Es reicht nicht, nur effektiv zu sein (z. B. hohe Qualität zu produzieren), wenn es mit unverhältnismäßig hohem Aufwand geschieht.
Umgekehrt bringt höchste Effizienz nichts, wenn am Ende nicht das richtige Ergebnis in Form einwandfreier Produkte erzielt wird.
In diesem Artikel betrachten wir, wie Qualitätsverbesserung (Effektivität) und Produktivitätssteigerung (Effizienz) Hand in Hand gehen können, um das übergeordnete Ziel zu erreichen:
Qualität wird nicht bloß geprüft, sondern von Anfang an produziert.
Qualität produzieren statt prüfen: Qualitätsverbesserung als Effektivitätsgewinn
Ein zentrales Prinzip des modernen Qualitätsmanagements lautet:
Qualität kann man nicht herausprüfen, sie muss produziert werden.
Statt ausschließlich am Endprodukt zu prüfen und Schlechtteile auszusortieren, sollte der Fokus darauf liegen, Fehler gar nicht erst entstehen zu lassen.
W. Edwards Deming – Pionier des Qualitätsmanagements – formulierte es als einen seiner Managementpunkte so:
„Beende die Abhängigkeit von Vollkontrollen und sorge für Qualität von Anfang an.“
Vollständige Endkontrollen (100 %-Prüfungen) sind demnach ein Eingeständnis, dass der vorausgehende Prozess nicht fähig war, fehlerfreie Teile zu liefern.
Die Folge sind aufwändige Sortier- und Nacharbeitsprozesse, die weder effizient noch effektiv sind.
Viel besser ist es, die Qualitätsprüfung integral in den Herstellprozess zu verlagern – etwa durch prozessintegrierte Prüfungen, statistische Prozessregelung (SPC) und Fehlervermeidungsmethoden –, sodass fehlerhafte Produkte gar nicht erst entstehen.
Vorurteile gegenüber Qualitätsmaßnahmen
Dennoch stehen insbesondere im Mittelstand Qualitätsverbesserungs-Initiativen oft unter dem Vorurteil, sie seien Kostentreiber und würden die Produktivität bremsen.
In vielen Unternehmen schreckt die Angst vor hohen Kosten und einem vermeintlichen Produktivitätsverlust vor Investitionen in Qualitätssysteme zurück. Doch diese Sicht ist kurzsichtig.
Tatsächlich ist ein gutes Qualitätsmanagement kein Luxus, sondern verbessert schlanke Prozesse und vermeidet Verschwendung, Nacharbeit und Ausschuss.
Mit anderen Worten:
Qualitätsmanagement ist kein Kostentreiber, sondern eine Investition mit hohem Return on Investment, da weniger Fehler und Nacharbeiten letztlich Kosten sparen.
Studien zeigen zum Beispiel, dass Unternehmen durch effektives Qualitätsmanagement
Zeit- und Ressourcenverschwendung reduzieren,
Prozesse effizienter gestalten
und somit insgesamt produktiver arbeiten.
Auch die Qualitätskosten können gesenkt werden, wenn man präventiv in „Kosten der guten Qualität“ investiert (etwa für Schulungen, Prüfmittel oder CAQ-Systeme),
um die weit höheren „Kosten schlechter Qualität“ (Fehlerfolgekosten, Ausschuss, Gewährleistungsfälle) zu vermeiden.
Klassische CAQ-Komponenten und Core Tools
In der Praxis kommen zur Qualitätsverbesserung computergestützte QS-Systeme (CAQ) mit diversen Modulen zum Einsatz – von Prüfmittelverwaltung über Wareneingangsprüfung, statistische Prozesslenkung (SPC) bis zum Reklamationsmanagement.
Insbesondere in streng regulierten Branchen (Automobil: IATF 16949; Luftfahrt: EN 9100; Medizintechnik etc.) sind die Anwendung bestimmter Qualitätsmethoden und der sogenannten Core Tools Pflicht.
Demings Philosophie in der Fertigung
„Quality is made in the boardroom“ – Systemdenken statt Schuldzuweisung
Deming prägte den Satz:
„Quality is made in the boardroom“,
womit er meinte, dass Qualität das Ergebnis von Systemen und Management ist – nicht bloß vom Fleiß der Werker.
Er schätzte, dass 94 % aller Probleme ihren Ursprung im System (und damit in der Management-Verantwortung) haben und nur 6 % auf Fehler der Mitarbeitenden zurückgehen.
Dieses Umdenken ist entscheidend:
Anstatt Fehler durch Endprüfung auszusortieren oder Mitarbeiter für Fehler zu bestrafen, muss das System so verbessert werden, dass Fehler gar nicht erst entstehen.
Ein Beispiel ist der Ausbau präventiver Maßnahmen wie Statistical Process Control (SPC):
Durch SPC und intelligent gesetzte Regelgrenzen – basierend auf Prozessfähigkeit und Statistik – können Prozesse laufend überwacht werden.
So werden Abweichungen früh erkannt und korrigiert, weit bevor daraus fehlerhafte Teile en masse entstehen.
Auch Automatisierung und Inline-Prüftechnik (Stichwort: Automated Process Control und 100 % Inline-Prüfung) können dazu beitragen, manuelle Vollkontrollen überflüssig zu machen.
Wenn etwa kamerabasierte Prüfungen jedes Teil im Takt prüfen und die Daten automatisch auswerten, erhält man sofortiges Feedback und kann den Prozess nachregeln – ohne den Durchsatz drastisch zu senken.
Der PDCA-Zyklus im Fertigungsalltag

Ein weiterer Aspekt von Demings Ansatz ist die ständige Verbesserung:
„Verbessere ständig und unaufhörlich jedes System“, lautet einer seiner berühmten 14 Punkte.
Dies wird oft durch den Deming-Zyklus (PDCA) verdeutlicht – ein iterativer Vier-Schritte-Prozess:
Planen – Ausführen – Prüfen – Handeln.
In der Fertigung bedeutet das beispielsweise:
Plan: Qualitätsziele und Prozesse planen (z. B. definieren, wie ein kritisches Maß mit SPC überwacht werden soll).
Do: Die geplanten Maßnahmen umsetzen (Produktion durchführen, Daten sammeln).
Check: Prozessdaten und Qualitätskennzahlen analysieren (z. B. Prüfergebnisse oder SPC-Regelkarten auswerten).
Act: Maßnahmen ableiten (Prozessparameter anpassen, Schulungen durchführen, Korrektur- und Vorbeugemaßnahmen einleiten).
Dieses kontinuierliche Verbesserungsprinzip stellt sicher, dass Qualität und Produktivität nicht als statisch betrachtet werden – es gibt immer Potenzial für bessere Qualität zu noch geringeren Kosten.
Deming betonte dabei:
Es gibt kein endgültiges Optimum; stetige Verbesserung ist möglich und nötig.
Daten spielen in diesem Zyklus eine Schlüsselrolle, denn sie systematisieren die Intuition:
Sie ermöglichen es, Bauchgefühle zu bestätigen oder zu widerlegen und kausale Zusammenhänge zu erkennen, die ohne Messwerte verborgen blieben.
Wie Deming sagte:
„Without data, you’re just another person with an opinion.“
(„Ohne Daten ist jede Vermutung nur Meinung.“)
Daher sollten Entscheidungen zur Qualitätsverbesserung immer faktenbasiert getroffen werden.
Beispielsweise kann eine statistische Auswertung von Prüf- und Prozessdaten zeigen, wo Hot Spots für Fehler liegen – etwa bestimmte Maschinen, Schichten oder Zuliefermaterialien –, was gezielte Verbesserungsmaßnahmen erst ermöglicht.
Abb. 1: Der PDCA-Zyklus (Plan – Do – Check – Act) nach Deming als Modell der kontinuierlichen Verbesserung.
Jeder Durchlauf bringt einen Prozessschritt näher an das Qualitätsoptimum.
Angstfreie Fehlerkultur
Um Qualität im Prozess zu ermöglichen, muss auch die Kultur stimmen.
Deming forderte:
„Beseitige die Angst, sodass jeder effektiv für die Organisation arbeiten kann.“
Angst in der Belegschaft – etwa Angst vor Bestrafung bei Fehlern – führt dazu, dass Fehler vertuscht oder schöngeredet werden.
Das verhindert Lernen aus Fehlern und schadet sowohl Qualität als auch Produktivität.
Eine offene, angstfreie Kultur hingegen ermutigt Mitarbeiter, Probleme sofort zu melden, anstatt sie zu verstecken.
So können Ursachen analysiert und abgestellt werden, bevor größere Schäden entstehen.
Deming machte das Management für die Fehlerkultur verantwortlich:
Nur wenn Führungskräfte offen mit Fehlern umgehen und den Fokus auf Prozessverbesserung statt Schuldzuweisung legen, trauen sich Mitarbeiter, ehrlich zu berichten.
Zahlreiche Untersuchungen bestätigen Demings Regel, dass die meisten Fehler systembedingt sind – also letztlich in der Verantwortung des Managements liegen – und nicht an individuellem Unvermögen.
Folglich sollten Verbesserungsmaßnahmen zuerst am System ansetzen, statt bloß Menschen auszutauschen.
Digitalisierung gehört unmittelbar dazu:
Ein transparenter Datenfluss (z. B. durch ein Manufacturing Execution System, das Qualitätsdaten, Maschinendaten und Auftragsdaten vernetzt) kann helfen, eine offene Fehlerkultur zu fördern.
Wenn objektive Daten aufzeigen, wo Engpässe oder Fehler auftreten, lässt sich sachlich darüber sprechen – anstatt in persönlichen Schuldzuweisungen zu verfallen.
Die Mitarbeiter im Shopfloor leisten dann ihren Beitrag zur Prozessverbesserung, indem sie Daten erfassen, Probleme kennzeichnen und im Team Lösungen erarbeiten.
Methodenkompetenz vor Tool-Einsatz
Noch ein Deming’scher Lehrsatz:
Übernimm Methoden erst dann, wenn die Theorie dahinter verstanden ist.
In der Praxis heißt das:
Software allein löst keine Probleme – „A fool with a tool is still a fool.“
Ohne Verständnis der zugrundeliegenden Qualitätsmethodik bringt auch das beste CAQ- oder MES-System keinen Erfolg.
Die bekannten Konzepte wie SPC, Six Sigma, Null-Fehler-Programme (Zero Defects, z. B. nach Philip B. Crosby) oder TQM haben alle einen gemeinsamen Kern:
Sie beruhen auf statistischem Denken, Prozessorientierung und kontinuierlicher Verbesserung.
Erst wenn ein Unternehmen diese Prinzipien verinnerlicht hat – etwa
wie eine Prozessfähigkeitsuntersuchung funktioniert,
was 3 Sigma bedeutet
oder wie Ishikawa-Analysen durchgeführt werden –,
kann es die unterstützenden Werkzeuge sinnvoll einsetzen.
Daher ist es essenziell, in Schulung und Qualifizierung der Mitarbeiter zu investieren, bevor bzw. während neue Tools eingeführt werden.
Ein Beispiel:
Die beste SPC-Software nützt nichts, wenn niemand die Regelkarten zu interpretieren weiß oder wenn die Maschinenbediener nicht befähigt werden, bei einem Regelverstoß die richtigen Maßnahmen zu ergreifen.
Um Qualität zu produzieren, braucht es also
die richtige Einstellung (Qualität vor Stückzahl),
Know-how (Methodenwissen)
und Werkzeuge (Software, Messmittel) – in dieser Reihenfolge.
Qualität vor Quantität – und doch beides erreichen:
Interessanterweise führt genau dieser Qualitätsfokus langfristig auch zu höherer Produktivität.
Deming formulierte es so:
„Betone die Qualität der Leistung, nicht die Quantität. Verzichte auf willkürliche Stückzahlvorgaben.“
Denn starre Stückzahlziele ohne Rücksicht auf Qualität verführen dazu, Probleme zu ignorieren oder halbfertige Teile „durchzuschleusen“, um Sollzahlen zu erfüllen – was später zu Ausschuss oder Kundenreklamationen führt.
Stattdessen sollten Führungskräfte qualitative Ziele setzen – etwa:
Reduzierung der Fehlerquote
Steigerung der Erstprüfungsdurchgänge
Senkung der Reklamationsrate
Interessanterweise steigen dabei die Stückzahlen indirekt mit an:
„Wenn Organisationen sich auf Qualität konzentrieren, steigt die Qualität und die Kosten sinken.
Wenn sie sich auf Kosten (oder reine Menge) konzentrieren, steigen die Kosten und die Qualität sinkt.“
Diese Deming’sche Reaktionskette wird in vielen Unternehmen bestätigt:
Qualitätsverbesserung steigert die Produktivität, reduziert Nacharbeit und senkt die Stückkosten.
In der Fertigung bedeutet das konkret:
Eine Kombination aus hoher Prozessstabilität und geringer Fehlerquote sorgt dafür, dass Anlagen ohne Unterbrechung mit optimaler Geschwindigkeit gute Teile produzieren können – was wiederum maximale Ausbringung bei minimalem Ausschuss ergibt.
Damit haben wir die Brücke zur Effizienz geschlagen,
denn Produktivität misst sich genau daran.
Effizienz steigern: Produktivität messen und Verluste reduzieren
Die 3 OEE-Faktoren im Überblick
Effizienz in der Fertigung lässt sich mit der Kennzahl OEE (Overall Equipment Effectiveness, deutsch: Gesamtanlageneffektivität) greifbar machen.
Die OEE betrachtet, wie gut eine Produktionsanlage im Vergleich zu ihrer theoretischen Höchstleistung tatsächlich arbeitet.
Sie setzt sich aus drei Faktoren zusammen – Verfügbarkeit, Leistung und Qualität – die miteinander multipliziert das OEE-Ergebnis (in Prozent) liefern.
Ein OEE-Wert von 100 % würde bedeuten, dass eine Anlage ohne jegliche Verluste läuft:
Sie ist zu 100 % der geplanten Zeit in Betrieb, produziert mit 100 % der maximal möglichen Geschwindigkeit und alle Teile sind einwandfrei.
In der Realität liegt die OEE natürlich deutlich darunter – typischerweise zwischen 60 % und 85 %, je nach Branche und Reifegrad.
Der Wert macht transparent, wie effizient Maschinen ausgelastet sind und wo die größten Reserven schlummern.
Um die OEE zu verbessern, muss man verstehen, wo die Verluste entstehen.
Klassisch stellt man sich dazu drei Fragen:
Läuft die Maschine überhaupt?
→ Wenn nein – was hat sie gestoppt?
(Verfügbarkeitsverluste durch ungeplante Stillstände wie Störungen, Rüstzeiten oder Pausen)Wenn sie läuft: Läuft sie mit Volllast auf ihrer Nennleistung?
→ Wenn nein – was bremst sie?
(Leistungsverluste durch reduzierte Geschwindigkeit, Taktzeitverlängerungen oder kleine Unterbrechungen)Kommt aus der Maschine nur Gutes heraus?
→ Wenn nein – was ging daneben?
(Qualitätsverluste durch Ausschuss und Nacharbeit)
Diese Fragen entsprechen exakt den OEE-Komponenten Verfügbarkeit, Leistung und Qualität.
Alles, was verhindert, dass eine Maschine mit voller Geschwindigkeit gute Teile produziert, gilt als Verlust.
Die Multiplikation der drei Faktoren (Verfügbarkeitsrate × Leistungsrate × Qualitätsrate) ergibt den Anteil der Zeit, in der die Anlage wertschöpfend im Soll läuft.
Beispiel:
Eine OEE von 74 % bedeutet, dass nur 74 % der theoretisch möglichen Produktionszeit effektiv genutzt wurden, während 26 % durch Stillstände, Geschwindigkeitsreduktion oder Ausschuss verloren gingen.
Die OEE hilft Unternehmen, Schwachstellen gezielt zu identifizieren:
Tritt der Hauptverlust in der Verfügbarkeit auf, muss an der Reduzierung von Ausfallzeiten gearbeitet werden – etwa durch bessere Instandhaltung, schnelleres Rüsten oder höhere Anlagenverfügbarkeit.
Liegt der Hauptverlust im Leistungsgrad, geht es darum, Engpässe zu beseitigen oder Geschwindigkeitsverluste zu minimieren – z. B. durch Prozessoptimierung, Mitarbeiterschulung oder verbesserte Materialversorgung, um Mikrostoppgründe zu eliminieren.
Ist die Qualitätsrate schwach, steht Qualitätsverbesserung im Vordergrund – also Ursachen für Ausschuss finden, Prozessstreuung verringern, Zulieferqualität sichern etc.
Wichtig ist:
Jede dieser Stellschrauben beeinflusst auch die anderen.
Beispielsweise erhöhen Qualitätsverbesserungen die verfügbare Produktionszeit (weniger Stopps für Nacharbeit) und oft auch die Leistung (weniger Unterbrechungen durch Qualitätsprüfungen).
Umgekehrt führen Leistungssteigerungen, die auf Kosten der Qualität gehen – etwa durch schnellere Maschinenzyklen mit höherer Ausschussquote – zu keinem nachhaltigen Produktivitätsgewinn.
Daher ist es so entscheidend, Effizienz nicht gegen Qualität zu optimieren, sondern mit Qualität.
Die „Six Big Losses“
Ein bekanntes Konzept zur Analyse von Effizienzverlusten sind die „Six Big Losses“ der OEE.
Dazu zählen:
Verfügbarkeitsverluste:
Störungen (längere ungeplante Ausfälle)
Warten (geplante, aber nicht wertschöpfende Stillstände, z. B. Materialmangel)
Leistungsverluste:
Kleine Unterbrechungen (Kurzstillstände, Leerläufe)
Geschwindigkeitsverluste
Qualitätsverluste:
Ausschuss
Nacharbeit
Durch die Kategorisierung in solche Verlustarten können sehr spezifische Gegenmaßnahmen definiert werden.
Beispielsweise erfordert Ausschuss andere Lösungen – etwa Prozessoptimierung, Mitarbeiterqualifizierung oder Maschinenfähigkeitsuntersuchungen –
als Störungen, die durch TPM-Programme, Ersatzteilmanagement oder Condition Monitoring reduziert werden können.
Der OEE-Ansatz sorgt also dafür, dass man objektiv und datengetrieben über Produktivitätsbremsen spricht.
Statt eines vagen Gefühls von „irgendwie läuft es nicht rund“ hat man konkrete Prozentwerte und Zeiten, die man gezielt verbessern will.
REFA-Zeitgrundlagen
Neben OEE, die eher die Gesamtanlagensicht bietet, lohnt auch ein Blick auf die klassische Zeitwirtschaft pro Auftrag.
Nach REFA lässt sich die Auftragszeit (T) in
Rüstzeit (tr) und
Ausführungszeit (ta)
gliedern.
Die Rüstzeit umfasst alle vorbereitenden Tätigkeiten, bevor die Serie läuft – etwa Maschine umrüsten, Werkzeug wechseln etc.
Die Ausführungszeit ist jene Zeit, in der tatsächlich Teile gefertigt werden.
Sie ist proportional zur Stückzahl (n) und der Stückzeit (te), also der Zeit je Einheit:
ta = n · te
Die Stückzeit (te) gibt an, wie lange die Bearbeitung eines einzelnen Werkstücks dauert.
Bei manueller Arbeit setzt sie sich zusammen aus
Grundzeit, Erholungszeit und Verteilzeit.Bei Maschinenarbeit besteht sie aus der reinen Maschinenlaufzeit pro Stück.
Diese Unterteilung hilft, Produktivität auf Auftrags- und Arbeitsplatzebene zu analysieren:
Große Lose erzeugen einen höheren Rüstzeitanteil.
Kleine Lose belasten die Produktivität durch häufiges Rüsten.
Verbesserungsmethoden wie SMED (Single Minute Exchange of Die) zielen darauf ab, die Rüstzeit (tr) zu minimieren –
wodurch die Auftragszeit (T) näher an der eigentlichen Bearbeitungszeit liegt.
Ebenso kann die Stückzeit (te) durch
Prozessverbesserungen, bessere Werkzeuge oder Qualifizierung der Mitarbeiter reduziert werden.
Produktivität zeigt sich dann als Output pro Zeit.
Wenn man also entweder
die Rüstzeiten verkürzt oder
mehr Stück pro Zeiteinheit fertigt (te senkt) –
ohne dabei Qualität einzubüßen,
dann steigt die Ausbringung pro Schicht.
Gesamtanlageneffektivität als Brücke
Interessant an der OEE ist, dass sie Qualität direkt mit einbezieht.
Der Qualitätsfaktor (Gutteile / Gesamtteile) bewirkt, dass Ausschuss die Effektivität senkt –
und zwar genauso, als hätte die Maschine in der Zeit gar nichts produziert.
Dadurch wird sichtbar, dass Ausschuss doppelt schadet:
Er kostet Herstellzeit, und
er liefert kein verkaufsfähiges Produkt.
In der OEE-Formel kann man sich einen Ausschussanteil von z. B. 5 % auch vorstellen,
als hätte die Maschine 5 % der Zeit im Leerlauf gestanden.
Somit fließt die Effektivität der Qualitätsprozesse direkt in die Effizienz der Gesamtanlage ein.
Dies verdeutlicht nochmals die Kernaussage:
Qualität und Produktivität sind untrennbar verbunden.
Eine Fabrik mit hoher Ausschussquote kann nicht hochproduktiv sein –
sie verschwendet Material, Zeit und Kapazität.
Umgekehrt führt eine bessere Qualität (Right-first-time) unmittelbar zu höherer nutzbarer Anlagenkapazität.
Nachdem wir nun sowohl die Qualitätssicherung (Effektivität)
als auch die Produktivität (Effizienz) betrachtet haben,
stellt sich die Frage:
Wie lassen sich beide Ziele gleichzeitig vorantreiben, statt sie als Zielkonflikt zu behandeln?
Hier kommt unsere zentrale These ins Spiel.
„Licht ins Dunkel“: Mit vernetzter Fertigung zu datengetriebener Exzellenz
Der Schlüssel, um sowohl Qualität als auch Effizienz auf ein neues Niveau zu heben,
liegt in der Digitalisierung und Vernetzung der Fertigung.
Viele Produktionsbereiche gleichen heute noch „Black Boxes“,
in denen Probleme nur durch Erfahrung und Intuition aufgedeckt werden.
Praxisbeispiel
Wie Kurt Eberle mit Quality Miners seine Produktion zukunftssicher aufstellt
zur Success Story

Die Hauptthese lautet jedoch:
Durch Daten kann die Intuition systematisiert werden.
Wenn man alle relevanten Produktionsdaten miteinander vernetzt –
also Maschinendaten, Betriebsdaten (z. B. Auftragsfortschritt, Stückzahlen)
und Qualitätsdaten, dann bringt man sprichwörtlich Licht ins Dunkel
verborgen gebliebener Zusammenhänge.
Transparenz durch vernetzte Systeme (MES/CAQ)
Stellen wir uns vor, sämtliche Maschinen sind mit Sensoren ausgestattet und liefern Echtzeitdaten zu ihrem Status –
etwa Betrieb, Stillstand, Störung, zur Ausbringungsgeschwindigkeit sowie zur Produktqualität (z. B. inline gemessene Merkmalswerte).
All diese Informationen laufen in einem zentralen System (MES/CAQ) zusammen und können gemeinsam ausgewertet werden.
Plötzlich wird sichtbar, warum beispielsweise eine Linie hinter ihrem Plan zurückbleibt:
Vielleicht zeigt sich, dass eine bestimmte Anlage häufig kurze Stopps hat (→ Verfügbarkeitsproblem).
Oder dass nach jedem 50. Werkstück eine Prüfpause eingelegt wird (Qualitätskontrolle, die man optimieren oder automatisieren könnte).
Oder die Daten enthüllen, dass immer bei Auftrag XY an Maschine Z die Fehlerrate hochgeht – ein Hinweis auf mögliche Prozessprobleme genau bei dieser Kombination.
Diese Transparenz ermöglicht es, gezielt Qualitäts- und Produktivitätsmaßnahmen abzuleiten,
statt im Dunkeln zu stochern.
Ein praktisches Beispiel:
In einem integrierten CAQ-MES-System werden jedem Produktionsauftrag automatisch Prüfaufträge zugeordnet,
die prozessbegleitend Stichproben messen (klassische SPC-Prüfpläne).
Diese Prüfdaten werden zusammen mit Maschinen- und Auftragsdaten in einer zentralen Datenbank abgelegt.
Nun lässt sich per Knopfdruck auswerten:
Welches Qualitätsergebnis wurde zu welchem Arbeitsvorgang (Operation) erfasst?
Und auf welcher Maschine?
In einem vernetzten System kann man z. B. für jeden Arbeitsgang (Arbeitsvorgangsnummer = AVO) sehen,
wie viele Prüflinge i. O. (in Ordnung) oder n. i. O. (nicht in Ordnung) waren,
oder ob Prüfungen ausgelassen wurden.
Dieses Traceability-Konzept – die Rückverfolgbarkeit jedes Teils und seines Qualitätsstatus – bringt enorme Vorteile:
Treten Fehler auf, kann man sofort eingrenzen, welche Losnummern oder Chargen betroffen sind.
Man kann systematisch analysieren, in welchem Prozessschritt Fehler entstehen.
Die Prozess-Interdependenz von Produkt und Produktion wird deutlich:
Qualitätsergebnisse lassen sich jedem Prozessschritt und jeder Maschine zuordnen,
wodurch Korrelationen erkannt werden – z. B.:
Höhere Fehlerrate an Maschine A gegenüber Maschine B,
oder Abhängigkeiten von bestimmten Materiallieferanten.
Damit können beispielsweise Maschinenfähigkeiten nachgewiesen und verglichen werden:
Maschine A hat vielleicht über 100 Chargen hinweg eine stabilere Maßhaltigkeit (höherer Cpk-Wert) als Maschine B –
ein klarer Hinweis, die schlechtere Maschine genauer zu untersuchen (z. B. Wartung, Kalibrierung, Operator-Training etc.).
Retrofitting und Nachrüstung als Einstieg in die Digitalisierung
Ein Hindernis in Bestandsfabriken ist oft, dass ältere Maschinen keine digitalen Schnittstellen haben.
Doch hier kommt das Retrofit ins Spiel:
Mit vergleichsweise einfachen Mitteln lassen sich selbst jahrzehntealte Anlagen digital aufrüsten.
Sensoren können Maschinenzustände – etwa Vibration, Stromaufnahme, Temperatur usw. – überwachen
und über IoT-Geräte die Daten ans zentrale System funken.
Damit erhält man auf einen Schlag Messdaten,
wo zuvor Blindflug herrschte.
Große Technologiekonzerne wie Bosch oder ABB bieten solche Sensorlösungen an, um „stumme“ Altmaschinen quasi zum Sprechen zu bringen.
Das ist besonders für Mittelständler attraktiv, denn anstatt Millionen in neue Maschinen zu investieren, kann man mit deutlich geringerer Investition seine bestehenden Anlagen vernetzen.
Eine Studie der KfW (2016) ergab, dass erst etwa 20 % der mittelständischen Produktionsbetriebe in Deutschland die Industrie-4.0-Vernetzung umgesetzt haben –
sechs von zehn nannten die hohen Investitionskosten als Hemmnis.
Dabei zeigt sich in der Praxis, dass bereits kostengünstige Retrofit-Projekte erhebliche Produktivitäts- und Qualitätsfortschritte bringen können.
Durch die Echtzeit-Datenerfassung lassen sich Ausfallzeiten vorausschauend vermeiden (Condition Monitoring, Predictive Maintenance)
und Prozesse optimal steuern.
Beispiel:
Ein nachgerüsteter Sensor an einem Motor misst kontinuierlich Schwingungen, Temperatur und Leistung.
Die Daten werden analysiert und alarmieren frühzeitig bei Anomalien, sodass Wartung proaktiv geplant werden kann.
So werden ungeplante Ausfälle – die größte Verfügbarkeitsbremse – stark reduziert → Effizienzgewinn durch Digitalisierung.
Gleichzeitig überwachen dieselben Sensoren auch Qualitätsindikatoren (z. B. Drehmomentverläufe, die Rückschlüsse auf die Prozessgüte geben) –
was wiederum der Qualitätssicherung zugutekommt.
Datengetriebene Prozessoptimierung durch Analytics und KI
Wenn alle Daten aus Maschine, Prozess und Qualität zusammenfließen, können auch moderne Analysemethoden eingesetzt werden – von Big Data Analytics bis Machine Learning –, um Muster zu erkennen, die selbst erfahrenen Experten entgehen könnten.
So könnte eine Analyse z. B. ergeben, dass
eine bestimmte Kombination von Umweltbedingungen und Materialcharge zu höherem Ausschuss führt, oder
dass ein bestimmter Bediener signifikant kürzere Rüstzeiten erreicht (weil er eine bessere Methode hat) – was dann als Best Practice auf andere Schichten übertragen werden kann.
Die Digitalisierung schafft damit eine objektive Faktenbasis, mit der sich sowohl Effizienz als auch Effektivität systematisch verbessern lassen.
Wichtig ist, diese Daten auch in den KVP-Prozess (kontinuierlichen Verbesserungsprozess) einfließen zu lassen – also durch:
regelmäßige Reviews der Kennzahlen,
Shopfloor-Boards mit aktuellen OEE-Werten und Qualitätskennzahlen,
interdisziplinäre Runden zur Ursachenanalyse.
So wird aus dem abstrakten Industrie-4.0-Konzept ein ganz konkreter Nutzen:
Das Unternehmen lernt sich selbst immer besser kennen und kann auf Basis echter Zahlen entscheiden, wo die Prioritäten liegen.
Produkt–Prozess-Interdependenz verstehen und nutzen
Man erkennt bei all dem, wie eng Produktqualität und Prozessleistung verzahnt sind.
Eine Verbesserung im Prozess – z. B. eine stabilere Temperaturführung in einem Ofen – erhöht sowohl die Produktqualität (weniger Verzug, höherer Ertrag) als auch die Effizienz (weniger Energieverschwendung, gleichmäßigerer Durchsatz).
Umgekehrt erfordert ein komplexeres Produktdesign oft leistungsfähigere Prozesse – z. B. engere Toleranzen bedingen präzisere Maschinen und Messsysteme.
Diese Interdependenz bedeutet praktisch:
Qualität und Produktivität können nicht isoliert betrachtet werden; man muss immer das Gesamtsystem optimieren.
Moderne Shopfloor-Management-Systeme tragen dem Rechnung, indem sie Kennzahlen für Qualität und Produktivität gemeinsam darstellen –
z. B. in einem Dashboard, das sowohl OEE-Faktoren als auch ppm-Fehlerraten, Cpk-Werte etc. zeigt.
So wird gewährleistet, dass Verbesserungsmaßnahmen ganzheitlich wirken.
Ein klassisches Beispiel:
Die Einführung eines Andon-Systems (Leuchtsignale bei Störungen) steigert die Verfügbarkeitszeit durch schnellere Reaktion auf Maschinenstillstände und reduziert gleichzeitig Qualitätsrisiken
– die Maschine läuft nicht minutenlang fehlerhaft weiter, bis es jemand merkt.Oder die Implementierung einer Inline-Prüfstation an kritischer Stelle verhindert, dass fehlerhafte Teile den nächsten Prozess verstopfen – was sowohl Ausschuss senkt als auch Durchlaufzeit spart.
Ziel: Zero Defects und maximale Effizienz
Am Ende läuft alles darauf hinaus, das ambitionierte, aber lohnende Ziel zu erreichen:
100 % Gutteile – 0 % Verschwendung.
Dieses „Zero Defect“-Ziel mag zunächst utopisch klingen, dient aber als Orientierung, an der sich Fertigungsverbesserungen ausrichten.
Denn jeder Schritt in Richtung Null-Fehler-Produktion (z. B. durch Poka Yoke – also technische Fehlerverhütung – oder automatisierte Prüfsysteme) bringt meist auch einen Effizienzgewinn:
Weniger Ausschuss = weniger Nacharbeit = mehr nutzbare Produktionskapazität.
Und umgekehrt:
Jede Effizienzsteigerung, die z. B. Rüst- oder Wartezeiten abbaut, verringert auch die Gelegenheit für Fehlhandlungen und macht die Produktion berechenbarer – was wiederum der Qualität zuträglich ist.
Abschließende Betrachtung: Effektivität und Effizienz – zwei Seiten derselben Medaille

Zusammenfassend zeigt sich, dass Qualitätsverbesserung und Produktivitätssteigerung keine Gegensätze, sondern synergistisch zusammenwirken.
Qualität soll produziert werden, nicht erst am Ende geprüft.
Das erfordert ein Umdenken hin zu
proaktiver Prozessbeherrschung,
Datennutzung und
einer Kultur des ständigen Verbesserns.
Wird Qualität von vornherein eingebaut – durch fähige Prozesse, gut ausgebildete Mitarbeiter, klare Standards und digitale Überwachung –, dann sinken Fehlerquoten und Nacharbeiten, was unmittelbar freie Kapazitäten schafft und damit die Effizienz erhöht.
Auf der anderen Seite liefern Effizienzmethoden wie OEE wiederum klare Prioritäten, wo Verbesserungen am drängendsten sind – und oft sind das genau die Qualitätsengpässe (z. B. hohe Ausschussraten oder instabile Prozesse).
Deming’s Kernsatz gilt nach wie vor:
Qualität steigern → Produktivität steigt → Kosten sinken.
Die moderne, vernetzte Fertigung bringt dieses Prinzip auf die nächste Stufe, indem sie Daten als Verstärker einsetzt:
Was man misst, kann man verbessern.
Durch digitale Transparenz wird die Fertigung steuerbar und vorhersehbar – Intuition wird durch Evidenz ergänzt.
Letztlich geht es um eine ganzheitliche Prozess-Exzellenz, die Produkt- und Prozessqualität gleichermaßen umfasst.
Unternehmen, die das meistern, erreichen einen Zustand, in dem hohe Qualität und hohe Produktivität sich gegenseitig bedingen.
Ihre Prozesse laufen stabil, Verschwendung wird systematisch eliminiert, und die Mitarbeiter können stolz auf die Qualität ihrer Arbeit sein – ohne unter unrealistischen Output-Vorgaben zu stehen.
Die Fertigung der Zukunft – im Geiste von Deming und gefüttert durch die Daten der Industrie 4.0 – ist eine Fertigung, in der Effektivität und Effizienz untrennbar verzahnt sind.
Qualität zu produzieren bedeutet eben beides:
- das Richtige zu tun – und
- es richtig zu tun.



