Der Zuverlässigkeitsprozess: Die Rolle der Statistik für das Verständnis der Zukunft.

Uptime Engineering > Zuverlässigkeitsprozess > Der Zuverlässigkeitsprozess: Die Rolle der Statistik für das Verständnis der Zukunft.
Zuverlässigkeitsprozess Zukunft
Das zweite Betätigungsfeld der Statistik (neben der Gegenwart und Vergangenheit) ist die Vorhersage der Zukunft.

In früheren Zeiten war die Prophezeiung eine Angelegenheit blinder Seher. Die Statistik nutzt für die Schau dagegen die verfügbaren Daten und extrapoliert in die Zukunft. Im Produkt-Lebenszyklus ist das speziell bei der Absicherung der Zuverlässigkeit relevant und für alle Arten der vorsorglichen Wartung.

Damit diese Methode funktioniert, muss sich einmal prinzipiell die Zukunft aus der Gegenwart extrapolieren lassen, d.h. die Zukunft muss qualitativ so sein wie die Gegenwart. Das gilt punkto Zuverlässigkeit sowohl für die Technologie als auch für ihre Nutzung und das ist bei Innovationen natürlich nicht zu erwarten.

Aber es gibt Hoffnung, denn sofern nur einer der beiden Aspekte stabil bleibt, kann man die Änderungseffekte auf den anderen oft gut schätzen: man simuliert z.B. die Lastkollektive für neue Windräder aus den aktuellen in der Nachbarschaft. Man ermittelt den Leistungsbedarf für künftige elektrische Fahrzeuge auf Basis des Nutzungsraums aktueller Fahrzeuge mit Verbrenner-Motor. Das liefert gute Näherungen, die eine solide Basis für die Produktentwicklung bieten. Für den Ladebetrieb geht das natürlich nicht, weil in diesem Fall beide Aspekte – Nutzung und Technik – qualitativ neuartig sind.

Generell gilt: Wenn man über datengetriebene Verfahren Aussagen treffen will, dann muss die gesuchte Information in den Daten enthalten sein. So trivial das auch klingen mag, in der Praxis sind hier massive Hürden für die Anwendung statistischer Verfahren verborgen.

Zunächst einmal müssen Daten verfügbar sein. Im aktuellen big data /deep learning Ansatz wird davon ausgegangen, dass das gegeben ist und tatsächlich ist das wohl (teilweise) so. Wir haben im Kontext Zuverlässigkeit aber ein anderes Thema –  nämlich, dass wir nach Ausfalls-Indikatoren in Flottendaten suchen. Nun ist normalerweise die Ausfallsrate von realen Flotten oder Anlagen niedrig und von den vielen Ausfallsrisiken kommen nur einige wenige tatsächlich vor.

Für das Training datenbasierter Modelle wären aber zahlreiche Fälle für jeden realistisch möglichen Ausfallsmodus notwendig – also eine Flotte, die schlechtestmöglich funktioniert. Damit haben wir es in der Regel natürlich nicht zu tun. Das Modelltraining für die Wartungsoptimierung bleibt daher weitgehend illusorisch und rein datengetriebene Modelle funktionieren in der Praxis kaum.

Was sich aber sehr gut und flott machen lässt, ist die Ermittlung des Belastungsraums für unterschiedliche Betriebsweisen und Randbedingungen. Damit wird der Bereich eines schadhaften Betriebs aus der Sicht des gesunden Systems begrenzt. Dafür gibt es eine solide Datenbasis und aus der Anlagen-Regelung auch einen Startpunkt für die Entwicklung von Algorithmen zur Indikation von schadhaften Teilen.

Für die Akteure (Hersteller, Betreiber, Instandhalter) ist Datenverfügbarkeit alles andere als selbstverständlich. Zwar werden die Vorteile von geteilten Daten gerne beschworen, de facto scheitert das aber an der Tatsache, dass die Betriebsdaten in der aktuellen Konkurrenzzone der Wertschöpfungsketten liegen. Es geht also um die Ausweitung des Geschäfts und dafür gelten bekanntlich andere Parameter.

Windenergie
Daten müssen für die zukünftige Situation relevant sein.

Das heißt für Zuverlässigkeit, Verfügbarkeit und Wartung dass die Ursachen für Ausfälle in den Daten enthalten sein müssen. Der Großteil von Langzeit-Ausfällen wird durch Grenzlastepisoden, transiente Lastverläufe, scharfe Gradienten, Starts, Schaltereignisse und ähnliche transiente Ereignisse getrieben. Diese Information steckt zwar in den Zeitreihen der Messdaten aber die gängigen Mittelungsverfahren vernichtet sie sehr effizient. Übrig bleiben in der Regel alle Arten von langweiligen und unergiebigen Mittelwerten und Streubreiten.

Wenn man aber erst einmal verstanden hat, wie technische System ausfallen, dann kann man darauf basierend den Informationsbedarf ermitteln, d.h. man kann die notwendigen Messdaten und ihre Verarbeitung so designen, dass man statt Informationsvernichtung eine Informationsverdichtung bekommt.

Daten für Zuverlässigkeit müssen kontextualisiert sein. 

Wir ziehen Nutzen ja nicht aus Daten sondern aus Information. Es muss für Wartungszwecke z.B. dokumentiert sein, für welche Komponente ein Lastkollektiv gemessen wurde und wo in der Flotte diese Komponente über ihr gesamtes Leben verbaut war. Datenbanken zu Betriebslasten, Systemantworten und Lastkollektiven müssen daher mit der Hardware-Dokumentation verbunden sein. Nicht alle Asset-Verwaltungen oder CMMS schaffen das hinreichend detailliert. Data-Lakes sind oft an gar kein Hardware-Festland gebunden. Sie liegen daher brach wie Salzseen in der Informationswüste.

Bei der Zuverlässigkeit arbeiten wir in der Regel in einem Umfeld mit viel Geschichte. Wir können daher viele Fragen zur Zuverlässigkeit mit statistischen Verfahren klären und eine solide Basis für viele Entscheidungen im Produkt-Lebenszyklus erstellen.

Der Königsweg ist die Kombination von Datenquellen. Schon der simple Vergleich einer Anlage mit ihrer äquivalenten Nachbar-Instanz ist beeindruckend mächtig. Es ist auch sehr ergiebig die Lastgeschichte mit der Wartungshistorie und dem Ausfallsgeschehen zu kombinieren. Allerdings muss man dafür die verschiedenen Quellen auf ein gemeinsames Format bringen. Aber auch dafür haben wir schon eine Lösung entwickelt.

Zusammenfassung

Uptime Pfeil Icon

Statistische Prognosen sind Extrapolationen der Vergangenheit. Sie sind daher blind für alles Neue in Ihren Produkten

Uptime Pfeil Icon

Wenn Sie Daten aggregieren, dann bleibt nur sehr wenig Information über den Zustand Ihres überwachten Systems davon verschont

Uptime Pfeil Icon

Wenn Sie aber Daten mit Sachverstand verknüpfen, dann sind Sie auf dem wirtschaftlich-technische Königsweg zur Informationsmaximierung

Weitere Artikel

Ist prädiktive Wartung ein nützliches Konzept?

„Anlagen betreiben, bis es einen Maschinencrash gibt?“ oder „Versuchen eine Lebensdauerprognose für Bauteile abzugeben?“, die...

Datenqualität für die Wartungsoptimierung

Die Qualität aktueller Zeitreihendaten ist häufig unzureichend für die Analytik zur Wartungsoptimierung. Es braucht daher...

Die Wissensbasis für Entwicklung und Instandhaltung

Das Wissen von Entwicklern und Wartungstechnikern ist speziell für High-Tech Firmen und Flottenbetreiber der entscheidende...