Datenqualität für die Wartungsoptimierung

Uptime Engineering > Blog > Datenqualität für die Wartungsoptimierung

Die Qualität aktueller Zeitreihendaten ist häufig unzureichend für die Analytik zur Wartungsoptimierung. Es braucht daher eine automatisierte Methodik zur Bewertung und Korrektur von Zeitreihen-Daten. 

Diese Aufgabenstellung ist vielfach in den Organisationen nicht verankert, weil sie für die bisherige, sporadische und rein visuelle Nutzung von Daten nicht erforderlich war. Die Methodik muss den Zielkonflikt Qualität vs. Überdeckung meistern. Sie muss automatisiert laufen und in einen Datenqualitätsprozess eingebunden sein. 

 Mindere Datenqualität ist ein Hemmschuh für präventive Wartung (CMB, PDM) 

 Egal welche analytischen Verfahren für die Optimierung von Wartungsprozessen angewendet werden, die Qualität der Input-Daten ist entscheidend für die Verlässlichkeit der Ergebnisse. Hohe Datenqualität ist daher eine notwendige Bedingung für die Akzeptanz analytischer Ansätze. 

 In der Regel sind Datensätze zu den Betriebslasten von Flotten und Anlagen verfügbar. Teilweise decken sie auch lange Zeiträume ab. Allerdings werden diese Zeitreihendaten nur fallweise gesichtet oder bewertet. Daher sind sie generell mit Qualitätsmängeln behaftet. Für die rein visuelle Kontrolle ist das akzeptabel. Automatisierte Datenverarbeitung hat aber hohe Datenqualität zur Voraussetzung, weil schon einzelne Abweichungen das Ergebnis stark verzerren können. Die Datenqualität muss daher 100% geprüft und ggf. durch Korrektur dargestellt werden. 

 Die Prüfung von Zeitreihendaten: ein Quality Gate 

 Die Forderung nach hoher Qualität ergibt sich also aus der Notwendigkeit, fehlerhafte Analyseergebnisse zu vermeiden. Datensätze werden daher zunächst beurteilt. Für größere Anlagen und Flotten ist das nur als automatisierter Prozess realistisch. Dafür hat sich eine Kombination aus Kriterien, wie Mittelwert, Streuung, Schwellwert, Ausreißer und Befüllungsgrad bewährt. Die beabsichtigten Analyse-Verfahren liefern die Grenzwerte für diese Qualitätskriterien. 

Die Freigabe oder die Zurückweisung von Datensätzen erfolgt dann auf Basis dieser Kennwerte. Als Ergebnis liefert dieses Quality-Gate die quantitative Bewertung der Datensätze und ein Reporting, das den Fokus für die Verbesserung der Datenerhebung spezifiziert. 

 Die Korrektur von Zeitreihendaten 

 Die Zurückweisung von Datensätzen minderer Qualität führt schnell zu mangelnder Überdeckung der Lastgeschichte, was ebenfalls die Ergebnisqualität der Analytik untergräbt. Die Korrektur von Datensätzen soll das verhindern. Generell sind Daten-Korrekturen aber nur dann zulässig, wenn sie die Analyseergebnisse nicht verfälschen. Das kann man verhindern, indem man kanalweise und im Licht der Analysealgorithmen entscheidet, welche Verfahren eingesetzt werden. So ist es beispielsweise zulässig, einen trägen Temperaturkanal zu interpolieren. Das kann bis zu einer Länge der charakteristischen Abkühlzeit geschehen, denn Innerhalb dieses Intervalls kann auf Grund der thermischen Trägheit keine relevante Fluktuation auftreten. Bei volatilen Kanälen, die z.B. Schaltereignisse enthalten können, ist dieses Vorgehen dagegen verboten. 

 Sachgerechte Datenkorrektur erfordert also eine Kenntnis der möglichen Lastantworten des überwachten Systems und den Überblick über die Analytik-Anforderungen. Ersteres ergibt sich aus den vorliegenden Überwachungsdaten. Für letzteres ist eine konkrete Zielfestlegung zur Analytik wesentlich. Eine solche muss es aber bei CMB/PDM Projekten ohnehin geben. 

 Für Vergleichbarkeit der Ergebnisse über längere Zeiträume werden die Bewertungskriterien, Grenzwerte und Korrektur-Algorithmen konstant gehalten. Die korrigierten Daten werden gekennzeichnet, die Rohdaten bleiben gespeichert. Damit die die Rückverfolgbarkeit gewährleistet. 

 Der Datenprozess 

 Die Prüfung und die Korrektur von Daten sind als Teil eines Datenqualitätsprozesses zu etablieren. Er ist die Voraussetzung für die Vermeidung fehlerhafter Ergebnisse und damit für hohe Nutzerakzeptanz. Weil die Implementierung der Datenqualität aber mühsam und kostspielig ist, muss sich diese Arbeit auf die Risiko- und Kostentreiber konzentrieren. 

VORTEILE:

Uptime Pfeil Icon

Die automatische 100% Prüfung der Daten im Quality-Gate steuert die Fehlerbeseitigung bei der Datenerhebung und beim Datentransfer.

Uptime Pfeil Icon

Die kanalweise definierte Korrektur sorgt für hohe Qualität bei gleichzeitig hoher Abdeckung.

Uptime Pfeil Icon

Diese Datenvorverarbeitung ist essenziell für verlässliche Analyseergebnisse und damit für hohe Nutzerakzeptanz.

Weitere Artikel

Die Rolle des Digitalen Zwillings in der Instandhaltung

Die digitale Abbildung der Struktur und Hierarchie eines mechatronischen Systems erscheint oft als lästige Fleißaufgabe....

Ist prädiktive Wartung ein nützliches Konzept?

„Anlagen betreiben, bis es einen Maschinencrash gibt?“ oder „Versuchen eine Lebensdauerprognose für Bauteile abzugeben?“, die...