Die Behandlung des „bad actors“ Problems

Uptime Engineering > Blog > Die Behandlung des „bad actors“ Problems

Kurzfassung

Die Überwachung und Analyse von Daten für prädiktive Wartung gehen davon aus, dass der Anlagenzustand in der Lastantwort enthalten ist und dass die Streuung der Belastbarkeit gering ist. Das Versagens-Risiko steigt, sobald sich die kumulierte Belastung der Belastbarkeit nähert. Mit geeigneten Modellen und Daten zur Lastgeschichte erhält man daher eine gute Schätzung für die Lebensdauer der Instanzen. Dieses Konzept lässt sich daher sehr effektiv für prädiktive Wartung nutzen. Die Genauigkeit der Vorhersage ist im Wesentlichen durch die Streubreite der Bauteil-Eigenschaften limitiert.

 Wenn ungeplante Ausfälle vorzeitig und auf einen geringen Prozentsatz der Instanzen konzentriert sind, dann stimmen die Annahmen nicht mehr und haben wir es mit dem „bad-actors“ Problem zu tun. Dann gibt es verborgene Einflussgrößen, die in den obigen Konzepten nicht abgebildet sind. Die primäre Aufgabe ist dann die Ermittlung der Ursachen für die Konzentration des Ausfallsrisiko.

Es gibt eine Reihe von Ursachen für vorzeitiges, konzentriertes Ausfallsgeschehen. Ihre Behandlung wird im Folgenden erläutert.

  1. Fehlbelastung

Sie kann zu Schädigung führen, weil Aggregate primär für die vorhersehbaren Extremlasten mechanischer, thermischer, elektrischer oder chemischer Natur ausgelegt werden. Ihre Erprobung sollte sie zwar gegen die entsprechende Vielfalt der schädigenden Effekte schützen, in der Praxis ist das für den gesamten Nutzungsraum kaum realistisch. Das ist primär für die Nebenaggregate von Großanlagen riskant, weil sie je nach den tatsächlichen Betriebsbedingungen auch weitab von ihrer Auslegung laufen. Entsprechend treten nicht-erwartete Effekte auf, wie Kaltlauf-induzierte Ölverdünnung oder Versottung, Relais-Erosion oder Lager-Verschleiß durch hohe Schaltfrequenz, Korrosion durch nicht-vorhergesehene Medien oder Stehzeiten.

Aufgaben

Schadensanalysen sollten den Belastungsaspekt generell mitberücksichtigen. Dazu ist mitunter eine Messkampagne oder auch permanente Sensorik an den kritischen Aggregaten erforderlich. Die damit gewonnenen Messdaten dienen neben der Verifikation der Ursache auch zur Ermittlung der kritischen Betriebsweisen der Anlage. Damit lässt sich ableiten, welche Einschränkungen einen schonenden Betrieb gewährleisten oder wie ein belastungsgerechtes Aggregat auszulegen ist.

  1. Dynamischer Betrieb

Die Belastungs-Dynamik kann zu nicht-intendierten, schädigenden Belastungen führen, wenn die Lastantworten einzelner Aggregate den Belastungen hinterherhinken (z.B. Heizungs- und Kühlungsverzug). Dann kommt es transient zu Abweichungen von den Sollwerten der Temperatur, des Drucks, der Spannung, etc. Weil diese Abweichungen i.d.R. lokal an hochbelasteten Bauteilzonen auftreten, verschärfen sie z.B. thermisch induzierter Spannung oder Verschleiß. Auch die transiente Kavitation von Pumpen oder Kühlsystemen oder die Nebeneffekte von Schaltereignissen wären hier zu nennen.

Aufgaben

In vielen Fällen wird die Anlagebelastung simuliert. Allerdings ist die Dynamik von Anlagen damit nur unzureichend genau bestimmbar, primär weil die Inputdaten für die Modell-Kalibrierung oft fehlen. Sie lassen sich i.A. aber relativ rasch messen, z.B. in Form von Heizkurven, induktiven Schaltspannungen, etc. Mit den Ergebnissen der damit kalibrierten Modelle wird sodann die Dynamik so begrenzt, dass die Schädigungswirkung transienter Überlasten verschwindet.

  1. Streuung der Bauteil-Belastbarkeit

Bauteile überleben den Betrieb, solange ihre kumulierte Belastung kleiner ist als ihre Belastbarkeit. Bei grober Fehleinschätzung der Belastbarkeit fallen alle Bauteile aus. Wir haben es mit einer „Kinderkrankheit“ zu tun, die eine Design-Änderung erfordert. Das ist der worst-case, den wir hier nicht betrachten.

Bei Grenzauslegungen fallen dagegen nur die qualitativ schlechtesten Instanzen vorzeitig aus. Statt eines Schadteils wird dann häufig ein Tauschteil mit höherer Belastbarkeit verbaut. Das Problem verschwindet also, weil der Betrieb über die Zeit die jeweils schlechtesten Bauteile beseitigt. Es kann allerdings lange dauern, bis alle „bad actors“ beseitigt sind. Daher bleibt die Verfügbarkeit reduziert und der Reparatur-Anteil hoch.

Aufgaben

Der Zeitverlauf der Ausfallsrate bietet den Anhaltspunkt. Er muss über die Zeit sinken, weil der Anteil der Instanzen schlechter Qualität abnimmt. Das wird mit einer Weibull-Analyse der Bauteil-Lebensdauern analysiert, um dann die entsprechenden Qualitätsmaßnahmen zu ergreifen. In der Praxis fehlt dieses Vorgehen, wenn es sich nicht unmittelbar rechnet, wenn also Bauteil-Tests kostspielig, defekte Bauteile aber günstig tauschbar ist. In Summe können dennoch hohe versteckte Kosten durch Ausfalls-Zeiten und ihre Folgen anfallen.

  1. Herstellungs-Qualität der Anlage

Für die Qualität einer Anlage ist über das Bauteil hinaus die gesamte Prozesskette, inklusive Zusammenbau und Installation relevant. Die Installation von Anlagen, die aus vielen Aggregaten bestehen (Eisenbahnweichen, Industrie-Anlagen), ist schon aus Gründen der Abmessungen und des Gewichts eine herausfordernde Aufgabe. Entsprechend streuen die Eigenschaften von Anlagen durch Unterschiede der Einbettung, der Toleranzketten, der Signalanbindung. Grenzlagen führen permanent zu Fehlbelastungen mit überhöhter Schädigung. Teiletausch adressiert diese Ursachen nicht, weil es sich bei den Schadteilen nur um die Opfer der Wirkkette einer nicht sachgerechten Installation handelt und die neuen Teile daher wiederum fehlbelastet werden.

Aufgaben

Die Überwachung von Anlagen startet häufig erst im Problemfall oder nach der Gewährleistung. Effizienter ist es, die Anlagen schon ab der Installation zu überwachen. Ihre anfänglichen Lastantworten sind hervorragende Indikatoren für mangelhafte Installationsqualität. Abnahmetests leisten das häufig nur eingeschränkt auf die jeweiligen Testfälle. Ergänzend sollte die Lastgeschichte verdächtiger Instanzen überwacht werden, denn sie erlaubt einen Rückschluss darauf, welcher Art die Auswirkung einer mangelhaften Installation ist (mechanische, thermische, elektrische, chemische Belastbarkeit).

  1. Zeitliche Stabilität einer Anlage

Nach einer Einlaufphase sollten sich die Eigenschaften einer Anlage stabilisieren. Häufig ändern einzelne Instanzen (z.B. eines Windparks, einer Fahrzeug-Flotte, etc.) aber ihr Verhalten monoton oder auch „stochastisch“. Die Ursachen dafür sind entsprechend monotoner Natur, wie z.B. die Setzung des Untergrunds einer Anlage, oder zeitlich variable Effekte wie Regelungsprobleme. Auch wenn solche Änderungen nicht direkt zu Ausfällen oder Fehlfunktionen führen, so verschärfen sie doch die Belastung und Schädigung, was jedenfalls die Lebensdauer der Aggregate reduziert.

Aufgaben

Die sich ändernden Bedingungen oder Anregungen liegen häufig außerhalb der Anlagenüberwachung. Sie sind daher indirekt über Trends, Drifts und Streubreiten der gemessenen Größen zu detektieren. Daher sollten globale Kenngrößen, wie Effizienz, Lastverlauf, Öltemperatur, etc. breit überwacht werden, und zwar auch dann, wenn sie nicht direkt einem konkreten Ausfallsrisiko zuzuordnen sind.

 

Alle beschriebenen Effekte sind in der Praxis einzeln wie auch gemeinsam anzutreffen. Sie dominieren häufig das Ausfallsgeschehen und mitunter auch die Instandhaltung. Entsprechend sind sie vorrangig zu behandeln wie oben dargestellt. Der Business-case für die Komplett-Überwachung und Analyse von Anlagendaten kann trotzdem attraktiv sein. Er ist aber erst im Anschluss daran zu betrachten.

Weitere Artikel

Die Hauptsätze der System-Zuverlässigkeit

Was unser das Leben als Teil der Techno-Sphäre anstrengend macht, ist ihre Unzuverlässigkeit.

Anomalie-Detektion für zustandsbasierte Wartung

Wie kommen wir dahinter, dass etwas mit der Technik nicht in Ordnung ist – und...