Maschinelles Lernen an der Edge: Einige Anwendungsfälle der Neuerungserkennung an IIoT-Gateways

Whitepapers Maschinelles Lernen Internet der Dinge

In diesem Beitrag stellen wir das Design und die Entwicklung der Module für maschinelles Lernen (ML) für zwei Fallstudien vor. In beiden Fällen haben wir ein ML-Modell entwickelt, um das normale Verhalten des Systems zu erlernen, damit wir erkennen können, welche abnormalen Bedingungen auftreten können. Ein solcher Rahmen wird üblicherweise als Anomalie-Erkennung bezeichnet (auch bekannt als Fehlererkennung oder Neuheitserkennung). Unseren Modellen gelang es, die eingeschleusten Anomalien zu erkennen. Darüber hinaus wurden keine Anomalien beobachtet, wenn das Modell mit normalen Daten gefüttert wurde. Die Ergebnisse werden unter Berücksichtigung des Kompromisses zwischen der Art der Sensoren, des Lernalgorithmus, des Trainingsaufwands und des Rechenaufwands diskutiert.

I. EINFÜHRUNG

Das Internet der Dinge (Internet of Things, IoT) hat es möglich gemacht, eine riesige Menge an Daten von realen Objekten durch die angeschlossenen Geräte zu sammeln. Die Überwachung der Umwelt und der Maschinen, aus denen sich die heutigen Industrieanlagen zusammensetzen, war dank der Verbreitung kostengünstiger und stromsparender Sensoren sowie leistungsstarker Einplatinencomputer (SBC), die als IoT-Gateways eingesetzt werden, noch nie so machbar und erschwinglich. Die Gewinnung der erfassten Daten, um ihr verborgenes Potenzial auszuschöpfen und sie in Gold zu verwandeln, ist jedoch weder trivial noch leicht in Standardprozesse zu übertragen, da es eine Vielzahl von Maschinen gibt, die eingesetzt werden können, und unterschiedliche Möglichkeiten, sie zu "erfassen" und ihren Gesundheitszustand zu überprüfen.

II. ZUSTANDSÜBERWACHUNG UND FEHLERERKENNUNG IN IOT-SYSTEMEN

Mehr oder weniger aktuelle Begriffe wie "Fehlererkennung und -diagnose", "Zustandsüberwachung", "vorausschauende Wartung" und eine Fülle von Variationen des Themas sind im Jargon der Smart Factory populär geworden oder haben eine neue Bedeutung erhalten. Obwohl die Grenzen zwischen diesen Begriffen oft unklar sind, beziehen sie sich im Allgemeinen auf eine Reihe verschiedener Strategien, die darauf abzielen, sowohl unerwartete Ausfälle als auch die Wartungskosten eines Unternehmens durch die frühzeitige Erkennung von potenziell gefährlichen oder sogar katastrophalen Fehlern zu senken. Das Zusammenspiel von IoT und Künstlicher Intelligenz (KI) hat die Türen zu neuen datengesteuerten Ansätzen für die Sicherheit und Zuverlässigkeit von Industrieprozessen geöffnet [1]. Durch den Einsatz verschiedener Sensortypen ist es heute möglich, vielfältige Informationen über die in Betrieb befindlichen Maschinen und die Umgebung zu sammeln und zu verarbeiten: Strom, Spannung und andere elektrische Größen, Temperatur, Druck und Feuchtigkeit, Vibrationen und akustische Signale, elektromagnetische Strahlung in verschiedenen Frequenzbereichen und so weiter [2].

Bei der Online-Zustandsüberwachung (CM) werden eine oder mehrere Variablen - Zustandsparameter - an einer Maschine gemessen, während diese in Betrieb ist, um zu prüfen, ob sie oder andere abgeleitete Größen innerhalb der "akzeptablen" Grenzen im Hinblick auf physikalische, konstruktive oder sicherheitstechnische Aspekte oder im Vergleich zu den historischen Veränderungen liegen [3]. Diese Prüfung wird mit Ansätzen durchgeführt, die von Schwellenwertprüfungen für einzelne Parameter bis zu regelbasierten Expertensystemen, von modellbasierten Methoden (z. B. Finite-Elemente-Methoden) bis zu ausgefeilten maschinellen Lernverfahren reichen [4]. Im Allgemeinen wird ein Alarm ausgelöst, wenn eine solche Prüfung fehlschlägt, was eine Entscheidung darüber auslöst, ob und welche Art von Korrekturmaßnahmen ergriffen werden sollen. In diesem Sinne ist CM die wichtigste Voraussetzung für die vorausschauende Instandhaltung (Predictive Maintenance, PM), d. h. die Nutzung von Messdaten zur Vorhersage bevorstehender Ausfälle [5] und zur Bestimmung des kostengünstigsten Zeitpunkts für den Eingriff in eine Maschine. Auf der Grundlage der Informationen, die von den Bewertungen des Zustandsüberwachungssystems zur Verfügung gestellt werden, können daher Wartungsarbeiten und der teilweise oder vollständige Austausch von Maschinen geplant werden.

Es gibt eine umfangreiche Literatur zu diesem Thema, die eine Vielzahl von Perspektiven und Anwendungsbereichen umfasst. Eine zehn Jahre alte Zusammenfassung von NASA-Forschern findet sich in [6] über KI-Techniken für die Prognostik, d. h. die Erkennung von Vorboten eines Ausfalls und die Vorhersage, wie viel Zeit bis zu einem wahrscheinlichen Ausfall verbleibt". In [7] findet sich ein Überblick über die neuesten statistischen, datengesteuerten Lösungen für die Schätzung der Restnutzungsdauer (RUL), d. h. der zu einem bestimmten Zeitpunkt verbleibenden Nutzungsdauer einer Anlage, die eine entscheidende Rolle bei der zustandsorientierten Instandhaltung (CBM) spielt. In einer Literaturübersicht über Prognosemethoden für die zustandsorientierte Instandhaltung [8] wurden diese in vier Kategorien eingeteilt (physikalische, wissensbasierte, datengesteuerte und kombinierte Modelle), wobei der Schwerpunkt sowohl auf parametrischen als auch auf nicht-parametrischen datengesteuerten Ansätzen lag. Um einen detaillierten Überblick über "Diagnose und Prognose mechanischer Systeme, die CBM implementieren, mit Schwerpunkt auf Modellen, Algorithmen und Technologien für die Datenverarbeitung und die Entscheidungsfindung bei der Instandhaltung" zu geben, beschreibt [9] auch die Techniken der Datenfusion mehrerer Sensoren. In [10] wird eine Zusammenfassung der Anwendungen von Deep Learning in maschinellen Gesundheitsüberwachungssystemen gegeben, mit besonderem Augenmerk auf Künstliche Neuronale Netze (ANN). [11] gibt einen Überblick über CBM- und PM-Lösungen der letzten fünfzehn Jahre und darüber, wie diese in verschiedenen Maschinenteilen oder Prozessen zum Einsatz kamen.

III. FALLSTUDIEN

Die Fallstudien wurden dank der Teilnahme an einem von der toskanischen Regierung unterstützten Projekt zur Förderung industrieller IoT-Lösungen (IIoT) ermittelt. IIoT ist ein zweijähriges Projekt, das von der Region Toskana finanziert wird und sich auf die Industrie 4.0 konzentriert und 2018 gestartet wurde. Verschiedene Unternehmen arbeiten zusammen, um einen neuen Rahmen zu schaffen, der es Unternehmen erleichtert, in die neue Industrie 4.0-Perspektive zu migrieren, ihre Produkte zu innovieren und die Vorteile des neuen wachsenden Marktes des IIoT zu nutzen.

Das IIoT-Projekt zielt darauf ab, ein neues Produkt zu entwickeln, zu produzieren und auf den Markt zu bringen. Es wird eine Reihe von eingebetteten Hardware-Tools, eine auf Cloud-Diensten basierende Software-Plattform, ML und professionelle Dienstleistungen umfassen. Es richtet sich an alle kleinen/mittleren Unternehmen, die nicht über die nötigen Fähigkeiten verfügen, um sich als digitales Unternehmen oder als digitaler Hersteller zu qualifizieren, sei es in Bezug auf wirtschaftliche oder menschliche Ressourcen, Wissen oder Fähigkeiten. Das System schlägt vor, die anfängliche Wissenslücke für Unternehmen zu verringern und auch die Anfangsinvestitionen des gesamten Prozesses zu verteilen. Das Endergebnis wird eine Reihe von Hardware (Sensoren, Brücken, Gateways) sein, die vollständig in eine Softwareumgebung integriert ist, mit der alle Geräte, der Datenfluss und die Rechenleistung auf verschiedenen Ebenen ferngesteuert werden können. Darüber hinaus wird eine Reihe von ML-Modulen - mit speziellen Entwicklungsprozessen - zur Verfügung gestellt, um die häufigsten industriellen Anwendungen zu lösen.

Es gibt zwei industrielle Hauptkontexte, aus denen die Fallstudien stammen: ein Hersteller von Küchenhauben und ein industrieller Hersteller von Solarenergie.

A. Belüftung - Küchenhaube

In diesem Abschnitt beschreiben wir die Analyse eines Spielplatzes mit mehreren interessanten Aspekten, wobei wir uns auf zwei Details einer Gerätefernüberwachung konzentrieren: die Vorhersage eines diskreten Satzes von Betriebszuständen; die Erkennung möglicher Anomalien in Bezug auf das Standardbetriebsverhalten jedes Zustands.

Die Beweggründe für die Untersuchung eines solchen Problems lassen sich wie folgt zusammenfassen: Echtzeitüberwachung von Sensoren, die Zeitreihen mit hoher Frequenz liefern und eine schnelle Dynamik aufweisen, die schnell in eine Fehlersituation ausarten kann; die Analyse einer physikalischen Messung, die nicht direkt mit dem zu überwachenden Phänomen zusammenhängt; die Untersuchung eines Ensembles von Modellen, die sowohl überwachte als auch unüberwachte ML-Techniken kombinieren; das Testen von Randberechnungsleistungen, während eine Hochfrequenzberechnung auf einem Single Board Computer mit niedrigem Stromverbrauch läuft.

Die Ergebnisse einer ersten qualitativen Analyse zeigen, dass die globalen Berechnungsanforderungen deutlich geringer sind als erwartet und dass der vorgeschlagene Algorithmus in der Lage ist, sowohl den Zustand der Systeme zu klassifizieren als auch Anomalien mit hoher Genauigkeit zu erkennen.

Beschreibung des Systems

Die vorgeschlagene Analyse besteht in der Fernüberwachung einer Dunstabzugshaube über ein IoT-Gateway, wobei alle erforderlichen Berechnungen vollständig auf der Edge-Ebene durchgeführt werden. Insbesondere möchten wir die Arbeitsbedingungen des elektrischen Motors der Abzugshaube analysieren, der eine allgemeine Darstellung jeder Art von Industriemotor sein kann. Das IoT-Gateway ist mit einem Algorithmus der künstlichen Intelligenz ausgestattet, der in der Lage ist, die Datenerfassung in Echtzeit durchzuführen und dabei eine intensive Arbeitsbelastung der Netzwerkkommunikation aufrechtzuerhalten, was sowohl zu Verkehrs- als auch zu Sicherheitsproblemen führen kann [12].

Dieser Ansatz kann in verschiedenen Situationen nützlich sein. Ein Beispiel, das in unserem Fall am interessantesten ist, ist, wenn das System ein Phänomen analysieren soll, das Daten mit hoher Frequenz erzeugt, so dass eine Echtzeitüberwachung in der Cloud unmöglich ist. In diesem Fall führt der Algorithmus direkt die erforderliche Vorverarbeitung durch und erstellt eine Zusammenfassung der Umgebung (d. h. in diesem Fall den aktuellen Zustand und einen eventuellen Fehler).

Die Analyse wird an den Elektromotoren der Abzugshaube durchgeführt, die für die Luftreinigung verwendet werden. Ein solches Gerät hat drei verschiedene Arbeitsgeschwindigkeiten, die verschiedene Arbeitskonfigurationen darstellen. Die erste Aufgabe des Systems besteht darin, den aktuellen Betriebszustand anhand der Schwingungssignatur zu klassifizieren. Natürlich ist die Gewinnung dieser Information nicht entscheidend, da sie aus der SPS der Haube bekannt ist. Die Analyse des Eingangssignals, gepaart mit einer bekannten Information, bietet jedoch einen klar definierten Weg zur Analyse der Daten und zur Entdeckung der besten Datenverarbeitung, um die repräsentativen Merkmale des Phänomens zu erhellen. Die Erfassung der Vibrationssignatur erfolgt durch ein piezoelektrisches Mikrofon, das Daten mit einer hochfrequenten Abtastung erfassen kann und dabei mögliche akustische Geräusche aus der äußeren Umgebung herausfiltert. Die Erfassung von Daten mit diesem hohen Auflösungsgrad ermöglichte uns eine komplexere Analyse in einer Novelty Detection (ND) Konfiguration. Wir haben nämlich versucht, mögliche Anomalien im Mechanismus der Luftstromfilterung zu erkennen, indem wir Veränderungen in der Schwingungssignatur der Zustände analysierten. Zu diesem Zweck haben wir festgestellt, dass es schwierig ist, einen einzigen ND-Algorithmus zu trainieren, der alle möglichen Konfigurationen effektiv überwachen kann. Da wir bereits den Klassifikator trainiert haben, der uns die Bezeichnung des aktuellen Zustands liefert, haben wir beschlossen, für jeden Zustand einen eigenen Agenten zu entwickeln.

Die globale Pipeline ist in Abbildung 1 dargestellt. Da das System, wie bereits erwähnt, in der Lage sein sollte, Daten zu analysieren, die mit einer hohen Frequenz abgetastet werden, werden die Erfassungs- und die Schlussfolgerungsschritte nach der Bereitstellung miteinander verschachtelt, während die Daten für den Trainingsschritt offline gesammelt werden können.

Sobald ein Puffer von Abtastwerten in geeigneter Größe vom Mikrofon erfasst wurde, werden klassische Signalverarbeitungstechniken auf der Grundlage der Fourier-Analyse durchgeführt, um relevante Informationen im Frequenzbereich zu erhalten. Auf diese Weise entsteht eine Reihe von Einzelbildern, die jeweils Informationen über ein kleines Zeitfenster enthalten. Der Zustandsklassifikator führt dann mehrere Vorhersagen für diese Eingabedaten durch und leitet daraus eine Reihe von Kennzeichnungen für die Frames ab.

Ein Mehrheitsentscheidungsansatz wird dann verwendet, um ein einziges robustes Label zu erzeugen. Die endgültige Entscheidung wird verwendet, um das entsprechende Modell für die Durchführung der ND auszuwählen. Das Modell verwendet dieselben Einzelbilder als Eingabe und liefert eine Neuheitsbewertung auf der Grundlage der in der Trainingsphase gesehenen Muster. Da auch die Neuheitsbewertung nicht perfekt ist, haben wir die Vorhersagen für die aufeinanderfolgenden Beispiele, aus denen der Puffer besteht, verwendet, um ein Glättungsfenster für die Bewertungen zu verwenden und so die Robustheit in Bezug auf die Anomaliebewertung zu erhöhen.

Ergebnisse

Alle Experimente wurden auf einem SECO SBC-C23-Gateway durchgeführt, das mit einem NXP i.MX 6SoloX Applications Processor (Cortex A9) CPU [13] ausgestattet ist. Das Eingangssignal wird mit 44,1 KHz und 16-Bit-Kodierung abgetastet. Für jeden Zustand haben wir etwa eine Minute Daten aufgezeichnet, die den Datensatz für das Training des Klassifizierers und des ND-Algorithmus bilden. Die Testdaten für die Erkennung von Anomalien bestehen aus Spuren von etwa 10 Sekunden, die (getrennt) normale Daten oder Daten enthalten, die aufgezeichnet wurden, während der Ausgang des Luftfilters teilweise verdeckt war (für jeden Zustand werden eine normale und eine anomale Spur aufgezeichnet). Die Eingangsmerkmale für beide Algorithmen sind der Logarithmus der Leistung des Frequenzspektrogramms, der auf einem Fenster von 512 Abtastwerten mit einer Überlappung von 25 % berechnet wird (berechnet mit der Librosa-Python-Bibliothek [14,15]), wodurch ein Vektor von 257 Merkmalen entsteht, zu dem wir Informationen über den RMSE des Signals hinzufügen.

SpeedClassification (on single frames)Anomaly Detection (on sequences of frames)
AccuracyDetected AnomaliesFalse Positive Rate
199,7999,851,09
297,2198,790,56
373,2172,010,00
Für jede Geschwindigkeit des Haubenmotors wurde die Klassifizierungsgenauigkeit unter normalen Bedingungen angegeben (erste Spalte). Der Prozentsatz der erkannten Anomalien (zweite Spalte) und der Prozentsatz der falsch-positiven Ergebnisse (dritte Spalte) wird für anomale Bedingungen bei teilweiser Verdeckung des Luftfilterausgangs angegeben.

Sowohl der Klassifikator als auch der Detektor basieren auf neuronalen Netzen (implementiert in Keras [16]). Der Klassifikator ist ein Feed-Forward-Neuronalnetz mit 2 Schichten (mit 100 HU), das eine Vorhersage für 3 Klassen durchführt. Für jede Klasse wird der ND-Algorithmus als einfacher Auto-Encoder (eine versteckte Schicht mit 32 HU) implementiert, wobei der Rekonstruktionsfehler als Bewertung der Abnormalität jedes Musters betrachtet wird. Die Glättung ist so eingestellt, dass etwa 20 Vorhersagen berücksichtigt werden. In dieser Konfiguration kann das Training des Modells in weniger als einer halben Stunde direkt am Rande durchgeführt werden.

In der Testphase ist die eingesetzte Karte in der Lage, Vorhersagen mit etwa 2,5 Hz zu liefern, bei einer CPU-Last von 27 % und einem Speicherverbrauch von 2 % (von 4 GB). Die Genauigkeit und die Erkennungsleistung sind in Tabelle 1 zusammengefasst.

Wie wir sehen können, sind die Vorhersageleistungen recht hoch, mit einem deutlichen Rückgang im Zustand 3, mit höherer Geschwindigkeit und mehr Dynamik in den Frequenzen. Der Ansatz der Mehrheitsabstimmung ermöglicht es uns jedoch, für jeden Puffer von Proben die richtige Klassifizierung zu liefern, wenn innerhalb des Puffers keine Zustandsänderungen aufgetreten sind (allerdings ist jeder Puffer in dieser Einstellung ein Bruchteil einer Sekunde). Der Teil mit der richtigen Bezeichnung ist ein grundlegender Schritt zur Auswahl des richtigen Modells für die Durchführung der ND. Selbst in diesem Fall ist die Rate der erkannten Anomalien in Bezug auf Fehlalarme hoch genug, um weitere Überlegungen zur Schwellenwertbildung zu vernachlässigen.

B. Wasserpumpe

Das zweite Szenario basiert auf einem All-in-One-System, das in der Lage ist, Solarenergie zu absorbieren und zu speichern, sie für verschiedene Dienste im öffentlichen oder privaten Bereich wiederzuverwenden und das Wasser in netzunabhängigen Gebieten zu reinigen. Die Lösung kommt in einem öffentlichen Versorgungskontext in benachteiligten Gebieten der Erde zum Einsatz, in denen die Verfügbarkeit von Trinkwasser und Strom begrenzt ist, eignet sich aber auch für ein privates Umfeld für das häusliche Energiemanagement. Darüber hinaus kann es auch als Wi-Fi-Hotspot für die Gemeinschaft dienen, in der es aufgestellt ist. Er kann mit einer 2G/3G/4G-Datenverbindung ausgestattet werden, die drahtlos mit den umliegenden Geräten geteilt werden kann und so zu einem sozialen Bezugspunkt wird.

Geschäftsfragen zu ML-Problemen für die Gestaltung der Sensoren

Um das Design der IoT-Lösung für die Survivor Box zu definieren, war es notwendig, die geschäftlichen Anforderungen zu verstehen. Die Identifizierung der geschäftlichen Probleme ermöglichte es uns, eine Reihe von Sensoren zu definieren, die an Schlüsselpositionen des mechanischen Systems angebracht wurden. Die Definition des Sensorensatzes ermöglichte es uns, die Geschäftsfrage in verschiedene ML-Probleme umzuwandeln. Das von uns beschriebene Problem ist die Fehlererkennung der Wasseraufbereitungspumpe.

Der zum Erlernen des normalen Verhaltens des Systems verwendete Algorithmus war der Local Outlier Factor (LOF) [17]. Während der Trainingsphase zielt LOF darauf ab, eine oder mehrere Gruppen "normaler" Punkte (ein Punkt ist hier ein 9-dimensionaler Vektor, bei dem jede Komponente einem bestimmten Sensormesswert entspricht) innerhalb der Trainingsmenge zu identifizieren. In der Inferenzphase wird dann der Grad der Abnormalität einer neuen Beobachtung berechnet, basierend darauf, wie isoliert die Beobachtung in Bezug auf die umgebende Nachbarschaft von Punkten ist. Da wir davon ausgingen, dass Beschleunigungsmesser-Messwerte sehr empfindlich auf nicht wahrnehmbare Oszillationen reagieren, die sogar das normale Verhalten des Systems kennzeichnen würden, entschieden wir uns dafür, den Zustand des Systems (normal oder anormal) nicht auf der Grundlage einzelner Vorhersagen unseres Modells abzuleiten, sondern die Vorhersagen des Modells über die letzten 10 Punkte zu mitteln. Das Modell wurde mit Python und der Bibliothek Scikit-learn [18] implementiert. Das Training des Modells auf 2000 Datenpunkten dauerte etwa 20 Sekunden, bei einem CPU [19]) Verbrauch von 2 % und einem Speicherverbrauch von 0,1 % (von 2 GB). Während der Inferenzphase war das Modell in der Lage, etwa 50 Vorhersagen pro Sekunde zu treffen. Die Leistung des Systems wurde bewertet, indem Anomalien eingeschleust und überprüft wurden, ob sie erkannt wurden. Außerdem wurde überprüft, dass normale Beobachtungen nicht als Anomalien eingestuft wurden.

Die beiden Arten von Anomalien, die wir getestet haben, waren:

  • Anomalien des Beschleunigungsmessers: Wir klopften auf die Oberfläche, auf der sich das System befand, und erzeugten dadurch Vibrationen
  • Anomalien des Wasserdurchflusses: Wir haben einen kleinen Griff verwendet, um den Wasserdurchfluss zu regulieren. Die Anomalie wurde simuliert, indem wir das Wasser mit einer anderen Geschwindigkeit fließen ließen, als beim Training des Modells verwendet wurde.

Wir können eindeutig feststellen, dass unser Modell die injizierten Anomalien erfolgreich identifiziert (Tabelle 2). Darüber hinaus wurden keine Anomalien beobachtet, wenn das Modell mit normalen Daten gefüttert wurde.

 Predicted
 NormalAnomaly
TrueNormal10000
Anomaly121988
Die Konfusionsmatrix, die die Vorhersagen des Modells für normale und abnormale Daten angibt (nahezu ausgeglichen bei manueller Störung des Beschleunigungsmessers des Wasserflusses).

Ergebnisse

Eine Veränderung der Umweltbedingungen, die wiederum eine Veränderung der "normalen" Betriebsbedingungen des Systems impliziert, kann sich negativ auf unser Modell auswirken. Wir glauben, dass es mindestens zwei mögliche Lösungen für ein solches Problem gibt: Die erste erfordert, dass das Modell auf einem sehr großen Datensatz trainiert wird, so dass mögliche Änderungen der Umweltbedingungen in den Datensatz "eingebettet" werden. Dies würde jedoch sowohl die Trainingszeit als auch die Inferenzzeit drastisch erhöhen, da LOF ein instanzbasierter Lernalgorithmus ist; die zweite Lösung, die sich auf die Tatsache stützt, dass die Trainingszeit gering ist, wenn die Anzahl der Trainingsmuster ebenfalls gering ist, zielt darauf ab, das Modell neu zu trainieren, wenn sich seine normalen Betriebsbedingungen ändern.

SCHLUSSFOLGERUNGEN

Die Überwachung von Industrieanlagen ist dank der weiten Verbreitung von kostengünstigen und stromsparenden Sensoren sowie leistungsstarken Einplatinencomputern (SBC), die als IoT-Gateways eingesetzt werden, so einfach und erschwinglich wie nie zuvor. Das Zusammenspiel von IoT und ML hat die Tür zu neuen datengesteuerten Ansätzen für die Sicherheit und Zuverlässigkeit von Industrieprozessen geöffnet. In diesen beiden Anwendungen haben wir erfolgreich verschiedene auf ML basierende Methoden getestet, um entweder den Zustand des Systems aus einer Reihe von festen Zuständen vorherzusagen oder um mögliche anomale Situationen zu erkennen, wobei wir sogar beide Ansätze kombiniert haben. Die Überwachung wurde sowohl an direkten als auch an indirekten Messungen in Bezug auf das analysierte Phänomen getestet. Das System kann die Berechnungen am Rande des Systems durchführen, was es uns ermöglicht, mit Umgebungen zu arbeiten, die eine sehr hochfrequente Datenerfassung erfordern, was bei Anwendungen, bei denen es nicht möglich ist, alle Daten mit einem entfernten System zu teilen, entscheidend sein könnte. Diese Vorarbeiten ermöglichten es uns, einige Spielwiesen zu erkunden, um die Kompromisse zwischen Rechenkosten und Leistung bei realen Aufgaben zu bewerten, und legten damit den Grundstein für weitere Untersuchungen an komplexeren Überwachungssystemen in verschiedenen Szenarien.

REFERENZEN

[1] Al-Garadi, Mohammed Ali, et al. "A Survey of Machine and Deep Learning Methods for Internet of Things (IoT) Security." arXiv preprint arXiv:1807.11023 (2018).

[2] Si, Jia, Yibin Li, and Sile Ma. "Intelligent fault diagnosis for industrial big data." Journal of Signal Processing Systems 90.8-9 (2018): 1221-1233.

[3] Gustafsson, J., and F. Sandin. "District heating monitoring and control systems." Advanced District Heating and Cooling (DHC) Systems. Woodhead Publishing, 2016. 241-258.

[4] Sin, M. L., W. L. Soong, and N. Ertugrul. "Induction machine on-line condition monitoring and fault diagnosis-A survey." Australasian universities power engineering conference. Vol. 28. 2003.

[5] Jahnke, Patrick. "Machine learning approaches for failure type detection and predictive maintenance." Technische Universität Darmstadt 19 (2015).

[6] Schwabacher, Mark, and Kai Goebel. "A survey of artificial intelligence for prognostics." Aaai fall symposium. 2007.

[7] Si, Xiao-Sheng, et al. "Remaining useful life estimation–a review on the statistical data driven approaches." European journal of operational research 213.1 (2011): 1-14.

[8] Peng, Ying, Ming Dong, and Ming Jian Zuo. "Current status of machine prognostics in condition-based maintenance: a review." The International Journal of Advanced Manufacturing Technology 50.1-4 (2010): 297-313.

[9] Jardine, Andrew KS, Daming Lin, and Dragan Banjevic. "A review on machinery diagnostics and prognostics implementing condition-based maintenance." Mechanical systems and signal processing 20.7 (2006): 1483-1510.

[10] Zhao, Rui, et al. "Deep learning and its applications to machine health monitoring." Mechanical Systems and Signal Processing 115 (2019): 213-237.

[11] Sakib, Nazmus, and Thorsten Wuest. "Challenges and Opportunities of Condition-based Predictive Maintenance: A Review." Procedia CIRP 78 (2018): 267-272.

[12] Čolaković, Alem, and Mesud Hadžialić. "Internet of Things (IoT): A review of enabling technologies, challenges, and open research issues." Computer Networks (2018).

[13] edge.seco.com/de/

[14] McFee, Brian, et al. "librosa: Audio and music signal analysis in python." Proceedings of the 14th python in science conference. 2015.

[15] github.com/librosa/librosa

[16] keras.io

[17] Breunig, M. M., Kriegel, H. P., Ng, R. T., & Sander, J. (2000, May). LOF: identifying density-based local outliers. In ACM sigmod record.

[18] Scikit-learn: Machine Learning in Python, Pedregosa et al., JMLR 12, pp. 2825-2830, 2011.