Anomalieerkennung und Edge Computing
Calendar Icon - Dark X Webflow Template
May 1, 2024
Clock Icon - Dark X Webflow Template
5
 min read

Anomalieerkennung und Edge Computing

Die Erkennung von Anomalien am IoT-Edge erweitert die Fähigkeit der Mitarbeiter schnell auf Ausreißer zu reagieren.

Maschinenstillstand, defekte Ausrüstung, ineffiziente Prozessediese können sich auf lange Sicht als ziemlich teuer herausstellen. Dann haben Sie all die verpassten Gelegenheiten, übergreifende Muster und Trends zu erkennen, die Ihr Unternehmen möglicherweise verändern können. Unternehmen können es sich nicht länger leisten, darauf zu warten, dass etwas schief geht, und rückwirkend Maßnahmen zu ergreifen. Der anhaltende Bedarf an Entscheidungen in Echtzeit und vorausschauender Handhabung ist in Industrieunternehmen zur Norm geworden. Lesen Sie weiter, um zu erfahren, wie die Erkennung von Anomalien am IoT-Edge hier helfen kann.

Die Industrie nutzt die Sensordaten von IoT-Geräten, um Muster und Ausreißer in ihren Daten zu erkennen, in der Hoffnung, ein umfassendes Bild ihrer Abläufe zu erhalten und Effizienzlösungen voranzutreiben.

Ein Aspekt dieser globalen Entwicklung hin zu prädiktiver Analytik ist die jüngste Fokussierung auf die Erkennung von Anomalien. Ein Sonderfall dieses Trends zur Prävention ist die Erkennung von Anomalien im Zusammenhang mit die jüngste Umstellung auf Edge Computing. Ein Teil des Grundgedankens hinter dem Einsatz von Edge Computing ist Autonomie. Dieser Ansatz ermöglicht eine stärkere lokale Optimierung und Unmittelbarkeit.

Sowohl die Erkennung von Anomalien als auch das Edge-Computing sind definiert und angegangen örtlich. Lassen Sie uns herausfinden, wie sie zusammenarbeiten.

Wie gehen wir mit Anomalien um?

Das Verständnis, wie Probleme im Zusammenhang mit der Erkennung von Anomalien unterteilt, in Konzepte zerlegt und individuell angegangen werden können, hat das Innovationstempo erhöht. Je mehr sich die technologischen Möglichkeiten weiterentwickeln und je mehr wir in der Lage sind, Probleme zu lokalisieren, um globale Lösungen zu finden, desto mehr erweitern wir die Grenzen der Innovation.

Berücksichtigung des Ökosystems

Ein Effekt dieser Entwicklung ist die Verschiebung von Regeln zu Kontexte. Die Regeln für die Erkennung von Anomalien setzen ein umfassendes und tiefes Verständnis der zugrunde liegenden Merkmale eines Systems voraus. Regelbasierte Techniken funktionieren jedoch aufgrund ihrer tief verwurzelten Starrheit möglicherweise nicht in Szenarien zur Erkennung von Anomalien. Damit wir angemessene Maßnahmen ergreifen können, müssen sich die Regeln ständig ändern. Aus diesem Grund haben sich die Dinge langsam hin zur Erkennung von Anomalien auf der Grundlage der Mustererkennung verlagert. Das erhöht die Flexibilität. Die Anomalie kann nur anhand der Ökosysteme definiert werden, in denen sie sich manifestiert, wobei die Lebenszyklen und das Verhalten der angrenzenden Dinge im Laufe der Zeit berücksichtigt werden.

Das Konzept aufschlüsseln

Andererseits müssen wir uns auch mit dem Konzept der Anomalie auseinandersetzen. Um das Problem der Anomalieerkennung anzugehen, d. h. um eine Technik zur Erkennung von Anomalien und ein praktikables Modell zur Erkennung von Anomalien zu entwickeln, muss dieser scheinbar monolithische Teil eines Konzepts unterteilt werden in umsetzbar fragen. Wenn wir die kritischen Fragen herausziehen, die hinter dem Konzept stehen, haben wir am Ende eine viel detailliertere Vorstellung davon, wie es weitergehen soll: welche Methode zur Erkennung von Anomalien wir wählen sollten, welcher Deep-Learning-Algorithmus entwickelt werden muss, welche Erkennungsaufgaben zu priorisieren sind.

Traditionelle Definitionen dienen als generische Platzhalter für Teile der Realität, die weitaus komplexer und nuancierter sind als der ursprüngliche theoretische Aufbau. Der erste Schritt besteht also darin, eine benutzerdefinierte Definition zu erstellen und zu prüfen, ob diese Definition erkenntnisorientiert. Das heißt, wir müssen sehen, ob sich dies in Maßnahmen niederschlägt, die sich in Einsichten niederschlagen. Dann fängst du an, die Definition zu verfeinern und ihr Dimensionalität hinzuzufügen.

Definition von Anomalien im Zeitalter intelligenter Geräte

Der zweite Schritt besteht darin, die Kausalität festzustellen. Dies hängt in gewisser Weise mit der Frage der Dimensionalität zusammen, da es dem Konzept Breite und Tiefe verleiht. Abgesehen von Umfang und Kontext berücksichtigen Sie in dieser Phase jedoch auch historische Informationen und erstellen eine historische Darstellung von Mustern.

  • Kausalität: Warum ist das eine Anomalie?

Die dritte Frage ist zukunftsorientiert und weist bereits auf einen umsetzbaren Plan hin:

  • Aktion: Was tun wir dagegen?

Diese letzte Frage fasst die verbleibenden zusammen. Auch hier muss das in diesem Prozess entwickelte Konzept umsetzbar sein und in einen Kontext gestellt werden. Dann definieren wir die Maßnahmen, die wir ergreifen sollten, und legen die am besten geeignete Methode zur Erkennung von Ausreißern fest.

Umstellung auf Edge Computing

Anomalieerkennung am IoT-Edge erweitert die menschliche Kapazität um auf Ausreißer zu reagieren. Reagieren schnell, innerhalb eines Zeitrahmens, der Folgendes ermöglicht angemessene Maßnahmen, ist unerlässlich. Edge Computing ist Teil der vorgeschlagenen Methode geworden, da es eine zuverlässige Erkennungsleistung gewährleistet und gleichzeitig schneller ist als Analysen in der Cloud.

Wie? Beim Edge-Computing geht es darum, Teile des Rechenprozesses an verschiedene physische Orte zu bringen, Verlagerung der Datenverarbeitung dorthin, wo sie benötigt wird. Die Nutzung der Rechenleistung am Rand der Computernetzwerke erfolgt aus zwei Hauptgründen: aus Gründen der Schnelligkeit und zur Vermeidung von Kommunikationsunterbrechungen. Wenn es nötig ist schnelle Reaktionszeiten, das Rechnen muss in Randnähe stattfinden.

In einer IIoT-Umgebung ist ein optimales IoT-Design entscheidend. Dies bedeutet die Verteilung der Speicher- und Rechenressourcen entsprechend der Priorität und Bedeutung eines gemessenen Zustands.
Und das erfordert einen genaueren Blick auf die Extraktionspunkte und Eigenschaften der Daten, mit denen wir uns im IoT-Kontext befassen.

Die jüngste Entwicklung im Bereich Edge Computing zeigt, dass Hersteller eine klare Präferenz für mehr Autonomie und niedrige Bandbreite haben. Eine größere Autonomie führt zu schnellen Reaktionszeiten, wohingegen eine niedrige Bandbreite es Ihnen ermöglicht, die Kommunikation mit der zentralen Steuerung einzuschränken und führe die Aggregation lokal durch. Dann wird nur das Ergebnis der Analyse gesendet, wodurch Rechenressourcen eingespart und Informationsverluste vermieden werden.

Sicherung der Datenqualität

Die Beliebtheit dieses Ansatzes zeigt, dass die Verfügbarkeit, Qualität und Größe von Daten nach wie vor große Herausforderungen in der intelligenten Produktion darstellen. Was bedeutet das? Erstens können wir nicht versuchen, ein Modell für maschinelles Lernen ohne qualitativ hochwertige Daten zu trainieren, d. h. ohne zuverlässige, korrekte und angemessen modellierte Eingabedaten. Zweitens benötigen die Daten Beschriftungen, um Klassifizierungsalgorithmen trainieren zu können. Drittens können die Trainingsdaten aus verschiedenen Quellen gesammelt werden. Dies erfordert einen Remote-Mechanismus, um Edge-Anwendungen bei Bedarf bereitzustellen.

Außerdem führt das Sammeln riesiger Mengen an Rohdaten häufig zur Schaffung eines unbrauchbaren Datensees. Ungefilterte Daten, die kontinuierlich gestreamt werden, verbrauchen Speicherressourcen und verursachen Störungen im Modell, wo die Daten benötigt werden, um neue ML-Modelle zu trainieren. Zufällig gesammelte Big Data führen nicht unbedingt zu Wissen. Um Daten angemessen vorzuverarbeiten und zu kennzeichnen, müssen wir intelligente Funktionen am Netzwerkrand einsetzen. Wir brauchen intelligente lokale IoT-Analytik.

Einige Beispiele

Auf der Ebene der Edge-Geräte ist für den Betrieb der Mess- und Datenstreaming-Prozesse eine minimale Anzahl von Parametern erforderlich, z. B. Sampling- und Streaming-Frequenzen. Auch hier kann kontinuierliches Streaming zu riesigen Mengen an IoT-Daten führen. Es ist eine gute Idee, die Anhäufung von Daten zu verhindern, indem Sie die Priorität des Datenstreamings berücksichtigen. Ein solcher Prozess erfordert eine (vorzugsweise automatisierte und adaptive) Entscheidung über die Priorität der Daten, d. h. ob Echtzeitdaten gestreamt und/oder vorübergehend oder dauerhaft gespeichert werden.

Nehmen wir als Beispiel die Temperaturempfindlichkeit des Falzpressens in einer Automobilfabrik. Ein offenes Fenster oder eine offene Tür können die Präzision des empfindlichen Verfahrens und damit die Produktqualität beeinträchtigen. Man sollte jedoch nicht den Zustand aller Fenster und Türen in der Fabrik zu einem bestimmten Zeitpunkt streamen. Das lokale Wartungsgerät sollte eine solche Änderung bei Bedarf melden, was von einem Algorithmus erkannt wird. Ein anderes Beispiel ist die Quietscherkennung mit Geräuschschnipseln in einem fahrenden Auto. Hier können wir neuronale Netzwerkmodelle auf Edge-Geräten ausführen, um Daten zu klassifizieren und nur relevante beschriftete Daten an die Datenbank zu senden. Das spart Zeit und Ressourcen.

Latest articles

Browse all