Der versteckte Krieg im Internet der Dinge: Der Spezialfall des Ingenieurs und des Datenwissenschaftlers
Calendar Icon - Dark X Webflow Template
August 30, 2023
Clock Icon - Dark X Webflow Template
5
 min read

Der versteckte Krieg im Internet der Dinge: Der Spezialfall des Ingenieurs und des Datenwissenschaftlers

Erfolgreiche IIoT-Implementierungsprojekte erfordern zwei Hauptakteure: den Ingenieur und den Datenwissenschaftler.

Im Kern basiert das Internet der Dinge (IoT) auf der Prämisse, dass eine ausreichende Menge an Daten zu neuen Erkenntnissen über Prozesse und Systeme führen kann. Diese können zur Entscheidungsunterstützung und für neue Produkte und Dienstleistungen genutzt werden. Oder führen zu internen Einsparungen und neuen externen Einnahmequellen. Und erfolgreiche IoT-Implementierungsprojekte erfordern zwei Hauptakteure: den Ingenieur und den Datenwissenschaftler.

Die schnelle Verarbeitung und Analyse maschinengenerierter Daten führt zu positiven Ergebnissen bei der vorausschauenden Wartung und Optimierung von Produktionsprozessen. Es führt aber auch zu einer höheren Kundenzufriedenheit, da es uns hilft, das Nutzerverhalten besser zu verstehen. Vor einiger Zeit, ein umfassende Studie von McKinsey Schätzungen zufolge ist es möglich, die Produktivität und Lebensdauer von Werkzeugmaschinen zu erhöhen, die Wartungskosten um 10 bis 40% zu senken und den Energieverbrauch um bis zu 20% zu senken, wenn Maschinen angeschlossen und überwacht werden.

Ein optimierter Zyklus, der zu abschließenden Maßnahmen führt, ist das Herzstück der zugrunde liegenden Strategie rund um das Internet der Dinge. Die Herausforderung in diesem Zusammenhang besteht darin bringen die Welten der Technik und der Datenwissenschaft zusammen. Im IoT-Kontext müssen diese beiden Spezialbereiche so effizient wie möglich und mit möglichst geringen Reibungsverlusten funktionieren.

Wie und in welchen Phasen der Datenreise schließen Unternehmen die Lücke zwischen Technik (der Welt der Hardware, Mikrocontroller, Chips, Elektronik) und Datenwissenschaft (die Welt des Data Warehousing, der Algorithmusentwicklung, der Datenanalyse) ist eine strategische Entscheidung mit weitreichenden Konsequenzen. Im Folgenden schlagen wir eine Möglichkeit vor, wie der Ingenieur und der Datenwissenschaftler in IoT-Edge-Szenarien zusammenarbeiten können.

Der Wandel zum Edge-Computing

Was motiviert den Wandel in Richtung Edge-Computing und warum sollten wir Intelligenz an den Rand des IoT-Netzwerks verlagern? Ein wichtiger Treiber für diesen Trend ist gleichzeitig eine häufige Herausforderung in Big-Data-Systemen. Dies ist die Notwendigkeit, riesige Datenmengen aus verschiedenen heterogenen Quellen zu erfassen.

Die Kante wird zum Synonym für Geschwindigkeit

Darüber hinaus müssen die Daten für eine mehrstufige Analyse vorbereitet werden. Dazu gehören Datenvalidierung, Datenbereinigung, Transformation, Indizierung, Aggregation und Speicherung. Je nach Art der Daten und dem verfolgten Geschäftsziel benötigen Unternehmen auch eine geeignete Verarbeitungstechnik. Dies kann wiederum von der Stapelverarbeitung bis zur Echtzeitverarbeitung reichen.

Für diejenigen, die große Datenmengen verarbeiten, ist es sinnvoll, die Daten in der Nähe des Ortes zu verarbeiten, an dem sie generiert wurden. Dies gilt, wenn Sie IoT in Komplett-Szenarien oder in sehr sensorintensiven und damit datenintensiven Umgebungen nutzen. Dies ist auf einige unvermeidliche Herausforderungen bei der Datenreise zurückzuführen, darunter Bandbreite, Netzwerklatenz und Gesamtgeschwindigkeit. Edge-Computing wird bei IoT-Anwendungen mit einer unternehmenskritischen oder Remote-Komponente besonders relevant. Hier minimiert Edge-Computing das Risiko eines Datenverlusts. Noch wichtiger ist jedoch, dass es auch in Szenarien, in denen Geschwindigkeit ein wichtiges Unterscheidungsmerkmal bei IoT-Bemühungen ist, eine Beschleunigung bietet.

Die Geschwindigkeit der Datenanalyse ist in vielen industriellen IoT-Anwendungen unverzichtbar geworden. Geschwindigkeit ist ein Schlüsselelement der industriellen Transformation, da Unternehmen zunehmend zu autonomen und halbautonomen Entscheidungen durch Systeme, Aktoren und Steuerungen übergehen. Sie müssen die Generierung aggregierter und analysierter Daten beschleunigen die als verwertbare Informationen dienen können. Und Sie benötigen einen schnellen Entscheidungsweg.

Edge im Vergleich zur Cloud

Während das Speichern und Analysieren der Daten in der Cloud eine tiefere und umfassendere Verarbeitung bedeutet, bietet Edge Computing Geschwindigkeit und Unmittelbarkeit bei der Datenverarbeitung. Eine umfassendere Verarbeitung kann in Cloud-Systemen erfolgen. Dort kombinieren Sie Daten aus verschiedenen Quellen und generieren Erkenntnisse, die am Edge nicht sofort verfügbar sind. Wenn es jedoch um die Geschwindigkeit der Verarbeitung, beschleunigte Entscheidungsfindung und größere Autonomie und damit einen höheren Automatisierungsgrad geht, hat sich die Verarbeitung am Netzwerkrand als der schnellere und intelligentere Ansatz etabliert.

Darüber hinaus ermöglicht die Verarbeitung von Daten am Rand des IoT-Netzwerks Unternehmen, die volle Kontrolle über hochsensible oder urheberrechtlich geschützte Informationen zu behalten. Entscheidungen können am Netzwerkrand getroffen werden. Dadurch bleiben alle Daten im Unternehmen und nur unsensible Informationen würden ihren Weg in die Cloud finden. Außerdem kann die Anonymisierung von Unternehmensdaten am Netzwerkrand erfolgen, sodass Unternehmen kritische Datenbestände vor möglichen Sicherheitsverletzungen schützen können.

Eine umfassende IoT-Lösung würde Geräte auf der Edge-Ebene verwalten, sie miteinander verbinden und Daten von ihnen sammeln. Sie wird sich aber auch mit Big-Data-Techniken für Datenmanagement, Datentransformation und fortschrittliche Analytik befassen. IoT und Big Data können auf einer einheitlichen Plattform zusammengeführt werden, die IoT-Geräte verwaltet und Apps in Echtzeit bereitstellt und gleichzeitig Big-Data-Frameworks und -Anwendungen zum Speichern, Verarbeiten, Analysieren und Visualisieren industrieller Big Data, die durch IoT erfasst wurden, genutzt werden. Wie erreichen wir diese Konfluenz?

Technik und Datenwissenschaft: Die Lücke schließen

Edge-Computing gehört in der Regel den technischen Abteilungen und wird von diesen verwaltet. Dies ist die Welt der Hardware, Mikrocontroller, Chips und Elektronik. Ingenieure arbeiten in der Regel in langsamen Entwicklungszyklen, bei denen sie auf Maschinen zugreifen, ohne die Funktionalität des Ganzen zu beeinträchtigen, Daten von physischen Geräten sammeln und mit großen Mengen eingehender Rohdaten zu kämpfen haben.

Cloud-Dienste, Datenverarbeitung und Analytik gehören in der Regel IT-Abteilungen und Datenwissenschaftlern. Dies ist die Welt der Mathematik, der Informationstechnologien, des abstrakten Wissens und der theoretischen Modelle. An diesem Ende der Skala haben wir agile Entwicklung, schnelle Trial-and-Error-Szenarien, die Entwicklung von Algorithmen und Datenwissenschaft im weitesten Sinne. In der klassischen Konfiguration stellt die technische Abteilung Daten bereit, die aus industriellen Geräten extrahiert wurden, und sendet sie an die Datenwissenschaftler, damit diese an der Generierung von Erkenntnissen arbeiten und eine umsetzbare Entscheidung treffen können.

Einige typische Engpässe bei der IoT-Entwicklung

Was ist das heutige Szenario? Nun, es geht oft um Missverständnisse zwischen zwei Akteuren: dem Ingenieur und dem Datenwissenschaftler. Ingenieure sammeln riesige Datenmengen von ihren Maschinen. Und sie möchten, dass die Daten datenwissenschaftlich untersucht werden, um bestimmte Aspekte ihres Prozesses zu rationalisieren. Also würden sie ein Data-Science-Team beauftragen, an diesen Daten zu arbeiten. Sobald Datenwissenschaftler jedoch mit der Notwendigkeit konfrontiert werden, an die Maschinendaten der Geräte in der Maschinenhalle zu gelangen, müssen sie feststellen, dass das Herausnehmen der Daten aus den Geräten ein langer, mühsamer Prozess ist. Angesichts dieses Szenarios ist es oft so, dass die Engpässe bei IoT-Projekten in der Regel nicht in den Ideen oder Algorithmen liegen, sondern in der Datenpipeline und der Datenqualität.

Die Daten der Konstruktionsabteilung haben manchmal das falsche Format oder nicht das, was gerade benötigt wird. Beispielsweise kann sich herausstellen, dass die Daten mit einer höheren Rate verfolgt werden müssen. Ingenieure müssen möglicherweise zum Edge-Computer gehen, um eine neue Methode zum Extrahieren der Daten zu finden. Um brauchbare Daten zu erhalten, müssen sie möglicherweise sogar neue Edge-Geräte kaufen, um die Daten zu extrahieren. Andererseits können die Daten immer noch unbrauchbar sein. Dann könnte sich herausstellen, dass eine höhere Iterationsrate oder ein größeres Zeitfenster für die Aufzeichnung erforderlich ist. Daher müssen die Edge-Geräte möglicherweise komplett neu konfiguriert werden, um diese Daten auf andere Weise zu erfassen. Dieser Prozess des Hin- und Herlaufens kann mehrere Iterationen umfassen, die Wochen dauern.

Bessere Kommunikation mit einer gemeinsamen IoT-Plattform

Eine praktikable Lösung ist in diesem Fall eine einheitliche Plattform, die den gesamten IoT-Entwicklungszyklus von der Arbeit an der Maschine — angefangen bei der Datenextraktion — bis hin zu den Ergebnissen der Datenwissenschaft abdeckt. Ingenieure können sich bei der Plattform anmelden, um auf das Computergerät am IoT-Edge zuzugreifen, Werte über die Plattformtools festzulegen oder denselben Code/dieselben Konfigurationen auf einer Flotte von IoT-Geräten bereitzustellen, die sich remote befinden. Sobald die Daten eingehen, werden sie an einem Ort auf der Plattform gespeichert, von dem aus Datenwissenschaftler die Historisierungs- und Versionierungsprozesse auf einen Blick verfolgen können. Die Daten werden bereinigt, die Daten können mit anderen Daten zusammengeführt, modelliert und direkt für Analyse- und Visualisierungsaufgaben zur Verfügung gestellt werden.

Eine solche IoT-Plattform schließt die Kommunikationslücke zwischen Technik und Datenwissenschaft. Sie bringt diese Welten über eine einheitliche Schnittstelle zusammen. Datenwissenschaftler können direkt auf den Edge-Computer zugreifen, der die Daten generiert und für die Datenverarbeitung verantwortlich ist. Der Kerncomputer bleibt vollständig getrennt. Es wird nicht von der Plattform gewartet oder verwaltet. Und die Abteilung für Datentechnik muss sich nicht mehr der Herausforderung stellen, in Echtzeit auf die eigentliche Maschine zuzugreifen. Über die Plattform haben sowohl IoT-Ingenieure als auch das Datentechnikteam die Vorteile des Fernzugriffs. Sie können Code drahtlos bereitstellen und mithilfe der Geräteverwaltungsfunktionen sehen, woher die Daten stammen und welches IoT-Gerät an einem bestimmten Standort eingesetzt wird.

Die IoT-Plattform als verbindender Knotenpunkt

Eine solche IoT-Plattform wird zum „digitalen Rückgrat“ des industriellen Betriebs einer Organisation. Hier verbinden zwei Akteure — der Ingenieur und der Datenwissenschaftler — Software und Hardware, um den Wert des Geschäftsbetriebs zu nutzen.

Eine IoT-Plattform, die für die intelligente Fertigung bereit ist, umfasst künstliche Intelligenz, d. h. maschinelles Lernen und Deep Learning, Big-Data-Technologien sowie etablierte Automatisierungstechnologien für das Data-Mining aus verschiedenen Datenquellen, Datenmodellierung, statistische Analyse, Datenvisualisierung sowie die Fähigkeit, mit jeder Programmiersprache zu arbeiten. Eine solche Plattform dient nicht nur als Enabler für das IoT-Ökosystem, sondern nutzt auch ihre eigene Infrastruktur als digitale Drehscheibe, in der Gerätemanagement und App-Entwicklung auf eine fortschrittliche Data-Science-Toolchain treffen, um schneller umsetzbare Erkenntnisse zu generieren.

Eine IoT-Plattform, die für die Bewältigung kritischer IoT-Herausforderungen am IoT-Edge gerüstet ist, bietet eine Kombination aus Funktionen wie der Verwaltung von IoT-Endpunkten und Konnektivität sowie Tools für die Entwicklung und Integration von IoT-Anwendungen. Darüber hinaus ergänzt eine IoT-Plattform, die Ingenieure und Datenwissenschaftler zusammenbringt, diese Funktionen durch den Zugriff, die Erfassung und Verarbeitung von IoT-Daten sowie die IoT-Datenanalyse und -visualisierung. Eine Ebene dieser Lösung ist ein vollwertiges IoT-Studio für die Anwendungsentwicklung und die Fernverwaltung von IoT-Geräten. Eine weitere Ebene ist eine vollständig integrierbare Data-Warehouse-Infrastruktur. Hier erhalten Sie die von den Geräten gesammelten Datenströme und bauen eine Analyseumgebung auf, die dem Datenanalysten Einblicke ermöglicht.

Das Wichtigste zum Mitnehmen

Eine Plattform, die den Dateningenieur und den Datenwissenschaftler zusammenbringt, bietet eine komplexe, durchgängige IoT-Lösung. Es beginnt mit der Datenerfassung von IoT-Geräten sowie der Erfassung, Vorverarbeitung und Aggregation der Daten am IoT-Gateway. Datenwissenschaftler können die Daten dann an eine Cloud-Data-Science-Plattform übertragen. Hier werden fortgeschrittenere Analysen durchgeführt und ML-Modelle trainiert. Sobald Datenwissenschaftler ihre Modelle für maschinelles Lernen in der Cloud trainiert haben, können sie Logik an den IoT-Rand bringen. Mithilfe der Plattform können die trainierten Modelle auf einer Vielzahl von IoT-Geräten eingeführt werden. Auf diese Weise haben wir einen iterierbaren Zyklus aus Datenerfassung, Transformation, Analyse und Bereitstellung am IoT-Edge.

Latest articles

Browse all