Interoperabilität als Grundlage

Andrea Gillhuber,

Wissensvorsprung für die Fabrik der Zukunft

Maschinen, die im Bedarfsfall selbständig und proaktiv eine Wartung anfordern, bevor sie auszufallen drohen. Produktionslinien, die in Echtzeit über ihre aktuelle Auslastung oder ihren Energieverbrauch informieren. Diese zwei Beispiele untermauern stellvertretend für viele andere das große Potenzial, das der IT-Trend Internet der Dinge für die Industrie der Zukunft bereithält. Von Aleksandar Kovačević

Interoperabilität ist die Grundlage für erfolgreiche Predictive Maintenance- und IoT-Projekte. © Alexander Supertramp / Shutterstock.com

Einer Studie von TÜV Süd und IDG zufolge setzen bereits mehr als die Hälfte der befragten Unternehmen auf IoT-Geräte. McKinsey sagt zugleich voraus, dass der wirtschaftliche Mehrwert des Internets der Dinge bis 2025 rund 11,1 Billionen Dollar betragen könnte. Soweit die Theorie. Um die vielfältigen Möglichkeiten aber wirklich erfolgreich nutzen zu können, ist eine fundierte Datenstrategie gepaart mit leistungsstarken Entwicklungstechnologien vonnöten. Denn nur dann lässt sich die riesige Menge der von den Sensoren generierten Informationen uneingeschränkt orchestrieren, vollständig auswerten und bestmöglich nutzen. Herkömmliche Datenmanagement-Lösungen kommen mit dem hohen Datendurchsatz, der mit derartigen Anwendungen einhergeht, schlichtweg nicht zurecht. Für IoT-Projekte wie etwa Predictive Maintenance (vorausschauende Wartung), Maschinenzustandsanalyse und innovative KI-Anwendungen, wird eine wird eine Plattform benötigt, die sich durch Interoperabilität, Performance und Skalierbarkeit auszeichnet.

Anzeige

Erster Schritt im IoT-Projekt: Maschinendaten nutzbar machen

Eine erste zentrale Herausforderung in Sachen IoT besteht für viele Industrieunternehmen darin, an die für Analysen benötigten Daten zu gelangen. Denn die von älteren und neueren Geräten verwendeten Datenprotokolle sind zumeist unterschiedlich. Es muss daher ein Weg gefunden werden, unterschiedlichste Datenformate und -protokolle sammeln, verarbeiten und analysieren zu können. Ein erster Schritt für Industrieunternehmen wäre, ihre Maschinen so aufzurüsten, dass Gerätedaten wie Energieverbrauch oder Nutzungsdauer via Adapter zu Maschinen-Controllern wie dem Quasi-Industriestandard Siemens SIMATIC S7 ausgelesen werden können. In einem nächsten Schritt geht es dann darum, die gesammelten Daten zu orchestrieren und zusammenzuführen, oftmals von unterschiedlichsten Maschinenstandorten in eigenen oder auch fremden Betriebsstätten. Oftmals müssen dazu neue Anwendungen programmiert werden, um die Kommunikation über unterschiedliche Protokolle hinweg sicherzustellen. Dies gilt umso mehr, wenn auch andere IT-Lösungen wie ERP (Enterprise Resource Planning) - oder SCM (Supply Chain Management)-Systeme angebunden werden sollen.

Daten nicht nur sammeln, sondern auch klug analysieren

Das Handling unterschiedlicher Datenformate und Standards spielt im Kontext von Predictive Maintenance- und IoT-Projekten eine zentrale Rolle. Nicht minder entscheidend für einen effizienten Workflow ist indes die Fähigkeit, große Datenmengen souverän zu handhaben. Ein Beispiel: Eine typische Anwendung für die Energiemessung in einer kleinen bis mittelgroßen Stadt muss durchschnittlich über 10.000 Ereignisse pro Sekunde und mehr als eine Milliarde Ereignisse pro Tag verarbeiten. Die meisten Datenmanagementsysteme bieten angesichts derart gewaltiger Datenmengen und Szenarien nicht die notwendigen Voraussetzungen für Predictive Maintenance oder Data Mining. Der umfassende Einsatz dieser Technologien bietet immensen Nutzen und reicht von Verbesserungen des Produktdesigns und der Usability bis hin zur Entwicklung vollkommen neuartiger Geschäftsmodelle. Voraussetzung ist in allen Anwendungsfällen die Erfassung und Bündelung der Daten in einer Datenbank. Doch das allein macht die Daten noch nicht nutzbar. So ist beispielsweise die Analyse der Daten in Form von Data Mining – also die Anwendung statistischer Methoden auf große Datenmengen, um gültige und potenziell nützliche Muster zu erkennen – und Predictive Analytics zur Vorhersage von zukünftigen Ereignissen angesichts fehlender definierter Analysestandards noch immer eine Herausforderung.Zwar beschäftigen sich derzeit schon viele Unternehmen mit dem Thema Predictive Maintenance, um das Kosten-Leistungsverhältnis ihrer Maschinen weiter zu verbessern und Produktionsausfälle wegen defekter Produktionsanlagen zu vermeiden. Doch fast immer geht es hierbei lediglich um das Sammeln von Betriebsdaten – eine weitreichendere Analyse ist vielerorts noch Zukunftsmusik. 

Interoperabilität muss sein: Industrie 4.0 setzt integrierte Datenstrategie voraus

Um Daten aus den verschiedensten Quellen bestmöglich auswerten zu können, müssen sie also zunächst verlässlich zusammengeführt werden. Das entscheidende Stichwort lautet Interoperabilität. Es braucht Maschinen, die alle Informationen, die sie durch Eingabegeräte, Sensoren oder auf anderem Wege erzeugen, automatisch an eine Datenbank weiterleiten, diese kontrollieren und bei Bedarf auch korrigieren. Die Verarbeitung wird erschwert, wenn unterschiedliche Geräte verschiedene Datenstrukturen verwenden, was mitunter sogar bei Geräten desselben Herstellers der Fall sein kann.

Eine leistungsfähige Lösung für Datenmanagement und Analyse im IoT-Umfeld muss all diese heterogenen Datensätze gleichermaßen verarbeiten können. Zugleich muss sie auf die individuellen Gegebenheiten, Ziele und Erfordernisse des Unternehmens abgestimmt und in der Lage sein, sich durch maschinelles Lernen auch an sich verändernde Bedingungen anzupassen. Der Einsatz von Open-Source-Technologien oder auch die Kombination verschiedener Einzellösungen, die nicht darauf ausgelegt sind, miteinander kombiniert zu werden, wirkt mit Blick auf die Anschaffungskosten zunächst attraktiv. Doch die anfangs gesparten Kosten werden in der Regel schnell von hohen Wartungskosten nivelliert. Zudem muss bei der Kosten-/Nutzenrechnung auch berücksichtigt werden, ob ein langfristiger Produkt-Support tatsächlich gewährleistet werden kann und welche wirtschaftlichen Folgen entstehen, wenn diese Unterstützung nicht mehr vorhanden wäre.

Ein weiteres wichtiges Kriterium für die Auswahl einer solchen IoT-fähigen Lösung: Damit Analysten und Datenwissenschaftler Korrelationen zwischen Gerätedaten und externen Datensätzen erkennen können, ist die Unterstützung verschiedener Analyseverarbeitungsarten unverzichtbar. Durch Interoperabilität können die aus den Analysen gewonnenen Informationen in Echtzeit-Workflows integriert werden, um Geschäftsprozesse und kritische Just-in-Time-Aktionen durchzuführen. Hierfür sind jedoch starke Integrationsfähigkeiten erforderlich, um potenzielle Erkenntnisse, die in unterschiedlichen Datensätzen stecken, zu erschließen.

Performance im Fokus: Machine Learning integriert

Liegen Datensätze verteilt vor und können Maschinen nicht miteinander kommunizieren, bedeutet dies einen riesigen Mehraufwand und großen Zeitverlust – egal ob es um die Entwicklung neuer Anwendungen oder um die bestmögliche Nutzung und Verzahnung der gesammelten Informationen geht. Je mehr Geräte, Sensoren und Messpunkte integriert und ausgewertet werden, desto entscheidender wird die Frage der Leistungsfähigkeit einer Datenbank.Gesucht ist eine Datenplattform, die verschiedene Protokolle, Programmiersprachen wie etwa Python, Machine Learning-Ansätze und Konnektoren zu BI-Anwendungen unterstützt. Denn sind alle benötigten Informationen in einer einzigen Datenbank, verbessert dies den Überblick und minimiert Aufwand und Fehler.  Darüber hinaus ist eine Architektur vonnöten, die einen geringen Datenmodellierungs-Aufwand verursacht und sich problemlos orchestrieren lässt. Agilität, Skalierbarkeit und Hochverfügbarkeit sind auch im ML-Zusammenhang essentiell. Viele Data Science-Projekte im Machine Learning-Umfeld werden beispielsweise mit der Programmiersprache Python realisiert. Um hier Daten zu anderen Systemen zu migrieren, ist es zweckmäßig, wenn die Datenplattform Python-Modelle aufgrund ihrer Interoperabilitätsfähigkeiten ausführen kann.

Da es in vielen Fällen sehr teuer und aufwändig ist, ein Data Science-Projekt zu starten, ist es sinnvoll, auf eine Datenplattform zu setzen, die Machine Learning-Funktionen integriert hat. Hilfreich sind horizontal skalierbare HTAP-Datenbankmanagementfunktionen (Hybrid Transaction Analytic Processing) zur Ausführung von analytischen Echtzeitanwendungen auf sehr großen Datensätzen, aber auch eingebettete Funktionen zur Ausführung von strukturierten und unstrukturierten Analysen und KI-Modellen.

Skalierbarkeit: Technologie für strategisches Firmenwachstum  

Einen innovativen Ansatz, der die Anforderungen der Industrie im IoT-Kontext umfassend adressiert, verfolgen die Experten für Datenbankmanagement von InterSystems. Deren Datenplattform IRIS liefert in puncto Datenvolumen und Interoperabilität eine sehr hohe Skalenleistung in geschäftskritischen Unternehmensanwendungen, sowohl bei transaktionalen (OLTP) als auch bei analytischen Arbeitslasten. IRIS unterstützt die Datenaufnahme mit sehr hohen Raten und kann analytische Arbeitslasten gleichzeitig sowohl für Echtzeitdaten als auch für sehr große Sätze von Nicht-Echtzeitdaten, etwa historische und Referenzdaten, unter Verwendung von Standardhardware verarbeiten. Dies ist optimal für Anwendungen, die Entscheidungen in Echtzeit treffen müssen, indem sie Muster und Anomalien identifizieren.

InterSystems IRIS beschleunigt und vereinfacht verschiedene Aufgaben im Zusammenhang mit der Entwicklung von Funktionen für Predictive Maintenance und andere Anwendungen im Industrieumfeld. Es ermöglicht Anwendern die Erstellung neuer berechneter Variablen, bietet eingebettete Business Intelligence (mehrdimensionale OLAP)-Funktionalität und verteilte SQL-Verarbeitung zur Unterstützung komplexer Berechnungen auf sehr großen Datensätzen mit hoher Leistung. Die Daten werden einmal in der Datenbank gespeichert, und die Plattform ermöglicht sowohl den relationalen als auch den nicht-relationalen Zugriff, was die Flexibilität erhöht. Sollte es einfacher sein, mit Daten in Zeilen und Spalten zu arbeiten, können Entwickler mit Hilfe von SQL-Befehlen darauf zugreifen. Alternativ stehen die Daten als Dokumente, Objekte oder Key Value-Daten zur Verfügung.

Neben hochleistungsfähigen SQL-Funktionen, der Unterstützung von xDBC-Protokollen und anderen Standards bietet InterSystems IRIS eine direkte Integration mit Apache Spark über einen Shard-fähigen nativen Konnektor. Die Apache Spark-Knoten können automatisch eine direkte Verbindung zu den Datenpartitionen herstellen und parallel an unterschiedlichen Datenstücken arbeiten. Diese gleichzeitigen Verbindungen ermöglichen einen hohen Datendurchsatz und unterstützen die schnelle Datenaufnahme in horizontal verteilten Clustern. Zugleich lassen sich Modelle in Echtzeit trainieren, wenn Daten aus Produktionsanwendungen gestreamt werden, so dass Data Scientists die Modelle auf dem neuesten Stand halten können, wenn sich Geschäftsanforderungen oder Umfeld ändern.

Fazit: Neue Datentechnologien für IoT-Erfolg dringend erforderlich

Das Internet der Dinge schafft noch nie dagewesene Möglichkeiten für Unternehmen, die Leistung ihrer Maschinen zu steigern und neue Geschäftsfelder zu erschließen. Herkömmliche Datenmanagementtechnologien sind für diese neuen Anforderungen und Datenmengen jedoch nicht gerüstet. Daher müssen sich Unternehmen im Industrie- und Produktionsumfeld vermehrt mit neuen Plattformen beschäftigen, die mit Interoperabilität, Leistung und Skalierbarkeit punkten. Zentrale Funktionen für die Entwicklung, Ausführung und Wartung von IoT-Anwendungen plus Machine Learning sollten hierbei in einer einzigen zentralen Multi-Modell-Umgebung verbunden sein. Eine derartige Datenstrategie und -technologie ist Grundvoraussetzung für langfristigen IoT-Erfolg.

Aleksandar Kovačević, Sales Engineer bei InterSystems.

Anzeige

Das könnte Sie auch interessieren

Anzeige

Matrix-Zelle

Die Linie war gestern

Stecher Automation realisiert mit der Matrix-Zelle die Smart Factory. Es sind diverse Fertigungsprozesse integrierbar. Die Zelle verkettet die Prozesse derart, dass mehrere Produkte gleichzeitig und flexibel herstellbar sind. Ein Beispiel für...

mehr...
Anzeige
Anzeige

Digitalisierung

Trainingsmodul für neue Prozesse

Mit einem modular aufgebauten Live eTraining „Digitalisierung der modernen Arbeitswelt – Einstieg in Industrie 4.0“ vermittelt die Rexroth Academy praxisnah Grundlagen, Auswirkungen und Perspektiven der Digitalisierung im industriellen Umfeld.

mehr...
Anzeige
Anzeige
Anzeige
Anzeige