Datenanalyse

Daten, der Rohstoff in der Montage

Daten sind Grundlage für die Digitalisierung und die Anwendung von Algorithmen der Künstlichen Intelligenz. Sie werden als „Rohstoff” und somit zunehmend als mitentscheidender Produktionsfaktor betrachtet. In der Montage von heute muss eine ganzheitliche Betrachtung von Produkt, Prozess, Betriebsmittel und deren Daten erfolgen.

Daten dienen als Basis für Digitalisierung. © ZeMA

Zunächst sorgen Daten für Transparenz in der Produktion und können somit beispielsweise durch aussagekräftige Visualisierungen oder Statistiken für die Prozessüberwachung und -optimierung genutzt werden. Dadurch können – besonders bei komplexen Montageanlagen – Probleme schneller erkannt und behoben werden. Die Prognosefähigkeit eines Produktionssystems ermöglicht zudem eine Zustandsbewertung der Betriebsmittel, sodass Verschleiß und Fehler frühzeitig erkannt werden. Zuletzt können eine automatisierte Adaptierung des Systems und dessen Prozesse durch die Autonomie des Montagesystems erfolgen. Dabei beschreibt der Begriff „Autonomie“ die Fähigkeit des Montagesystems, selbstständig zu lernen und eigenständige Entscheidungen zu treffen.

Technische Hürden bei Industriedaten
Die industrielle Anwendung Maschinellen Lernens auf realen Produktionsdaten erweist sich jedoch als schwierig. Neben technischen Hürden, wie der Datenaggregation, führen vor allem organisatorische und soziotechnische Faktoren zu einer geringen Qualität und Verfügbarkeit der Daten. Eine kleine Übersicht häufiger Fehler:

Anzeige
  • Nicht dokumentierte Änderungen von Programmabläufen oder -parametern sowie mechanische Eingriffe führen zu (nicht erklärbaren) Änderungen in den Daten
  • Physikalische Plausibilität der Daten ist nicht gegeben
  • Die Daten beinhalten keine Informationen. Eine Aufnahme erfolgt gemäß dem Motto: „Viel hilft viel“. Die Datenflut erschwert jedoch die Extraktion relevanter Daten
  • Manuelle Daten, zum Beispiel in Schichtbüchern, werden nicht maschinell auswertbar eingegeben

Daten richtig erfassen
Im Rahmen von Workshops mit kleinen und mittleren Unternehmen sowie Forschungspartnern wurde ein methodischer Leitfaden entwickelt. Er unterstützt dabei, die organisatorischen Anforderungen einer nachhaltigen Datenerfassung und -nutzung bei zukünftigen Montageanlagen und Datenprojekten umzusetzen.

Durch ein klassisches Projektmanagement werden initial Projektschnittstellen und -verantwortlichkeiten festgelegt. Um eine nachhaltige Verwendung der Daten zu gewährleisten, erfolgt anschließend die Datenplanung. Dazu werden Ziele einer Datenanalyse und entsprechende Kennzahlen festgelegt, anhand derer eine Zielerreichung überprüft werden kann. Die benötigten Merkmale, um die Kennzahlen oder Veränderungen zu bestimmen, müssen anschließend identifiziert und unter Verwendung von Standards definiert werden. Dabei sollte immer vorhandenes Prozesswissen genutzt werden. Die Auswahl entsprechender Sensorik, um die Merkmale zu erfassen, kann nach einer erfolgreichen Datenplanung unter Berücksichtigung der Anforderungen erfolgen. Nach der Implementierung der Sensoren kann durch die Datenaufnahme eine Datenbasis aufgebaut werden. Anschließend können KI-Algorithmen dabei helfen, relevante Merkmale zu bestimmen, jedoch sollten diese Ergebnisse lediglich als Wegweiser bei der Interpretation dienen. Eine manuelle Prüfung der Daten auf Plausibilität kann durch die Interpretation im interdisziplinären Team erfolgen. Auf dieser Basis kann eine Kontrolle und Abnahme der Daten erfolgen. Im Gegensatz zur Datenanalyse erfolgt dabei eine Überwachung der Daten und nicht der Prozesse.

Für eine erfolgreiche und nachhaltige Datenerfassung sollte die Software-Architektur mindestens die folgenden Komponenten implementieren:

  • Ein Broker, der Sensorsignale aus diversen Quellen fusioniert und diese in einem einheitlichen Kommunikationsprotokoll bereitstellt
  • Eine Aufbereitung, in der die einzelnen Signale, falls notwendig, in die spezifizierten Formate und Einheiten übersetzt werden
  • Einen Speicher, der die Daten langfristig archiviert

Auf die Datenbasis, bestehend aus Live-Daten aus der Aufbereitung und historische Daten aus dem Speicher, können Visualisierungen und KI-Algorithmen zugreifen. Damit die Ergebnisse der KI-Algorithmen gespeichert und zur Adaption genutzt werden können, werden sie in die Datenaufbereitung zurückgespielt. Dort können entsprechende Steuerbefehle abgeleitet und durch den Broker an die Prozesssteuerung übermittelt werden.

Die vorgestellte Methodik und der Leitfaden soll in weiteren Forschungsprojekten kontinuierlich verbessert, ausgebaut und in weiteren Unternehmen validiert werden. Die bestehende Software-Architektur soll als Open-Source-Lösung angeboten werden. Anne Blum, Martin Karkowski, Dr. Leenhard Hörauf, Prof. Dr. Rainer Müller / as

Anzeige

Das könnte Sie auch interessieren

Anzeige

Forschung

Modellbasierte Regelung

Eine Forschungsgruppe des Institut für Steuerungstechnik der Werkzeugmaschinen und Fertigungseinrichtungen (ISW) der Universität Stuttgart arbeitet an Modellen, die bei der Berechnung von Robotersteuerungsabläufen und -trajektorien auch die...

mehr...
Anzeige
Anzeige
Anzeige

Forschungsprojekt

Bereit für die Massenproduktion

In einem Forschungsprojekt möchten 15 Unternehmen und Hochschulen die Vorteile der additiven Fertigung für die industrielle Massenproduktion erschließen. Neben neuen Verfahren und Materialien sollen auch Standards entwickelt werden.

mehr...
Anzeige
Anzeige
Anzeige

Newsletter bestellen

Immer auf dem Laufenden mit dem INDUSTRIAL Production Newsletter

Aktuelle Unternehmensnachrichten, Produktnews und Innovationen kostenfrei in Ihrer Mailbox.

AGB und Datenschutz gelesen und bestätigt.
Zur Startseite