In IT und Daten

Prof. Dr. Matthias Schumann und Pascal Freier,
Professur für Anwendungssysteme und E-Business,
Georg-August-Universität Göttingen

 

Einführung

Die, unter dem Buzzword Industrie 4.0 bekannte, vierte industrielle Revolution ist durch neue und veränderte Leistungsanforderungen gekennzeichnet[1]. So nimmt z. B. die Individualisierung in Bezug auf die Kundenwünsche durch „eine zunehmende Produkt- und Variantenvielfalt einhergehend mit kleiner werdenden Fertigungslosen“ [2] zu. Dabei werden selbst bei einer Losgröße von Eins[3] die geringen Kosten einer Serienproduktion gefordert[4]. Weiterhin werden Produkte und Dienstleistungen vermehrt als Bündel angeboten, wodurch sich einerseits das Leistungsspektrum der Industriebetriebe deutlich verändert und womit andererseits auch eine veränderte Form der Leistungsabrechnung gegenüber den Kunden einhergeht[5].

Darüber hinaus wird durch die zunehmend ansteigende Digitalisierung und Informatisierung der Wertschöpfungsketten eine erhöhte Transparenz in der Produktion und ihrer Koordination entlang der gesamten Wertschöpfungskette von Lieferanten bis hin zu den Kunden angestrebt[6]. Dabei erlauben u. a. Sensoren, computergesteuerte Maschinen und Produktkomponenten, die über Informationen zu ihren Produktionsaufträgen und Bearbeitungsvorgängen verfügen, eine dezentrale Koordination von Fertigungs- oder Montageschritten, Qualitätsprüfungsroutinen, Transportprozessen sowie Ein- und Auslagervorgängen[7]. Die damit einhergehende Reduktion der hierarchischen Planungs- und Steuerungsprozesse wird dadurch unterstützt, dass die zentrale Planung und Steuerung auf die Ebene der einzelnen Fertigungsprozesse verlagert wird[8].

Daneben sollen kundenauftragsabhängig ad-hoc-Wertschöpfungsnetze dazu beitragen, kundenindividuelle Produkte zeitnah fertigen zu können. Dieses bedeutet, dass ein Hersteller einer Produktgruppe mit einem Pool an Zulieferern vernetzt ist, die unterschiedliche spezifische Kompetenzen in die Wertschöpfungsnetzwerke einbringen. Bei kundenindividuellem Bedarf solcher Ressourcen sind Koordinationsaktivitäten anzustoßen, die eine zeitnahe Zulieferung benötigter kundenindividueller Komponenten möglich machen. Die dazu notwendigen Abstimmungen werden sich effizient nur mit Hilfe des elektronischen Datenaustausches realisieren lassen. Auch dieses bedeutet ein Verändern etablierter Prozesse. Anstatt im Rahmen einer Serien- oder Massenfertigung einen kontinuierlichen Datenaustausch zur Abstimmung der Zulieferungen zu betreiben, geht es darum, bestehende Datenaustauschverbindungen für individuelle Bestellvorgänge zu nutzen. Dabei sind teilweise auch Produkt- oder sogar Entwicklungsspezifikationen auszutauschen, wie man dieses aus Entwicklungsprozessen kennt.

Dies alles macht es erforderlich, dass die genannten Anforderungen mit geeigneten Softwarewerkzeugen angemessen unterstützt werden. Es muss daher untersucht werden, welche Voraussetzungen dazu notwendig sind, wie sich der Einsatz etablierter Anwendungssoftware für diesen Bereich verändert oder welche neuen Softwarekomponenten in bestehende Strukturen einzufügen sind.

 

  1. Industrie 4.0 – Architektur

Die mit der industriellen Vernetzung verbundenen Planungs-, Koordinations- und Steuerungsaktivitäten lassen sich innerbetrieblich gut an einem Ebenen-Modell zur Automation des Industriebetriebs ableiten, wie dieses in der nachfolgenden Automationspyramide versucht wird[9].

Orientiert man sich an den dargestellten Ebenen, so werden auf der untersten Stufe unterschiedliche Sensordaten erhoben und bereitgestellt, Maschinendaten erfasst und Daten bzgl. verschiedener Produktkomponenten ausgetauscht. Die Produktdatenbereitstellung führt zur Synchronisation von Fertigungsanlagen, Transport- und Lagersystemen mit den jeweils zu verrichtenden Aktivitäten.

Die Sensordaten werden verwendet, um auf der Kontrollebene einerseits Qualitätskontrollen für die jeweiligen Fertigungsschritte zu überprüfen. Andererseits dienen sie auch der Kontrolle der eingesetzten Maschinen und Transportsysteme, um Fehler frühzeitig zu erkennen und bei Bedarf vorausschauende Instandhaltungsmaßnahmen auslösen zu können.

Werden auf der Fertigungsebene Störungen festgestellt, z. B. weil relevantes Material nicht rechtzeitig zur Verfügung steht oder Anlagen ausgefallen sind, dann müssen Umplanungsprozesse erfolgen. Dieses passiert grundsätzlich auf der Ebene der Manufacturing Execution Systems (MES). Hier erfolgen einerseits Vorgaben, wie einzelne Aufträge, z. B. auf Basis der Fertigungsauslastung, durchgeführt werden sollen. Andererseits werden die ausgeführten Aufträge oder Arbeitsgänge zurückgemeldet. Treten identifizierte Probleme auf, versuchen die Manufacturing Execution Systeme eine automatische Umplanung autonom durchzuführen. Dazu müssen dann allerdings Regeln vorhanden sein, nach welchen Zielgrößen diese Umplanungen erfolgen sollen.

Die letzte Hierarchieebene ist schließlich das Produktionsplanungssystem, in dem die grundsätzliche Einplanung der Kundenaufträge und Generierung der Fertigungsaufträge stattfindet. Auf dieser Ebene muss auch die Koordination und erste Abstimmung mit den Zulieferern stattfinden. Die Grobplanung kann dabei soweit durchgeführt werden, dass eine Grobterminierung möglich ist. Dazu müssen die grundsätzlichen Abstimmungen mit den Lieferanten auch bzgl. der Komponentenliefertermine durchgeführt worden sein. Ebenso müssen Informationen bzgl. der Fertigungsauslastung vorliegen. Um eine Einplanung vornehmen zu können, müssen daher auch die abgewickelten Aufträge und der Auftragsstatus der sich noch in der Fertigung befindlichen Aufträge an das PPS-System zurückgemeldet werden.

  1. Integration von Produktentwicklung und Produktion

Die höhere Flexibilität bei dem Eingehen auf Kundenwünsche wird dazu führen, dass es eine engere Abstimmung zwischen den Produktentwicklungsaktivitäten, den technischen Anlagenleistungsmerkmalen sowie dem Leistungsspektrum der Arbeitsvorbereitung geben muss. Dieses macht es notwendig, dass mit einheitlichen Informationsmodellen sowohl die Leistungsbeschreibung der Anlagen sowie der Rahmenbedingungen für einzelne Arbeitspläne und Arbeitsgänge erfolgt als auch eine Modellierung von Produktkomponenten oder Komponentenänderungen auf diese Weise erfolgen muss[10].  Gleichzeitig dienen diese Beschreibungen an den Entwicklungsarbeitsplätzen als Rahmenbedingungen für mögliche Veränderungskonstruktionen. Dieses bedeutet, dass die CAD/CAE-Werkzeuge an den Entwicklungsarbeitsplätzen um entsprechende Funktionalitäten zu ergänzen sind. Beispielhafte Inhalte, die dabei zu berücksichtigen wären, sind mögliche Geometrien, Kinematik, Arbeitsgänge und Arbeitsgangfolgen. Bei Änderungen in der Fertigung muss ein entsprechender Datenaustausch bzgl. der Rahmenbedingungen für die Entwicklungsumgebungen erfolgen.

Dieses führt dazu, dass für die veränderten Komponenten geänderte technische Beschreibungen wie Geometrien, Stücklisten oder Arbeitspläne in einem permanenten Austausch zwischen Entwicklungssystemen und Produktionsplanungssystem sowie MES steht, z. B. in Form einer zentralen Ressourcen-Datenbank, in der sämtliche produktionsrelevanten Informationen objektzentriert abgelegt werden. Ebenso wird es notwendig sein, durchgängige Prozessketten einzurichten, bei denen für freigegebene Produkt- und Komponentenvarianten die notwendigen Programme zur Maschinensteuerung automatisch oder teilautomatisch erzeugt und dann ebenfalls in der Objektdatenbank als Ressource hinterlegt werden. Nur so wird es möglich sein, individualisierte Produkte zeitnah und kostengünstig zu produzieren.

 

  1. Standards zur Maschinenkommunikation

Eine dezentrale Kommunikation und Steuerung wird nur gelingen, wenn einheitliche Standards zum Datenaustausch und zur Interaktion zwischen den Cyber Physical Systems eingesetzt werden. Dieses bedeutet, dass die eingesetzten Komponenten, wie Maschinen oder Transportsysteme, entweder solche Standards zum automatischen Datenaustausch und der Dateninterpretation nutzen, deren Inhalte dann auch automatisiert verarbeitet werden können, um daraus Handlungsempfehlungen abzuleiten, oder es werden für die jeweiligen technischen Objekte Adapter eingesetzt, die ein Konvertieren der bereitgestellten Daten in intern verarbeitbare Strukturen vornehmen.

Bei dem Austausch von Messdaten beginnt die Standardisierung dabei logisch bereits mit einer Normierung von auszutauschenden Einheiten. Geht es z. B. um Inch, Feet oder Meter? Hier müssen Festlegungen auf einer Meta-Ebene z. B. für den Austausch von Messdaten von einer Normungsinstanz festgelegt werden.

Es müssen Maschinen, Anlagen und Komponenten miteinander kommunizieren. Dazu wird ein Kommunikationsstandard OPC-UA als einheitliche Schnittstelle für Maschinendaten diskutiert, der von der OPC Foundation entwickelt wurde[11]. Dabei geht es um Prozessdaten, den Zugriff auf historische Daten und auf Ereignisse. Dieser Kommunikationsmechanismus erlaubt es, dass Systeme von der Steuerungs- bis zur Leit- und Betriebsebene miteinander kommunizieren können. OPC-UA ist dabei aus Erfahrungen zuvor vorhandener proprietärer OPC-Standards entwickelt worden. Der Standard ist für einen hohen Datendurchsatz geeignet und erlaubt zur sicheren Übertragung auf der Basis von TCP/IP auch die Verschlüsselung und Signierung der Daten[12].

Was in Teilen allerdings dabei noch zu entwickeln ist, ist eine einheitliche Semantik für entsprechende Anwendungsfälle, ohne die eine Kommunikation nur mit aufwendiger Definition der Dateninterpretationsregeln für die einzelnen Fälle durchgeführt werden kann. Zwar liefert der Standard die Möglichkeit, Daten semantisch zu beschreiben, es fehlt allerdings an eindeutigen Bezeichnungen und Zuordnungen von Maschinendaten. Als Lösung dieser Problemstellung wird eine Weiterentwicklung solcher semantischer Standards nach dem Vorbild der Feldbus-Kommunikation vorgeschlagen.

Ebenso müssen Informationsmodelle definiert werden, mit denen sich die Maschinensteuerung oder Komponenten beschreiben lassen. In diesem Zusammenhang wird von einem sogenannten Companion-Standard gesprochen. Gerade für solche Maschinensteuerungen gibt es aber noch sehr unterschiedliche Schnittstellen. Dabei können auch Programmiersprachen und Softwaremodelle für die Programmierung von Steuerungssystemen definiert werden. Damit lassen sich dann Steuerungsprogramme unabhängig von der in der Maschine konkret eingesetzten Steuerung generieren.

Es muss für diesen Themenkomplex festgestellt werden, dass erst dann, wenn auf dieser Ebene in ausreichendem Umfang die Standardisierungen stattgefunden haben und auch die Maschinen in der Lage sind diese zu verarbeiten oder entsprechende Konverter existieren, eine nahtlose Kommunikation zwischen den Fertigungskomponenten erfolgen kann.

 

  1. Selbstkoordination mit Hilfe intelligenter Agenten

Werden die Produkte, Baugruppen oder Komponenten mit Informationen über ihre eigene Zielkonfiguration ausgestattet, so kann die Produktionsfeinplanung und Prüfung der einzelnen Montageschritte gemäß der mitgegebenen Arbeitspläne dezentral erfolgen. Notwendig sind damit dezentrale Koordinationsmechanismen. Dazu kann das Produkt selber oder ein wiederverwendbarer Produktträger mit den relevanten Daten und lokaler Rechnerleistung ausgestattet werden. Die so zentral aufgrund der Grobplanung freigegebenen Aufträge fordern nun die notwendigen Dienste von den Fertigungseinheiten an[13]. Diese wiederum bieten Ihre freien Kapazitäten auf einem virtuellen Marktplatz zum Ausführen von einzelnen oder mehreren Arbeitsgängen an. Gleiches gilt für die Transporteinheiten. Dabei wird davon ausgegangen, dass mehrere alternative Fertigungseinheiten oder Transporteinheiten die Auftragsausführung durchführen können. Abzugleichen sind dazu die verfügbaren Zeiten der Verrichtungseinheiten mit dem notwendigen Zeitbedarf für den jeweiligen Fertigungsauftrag. Durch Aushandelsprozesse zwischen dem Fertigungsauftrag und den jeweiligen Einheiten findet dann eine konkrete Zuordnung zu den jeweiligen Bearbeitungsstationen und Transporteinheiten statt. Voraussetzung dafür ist, das eine konsistente Semantik für die auszuführenden und potentiell abzuwickelnden Arbeitsgänge bei allen beteiligten Objekten standardisiert zum Abgleich der Aktivitäten vorhanden ist. Eine solche Vorgehensweise wird bereits seit Mitte der 1990er Jahre im Themengebiet „Intelligente Agenten“ diskutiert[14]. Dabei ergeben sich mehrere Anforderungen um eine derartige Feinkoordination zu ermöglichen:

  • Es muss eine einfache Auftragsvergabe und Kapazitätsreservierung zwischen Ausführungseinheit und Fertigungsauftrag möglich sein.
  • Die Ausführungseinheiten müssen sich für freie Zeitintervalle einfach an den Marktplätzen an- und abmelden können.
  • hierarchische Marktstrukturen zur Verteilung von Teilarbeitsplänen in Arbeitsgänge bei Produktionsclustern oder Maschinengruppen müssen möglich sein.
  • Bei der Auftragsvergabe durch den Fertigungsauftrag sind unterschiedliche Kriterien, nach denen Ausführungseinheiten zugeteilt werden können, zu berücksichtigen. Beispiele dafür könnten geringe Kosten, möglichst schnelle Bearbeitung, möglichst hoher Qualitätsstandard (möglichst genau) oder eine besonders energieeffiziente Fertigung sein.

Basierend auf den von außen priorisierten Regeln nehmen die Multi-Agentensysteme die Einplanung autonom vor. Im Mittelpunkt steht dabei das Prinzip der Selbstorganisation[15]. Um diese Auswahl und Einplanung durchzuführen, muss ein standardisierter Auktionsmechanismus zum Einsatz kommen.

 

  1. Zentrale In-Memory Feinplanung und Überwachung der Fertigung

Als Alternative zur dezentralen Feinplanung ist auch eine zentrale Planung auf der Manufacturing Execution System-Ebene möglich. Die zum aktuellen Stand der Fertigung permanent übermittelten Daten werden dabei laufend ausgewertet. Um hier ausreichend schnell agieren zu können, wird dazu In-Memory-Technologie eingesetzt. Aufgrund der permanent verfügbaren Daten zum Zustand der Fertigung können zeitnahe Zuordnungen und Einplanungen zentral erfolgen. Dabei kann eine zentrale Prioritätsregel für die Einplanung vorgegeben werden, mit der ständig versucht wird, das freigegebene Auftragsspektrum mit Verfahren der Optimierung einzuplanen. Hier müssen neue Lösungen gefunden werden, für die z. B. mit linearer Optimierung, dynamischer Optimierung, Online-Optimierung oder auch Mehrzieloptimierung experimentiert werden kann. Man könnte sich dabei vorstellen, dass in abgewandelter Form Mechanismen zum Einsatz kommen, wie diese bei der Zuordnung von Aufträgen von Handelsbörsen bekannt sind. Hier müssten jetzt die Aufträge mit ihren jeweiligen Arbeitsgängen den notwendigen Ressourcen zugeordnet werden. Treten dabei Störungen auf, wird eine zentrale Umplanung für den Fertigungsbereich geprüft (z. B. durch Auftreten einer ungeplanten Wartung für eine Maschine oder der Verspätung von Zulieferteilen für einen Auftrag). Aufgrund der Leistungsfähigkeit der In-Memory-Lösungen wäre es auch denkbar, aufgrund des aktuellen Fertigungsauftragsspektrums Simulationsrechnungen durchzuführen. Die daraus identifizierten Ergebnisse können dann zum Festlegen von Parametern und damit auch von Bearbeitungsstrategien in der Fertigung führen. Dieses würde es auch möglich machen, durch Veränderung der zentralen Strategie (neue Prioritätsregel, z. B. von möglichst kostengünstig auf möglichst geringe Auftragsdurchlaufzeit) eine zügige Umplanung auszulösen und sich so auch sehr rasch auf veränderte Marktbedingungen einzustellen oder als Unternehmen auch selber einzuplanen.

 

  1. Analyse von Maschinen- und Qualitätsdaten

Durch die angestrebte autonome und dezentrale Steuerung der Produktionssysteme fällt eine Vielzahl an Daten und Informationen an (z. B. Sensor- und Maschinendaten), die u. a. dafür notwendig sind die Entscheidungsfindung zu optimieren[16]. Die anfallenden Daten können jedoch auch für weitere Auswertungen und Analysen verwendet werden[17]. Mögliche Potenziale sind hierbei z. B. eine verbesserte Planungsgenauigkeit und das Verwenden der erfassten Daten für die Unterstützung nachfolgender Prozessschritte wie die Leistungsabrechnung. Da jedoch eine große (Echtzeit-)Datenmenge im Rahmen von Industrie 4.0-Produktionssystemen generiert wird, sind Konzepte zum Verwalten, Auswerten und Nutzen dieser Informationen erforderlich[18]. Durch die Vielzahl an Daten, die auf den Ebenen der Automationspyramide z. B. durch die verschiedenen Sensoren, Maschinen und Anwendungen generiert werden, ist es u. a. notwendig zu klären, welche Daten von welchen Objekten in welchem Umfang erfasst werden. Da im Konzept einer Smart Factory ebenfalls Produkte mit einem „Gedächtnis“ ausge-stattet sind, entstehen darüber hinaus neue Informationsquellen, die in BI-Konzepte eingearbeitet werden müssen. Ähnliche Fragestellungen sind hinsichtlich der Aggregation und Auswertung der erfassten Daten zu beantworten, um aussagekräftige Schlüsse aus den gesammelten Daten ableiten zu können. Da Teile der Informationen wie Sensoren- und Maschinendaten zur Umplanung der Produktion bei unerwartetem Problem in Echtzeit  und andere erst für spätere Entscheidungen und Berechnungen benötigt werden, sind ebenfalls erweiterte Informationsdistributionskonzepte notwendig[19].

Mögliche Ansätze zum Bewältigen dieser Anforderungen sind dabei im Bereich Big Data zu finden. Im Forschungsfeld der Business Intelligence wird Industrie 4.0 dabei bereits als „ein weiteres wichtiges Anwendungsgebiet von Big Data“ [20] beschrieben. Eine wesentliche Herausforderung besteht in der Anwendung bestehender Big Data-Konzepte und –Technologien auf die Industrie 4.0-Daten, -Systeme und –Technologien, um die gewonnenen Informationen und Auswertungen in betriebswirtschaftliche Systeme wie z. B. PPS-Systeme nutzbringend integrieren zu können.

 

  1. Zusammenfassung

Betrachtet man die notwendigen Anforderungen, die sich für die Anwendungssoftware zum Steuern der Fabrik der Zukunft ergeben, so ist die dringendste Aufgabe in der Weiterentwicklung der Kommunikationsstandards auf der Shop Floor-Ebene sowie der Entwicklung semantisch einheitlicher Informationsmodelle zum Beschreiben der Fertigungsobjekte zu sehen. Für die Big Data-Anwendungen sind Softwarekomponenten bereits verfügbar und können eingesetzt werden. Hier gilt es, damit die notwendigen fallspezifischen Analyseroutinen zu entwickelt. Ebenso müssen Datenmodelle zwischen der Produktentwicklung und Produktionsplanung weiterentwickelt werden. Dezentrale Planungsverfahren mit agentenbasierten Systemen sind in der Wissenschaft seit geraumer Zeit entwickelt worden. Es ist notwendig, mit Prototyplösungen in realen Umgebungen praktische Erfahrungen zu sammeln. Für zentrale In-Memory-Lösungen sind schließlich neue Lösungen zu entwickeln, die auch über die notwendige Simulationsflexibilität verfügen. Dies alles eröffnet viel Raum für Neu- und Weiterentwicklungen verfügbarer Anwendungssoftware in der industriellen Fertigung.

 

+++

 

Literatur

(Gölzer/Cato/Amberg 2015): Gölzer, P.; Cato, P.; Amberg, M.: Data Processing Requirements of Industry 4.0 – Use Cases for Big Data Applications. In: European Conference on Information Systems (ECIS 2015) Research-in-Progress-Papers, Münster, S. 1 – 13.

(Härting 2014): Härting, R.-C.: Big Data – Daten strategisch nutzen!, Berlin 2014.

(Jasperneite/Hinrichsen/Niggemann 2015): Jasperneite, J.; Hinrichsen, S.; Niggemann, O.: „Plug-and-Produce“ für Fertigungssysteme. In Informatik-Spektrum 38 (2015) 3, S. 183 – 190.

(Keinert 2013): Keinert, M.: OPC UA – eine Standortbestimmung, http://www.computer.automation.de/steuerungsebene/bedienen-beobachten/artikel/97031/ vom 18.11.2015.

(Lachenmaier/Lasi/Kemper 2015): Lachenmaier, J. F.; Lasi, H.; Kemper, H.-G.: Entwicklung und Evaluation eines Informationsversorgungskonzepts für die Prozess- und Produktionsplanung im Kontext von Industrie 4.0. In: Proceedings of the 12th International Conference on Wirtschaftsinformatik 2015, Osnabrück, S. 1 – 15.

(Lasi et al. 2014): Lasi, H.; Kemper, H.-G.; Fettke, P.; Feld, T.; Hoffmann, M.: Industry 4.0. In: Business & Information Systems Engineering 6 (2014) 4, S. 239 – 242.

(Leitao et al. 2015): Leitao, P.; Barbosa, J.; Papadopoulou, M.-E. C.; Venieris, I. S.: Standardization in cyber-physical systems: The ARUM case. In: International Conference on Industrial Technology (ICIT 2015), Sevilla, S. 2988 – 2993.

(Posada 2015 et al.): Posada, J.; Toro, C.; Barandiaran, I.; Oyarzun, D.; Stricker, D.; De Amicis, R.; Pinto, E. B.; Eisert, P.; Döllner, J.; Vallarino Jr., I.: Visual Computing as a Key Enabling Technology for Industrie 4.0 and Industrial Internet. In: Computer Graphics and Applications 35 (2015) 2, S. 26 – 40.

(Uhlmann/Hohwieler/Kraft 2013): Uhlmann, E.; Hohwieler, E.; Kraft, M.: Selbstorganisierende Produktion – Agenten intelligenter Objekte koordinieren und steuern den Produktionsablauf. In: Industrie Management 29 (2013) 1, S. 57 – 61.

(Vogel-Heuser/Schütz/Göhner 2015): Vogel-Heuser, B.; Schütz, D.; Göhner, P.: Agentenbasierte Kopplung von Produktionsanlagen. In: Informatik Spektrum 38 (2015) 3, S.191 – 198.

(Weigelt 1994): Weigelt, M.: Dezentrale Produktionssteuerung mit Agenten-Systemen:

Entwicklung neuer Verfahren und Vergleich mit zentraler Lenkung; Gabler,

1994.

(Zuehlke 2010): Zuehlke, D.: SmartFactory — Towards a factory-of-things. In: Annual Reviews in Control 34 (2010) S. 129 – 138.

[1] (vgl. Jasperneite/Hinrichsen/Niggemann 2015, S. 183)

[2] (Jasperneite/ Hinrichsen/ Niggemann 2015, S. 183)

[3] (sog. „batch size one“, Lasi et al. 2014, S. 239 f.)

[4] (vgl. Posada et al. 2015, S. 26 f.; Lasi et al.2014, S. 239)

[5] (vgl. Posada et al. 2015, S. 26 f.)

[6] (vgl. Lasi et al. 2014, S. 239 f.; Leitao et al. 2015, S. 2988)

[7] (vgl. Lasi et al. 2014, S. 239 f.)

[8] (z. B. durch Multi-Agenten-Systeme, vgl. Uhlmann/Hohwieler/Kraft 2013, S. 57)

[9] (vgl. Zuehlke 2010, S. 134)

[10] (Lasi et al. 2014, S. 241)

[11] (vgl. Keinert 2013)

[12] (vgl. www.opcfoundation.org)

[13] (vgl. Vogel-Heuser/Schütz/Göhner 2015, S. 195 ff.)

[14] (vgl. Weigelt 1994)

[15] (vgl. Uhlmann/Hohwieler/Kraft 2013, S. 57 ff.)

[16] (vgl. Gölzer/Cato/Amberg 2015, S. 7)

[17] (vgl. Gölzer/Cato/Amberg 2015, S. 7)

[18] (vgl. Gölzer/Cato/Amberg 2015, S. 7; Lachenmaier/Lasi/Kemper 2015, S. 12)

[19] (vgl. Uhlmann/Hohwieler/Kraft 2013, S. 57)

[20] (Härting 2014, S. 23)