Magazin Information Unlimited #44 – Software-defined OT

Page 1


12 SCHLÜSSEL ZUR DIGITALEN TRANSFORMATION

Frank Maurer, Boehringer Ingelheim, im Interview

26 LINUX IN DER AUTOMATISIERUNG

Der Trend geht Richtung Linux 44 FÜR INTELLIGENTE GEBÄUDE

Building-Management-Systeme der Zukunft

Software-defined. Bloß ein substanzloses Schlagwort im Zuge der vierten Industriellen Revolution? Wir bei COPA-DATA sagen nein. Wir glauben an flexible, softwarebasierte Steuerung als Modell der Zukunft. Warum, erfahren Sie in dieser Ausgabe der Information Unlimited: Es geht um Software-defined Operational Technology (OT). Um Softwaredefined Automation. Und um eine Lösung, die Distributed Control Systems in den Life Sciences revolutioniert: OpenDCS. Mehr dazu finden Sie in den Spotlight- sowie Products-&Services-Kapiteln dieser Ausgabe.

Erfahren Sie, welche Meilensteine rund um unsere Softwareplattform zenon die ITOT-Konvergenz und Software-defined Automation ermöglichen (Seite 8). Warum das deutsche Pharmaunternehmen Boehringer Ingelheim darauf setzt, verrät Ihnen das Interview ab Seite 12. Spannend ist dabei der Gedanke, dass Software-defined OT mit einem Kulturwandel einhergehen muss. Möchten Sie außerdem tiefer in die technischen Details eintauchen? Dann empfehle ich Ihnen den Artikel „DCS ist reif für eine Revolution“ (Seite 22).

Was erwartet Sie darüber hinaus in der 44. Ausgabe der Information Unlimited? Unser Produktmanager Dominic Voithofer schreibt über den Einzug von Linux in die Automatisierungswelt (Seite 26). Matthias Schnöll, ebenfalls aus dem Produktmanagement, beschäftigt sich mit den neuen Funktionen des zenon Device Managements (Seite 29). Unser Nachhaltigkeitsspezialist Emilian Axinia war im Gespräch mit Kiva Allgood, Managing Director des Weltwirtschaftsforums (Seite 38). Und wollen Sie wissen, was passiert, wenn ein Distributed Control System einen Drink ausgeben möchte (Seite 34) …?

Sie sehen also: Auch diese Ausgabe der Information Unlimited hat die verschiedensten Themen im Gepäck. Apropos Gepäck: Im Zuge der zenonIZE sind 500 Automatisierungsexperten aus aller Welt zu uns nach Salzburg gereist (Seite 52). Es war unsere bisher größte Kunden- und Partnerveranstaltung. Das Motto „Composing Tomorrow: Automatize, Digitalize, zenonIZE” passt ebenfalls hervorragend zur vierten Industriellen Revolution.

Ich wünsche Ihnen eine inspirierende Lektüre.

INHALT

SPOTLIGHT

SOFTWARE-DEFINED OT

08 Die vierte Revolution: Wenn die Software das Steuer übernimmt

12 Software-defined Automation als Schlüssel zur digitalen Transformation

16 Die neue Generation von Distributed Control Systems

PRODUCTS & SERVICES

22 DCS ist reif für eine Revolution

26 Linux in der Welt der Automatisierungssoftware

29 zenon Device Management –was gibt es Neues?

32 Auf Kurs Richtung EURegulierungen

34 Clemens Connected: Was, wenn das „D“ bei Ihrem DCS für „Disconnected“ steht?

38 Sustainability Column Im Gespräch mit Kiva Allgood: Ein entscheidender Moment für die globale Fertigungsindustrie

Energy & Infrastructure Virtualisierung von Umspannwerken

Sustainability

Eine Bühne für Software-defined Automation

Voneinander lernen –mit der COPA-DATA Partner Community an die Spitze

About zenoneers

About us 60 Adaptiv lernende Algorithmen in Steuerungssystemen

DIE VIERTE REVOLUTION: WENN DIE SOFTWARE DAS STEUER ÜBERNIMMT

„Software-definiert“ meint einen Ansatz, der Hardwareressourcen durch Software steuert und verwaltet – ohne traditionelle hardwarebasierte Methoden. Dies ermöglicht eine größere Flexibilität, Automatisierung und oft auch eine verbesserte Effizienz in verschiedenen IT-Bereichen. Phillip Werr, Member of the Executive Board bei COPA-DATA, über eine zukunftsweisende Automationsarchitektur.

„Software-defined“ als Begriff kommt aus der Welt der Informationstechnologie, allen voran das Softwaredefined Networking: Gemeint ist, Ressourcen flexibel durch Software zu kontrollieren und Funktionalität zu erweitern – unabhängig von der ausführenden Hardware-Komponente. In den letzten Jahren hat zum Beispiel das Schlagwort „Software-defined Vehicle“ an Beachtung gewonnen: Funktionalitäten eines Fahrzeugs, die zuvor von spezialisierten Komponenten übernommen wurden, werden nun über Software abgebildet und weiterentwickelt.

ÜBER SOFTWARE DEFINIERT

„Software-defined“ hat jedoch auch eine starke Verwurzelung in der Automatisierung. Bereits die Speicherprogrammierbare Steuerung (SPS), die als Grundstein für die dritte Industrielle Revolution gilt, verfolgt dieselbe Grundidee. Anstatt fest in der Hardware verdrahteter Logiken kommt Software ins Spiel: Diese übernimmt die Rolle, Logik zu definieren und auszuführen.

DIE VIERTE REVOLUTION HAT ANGEKLOPFT

Apropos Industrielle Revolution – um das Schlagwort der vierten Industriellen Revolution ist es mittlerweile etwas ruhiger geworden. Eine Analyse des weltweiten Internet-Traffics zu dem Begriff zeigt einen Rückgang in den letzten Jahren. Das mag auch daran liegen, dass diese Revolution vorab angekündigt worden war – als einzige der vier Industriellen Revolutionen. Ruhig ist es um das Thema dennoch nicht: Denn was als aufmerksamkeitsstarke Ankündigung begann, ist keineswegs von der Bildfläche verschwunden. Im Gegenteil – wir befinden uns bereits in der Umsetzung.

SPS VS. SDA

Eines dieser aktuellen Themen ist die „Software-defined Automation“ (SDA). Wie bereits angesprochen: Anders als bei der Speicherprogrammierbaren Steuerung (SPS) steht heute die Entkopplung der Steuerungslogik von der Hardware im Vordergrund. Ziel ist es, die Logik –also das Herzstück der Automatisierung – flexibel und

softwarebasiert zu gestalten. Ein gutes Beispiel ist die ebenfalls häufig zitierte Konvergenz von Informationstechnologie (IT) und Operationstechnologie (OT), bei der Prinzipien und Lösungsansätze aus der IT in der Automatisierung Einzug halten: Einfach gesagt, wandert hier der Logik-Code von der Steuerung auf eine virtualisierte Umgebung. Wer sind die Treiber für diese Entwicklung? Der Ruf nach geringeren (Hardware-)Kosten, schnellerer und flexiblerer Implementierung und besserer Security bei gleichzeitig einfacher Skalierbarkeit.

BEGEISTERUNG FÜR AUTOMATISIERUNG

Einst wurde das Ladder Diagram entwickelt, um industrielle Abläufe programmierbar zu machen. Hintergedanke war, die Akzeptanz der Ingenieure – die Stromlaufpläne gewohnt waren – sicherzustellen. Heute geht das Werben nach Akzeptanz in eine andere Richtung: Fachkräfte mit IT- und Coding-Hintergrund sollen sich für industrielle Automatisierung begeistern. So erlauben Systeme wie COPA-DATAs zenon die Programmierung industrieller Logik mit modernen Programmiersprachen wie Python. Ein weiteres Beispiel für gelebte Konvergenz von IT und OT in der Praxis.

SDA FÜR ALLE SERVICES DER AUTOMATISIERUNG

In der Philosophie der Softwareplattform zenon bezieht sich „Software-defined“ aber nicht nur auf die Logikprogramme, sondern auf sämtliche Elemente der Softwareplattform. Containerisiert lassen sich Automatisierungskomponenten wie SPS, Visualisierung/Human Machine Interface (HMI) oder Rezeptmanagement – um nur ein paar Beispiele zu nennen – flexibel und unabhängig von der darunterliegenden Hardware anordnen. Das bringt viele Vorteile mit sich: Auf der einen Seite sinken die Kosten in der Anschaffung und im Betrieb. Auf der anderen können die Arbeitsweisen der Informationstechnologie, wenn es um Security, DevOps und Skalierbarkeit geht, in der Automatisierung angewendet werden.

OFFENE UND MODULARE AUTOMATISIERUNG

Generell wächst der Bedarf an Flexibilität und Geschwindigkeit bei Gestaltung und Inbetriebnahme neuer Anlagen, um kosteneffizient schnelle Time-to-Market gewährleisten zu können. Die Antwort auf diese Sachlage lautet modulare Automatisierung, bei der bestehende Komponenten flexibel orchestriert werden. Auch hier kommen die Vorteile der Software-defined Automation zum Tragen, denn Modifikationen des Gesamtsystems, die bisher eine Anpassung der Hardware erforderten, können nun rein auf Softwareseite abgebildet werden.

UMSETZUNG MIT ZENON

Welche technologischen Meilensteine rund um die Softwareplattform zenon ermöglichen sowohl IT-OTKonvergenz als auch Software-defined Automation?

Dies sind:

– Runtime auf Windows und Linux mit identischem Engineering

– Native Unterstützung von Containerisierung und Virtualisierung

– Virtualisierung der Steuerungsebene

– Logik-Programmierung auch mit Python

– Unterstützung standardisierter Schnittstellen in Richtung Hardware (z. B. OPC UA) und Integration von Brownfield-Komponenten mit nativer Kommunikation

– Zentrale Orchestrierung und Verwaltung einzelner Services

– Interoperabilität und Offenheit

WARUM SETZEN WIR AUF SOFTWAREDEFINED AUTOMATION?

Mit unserer Vision „Das geht doch einfacher“ begleiten wir unsere Nutzer als zuverlässiger Technologiepartner. Mit unserer Software sollen sie ihre komplexen Aufgaben einfacher lösen. Doch die Herausforderungen unserer Kunden entwickeln sich stetig weiter: Produktions- und Energiesysteme müssen immer agiler und flexibler werden, die Inbetriebnahme wird komplexer – genauso wie die Wartung und Erweiterung im laufenden Betrieb.

In der produzierenden Industrie gibt es für diese Entwicklung zahlreiche Treiber: zum Beispiel kürzer werdende Innovations- und Produktlebenszyklen, Variabilität in der Rohstoffbeschaffung, Mangel an Fachkräften oder steigende Anforderungen an nachhaltige Produktion. In der Energiewirtschaft ist die

Energiewende – sowohl in der Erzeugung als auch in der Weiterentwicklung der Energienetze – technologisch, organisatorisch und kommerziell herausfordernd. Alle Bereiche haben außerdem gemeinsam, dass mit der notwendigen Vernetzung die Dimension der Cybersecurity zur Pflichtdisziplin wird.

In dieser Welt sehen wir, dass unsere Anwender auf die Vorteile der Arbeitsweisen der IT angewiesen sind, um in diesem herausfordernden Umfeld die Kontrolle zu behalten. Wir wollen unsere Anwender nicht nur ermächtigen, angemessen reagieren zu können, sondern sie sollen die Werkzeuge an der Hand haben, um ihre jeweilige Firmenstrategie proaktiv und zukunftsorientiert umsetzen zu können. Vor diesem Hintergrund sehen wir es als Pflicht, unseren Anwendern die Vorteile der Software-defined Automation (und auch der IT-OT-Konvergenz im Allgemeinen) mit zenon zugänglich zu machen.

HARDWAREKOSTEN SENKEN

SKALIERBARKEIT GEWINNEN

CYBERSECURITY ERHÖHEN

AGILITÄT ERHÖHEN

TIME-TOMARKET REDUZIEREN

ENGINEERINGAUFWAND VERRINGERN

ANWENDUNGSFALL OPENDCS

Die Software-defined Automation ist ein wichtiger Baustein von OpenDCS: Gemeint ist damit eine neue Generation offener DistributedControl-Systeme (DCS) im Life-Sciences-Sektor – eine Entwicklung aus dem Hause COPA-DATA. Während in traditionellen DCS die Hardware fest integrierter Bestandteil ist, um die verteilte Steuerung zu ermöglichen, hebt OpenDCS die bisherigen Einschränkungen auf. Die Kombination von verteilter Steuerung in einem integrierten Kontrollsystem kann nun rein durch Software flexibel definiert werden.

GLOSSAR

Software-defined Automation setzt auf Funktionalität und Logik per Software – unabhängig von der Hardware.

Distributed Control System (DCS) ist ein verteiltes, vernetztes System zur automatisierten Prozesssteuerung.

OpenDCS steht bei COPA-DATA für eine neue Generation offener Distributed Control Systems (DCS) im Life-Sciences-Sektor.

Als Mitglied der Geschäftsführung treibt Phillip Werr die strategische Ausrichtung des österreichischen Softwareherstellers COPA-DATA voran. Ihm ist ein Anliegen, dass Vision und Umsetzung Hand in Hand gehen.

phillip.werr@copadata.com

SOFTWARE-DEFINED

AUTOMATION ALS

SCHLÜSSEL ZUR DIGITALEN

TRANSFORMATION

Warum setzt das deutsche Pharmaunternehmen Boehringer Ingelheim auf Software-defined Automation? Das erläutert Frank Maurer, Global Head of Automation Strategy & Technology bei Boehringer Ingelheim, im Gespräch mit Bernhard Ebert, Vice President Global Key Account Management bei COPA-DATA. Er sieht eine zukunftsorientierte Gesamtlösung, die einen Kulturwandel verlangt.

Bernhard Ebert: Herr Maurer, wie wurde Softwaredefined Automation – oder kurz SDA – bei Boehringer Ingelheim Thema?

Frank Maurer: Wir haben vor drei, vier Jahren ein Innovationsprojekt gestartet. Bei diesem haben wir uns mit dem Konzept einer modularen und mobilen Automatisierungsarchitektur beschäftigt. Eine der zentralen Fragen war: Wie muss eine unterlagerte Infrastruktur aussehen, mit der sich solche Lösungen schnell, skalierbar und kosteneffizient weltweit ausrollen lassen? Dabei wurde rasch klar: Wir brauchen eine Herangehensweise, wie sie die IT längst beherrscht – also „IT-like Automation“. Dies hat uns in Richtung Software-defined und Cloud-native Automation gebracht.

Wie ging es weiter?

Das führte zur Erkenntnis, dass wir eine integrierte Tool Chain im Sinne von IndustrialDevOps benötigen. Es geht um eine globale Gesamtlösung für die unterlagerte OT-IT-Infrastruktur, die sowohl für klassische als auch modular automatisierte Prozessanlagen passt. Wo es sinnvoll ist, ergänzen wir Mobile Robotics und die Gebäudeautomatisierung. So können wir unseren Business-Partnern bei Boehringer Ingelheim eine Gesamtlösung mit drei großen Vorteilen bieten: „easy to deploy, easy to scale, easy to maintain“.

Software-defined Automation

FRANK MAURER

ist seit 2023 Global Head of Automation Strategy & Technology bei Boehringer Ingelheim. Seit 20 Jahren prägt er die Automatisierung des deutschen Pharmakonzerns mit. Mit 26,8 Milliarden Euro Umsatz (Jahr 2024) und 54.500 Mitarbeitenden zählt das 1885 gegründete Familienunternehmen zu den weltweit größten Playern der Branche.

SDA-Ansatz habe ich weniger Investitionen, weniger Betriebskosten. Ein weiterer zentraler Unterschied ist die Offenheit: SDA ermöglicht sowohl offene Schnittstellen als auch „Open-Source-Ansätze“. Als es die Lieferkettenprobleme gab, hat man gesehen, welch Zusatzaufwand es bei einem proprietären, geschlossenen System erfordern kann, kurzfristig andere Hardware einzusetzen.

Hardwareunabhängigkeit ist also essenziell?

Richtig, diese ist für SDA eine unabdingbare Basisvoraussetzung. Dies lässt zu, Hosting-Entscheidungen je nach Anwendungsfall zu treffen – unabhängig von der Hardware. Diese flexible Deployment-Strategie ermöglicht es, Industrial Automation dynamisch, skalierbar und auf den Use Case zugeschnitten umzusetzen: off-prem in der Cloud, on-prem in einem IT-Datacenter –oder auf einem IPC als Compute Stack in einem Schaltschrank direkt an der Anlage. Bei der hierfür notwendigen Containerisierung ist beispielsweise zenon schon weit fortgeschritten.

Wie wichtig ist der kulturelle Wandel in Unternehmen, um SDA erfolgreich einzuführen?

„Vorteile“ ist ein gutes Stichwort – welche funktionalen Pluspunkte bringen modulare Automatisierungsansätze?

Schon heute dreht sich in der Industrie viel um Schnelligkeit und kostengünstige Lösungen. Da kommt „Plug and Play“ oder „Plug and Produce“ ins Spiel – einfaches, schnelles Engineering wird in Zukunft immer wichtiger werden. Es geht uns nicht darum, Technologie-Vorreiter zu sein, sondern einen Ansatz zu finden, der unseren Standorten eine Lösung bietet: zukunftsorientiert, schnell verfügbar, kostenoptimiert. Das sind unbestreitbare Pluspunkte.

Das passt auch zu den gesellschaftlichen Trends –etwa zur demografischen Entwicklung: Fachkräfte sind heute bekanntlich schwerer zu finden als früher. Auch in großen Unternehmen gibt es bei Spezialthemen oft nur noch wenige Personen, die sich damit auskennen. Deshalb sind Remote Services ein riesiger Vorteil: Moderne Ansätze wie SDA bieten die Chance, Sites zu unterstützen, ohne physisch anwesend sein zu müssen.

Welche zentralen Unterschiede sehen Sie zwischen klassischen Automatisierungssystemen und SDA-basierten Ansätzen?

Neben der bereits erwähnten Schnelligkeit ist die Compliance rund um Cybersecurity zentral: Zumindest bei Legacy-Situationen ist diese oft nicht zu 100 % oder nur mit extrem hohem Aufwand gegeben. Bei SDA ist das anders, denn dieser Ansatz ermöglicht die Nutzung von flexiblen, skalierbaren und somit kostengünstigen Standardmechanismen, die aus der IT bekannt sind. Und dann gibt es das entscheidende Thema Kosten: weniger Capex, weniger Opex – kurz gesagt. Beim

Ich glaube, das ist der wichtigste Punkt von allen. Die Technologie ist das eine, da lassen sich Lösungen finden. Die wesentlich größere Herausforderung ist der kulturelle Wandel: Meiner Meinung nach ist SDA weniger ein Technologie- als ein Change-Projekt, auch wenn dies bei jedem Unternehmen ein wenig anders aussehen mag.

Meiner Meinung nach ist SDA weniger ein Technologieals ein Change-Projekt.

Im Grunde geht es darum, die massiven Vorzüge von Software-defined Automation zu betonen. Viele sehen Risiken, haben Ängste – die teilweise berechtigt sind. Aber mit Erfolgsbeispielen lässt sich zeigen, warum der Weg der richtige ist. Diese Transformation braucht aber auf jeden Fall Zeit – für gewöhnlich nicht Monate, sondern Jahre. Das sollte aber niemanden aufhalten: Es empfiehlt sich, nicht mit einem Großprojekt anzufangen, sondern zum Beispiel mit einfachen Automatisierungsaufgaben in weniger kritischen Bereichen. So lässt sich sowohl der technologische Reifegrad, zum Beispiel hinsichtlich Stabilität und Robustheit, als auch der organisatorische durch die gewonnene Betriebserfahrung verbessern. Danach kann man sich an kritischere Aufgaben heranwagen.

Auch Trends wirken auf die Unternehmenskultur. Welche Rolle spielen diese in Zusammenhang mit SDA?

Man sieht bei diesem Thema stark, dass IT-Trends über SDA einwirken. Trends und Technologien, die im IT-Umfeld zu disruptiven Verbesserungen geführt haben, kommen typischerweise zeitversetzt und in adaptierter Form bei uns an. Das geht zum Beispiel los mit Containerisierung, dann weiter mit Industrial DevOps. Für uns als verhältnismäßig kleine OT-Domain ist dies eine elementare Grundvoraussetzung, um zum Beispiel von disruptiven Trends wie AgenticAI profitieren zu können: Auf SDA-Basis ist diese wesentlich einfacher umsetzbar, als wenn man das mit Legacy-Strukturen versuchen würde.

Ich bin mittlerweile sogar der Meinung, dass AgenticAIbasiertes Automation Engineering ohne SDA nicht realisierbar ist. Und mit AgenticAI haben wir nochmal einen Hebel in Sachen Schnelligkeit und Kosten – in einer bis vor Kurzem nicht für möglich gehaltenen Größenordnung. Umso mehr freut es uns, dass zenon Logic in zenon Version 15 nun auch mit Python ergänzend zu den konventionellen IEC-61131-3-Sprachen verfügbar ist. Somit können wir AgenticAI-basierte Use Cases mit Hilfe von SDA in der OT-Domain zukünftig wesentlich schneller und effizienter umsetzen.

Sie haben Cybersecurity bereits erwähnt. Welche Rolle spielt sie bei zukünftigen Automatisierungssystemen im SDA-Kontext?

Ohne professionell umgesetzte Cybersecurity wird es keinen Anlagenbetrieb mehr geben. Das gilt schon heute – aber in Zukunft aufgrund des ständig wachsenden Bedrohungspotentials nochmals mehr. Auch die Network

BERNHARD EBERT

ist Vice President Global Key Account Management bei COPA-DATA. Seit 16 Jahren ist er Ansprechpartner für Großkunden des österreichischen Softwareherstellers –die Zusammenarbeit mit Boehringer Ingelheim besteht seit 2023. Das Pharmaunternehmen setzt als einer der ersten Großkunden auf den COPA-DATA OpenDCS-Ansatz.

and Information Security 2 Directive (NIS 2) und der Cyber Resilience Act (CRA) werden uns aus regulatorischer Sicht keine andere Wahl lassen. Wobei die Gesetzgebung nur das vorgibt, was aus unternehmerischem Eigeninteresse ohnehin bereits passieren sollte: Die Bedrohungslage ist da und wird in der aktuellen geopolitischen Situation nicht kleiner, sondern größer.

Hier helfen uns SDA und Lösungen, die uns die IT bereitstellt. Die früher oftmals genutzte Argumentation „da kann nichts passieren, weil wir eine Insellösung haben“ stimmt in den allermeisten Fällen nicht mehr: Wir haben überall Interfaces, wollen auf Anlagen aus Kostengründen remote zugreifen, möchten Daten aus unseren Anlagen … Die Einfallstore und damit die Angriffsvektoren sind schon längst real vorhanden.

Themenwechsel – wie wichtig sind

Modularisierung, Interoperabilität und Systemoffenheit?

Diese Frage ist mir eine Herzensangelegenheit. Wir haben nun viel über SDA gesprochen – trotzdem dürfen wir weiterhin nicht vergessen, unsere Hausaufgaben zu machen. Eine davon sind standardisierte Schnittstellen, also vor allem Module Type Package (MTP) und OPC UA, aber auch die Asset Administration Shell (AAS). Ohne durchdachte Equipment-Interfaces werden wir von Software-defined Automation nicht profitieren können. Die gute Nachricht ist aber auf alle Fälle, dass SDA die großen Vorteile des modularen Anlagenbaus, auf Automatisierungsseite unterstützt von MTP, nochmals signifikant verstärkt.

Zudem spielt zukünftig auch Open Source eine wesentlich größere Rolle – oder zumindest die Integration in Open-Source-Ökosysteme. In diesem Zusammenhang müssen wir natürlich auch schauen, dass es für alle Beteiligten weiterhin interessante Businessmodelle gibt. Open Source ändert viel – was Risiken, aber zweifelsohne auch viele Chancen birgt. Schon heute gibt es tolle Beispiele aus dem IT-Umfeld: nicht nur für großen Mehrwert bei den Endkunden, sondern auch für erfolgreiche Anbieter-Businessmodelle. Ich denke, dass wir als OT-Community die Zusammenarbeit mit Institutionen wie der Linux Foundation, der CNCF (Cloud-native Computing Foundation) und Initiativen wie dem Project Margo nochmals deutlich intensivieren sollten. Wir nutzen hierfür unter anderem die sehr gute Zusammenarbeit mit unseren Partnern in der Open Industry 4.0 Alliance.

Welche Vorteile durch SDA ergeben sich für OEMs, Systemintegratoren oder Softwareanbieter?

Der eine oder andere wird das Risiko sehen, weil SDA bestehende Businessmodelle verändert – wie so oft, wenn wir von disruptiven Innovationen reden. Aber die bereits mehrfach genannten Vorteile sind nicht nur eine Chance für den Endkunden, sondern auch für OEMs, Integratoren und Softwareanbieter. Es werden sich neue Liefer- und Leistungsumfänge ergeben – zum Beispiel „Automation as a Service“ als vielversprechendes Ge -

schäftsmodell. Es wird spannend, wer dieses Geschäft übernimmt: Softwareanbieter? Systemintegratoren? Maschinenlieferanten? Als Endkunde freuen wir uns darauf, zu sehen, wer uns in Zukunft nochmals verbesserte Services anbieten wird.

Was raten Sie Unternehmen darüber hinaus?

Ich empfehle, unbedingt anzufangen, sich mit SDA und den zugehörigen Technologien sowie Prozessen zu befassen. Wichtig hierbei ist auch das gemeinsame Lernen mit der Community und das Schaffen der organisatorischen Voraussetzungen: Informationstechnologie und Engineering müssen noch näher zusammenrücken und lernen, dieselbe Sprache zu sprechen – es geht nur gemeinsam. Mit einer Sprache lässt sich ein gemeinsames Grundverständnis schaffen und somit eine gemeinsame Strategie festlegen.

Diese Transformation betrifft aber nicht nur uns als Endkunde, sondern auch unsere Lieferanten und Partner. Da stellen sich zum Beispiel Fragen wie: Was ist, wenn ich nicht mehr nur die Softwarelizenz verkaufen möchte, sondern Richtung „… as a Service“ gehe? Was bedeutet es, wenn ich dafür plötzlich einen 24/7-Support erbringen muss? Was heißt das für die Ausbildung meiner Mitarbeitenden? Gerade die Weiterbildung wird ein entscheidendes Thema sein: Ein OT-Engineer wird IT-nahe Aufgaben abgeben – dafür aber wesentlich mehr Know-how in Richtung Prozessoptimierung und -verbesserung aufbauen können. Ein IT-Engineer wird diese Aufgaben übernehmen, muss aber lernen, was eine Prozessanlage und die damit verbundene Prozessautomatisierung von einem Office-Umfeld unterscheidet.

Warum sehen Sie zenon OpenDCS als Zukunftslösung für Boehringer Ingelheim?

Ich empfinde zenon als Zukunftslösung, weil die Plattform schon viele der diskutierten Aspekte als Teil des Produkts liefert oder bald liefern wird. Gerade in Hinblick auf SDA, OpenDCS, OpenBMS und natürlich allen voran der MTP-Integration sehe ich zenon im Kreis der Frontrunner. Die nahtlose Integration von hybriden Anlagenstrukturen mit modularen, aber auch klassischen Bereichen mit Hilfe von MTP und OpenDCS in ein gemeinsames Hybrid-Batch-Konzept ist nur eines von mehreren Beispielen.

Wenn man gemeinsam einen innovativen und durchaus mutigen „Cutting-Edge-Ansatz“ verfolgt, ist eine partnerschaftliche Herangehensweise essentiell. Unsere vertrauensvolle Zusammenarbeit und, nicht zu vergessen, die zwischenmenschliche Basis stimmen sehr optimistisch für die Zukunft.

Wo sehen Sie derzeit noch technologische oder organisatorische Hürden bei der Umsetzung von SDA?

Es gibt, wie gesagt, bereits genügend Praxisbeispiele aus der IT, die den Erfolg auch in kritischen Geschäftsprozessen und auf globaler Ebene beweisen. Jetzt müssen wir den Ansatz „nur noch“ für die Industrial Auto-

mation Domain anpassen: Hier sind, wie angesprochen, die Menschen das Entscheidende – People, Culture, Mindset. Es wird sich mit SDA viel ändern, wobei die Chancen wesentlich größer als die Risiken sind.

Herzlichen Dank für das Gespräch, Herr Maurer.

GLOSSAR

Cloud-native Automation ermöglicht die skalierbare und flexible Automatisierung von Prozessen in CloudUmgebungen durch den Einsatz moderner Technologien wie Container, Microservices und Infrastructure as Code.

Continuous Integration/Continuous Deployment (CI/CD) automatisiert das Testen, Zusammenführen und Ausrollen von Software, um schnelle und zuverlässige Releases zu ermöglichen.

Cyber Resilience Act (CRA) ist eine europäische Verordnung. Sie beschäftigt sich mit der Cybersicherheit von Produkten.

Industrial DevOps verbindet IT, OT und agile Methoden, um industrielle Software- und Produktionsprozesse durchgängig, automatisiert und sicher zu optimieren.

Network and Information Security 2 Directive (NIS 2) ist die Richtlinie für Cyber- und Informationssicherheit der Europäischen Union.

OpenBMS steht für zenons offenes Building Management System. Es ermöglicht eine modulare Architektur, die sich flexibel anpassen lässt.

OpenDCS steht bei COPA-DATA für eine neue Generation offener Distributed Control Systems (DCS) im Life-Sciences-Sektor.

DIE NEUE GENERATION VON

DISTRIBUTED CONTROL SYSTEMS

Industrielle Automatisierung erfordert immer mehr Offenheit, Flexibilität und Interoperabilität. Die Softwareplattform zenon von COPA-DATA wird zu einem wichtigen Wegbereiter. Mit seinem Schwerpunkt auf OpenDCS definiert zenon neu, wie Distributed Control Systems (DCS) entwickelt und betrieben werden – modular, herstellerunabhängig und zukunftssicher.

DIE ZUKUNFT HAT BEGONNEN: NEUDEFINITION VON INDUSTRIELLER AUTOMATISIERUNG

Für die industrielle Automatisierung ist ein neues Zeitalter angebrochen. Sie beschränkt sich mittlerweile nicht mehr auf Maschinen, die wiederkehrende Aufgaben ausführen, sondern wird zu einem hochentwickelten, intelligenten Ökosystem, in dem Menschen, Maschinen und Daten in Echtzeit miteinander interagieren. Die Industrie steht vor zahlreichen Herausforderungen, wie der globalen wirtschaftlichen Unsicherheit, dem Fachkräftemangel und den Bemühungen rund um Klimaneutralität. Vor diesem Hintergrund erweist sich Automatisierung als wichtiger Eckpfeiler für Widerstandsfähigkeit, Innovation und Nachhaltigkeit. Umfassende Umbrüche verändern zunehmend die Art und Weise, wie Hersteller denken und handeln. Einige dieser Trends beruhen auf OpenDCS.

Im Mittelpunkt des Wandels stehen benutzerorientiertes Design, Flexibilität und digitale Intelligenz. Das Ziel besteht darin, den Menschen zu unterstützen, nicht zu ersetzen. Künstliche Intelligenz (KI) und Robotik sol-

len die menschlichen Fähigkeiten ergänzen. Arbeitskräfte werden für die Interaktion mit modernen Tools und Systemen umgeschult, wodurch integrativere, effizientere und nachhaltigere Arbeitsplätze entstehen. In dieser neuen Realität ergänzen sich menschliche Erkenntnisse und maschinelle Präzision gegenseitig und ermöglichen so eine intelligentere, sicherere und sozial verträglichere Produktion.

Die industrielle Automatisierung wandelt sich außerdem durch den Wechsel von starren, hardwaregesteuerten Systemen hin zu flexiblen, softwaredefinierten Plattformen. Herkömmliche Steuerungen weichen modularen, programmierbaren Plattformen, die eine schnelle Rekonfiguration und Integration unterstützen. Dieser softwarezentrierte Ansatz geht Hand in Hand mit der zunehmenden Verbreitung modularer Produktionssysteme. Konzepte wie Module Type Package (MTP) ermöglichen Herstellern die Entwicklung flexibler, skalierbarer Fertigungsstraßen, die sich ohne längere Ausfallzeiten an neue Produktvarianten anpassen können. Diese Systeme eignen sich besonders für Branchen mit hohem Anpassungsbedarf, wo es auf Flexibilität und

Reaktionsfähigkeit ankommt.

Eine weitere wichtige Entwicklung ist der zunehmende Einsatz von Digital Twins. Diese virtuellen Nachbildungen physischer Systeme ermöglichen es Herstellern, ganze Produktionsumgebungen zu simulieren, um den Betrieb zu optimieren. McKinsey erwartet für Digital Twins bis 2030 eine durchschnittliche jährliche Wachstumsrate von über 40 %, was ihre strategische Bedeutung unterstreichen dürfte.

Gleichzeitig entwickelt sich KI immer mehr zum Gehirn der industriellen Automatisierung. Längst geht ihre Rolle weit über Predictive Analytics hinaus – KI gilt heute als treibende Kraft hinter Konzepten wie generatives Design, intelligente Robotik und autonome Qualitätssicherung. KI-gesteuerte Analysen helfen Unternehmen, intelligenter auf Veränderungen bei der Nachfrage, den Anlagenbedingungen und der Dynamik innerhalb der Lieferketten zu reagieren.

Unterstützt wird dieser Wandel durch die wachsende Bedeutung von Low-Code- und No-Code-Entwicklungsplattformen. Tools wie diese ermöglichen es Anwendern ohne formale Programmierkenntnisse – wie zum Beispiel Anlageningenieuren und Technikern – schnell und effizient Automatisierungslösungen zu erstellen und anzupassen. Sie verringern die Abhängigkeit von spezialisierten Entwicklern, wodurch sie Innovationen demokratisieren und den Entwicklungszyklus verkürzen.

Insgesamt lassen diese Fortschritte einen grundlegenden Wandel in der industriellen Automatisierung erkennen. Was vor uns liegt, ist nicht nur eine schnellere oder effizientere Produktion, sondern ein intelligenterer, flexiblerer und deutlich menschlicherer Fertigungsansatz. Die Produktionsstätten der Zukunft sind

anpassungsfähig, reaktionsschnell und eng miteinander vernetzt – sie fertigen nicht nur, sondern entwickeln sich auch weiter.

In diesem neuen Zeitalter werden Unternehmen erfolgreich sein, die Automatisierung als strategischen Rahmen für Innovationen nutzen. Die industrielle Zukunft ist intelligenter, kollaborativer und nachhaltiger.

DER WANDEL VON HARDWAREGEBUNDENER ZU SOFTWAREDEFINIERTER AUTOMATISIERUNG

Angesichts dieses sich verändernden industriellen Umfelds sehen wir den Wandel in Richtung softwaredefinierter Automatisierung als einen wichtigen Katalysator und Beschleuniger.

Traditionell kombiniert ein DCS dezidierte Hardware und Software zu einem eng integrierten System. Bei umfangreicheren Anwendungen, etwa in der Öl- und Gasindustrie, hat das bislang gut funktioniert. Für kleinere Fertigungsstraßen waren diese Systeme aufgrund des Wartungs- und Überwachungsaufwands aber schon immer eine Herausforderung. Und in pharmazeutischen Prozessen stoßen herkömmliche DCS aufgrund der zunehmenden Komplexität und der steigenden Anforderungen an Modularität, Interoperabilität und schnellere Innovationen an ihre Grenzen. zenon OpenDCS steht für eine grundlegende Abkehr von statischen, herstellerspezifischen Umgebungen hin zu einer flexiblen, zukunftsfähigen Automatisierung. Die Plattform bietet eine softwaredefinierte, hardwareunabhängige Alternative, frei von starren Architekturen. Stattdessen basiert sie auf offenen Standards und modularen Engineering-Prinzipien und verändert damit die Prozessautomatisierung grundlegend.

Architektur hardwarezentriert, hierarchisch softwarezentriert, modular, flexibel

Integration proprietär, eng gekoppelt offen, interoperabel, herstellerunabhängig

Skalierbarkeit hardwaregebunden, eingeschränkt leicht skalierbar, softwaregesteuert

Anpassungsfähigkeit hardwarewechsel erforderlich agil durch Updates und Konfiguration

Datenverarbeitung Silo, begrenzte IT/OT-Fusion einheitliche Datenflüsse in Echtzeit

Lebenszyklus lang, starr kontinuierliche Verbesserung

Herstellerbindung hoch gering

Engineering sehr spezifisch, je nach System automatisierte, wiederverwendbare Komponenten

Kostenstruktur hohe Anfangskosten, langfristiger Wartungsaufwand geringere Einstiegskosten, langfristig flexibel

DIE HERAUSFORDERUNGEN

HERKÖMMLICHER DCS

Viele Pharmaunternehmen stehen vor ähnlichen Problemen.

– Hohe Anfangsinvestitionen in Hardware und Lizenzen

– Komplexe Architekturen verlangsamen die Implementierung

– Herstellerbindung schränkt die Auswahl ein und treibt die Kosten in die Höhe

– Begrenzte Skalierbarkeit bei der Anpassung an künftige Anforderungen

– Schwierige IT/OT-Integration führt häufig zu Datensilos

– Risiko der Veralterung, insbesondere in sehr dynamischen Branchen

WARUM OPENDCS DIE SPIELREGELN VERÄNDERT

zenon OpenDCS ist nicht nur ein neues Produkt, sondern ein völlig neuer Ansatz. Anstatt Hardware und Software zu bündeln, liefert zenon OpenDCS nur die Softwarekomponente. Der große Vorteil: Die Plattform läuft auf virtuellen Maschinen, Standard-PCs oder bestehender Infrastruktur. Sie unterstützt über 300 Protokolle, wie OPC UA, ISA 88, Profinet und den MTPStandard, was eine modulare Produktion und eine nahtlose Anlagenintegration ermöglicht.

zenon OpenDCS ist der erste Schritt in Richtung einer vollständig softwaredefinierten Automatisierung, die schnellere Innovationen, einfachere Compliance und kontinuierliche Optimierung verspricht.

NAHTLOSE INTEGRATION DURCH

VORVALIDIERTE SPS-BIBLIOTHEKEN UND ZENTRALE ORCHESTRIERUNG

Ein wesentlicher Bestandteil von zenon als OpenDCS sind die von COPA-DATA entwickelten vorvalidierten SPS-Bibliotheken. Diese Bibliotheken ermöglichen die Integration vieler Plattformen unter Verwendung desselben Engineering-Tools. Unterstützt werden zum Beispiel: – Virtualisierte SPSen in der Umgebung von zenon Logic 61131-3 – Offene Linux-basierte Steuerungen mit Docker-Installationen – Physische SPSen von Herstellern wie Siemens oder Rockwell zenon bietet native Bibliotheken für alle diese Plattformen, was eine reibungslose Integration gewährleistet und die Engineering-Komplexität erheblich reduziert. Darüber hinaus minimieren die vorqualifizierten Funktionsblöcke den Validierungsaufwand – ein wertvoller Vorteil in regulierten Branchen wie der Pharmaindustrie. Wenn MTP-fähige Anlagen vorhanden sind, wird die Integration noch effizienter: Die Anlagenmodule können einfach per Drag and Drop direkt in das Projekt gezogen werden. Eine zusätzliche Konfiguration

ist nicht erforderlich.

ORCHESTRATION STUDIO: HERZSTÜCK DER MODULAREN AUTOMATISIERUNG

Im Mittelpunkt der OpenDCS-Philosophie von zenon steht das sogenannte Orchestration Studio, eine erweiterte Engineering-Ebene, die das zenon Engineering Studio ergänzt. Es unterstützt Ingenieure bei der Entwicklung und Orchestrierung von

Steuerungsmodulen – Anlagenmodulen

MTP-konformen Process Equipment Assemblies (PEAs)

Über eine Drag-and-Drop-Schnittstelle können Ingenieure Objekte intuitiv platzieren und verbinden. Das System generiert automatisch mit nur einem Mausklick die zugrunde liegende Steuerungslogik und die HMIKomponenten. Hierfür dient ein vordefiniertes Projekt als Vorlage.

Darüber hinaus unterstützt zenon die automatische Konfiguration von Batch-Control-Phasen und -Services nach dem ISA-88-Standard und ermöglicht so eine effiziente Entwicklung rezeptbasierter Automatisierung. Dies wiederum sorgt für eine standardisierte, strukturierte und skalierbare Batch-Ausführung, was den Engineering-Aufwand weiter reduziert und die Konsistenz über modulare Systeme hinweg und im gesamten Projekt verbessert. Alle Objekte haben ähnliche Faceplates und ein ähnliches visuelles Verhalten. Das verbessert die Benutzerfreundlichkeit und macht die Bedienung für die Endbenutzer intuitiver.

INTELLIGENTE WIEDERVERWENDUNG

BEWÄHRTER KOMPONENTEN

Über das Orchestration Studio haben Sie Zugriff auf eine umfangreiche Bibliothek mit bewährten Komponenten, darunter – Symbole – Faceplates – Batch-Schnittstellen

Diese Komponenten sind Teil der zenon Prozessbibliothek, die dem MTP-Standard folgt. Diese Bibliothek umfasst Funktionsblöcke und Steuerungsmodule, die in der Prozessautomatisierung häufig zum Einsatz kommen, beispielsweise für – Motoren – Ventile

– Analogwerte – Sensoren

Jedes Element besteht aus einem entsprechenden SPSFunktionsblock und einem zenon Smart Object, das sowohl Logik als auch HMI-Visualisierung abdeckt. Diese Struktur gewährleistet ein konsistentes Verhalten, eine schnellere Bereitstellung und eine einfachere Validierung.

Durch die Kombination von vorvalidierten Bibliotheken, Drag-and-Drop-Engineering und MTP-Compliance in einem gemeinsamen Tool verbessert zenon OpenDCS die Integrationseffizienz, verkürzt die Projektlaufzeiten und steigert die Wartungsfä-

higkeit des Systems erheblich. Dies stellt einen bedeutenden Schritt in die Zukunft dar, insbesondere für regulierte Branchen, aber auch darüber hinaus.

DIE WICHTIGSTEN VORTEILE AUF EINEN BLICK

– Flexibilität und Skalierbarkeit: Von F&E-Labors bis zu kompletten Fertigungsstraßen passt sich zenon flexibel an Ihre Anforderungen an – und kommt dabei ohne komplexes Re-Engineering aus.

– Unterstützung für Virtualisierung, Containerisierung und neue Standards: OpenDCS ist für die Technologien von morgen ausgelegt.

– Vereinfachtes Engineering: No-Code- bzw. Low-Code-Entwicklung beschleunigt die Markteinführungszeit.

– Cybersecurity by Design: Die integrierte Sicherheitsarchitektur gewährleistet Ausfallsicherheit und die Einhaltung gesetzlicher Vorgaben.

– Softwaredefinierte Automatisierung: Durch automatisiertes Engineering, zentrale Bereitstellung und Hardwareunabhängigkeit schneller als je zuvor auf Veränderungen reagieren.

– OT/IT-Integration: eine zentrale Plattform, die Reaktionszeiten verbessert und Geschäftsprozesse in einem sicheren digitalen Netzwerk vereinfacht.

– Besonders geeignet ist zenon OpenDCS für modulare Umgebungen. Mit der MTP Suite können Sie

• bestehende Systeme über MTP Gateways integrieren

• Prozesse mit intuitiven Drag-and-Drop-Tools orchestrieren

• Echtzeit-Compliance in der gesamten Produktion sicherstellen

Das Ergebnis? Höhere Effizienz, geringere Ausfallzeiten und schnellere Skalierung für neue Produkte.

FAZIT

Die Zukunft der industriellen Steuerung ist offen, flexibel und softwaredefiniert. Die Softwareplattform zenon von COPA-DATA verbindet diese Prinzipien zu einem leistungsstarken System und bietet damit eine solide, zukunftssichere Alternative zu herkömmlichen DCS-Architekturen.

Als OpenDCS bietet zenon Unternehmen die Möglichkeit, ihre Abläufe zu modernisieren, die Integration zu beschleunigen, die Bindung an bestimmte Hersteller zu verringern und neue Möglichkeiten der Edge- und Cloud-Konnektivität zu erschließen – und das alles ohne Kompromisse bei Leistung oder Sicherheit. Ganz gleich, ob Sie eine modulare Anlage planen, von einem älteren System migrieren oder einen digital vernetzten Prozessbetrieb aufbauen: zenon unterstützt Sie individuell und flexibel bei der Orchestrierung Ihres Erfolgs.

Als Industry Marketing Manager kümmert sich Stefan Eder um ein breites Spektrum von Lösungen in diversen Fertigungsbranchen – von Life Sciences über Food & Beverage bis zu disziplinübergreifenden Anwendungen für mehr Nachhaltigkeit mit zenon.

stefan.eder@copadata.com

Seit 2008 ist Bernhard Korten Mitglied des COPA-DATA Teams in Salzburg, Österreich. Als freiwilliger Rettungssanitäter hat Bernhard immer die richtige Pille zur Hand, besonders für Softwarelösungen in der Life Sciences Industry.

bernhard.korten@copadata.com

DCS IST REIF FÜR EINE REVOLUTION

Distributed Control Systems (DCS) sind eine Weiterentwicklung des zentralen Leitstands und ermöglichen mit ihren dezentralen Architekturen mehr Skalierbarkeit und Zuverlässigkeit für große Anlagen. Allerdings stoßen herkömmliche DCS-Lösungen, die in der Regel herstellergebunden sind, hinsichtlich Kosten, Flexibilität und Wartung an ihre Grenzen. Unternehmen wollen nun einen Nutzen aus den neuen IT-Trends, wie kostengünstigere Hardware, Containerisierung und offene Schnittstellen, ziehen. Systeme, die diese neuen Ansätze unterstützen – wie zenon OpenDCS – ermöglichen eine modulare, softwaredefinierte und Cloudnative Automatisierung. Dieser Wandel verringert die Komplexität, fördert die Kompatibilität und rüstet DCS für die industriellen Anforderungen der Zukunft.

AUTOR: LUKAS PUNZENBERGER, DIRECTOR PRODUCT MANAGEMENT

Erinnern Sie sich an Ihre letzten Projekte mit Prozessleitsystemen? Sicherlich gab es mindestens ein Projekt, das zunächst recht klein begonnen hat und ohne Weiteres von einer Person zu bewältigen war. Mit der Zeit dürften die Anforderungen und Erwartungen an dieses System wachsen. Vielleicht verfolgen Sie einen ganzheitlicheren Ansatz für den erweiterten Projektumfang. Gleichzeitig wächst aber auch der Umfang des Gesamtprojekts immer weiter, was den Aufwand für die Verwaltung der verschiedenen Komponenten und Versionen größer macht. Wartung und klar definierte Schnittstellen gewinnen mehr und mehr an Bedeutung. Um ein solches Großprojekt dann noch bewältigen zu können, ist es unerlässlich, alle Projektbestandteile nach dem „Divide and Conquer“-Prinzip in einem System aufteilen zu können.

DIE ROLLE VON DCS

Die Geschichte und die Weiterentwicklung von DCS zeigen das hohe Maß an technischer Expertise. Im Zentrum steht eine Reihe von vorab validierten Programmierblöcken, die die Grundlage des Projekts bilden. Je nach Projektumfang werden diese konfigurierten Blöcke dann auf einer dezidierten Steuerung mit Bedienstand für die Mensch-Maschine-Interaktion ausgeführt. Man könnte sagen, dass die kleine Instanz eines DCS der einer SPS und einer HMI entspricht. Dedizierte Steuerungen sind für einen kleinen, in gewisser Weise unabhängigen Bereich innerhalb eines Leitstands zuständig. Für große Anlagen kommen bereits seit Jahrzehnten DCS-Lösungen zum Einsatz, die mehrere tausend Aktoren und Sensoren steuern. In der Regel verfügt das DCS auch über integrierte Funktionen wie Archivserver

und Rezeptverwaltung, die in einem System nahtlos ineinandergreifen. Die technischen Voraussetzungen für die Veraltung von Geräten und Stationen dieser Größenordnung schafft ein zentrales, übergeordnetes System. So weit, so gut. In den letzten Jahren scheinen DCS aber ihre Leistungsfähigkeit und ihre oftmals hochspezialisierten Funktionen ausgereizt zu haben. Wie ist es dazu gekommen?

KURZE GESCHICHTE DES DCS

Vor dem Aufkommen von computergestützten Steuerungen wurden zentrale Leitstände genutzt, um alle wichtigen Signale zu erfassen und die gesamte Anlage von einem Standort aus zu steuern. Diese Leitstände waren zwar relativ unflexibel und Änderungen nur schwer umzusetzen, trotzdem stellten sie eine komfortable Möglichkeit zur Überwachung des Anlagenbetriebs dar.

In den 1960er Jahren erhielten diese Leitstände mit der Integration von Minicomputern ein umfassendes Upgrade. In diesen neuen, zentralisierten Leitständen war es möglich, verschiedene Anlagen gleichzeitig von einem Ort aus zu steuern, was die Wartung im Vergleich zu dezentralen, nicht vernetzten Steuerungen einfacher und schneller machte. Allerdings hatten diese Leitstände immer noch den Nachteil, dass eine nachträgliche Skalierung sehr umständlich war.

Ende der 1960er und Mitte der 1970er Jahre brachten Honeywell und Yokogawa schließlich die ersten DCS auf den Markt – ein Wendepunkt in der Automatisierung großer Anlagen. Diese neuen DCS zeichneten sich durch zwei neuartige Ansätze aus: – Eine dezentrale Architektur ermöglichte die Aufteilung des komplexen Steuerungsschemas der Anlage auf mehrere miteinander vernetzte Steuerungen, die über die gesamte Anlage verteilt

waren, wodurch die Zuverlässigkeit und Flexibilität deutlich erhöht werden konnten.

Kommunikationsnetze zur Übertragung der Daten von dezentralen Steuerungen an eine zentrale Bedienerkonsole machten es erstmals möglich, Prozesse in Echtzeit zu überwachen und zu steuern. In den letzten 50 Jahren wurde dieser Ansatz kontinuierlich weiterentwickelt. Durch den Einsatz von Spezialsystemen, die perfekt auf das jeweilige Ökosystem abgestimmt sind und eine enge Kopplung zwischen der vorgesehenen Hardware und den entsprechenden Softwareelementen ermöglichen, wurde das DCS immer leistungsfähiger.

Dies führte zur Entwicklung noch größerer Systeme, mit dem Vorteil, die Komplexität und Verantwortung in leicht zu verwaltende Einheiten aufteilen zu können. Solche Systeme ließen sich innerhalb ihres eigenen Ökosystems problemlos erweitern, allerdings waren Erweiterungen und Anpassungen aufgrund der Herstellerabhängigkeit relativ kostspielig.

Auf diesem Prinzip fußten DCS über die gesamten letzten Jahrzehnte, mit dem Ergebnis, dass bei der Planung eines neuen Projekts meist dieselbe zuverlässige und robuste Architektur mit denselben Hardwareoptionen zum Einsatz kommt.

Zwei größere Innovationen der letzten zehn Jahre waren schließlich die Umstellung auf HMTL5-basierte Visualisierung und die verbesserte Unterstützung für den Betrieb verschiedener Archivserver, Batch-Rezepte und Engineering-Stationen in einer virtuellen Umgebung. Auch wenn diese Innovationen nicht unerheblich sind, scheint es, als hätte das DCS seine Grenzen erreicht, was grundlegende Verbesserungen beim Wartungs- oder Engineering-Aufwand betrifft.

Abbildung 1: Das sogenannte „Divide and Conquer“-Verfahren für DCS mit seiner Baumstruktur leistet einen wichtigen Beitrag zur Verringerung der Komplexität.

ANZEICHEN EINER REVOLUTION FÜR DCS

Blickt man auf die letzten zehn Jahre der DCS-Geschichte zurück, so lässt sich feststellen, dass die Entwicklung in Bezug auf die Leistungsfähigkeit des Systems ein Plateau erreicht hat.

Gleichzeitig bleibt aber die Entwicklung des täglichen Lebens nicht stehen – insbesondere, wenn Software ein zentraler Bestandteil davon ist! Statistisch gesehen vollzieht die IT-Landschaft alle sieben Jahre einen grundlegenden Wandel mit neuen Herausforderungen und Chancen. Da ist es enttäuschend zu beobachten, dass kaum eine der aktuellen Spitzentechnologien im IT-Bereich von DCS-Herstellern aufgegriffen wird.

Trotzdem bin ich davon überzeugt, dass es nur eine Frage der Zeit ist, bis die folgenden drei transformativen Softwaretechnologien die Funktionsweise von DCS und unsere Sichtweise darauf, was ein DCS ist, revolutionieren werden.

1. STANDARDISIERTE PC-HARDWARE

Gemäß dem Mooreschen Gesetz werden Recheneinheiten (das heißt CPUs) mit der Zeit so leistungsfähig und kostengünstig, dass der Bedarf an spezialisierter Hardware nahezu entfällt. Ihre Rechenleistung reicht mehr als aus, um die in den letzten zehn Jahren eingesetzte Nischenhardware zu ersetzen. Das Ergebnis sind erhebliche Kosteneinsparungen – selbst wenn man berücksichtigt, dass Standard-CPUs häufiger ausgetauscht werden müssen als die Spezialhardware. Dadurch entstehen Wettbewerbsbedingungen, die es möglich machen, die für die jeweilige Aufgabe am besten geeignete Hardware und Software auszuwählen, was die Qualität dieser Systeme noch einmal deutlich steigern dürfte.

2. CONTAINERISIERTE UMGEBUNGEN

Nahezu jedes DCS nutzt eine virtualisierte Umgebung, um die verschiedenen Bedienplätze oder Koordinationsrechner auf einem kompakten Server auszuführen. Im Vergleich zu einem leichteren, containerisierten Ansatz erfordern vollwertige virtuelle Maschinen mehr Ressourcen und verursachen höhere Wartungskosten. Das Open Container Interface (OCI) definiert eine Schnittstellenanwendung, die alles innerhalb des jeweiligen Benutzerkontexts auf einer „Mini-VM“ ausführt, wobei die Betriebssystemfunktionen des Hostsystems verwendet werden. Daraus ergibt sich eine sehr schlanke Umgebung, die sich schnell implementieren und anpassen lässt und auf fast jeder StandardPC-Hardware läuft.

Durch die Kombination dieser containerisierten Architekturen mit Management-Ebenen wie Kubernetes lassen sich Umgebungen replizieren, die für den Betrieb in hochkomplexen Rechenzentren weltweit ausgelegt sind und über umfassende integrierte Sicherheits- und Verwaltungsfunktionen verfügen.

3. OFFENE SCHNITTSTELLEN

Der dritte wichtige Trend im Bereich der Softwaretechnologien mit dem Potenzial, die Umgebung von Prozess-

leitsystemen zu transformieren, ist die Entwicklung von Anwendungen und Diensten mit offenen Schnittstellen. Dies bietet zahlreiche Vorteile:

– Leicht erweiterbar – Herstellerunabhängigkeit – Einfachere Auswahl des Systems, das den technischen und Verfügbarkeitsanforderungen am besten entspricht – Communityorientiert – Einfacher Wissenstransfer

Dadurch lassen sich Systeme für die Zukunft entwickeln, bei denen Entscheidungen, die beispielsweise bei der Ersteinrichtung vor fünf Jahren getroffen wurden, nicht mehr so sehr ins Gewicht fallen – und es deutlich einfacher wird, bei Bedarf den Anbieter zu wechseln.

DIE ZEICHEN STEHEN AUF OPENDCS

Kombinieren wir diese drei Trends, dann steht uns eine Revolution mit offenen DCS-Ansätzen bevor. Und genau hier kommt OpenDCS ins Spiel. Ein communitygetriebener Standard im Bereich der Prozessautomatisierung ist Module Type Package (MTP). Dieser Standard aus der Prozessindustrie definiert eine klare Schnittstelle über OPC UA zwischen Skids oder Einheiten und dem übergeordneten Prozessleitsystem. Selbst heterogene Hardwarelandschaften profitieren dadurch vom sogenannten Plug-and-Produce-Konzept, außerdem ermöglicht der Standard die einfache Anpassung und eine Schritt-für-Schritt-Erweiterung bestehender Anlagen.

DARF ICH VORSTELLEN: ZENON OPENDCS

zenon OpenDCS ist eine speziell auf den Life-SciencesSektor zugeschnittene skalierbare Softwarelösung, die eine zentrale Orchestrierung ermöglicht. Sie kombiniert die wesentlichen Funktionen von DCS, wie eine vorgefertigte Objektbibliothek und zentralisierte Projektierung, und baut mit automatisiertem Engineering und offenen Industriestandards darauf auf.

Abbildung 2 zeigt ein Beispiel für eine zenon OpenDCS-Architektur. Hier laufen verschiedene offene Steuerungen in einer containerisierten Umgebung, die vollwertige IEC-61131-3-Laufzeitumgebungen auf Basis von zenon Logic bereitstellt. zenon Logic unterstützt den offenen Standard IEC 61131-10 für den plattformunabhängigen Codeaustausch. Geladen werden alle diese Elemente von der zentralen Engineering Station, bestehend aus dem zenon Engineering Studio und dem zenon Orchestration Studio.

Das zenon Orchestration Studio ist der Haupteinstiegspunkt für schnelles und automatisiertes Engineering. Es bietet integrierte Unterstützung für den MTPStandard. Mit MTP erhalten Hersteller die Möglichkeit, die Beschreibung der Softwareschnittstellen, die Visualisierung und natürlich die bereitgestellten Funktionen mit standardisierten Bausteinen zu ergänzen. Dadurch wird ein solches System komplett herstellerunabhängig.

Die Benutzeroberfläche, zugehörige BatchRezept-Bausteine und Alarme lassen sich dank MTP

mit wenigen Mausklicks erstellen. Das zenon Orchestration Studio verbindet dabei zwei Welten: die Welt von MTP mit seinen vorgefertigten Skids und die Welt der kundenspezifischen Regelkreise, PIDs und Rezepte. Beide basieren auf derselben Prozessbibliothek von COPA-DATA, die Steuerungscode für mehrere Plattformen wie Siemens-SPSen und zenon Logic bietet. Auf diese Weise lassen sich mit vordefinierten Elementen beliebige Regelkreise, PIDs oder benutzerdefinierte Bilder erstellen, so wie es auch mit klassischen DCS möglich ist. Für den Feinschliff und die detaillierte Konfiguration ist zenon Engineering Studio das passende Werkzeug.

In dieser Beispielarchitektur wird ein redundantes Paar zenon Service Engines als Orchestrierungsstation oder Überwachungsrechner ausgeführt. Es bietet damit die Backend-Funktionalität für Audit Trails, Alarme sowie das Erstellen und Ausführen von Rezepten. Die Bedienstationen können als Thin Clients, die ausschließlich aus einem Webbrowser bestehen, oder als Thick Native Windows Clients ausgeführt werden.

Mit einer integrierten Werum MSI-Schnittstelle und Unterstützung für GraphQL ist die Einbindung in die bestehende Infrastruktur denkbar einfach. Die Schnittstelle lässt sich problemlos nach Ihren Anforderungen konfigurieren.

zenon OpenDCS bietet eine Low-Code- bzw. NoCode-Entwicklungsumgebung, die moderne Ansätze wie containerisierte Komponenten unterstützt, die selbst auf kleinen Industrie-PCs oder Verbraucherhardware laufen. Die HTML5-basierte Visualisierung reduziert Hardware- und Software-Abhängigkeiten für Edge-Geräte.

Weitere Einblicke erhalten Sie in einer beispielhaften Demonstration im IU-Magazin #43, die ein Modul für vertikale Landwirtschaft beschreibt. Der Ansatz mit lose gekoppelter Hardware und Software ermöglicht

eine vollständig cloudbasierte Architektur und unterstreicht damit die Flexibilität von zenon OpenDCS.

SIND SIE BEREIT FÜR DIE REVOLUTION?

Im schwierigen Wirtschaftsumfeld der heutigen Zeit müssen Unternehmen mit Herausforderungen wie hohen Infrastruktur- und Wartungskosten sowie ständig steigenden Sicherheitsanforderungen umgehen. Aufgrund ihrer begrenzten Skalierbarkeit gelten herkömmliche DCS als schwerfällige und vergleichsweise teure Lösungen, die den aktuellen Anforderungen nicht mehr ausreichend Rechnung tragen.

Die Revolution der leichtgewichtigen Containerisierung nahezu ohne besondere Hardwareanforderungen bietet eine ideale Möglichkeit, den Herausforderungen unserer Zeit zu begegnen. Das oben erwähnte Beispiel mit dem Modul für vertikale Landwirtschaft zeigt, wie dieser Ansatz mit lose gekoppelter Hardware und Software eine vollständige cloudgehostete Architektur ermöglicht. Das verdeutlicht die enorme Flexibilität von OpenDCS. Durch die Nutzung offener Standards und cloudnativer Technologien können Unternehmen BestPractice-Verfahren für Continuous Integration (CI)/ Continuous Deployment (CD) zur Entwicklung und Bereitstellung von DCS verfolgen.

Eine typische Bereitstellungsumgebung mit den Phasen Entwicklung, Qualitätskontrolle und Produktion in einer rein containerisierten Umgebung rüstet Unternehmen für die Zukunft und ermöglicht ihnen die Nutzung neuartiger Technologien wie Digital Twins während der Entwicklung und Qualitätskontrolle. Außerdem kann problemlos und ohne Konfigurationsänderungen zwischen den einzelnen Phasen gewechselt werden. Auf diese Weise hilft zenon OpenDCS Herstellern im Life-Sciences-Sektor, die Vorteile aktueller und zukünftiger transformativer Software, Ansätze und Technologien zu nutzen.

Abbildung 2: Beispiel für ein OpenDCS auf Basis der Softwareplattform zenon.

LINUX IN DER WELT DER

AUTOMATISIERUNGSSOFTWARE

Linux als Betriebssystem wurde im Vergleich zu Windows lange Zeit nur von einer Minderheit favorisiert. In den letzten Jahren lässt sich aber ein klarer Umschwung erkennen: Der Trend geht eindeutig in Richtung Linux, das aufgrund seiner Vorteile gegenüber anderen Betriebssystemen zunehmend die Aufmerksamkeit auf sich zieht.

LINUX NUR FÜR INSIDER ODER FÜR DIE BREITE MASSE?

Lange Zeit galt Linux als ein Betriebssystem, das nur von Entwicklern oder sehr IT-affinen Personen verwendet wird – also von Experten auf diesem Gebiet, die über mehr Know-how verfügten als ein „gewöhnlicher“ Benutzer. Für den allgemeinen Gebrauch galt es als wenig geeignet: Die Anwendung der Kommandozeile im Vergleich zur altbekannten Benutzeroberfläche anderer Betriebssysteme wie Windows schreckte viele ab. Doch während sich Technologien in allen Bereichen weiterentwickelten und man versuchte, Optimierungen auf verschiedensten Gebieten zu ermöglichen, wurden auch die Vorteile, die Linux mit sich bringt, von immer mehr Leuten entdeckt. Diese bewirkten einen Meinungsumschwung und gaben Anlass, Linux in einer Reihe neuer Anwendungsfälle zu nutzen.

DIE VORTEILE VON LINUX ALS BETRIEBSSYSTEM

– Stabilität und Zuverlässigkeit: Linux gilt als das wohl stabilste Betriebssystem. Somit bietet es sich ideal in Anwendungsfällen an, die bestmöglich ausfallsicher laufen sollen, wie es etwa von einer Automatisierungssoftware erwartet wird.

Sicherheit: Als Open-Source-Betriebssystem gilt Linux als sicherer als seine Alternativen, da die große und aktive Community es ermöglicht, Sicherheitslücken schnell zu erkennen und zu beheben.

– Performance und Ressourcenverbrauch: Weniger Hintergrundprozesse und ein leichtgewichtiger Kernel ermöglichen die Operation mit weniger Systemressourcen. Es kann somit eine schwächere Hardware verwendet werden, um dieselbe Performance einer Automatisierungssoftware zu erreichen. Das spart Kosten und Energie.

– Keine Lizenzkosten: Auch der Fakt, dass die meisten Linux-Distributionen kostenlos sind, senkt die Kosten in der Anwendung weiter.

Anpassbarkeit: Der offene Quellcode von Linux erlaubt es Hardwareherstellern, das Betriebssystem bei Bedarf auf ihre spezifischen Bedürfnisse anzupassen.

– Containerisierung: Linux hat sich als das Betriebssystem für containerisierte Anwendungen etabliert. Es lassen sich damit Ressourcenverbrauch, Portabilität, Flexibilität und viele weitere Eigenschaften optimieren.

Die Liste an Vorteilen endet damit noch nicht. Jedoch bereits die erwähnten dürften ein Verständnis dafür bewirken, weshalb Linux sich über die letzten Jahre über immer größerer Beliebtheit – vor allem auch bei Automatisierungssoftware – erfreute. Der Fokus von Linux liegt nicht darauf, die allerschönste und umfangreichste Benutzeroberfläche anzubieten. Linux soll stabil und zuverlässig sein sowie nur mit den notwendigen Ressourcen arbeiten.

LINUX IN DER WELT DER AUTOMATISIERUNGSSOFTWARE

Die Vorteile, die Linux generell als Betriebssystem bietet, lassen sich ideal auf die Bedürfnisse rund um Automatisierungssoftware spiegeln. Anwender wünschen sich bestmögliche Stabilität für ihre Anlagen, die zudem sicher gegenüber Eingriffen von außen sind. Niemand möchte, dass die eigentliche Software eine Zeit lang ausfällt – nur weil ein völlig anderer Prozess, der mit dem Betriebssystem daherkommt und nicht relevant ist, ausgefallen ist und Schwierigkeiten verursacht. Zudem ist es ideal, wenn die Hardware- und Lizenzkosten möglichst gering gehalten werden können, da die Leistung gezielter auf die eigentliche Anwendung konzentriert werden kann, anstatt für nicht benötigte Zusatzfunktionen verbraucht zu werden. Je mehr individuelle Hardwaregeräte an unterschiedlichsten Stellen für ein Projekt benötigt werden, desto mehr skalieren folglich dadurch die Ersparnisse.

ZENON UNTER LINUX

Auch COPA-DATA hat die Vorteile von Linux erkannt und entwickelt bereits seit einigen Jahren zenon nicht mehr ausschließlich für Windows, sondern auch für Linux. So ist die Service Engine bereits seit zenon Version 12 für dieses Betriebssystem für Kunden zum Download verfügbar. Diese wird stetig weiterentwickelt und somit wird der zenon Funktionsumfang unter Linux mit jedem jährlichen Update erweitert. Inzwischen gesellen sich auch Komponenten und Funktionen wie zenon Logic, das zenon Netzwerk oder die IIoT-Services für eine

IT-OT-Anbindung dazu. Eine detaillierte Auflistung der unterstützten Features unter Linux sehen Sie in der Infobox.

LINUX-CONTAINER

Nicht nur der Einsatz von Linux, sondern auch die Verwendung von Containern bei vielen Anwendungen rückte in den letzten Jahren immer mehr in den Fokus. Ein Container ist ein Softwarepaket, das eine bestimmte Anwendung und alle dazu benötigten Komponenten wie Bibliotheken, Konfigurationsdateien etc. beinhaltet. Wird der Container gestartet, läuft somit die gewünschte Anwendung darin in einer isolierten Umgebung mit allen benötigten Dateien. Sie agieren ähnlich einer Virtuellen Maschine (VM) – aber im Gegensatz zu einer VM, die immer ein vollständiges Betriebssystem enthält, nutzen Container den Kernel des Host-Betriebssystems, auf dem sie ausgeführt werden. Dadurch benötigen sie viel weniger Speicher, Ressourcen und Rechenleistung, was sie nicht nur schneller starten lässt, sondern auch für geringere Hardwareanforderungen während des Betriebs sorgt. Und da alle Komponenten, welche die Anwendung benötigt, bereits im Paket beinhaltet sind, entfallen auch fast alle Anforderungen an Betriebssystemversionen oder CPU-Architekturen. Container erleichtern somit die Auswahl der einzusetzenden Hardware im Vergleich zu einer nativen LinuxInstallation direkt am Gerät – ideal, um zenon einfach auf unterschiedlichsten Geräten zu verwenden. Deshalb priorisiert COPA-DATA die Verwendung in einer containerisierten Linux-Umgebung und ermöglicht es somit den Anwendern, zenon isoliert mit wenig OS- und Hardware-Restriktionen und möglichst geringem Ressourcenverbrauch auszuführen. Hier setzt COPA-DATA bei der Entwicklung im Speziellen auf OCI (Open Container Initiative), um einen Standard einzuhalten, der von unterschiedlichsten Containerarten verwendet werden kann. Neben der empfohlenen Verwendung von zenon in einem Docker-Container – die wohl bekannteste und am weitesten verbreitete Variante – können Anwender also auch beliebige andere Con-

tainerarten, die diese Standards einhalten, verwenden. ANWENDUNG VON ZENON IN EINER CONTAINERISIERTEN LINUX-UMGEBUNG

zenon bietet Projektentwicklern den einzigartigen Vorteil, sowohl unter Windows als auch unter Linux dieselben Engineering-Dateien verwenden zu können. Wurde ein Projekt, das mit dem Linux-Funktionsumfang kompatibel ist, im Engineering Studio erstellt, so kann dieses ohne zusätzlichen Engineering-Aufwand unter beiden Betriebssystemen verwendet werden. Mithilfe der ebenfalls unter Linux verfügbaren zenon Logic kann ein Linux-Gerät auch als Soft-SPS zur Steuerung von Maschinen und Anlagen verwendet werden. Auch die Nutzung des zenon Netzwerks wurde unter Linux mit der Service Engine Version 15 ermöglicht. So kann ein Linux-Gerät als Prozessserver für einen Linux- oder

FUNKTIONALITÄT DER SERVICE-ENGINE UNTER LINUX

Folgende Funktionalitäten werden von der Service Engine (in Version 15) für Linux-Betriebssysteme unterstützt:

– Service Engine

• Werte Lesen

• Werte Schreiben

– Logic Service

– Anlagenmodellierung für die unterstützten Services

• Filterung von Alarmen und Ereignissen

– Alarmverwaltung

– Archivierung

– Benutzerverwaltung

– Chronologische Ereignisliste

– Ausgewählte Funktionen und Skripte

– Ausgewählte Systemtreibervariablen

– Ausgewählte zenon Treiber, zenon Logic Feldbustreiber und Process Gateway

– Lizenzierung via LicenseManagerAutomation CLI

– Einfaches Server-Client-Modell des zenon Netzwerks

Achtung: Routing und Redundanz des zenon Netzwerks werden in der aktuellen Version für Linux-Betriebssysteme nicht unterstützt.

– Reaktionsmatrizen

Grenzwertverletzungen via Reaktionsmatrix werden unterstützt. Alle Typen von Reaktionsmatrizen (Multi und „einfach“) werden unterstützt.

– Zuweisungen

Einfaches Client-Server-Modell im zenon Netzwerk für Linux-unterstützte Services

– Alle Services der IIoT Services

– Device Agent

Diagnosis Server

einen Windows-basierten Client agieren und dadurch kann eine nahtlose Integration unter beiden Betriebssystemen stattfinden.

Zudem ist für eine IT-OT-Integration unter Linux gesorgt. So ermöglichen es die zenon IIoT-Services auch unter Linux, die IT (Information Technology) und die OT (Operational Technology) miteinander zu verbinden. Ein Gesamtüberblick der verschiedensten Daten von unterschiedlichen Stellen ist somit sichergestellt.

ZENON UNTER LINUX – EINE SACHE, DIE BESTAND HAT

Zusammengefasst gibt es also viele Vorteile, die die Verwendung von Linux für eine Automatisierungssoftware mit sich bringt – vor allem in der containerisierten Variante. Zudem ist eine breite Palette an unterstützten Features und Funktionen von zenon, inklusive Kompatibilität zu bisherigen Windows-Gegenstücken, bereits verfügbar. zenon unter Linux ist somit keine Zukunftsvision mehr, sondern Realität. Durch die kontinuierliche Weiterentwicklung wird auch in den nächsten Jahren der Funktionsumfang stetig ansteigen. Dies sollte von jeglichen Anwendern in Betracht gezogen werden, um effizient, sicher und auf dem aktuellen Stand der Technik zu agieren.

Ich bin gespannt darauf, zu erleben, wohin die Reise mit zenon unter Linux in Zukunft gehen wird. Aber eines ist sicher: Linux wird in der Automatisierungssoftware immer mehr an Relevanz zulegen – niemand sollte diesen Sprung an sich vorbeigehen lassen.

VOITHOFER

Product Manager

Dominic Voithofer ist seit 2024 bei COPA-DATA tätig. In seiner Rolle als Produktmanager arbeitet er gemeinsam mit seinem Entwicklungsteam an den funktionalen Erweiterungen der Service Engine speziell unter Linux.

dominic.voithofer@copadata.com

DOMINIC

ZENON DEVICE MANAGEMENT – WAS GIBT ES NEUES?

Wie entwickelt sich das zenon Device Management weiter? Und wie ermöglicht es den Einzug von Cloud-Technologien in die Softwareplattform zenon? Lesen Sie in diesem Artikel über die neuen Funktionen der Komponenten für Verwaltung, Überwachung und Aktualisierung von Geräten in der Operational-Technology-Umgebung.

Mit dem zenon Device Management gibt es einen Service, der sich um die Verteilung von zenon Projekten und die Verwaltung von zenon Installationen kümmert. Er ist Teil der zenon IIoT Services und damit als zentrale Verwaltungsstelle der verbundenen zenon Installationen vorgesehen. Bereits in der Information-UnlimitedAusgabe 40 hat COPA-DATA im Artikel „Überlassen Sie das gern mir!“ das zenon Device Management, die damals vorhandenen Funktionalitäten und die damit verbundene Vision vorgestellt. In der Zwischenzeit hat es verschiedene Neuerungen gegeben, die die bestehende Funktionalität der Projektverteilung und der Geräteübersicht verfeinert und erweitert haben.

Dieser Artikel soll daher die neuen Funktionalitäten behandeln und einen Überblick geben: etwa die Unterstützung von Multiprojekten, also der Verteilung

von zenon Integrations- und Subprojekten, sowie die Unterstützung der Service Engine als Docker-Container und eines einfachen Onboarding-Mechanismus für neue Geräte.

MULTIPROJEKT-UNTERSTÜTZUNG

Eine Einschränkung, die es bisher mit dem funktionalen Umfang des Device Managements gab, war die Limitierung auf ein Parallelprojekt zur selben Zeit. Nun lassen sich mit zenon jedoch seit jeher Integrationsprojekte und Subprojekte erstellen und damit eine gewisse Entkopplung von Aufgaben und Funktionalität der einzelnen zenon Projekte erreichen. Beispielsweise kann es dadurch einen hardwarespezifischen Data-Access-Layer geben, der auf die konkreten SPS-Steuerungen und den Datenzugriff zugeschnitten ist, während es darüber-

liegend einen standardisierten Integration-Layer gibt. Dieser kann jeweils ohne Änderung für unterschiedliche Maschinenvarianten wiederverwendet werden.

Mit dem Device Management ist es seit Version zenon 15 möglich, solche Projektkonstellationen auf die verbundenen Geräte zu verteilen. Dabei lässt sich beim Deployment festlegen, welches Softwarepaket (= zenon Projekt) als Subprojekt und welches als Integrationsprojekt fungieren soll. Die damit verbundene Flexibilität ermöglicht somit weitere Anwendungsfälle, wobei der Projektingenieur wissen muss, welche Projekte in welcher Konstellation gemeinsam verteilt werden sollen. Um hier den Überblick zu behalten, erlaubt es das Device Management bei den betroffenen Softwarepaketen entsprechende Informationen und Beschreibungen zu hinterlegen. Mit den Angaben über Versionsnummern, Beschreibungstext und Label-Tags eröffnen sich hier flexible Möglichkeiten.

Werden einzelne Projekte nicht mehr benötigt, können diese über die Weboberfläche des Device Managements vom betroffenen Gerät entfernt werden. Außerdem ist es möglich, das Startprojekt komfortabel zu ändern, sofern zwischen unterschiedlichen Projekten gewechselt werden soll. Die entsprechenden Informationen zu den installierten Projekten und dem aktuellen Startprojekt sind stets in der Geräteübersicht verfügbar. Damit haben Projekt- und Systemingenieure jederzeit den Überblick über die einzelnen zenon Installationen.

DEVICE AGENT UND SERVICE ENGINE ALS LINUX/DOCKER-CONTAINER

Eine weitere Neuerung im Zuge des Device Managements betrifft die Unterstützung von Linux-Containerisierung, umgangssprachlich besser bekannt als Docker-Support. COPA-DATA investiert viele Entwicklungsressourcen in den Bereichen Linux und Container, da diese zukunftsträchtigen Technologien in der Automatisierungsindustrie an Bedeutung gewinnen. Langfristig werden diese die Art und Weise der Installation und des Betriebs von Automatisierungssoftware stark beeinflussen.

Die zenon Service Engine hat bereits in vorangehenden zenon Versionen Linux-Container unterstützt. Mit Version 15 ist diese Unterstützung in das Device Management übernommen worden, wodurch es nun möglich ist, die Service Engine und den Device Agent in einer Tandem-Konfiguration zu betreiben. Dies bietet in vielerlei Hinsicht einige Vorteile, da sich damit beispielsweise mehrere Instanzen der Service Engine parallel auf gemeinsam genutzten Rechenressourcen betreiben lassen. Im Vergleich zu herkömmlichen virtuellen Maschinen ist die Installation wesentlich schlanker und der Ressourcenverbrauch geringer, da kein vollständiges Betriebssystem virtualisiert werden muss. Einen weiteren großen Vorteil bietet der Einsatz von Linux-Containern dadurch, dass es quasi keine Abhängigkeiten mehr zum tatsächlichen Betriebssystem des Container-Host-Systems gibt. Es muss sich lediglich um eine Linux-basierende Distribution und um eine

AMD64- oder ARM64-Prozessorarchitektur handeln. Somit können neben herkömmlicher Server- und Desktop-Hardware auch Embedded-Geräte wie beispielsweise Siemens IOT2050, Revolution PI oder Linux-basierte Beckhoff-Controller zum Einsatz kommen. Diese Kapselung der Software-Abhängigkeiten bietet auch COPADATA enorme Vorteile im Entwicklungs- und Testprozess der Softwareplattform.

Nach diesem Exkurs in die Container-Technologie bleibt für das zenon Device Management zu erwähnen, dass sämtliche Funktionalitäten auch in der Container-Variante der Service Engine und des Device Agent funktionieren. Gerade bei der initialen Installation der Container gibt es Erleichterungen, die eine schnelle Installation ermöglichen.

Für den erfolgreichen Einsatz der containerisierten Service Engine und des Device Agentsind allerdings grundlegendes Wissen und Verständnis im Bereich der Containerisierung und Linux-Kommandozeile erforderlich. Ebenfalls kann es je nach verwendetem Steuerungsprotokoll und zenon Projekteinstellungen notwendig sein, containerspezifische Netzwerkkonfigurationen am Gerät vorzunehmen. Dies ist beispielsweise für den Einsatz von Layer-2-Kommunikationsprotokollen wie EtherNet/IP oder PROFINET notwendig.

ZEROCONF UTILITY ZUM AUTOMATISCHEN INBETRIEBNEHMEN VON GERÄTEN

Die Informationstechnologie (IT) übt zwar seit vielen Jahren einen immer größer werdenden Einfluss auf die Automatisierungstechnologie (OT) aus, aber gerade hinsichtlich Containerisierung und Linux ist man in weiten Teilen der Industrie bei den dafür erforderlichen Fähigkeiten noch am Anfang und benötigt Unterstützung. Dies hängt sehr stark von den einzelnen Unternehmen ab und ob diese moderne IT-Technologien in ihrer Ausrichtung berücksichtigt haben.

Automatisierungsingenieure werden damit konfrontiert, dass zunehmend die Grenzen zwischen den Aufgabenbereichen verschwimmen, wodurch immer mehr übergreifendes Know-how notwendig wird. Um beispielsweise bei der Inbetriebnahme von Embedded-Geräten eine möglichst geringe Einstiegshürde für Techniker zu schaffen, bietet das Device Management ein sogenanntes ZeroConf Utility für das einfache Einbinden von Geräten in die Softwareplattform zenon.

ABLAUF DER INBETRIEBNAHME IN ZWEI SCHRITTEN

Zuerst wird ein betroffenes Gerät mithilfe von ZeroConf vollautomatisch mit den zenon Komponenten bespielt und ZeroConf als Autostart-Funktionalität aktiviert. Dieser Schritt kann von einem IT-affinen Techniker übernommen werden, der grundlegendes Know-how im Umgang mit der Linux CLI (CLI = Command Line Interface) hat. Das vorbereitete Gerät kann anschließend auf Vorrat gehalten werden und somit für einen späteren Einsatz bereitstehen. Hier ist es beispielsweise denkbar,

dass ein externer Dienstleister das Gerät vorbereitet und als Plug-and-Play-Produkt verkauft.

Wird das Gerät dann in einem weiteren Schritt von einem Automatisierungstechniker oder Elektriker in Betrieb genommen, so ist hierfür kein weiteres Wissen über die eingesetzte Softwaretechnologie notwendig. Im Idealfall werden für das Gerät lediglich die Spannungsversorgung und die Netzwerkkonnektivität hergestellt, damit es im OT-Netzwerk mit etwaigen Remote-IOs kommunizieren kann. Im Zuge der Inbetriebnahme wird außerdem ein vorkonfigurierter USB-Stick am Gerät angesteckt, der die notwendigen Zugangsdaten beinhaltet, mit denen sich der vorinstallierte Device Agent damit vollautomatisch beim Device Management registrieren kann.

Durch diesen vollautomatischen Prozess der Inbetriebnahme sind keine manuellen Schritte oder Interventionen mehr notwendig. Anschließend kann via zentrales Device Management das zuvor registrierte Gerät mit dem vorgesehenen zenon Projekt bespielt und so in den operativen Betrieb übernommen werden. Der automatisierte Registrierungsablauf mit ZeroConf eignet sich beispielsweise sehr gut für Embedded-Geräte ohne Display oder auch für reguläre IPCs, die in größeren Stückzahlen zum Einsatz kommen und sich nicht wesentlich in den geplanten Aufgaben voneinander unterscheiden.

GERÄTELOGS FÜR DEN IDEALEN ÜBERBLICK

Für das Troubleshooting bietet das Device Management mittlerweile auch die ferngesteuerte Ausführung des System Information Collectors an, der Systeminformationen zur zenon Installation auf dem Zielsystem sammelt. Momentan steht der System Information Collector nur für Windows-Betriebssysteme zur Verfügung.

COPA-DATA arbeitet jedoch an Troubleshooting- und Logging-Lösungen für den Einsatz auf Linux und Docker. Diese sollen dann ebenfalls einen Einblick in den tatsächlichen Systembetrieb bieten und für die Problemsuche herangezogen werden können.

WIE DEVICE MANAGEMENT MIT DEN NEUEN FUNKTIONALITÄTEN HILFT

Betrachtet man die Verteilung von Automatisierungskomponenten auf unterschiedlichen Geräten, spielt das zenon Device Management eine tragende Rolle. Die gesamte Automatisierungslösung ist dabei ein Zusammenspiel aus vielen verteilten Komponenten, bei denen sich das zenon Device Management ideal für die Verteilung der Projektierungsinhalte eignet. So kann das zenon Orchestration Studio für die flexible Erstellung von Projekten verwendet werden, die dann mit dem Device Management auf die einzelnen Geräte verteilt werden können. Somit ergänzen sich diese beiden Aspekte ideal und führen zu einer vereinfachten Handhabung der gegebenen Automatisierungslösung.

Matthias Schnöll startete 2015 bei COPA-DATA und ist seit 2018 Teil des Product Managements. Dort befasst er sich unter anderem als Product Owner mit der Weiterentwicklung der Softwareplattform zenon. Sein Hauptfokus liegt dabei auf den zenon IIoT Services und sämtlichen angrenzenden Cloud-Themen. Eine aktuell wichtige Herausforderung sieht er darin, die Brücke zwischen OT und IT zu schlagen.

matthias.schnoell@copadata.com

AUF KURS RICHTUNG

EU-REGULIERUNGEN

Für global agierende Hersteller von Softwarekomponenten bleibt die Einhaltung unterschiedlicher Vorschriften zum Thema Cybersicherheit eine ständige Herausforderung. Dies gilt nicht nur für COPA-DATA, sondern auch für die Anlagenbetreiber und Systemintegratoren, die zenon nutzen. Die große Frage: Wie kann zenon die Einhaltung der Vorschriften auf dem europäischen Markt erleichtern und Unternehmen dabei helfen, sicher und zukunftsfähig zu bleiben? Wir versuchen uns an einer Antwort.

Hohe politische Instabilität einerseits, ein Höchststand an Cyberstraftaten andererseits – die Cybersicherheitslandschaft in der Europäischen Union durchlebt einen fundamentalen Wandel. Auf Grundlage der 2020 vorgelegten Cybersicherheitsstrategie der EU für die „Digital Decade“ hat die Europäische Kommission die bisherige EU-Richtlinie zur Netzwerk- und Informationssicherheit (NIS-Richtlinie) weiterentwickelt. Neben der zweiten EU-Richtlinie zur Netzwerk- und Informationssicherheit (NIS-2-Richtlinie) wurde auch der Cyber Resilience Act (CRA) eingeführt. Das Ziel? Die Resilienz aller Anlagen und Produkte im EU-Raum zu verbessern. Diese beiden Regelwerke ergänzen sich, da sie sich in einigen Aspekten überschneiden und aufeinander aufbauen. Gleichzeitig haben sie verschiedene An-

wendungsbereiche. Zudem handelt es sich um unterschiedliche Arten von Rechtsvorschriften: Der CRA ist eine Verordnung und gilt damit verbindlich auf dem gesamten europäischen Markt. Die NIS 2 hingegen ist eine Richtlinie, die von jedem Mitgliedsstaat in nationales Recht umgesetzt werden muss. Der CRA konzentriert sich auf die Cybersicherheit von Produkten mit digitalen Elementen sowie Verpflichtungen der jeweiligen Hersteller. Im Zusammenhang mit OT (Operational Technology geht es um die Lieferanten von Komponenten und darum, wie diese Komponenten entwickelt werden und welche Cybersicherheitsmaßnahmen sie beinhalten.

Die NIS 2 konzentriert sich auf den sicheren Geschäftsbetrieb von Unternehmen in kritischen Sektoren, das heißt ganze Organisa-

tionen, ihre Infrastrukturen und Betriebsabläufe. Die Richtlinie erweitert den Anwendungsbereich der Vorgängerrichtlinie und deckt eine größere Anzahl von Sektoren ab, darunter Abfallwirtschaft, Postund Kurierdienste sowie die Fertigungsindustrie. Außerdem wurden die Anforderungen an die Cybersicherheit verschärft.

Diese Rechtsvorschriften nicht einzuhalten, kann für Unternehmen empfindliche Strafen bedeuten. So drohen bei Verstößen gegen den CRA Bußgelder von bis zu 2,5 Prozent des weltweiten Jahresumsatzes. Die Umsetzungsfristen rücken näher, daher gilt es, eine Roadmap sowie klare Ziele für die Umsetzung der NIS-2-Richtlinie und des Cyber Resilience Act zu definieren.

Bei der Entwicklung von zenon werden operative Resilienz und Sicherheit von Anfang an mitbedacht

(„Security by Design“). Dazu gehören die Verwendung strenger Sicherheitsstandards sowie nach IEC 62443-4-1 zertifizierte Prozesse. Dadurch ist die Sicherheit in jeder Phase des Entwicklungszyklus integriert – von der Konzeption über die Implementierung bis zu Tests und Wartung. Strenge Verfahren zum Fehlermanagement sowie zur Kommunikation von Schwachstellen sorgen für einen transparenten und effizienten Umgang mit Sicherheitsproblemen.

COPA-DATA Kunden können sich über die neuesten Sicherheitsupdates und Sicherheitsinformationen (Security Advisories) auf dem Laufenden halten, indem sie den COPA-DATA Security Newsletter abonnieren (copadata.com/security-newsletter).

In Vorbereitung auf den EUCRA hat COPA-DATA außerdem damit begonnen, Security Advisories mit dem Common Security Advisory Framework (CSAF) zu veröffentlichen. Dieses standardisierte JSON-Format ermöglicht die klare, maschinenlesbare Kommunikation von Sicherheitsproblemen. Es hilft dabei, hohe Sicherheitsstandards gegen Angreifer aufrechtzuerhalten und auch zukünftige gesetzliche Anforderungen souverän zu meistern.

DIE FUNKTIONEN VON ZENON

Benutzerverwaltung und Schutz vor unbefugten Zugriffen sind in zenon vollständig integriert. Flexible Berechtigungsebenen erleichtern die Festlegung, wer auf welche Teile des Systems zugreifen und welche Handlungen ausführen darf. Diese detaillierte Kontrolle hilft Betreibern und Anlagenbesitzern, eine sichere Arbeitsumgebung aufrechtzuerhalten. Nur autorisiertes Personal erhält Zugang zu kritischen Funktionen und kann Änderungen vornehmen.

Über zenon IIoT Services lässt sich der zenon Identity Service zur Authentifizierung und Autorisierung nutzen. So können Funktionen von den Projekten entkoppelt werden und die Integration mit externen Identitätsanbietern unterstützen. Der zenon Identity Service

sorgt für eine klare Trennung zwischen zenon Projekten, Fremdanwendungen und Systembenutzern – so lässt sich die Benutzerverwaltung auch in einem komplexen Umfeld einfach steuern. Die Aufzeichnung aller Ereignisse in der Chronologischen Ereignisliste (CEL) ist bei zenon Standard. Sie ermöglicht einen umfassenden, detaillierten zeitlichen Überblick über alle Vorgänge im Betrieb. Allerdings sind nicht alle Daten gleichermaßen kritisch, wenn es um Sicherheit und Compliance geht. Hier kommt der zenon Audit Trail ins Spiel. Dieser konzentriert sich auf kritische Ereignisse wie Bedienhandlungen, Systemänderungen und Anpassungen kritischer Prozessparameter (CPPs). Der Audit Trail ist sicher, fälschungssicher und erfasst präzise Zeitstempel und Benutzerdetails für die vollständige Rückverfolgbarkeit und Rechenschaftslegung.

Darüber hinaus sorgen die integrierten Redundanzfunktionen von zenon auch bei einem Serverausfall für kontinuierliche Produktion ohne Datenverluste. Durch die stoßfreie Redundanz von zenon werden bei einem Ausfall alle Tasks und Daten sofort auf einen Standby-Server übertragen. Parallel dazu ermöglicht die Kreisredundanz von zenon, dass sich Server projektübergreifend gegenseitig sichern. Das Ergebnis: eine hohe Systemverfügbarkeit, sicherer Datenfluss, reduzierte Hardwarekosten sowie resiliente Prozesse, die den Vorgaben der Industrie entsprechen. zenon ist somit ein zentrales Element für die Einhaltung des Cyber Resilience Act und der NIS-2-Richtlinie. Überall auf der Welt stehen Anlagen, bei deren Bau Cybersicherheit noch keine Rolle spielte. Die Erfüllung der heutigen gesetzlichen Anforderungen sind hier von entscheidender Bedeutung, aber alles andere als einfach. Ziel von COPA-DATA ist es, diese Lücke mit zenon zu schließen.

ALESSANDRO GNUTTI

Software Security Specialist

Alessandro Gnutti ist SoftwareSicherheitsspezialist im Produktmanagement-Team. Schwerpunkte sind Normen wie die IEC 62443 und Rechtsvorschriften wie die NIS 2 und der CRA. Er arbeitet federführend an ProduktCompliance und Kommunikation zu diesen Themen.

alessandro.gnutti@copadata.com

CONSTANTIN COLLINI

Software Security Specialist

Constantin Collini ist SoftwareSicherheitsspezialist mit Schwerpunkt Produktsicherheit. Er arbeitet an der kontinuierlichen Verbesserung von Sicherheit und Konformität der Softwareplattform zenon. Zudem überwacht er die Zertifizierungen sowie die Compliance von FOSS-Komponenten (FOSS = Free and Open Source Software).

constantin.collini@copadata.com

WAS, WENN DAS „D“ BEI IHREM DCS FÜR „DISCONNECTED“ STEHT?

MARK CLEMENS

Product Manager

Connectivity

Mark Clemens ist seit 2002 bei COPA-DATA tätig. In seiner aktuellen Funktion als Produktmanager ist er verantwortlich für Themen rund um Konnektivität. Als Experte für Cybersicherheit bringt er IT, OT und das IIoT miteinander in Einklang und behält dabei die Sicherheit im Blick. Er schreibt regelmäßig für das Information-UnlimitedMagazin und teilt seine Ansichten zu den Trends unserer Zeit.

mark.clemens@copadata.com

Bei der Kommunikation rund um die Prozessautomatisierung geht es in erster Linie darum, jederzeit vernetzt und verfügbar zu sein. Wir bauen redundante Netzwerke, um die Gefahr von Kommunikationsausfällen zu verringern – und doch kommt es vor, dass eine Verbindung unterbrochen wird. In der traditionellen Automatisierung stellt das ein Problem dar. Mit OpenDCS geht es heute glücklicherweise auch anders.

Ein Distributed Control System (DCS) betritt zwei Bars und stößt auf ein OpenDCS. Begeistert, einen Kollegen zu treffen, ruft das DCS: „Wir sind beide offline. Kann ich dir einen Drink ausgeben?“ Das OpenDCS antwortet: „Auch wenn die Auszeit gerade nett ist, bin ich immer noch am Arbeiten. Auf einen Drink verzichte ich daher.“

Einen Witz sollte man nicht erklären müssen. Falls doch, ist das ein Zeichen dafür, dass es sich um einen schlechten handelt. Oder dass die Person, die ihn erzählt, nicht über das richtige Vokabular verfügt. Vielleicht ist die Situation aber auch einfach zu weit hergeholt.

Eine Erläuterung sollte also sein. Das DCS betritt zwei Bars, weil es eine dezentrale Steuerung ist. Haha. Da das DCS von seinen Ein- und Ausgängen getrennt und damit außer Betrieb ist, nimmt es irrtümlicherweise an, dass das OpenDCS dies ebenfalls ist. Das OpenDCS ist aber fleißig am Arbeiten –dank der WLANs in den Bars kann es weiter mit seiner offenen Steuerung kommunizieren. Es kann sogar die erforderlichen Chargenproduktionsdaten abrufen, nachdem es offline gegangen ist.

Ein schlechter Witz? Vielleicht. Zu weit hergeholt? Nicht mehr.

VIELE VON UNS KENNEN DIE ARBEIT VON ZU HAUSE

INZWISCHEN NUR ZU GUT

Einer meiner indischen Freunde ging immer zu seinem Bruder, wenn er im „Homeoffice“ arbeiten wollte. Sein Bruder arbeitete bei einer Bank, die schnelleres Internet und keine Probleme mit Stromausfällen hatte.

Ähnlich überraschend klingt die Geschichte des OpenDCS, das „im Homeoffice arbeitet“: also an einem anderen Ort als der offene Controller und seine Ein- und Ausgänge „sitzt“, während ein Batch läuft und Verbindungen abbrechen. Trotzdem kann es sämtliche relevante Daten abrufen.

Bei einem herkömmlichen DCS liegt der Schwerpunkt dagegen auf der Erkennung von Kommunikationsfehlern und deren Vermeidung durch Netzwerkdesign und -wartung. Genau wie bei unserem Kollegen, der sein Homeoffice in die Bank verlegt hat, lässt sich Resilienz jedoch auch auf neue und unerwartete Weise erreichen. Und das sehr erfolgreich.

STANDARDISIERTE KOMMUNIKATIONSPROTOKOLLE SPEZIELL FÜR DEN OFFLINE-BETRIEB

Abgesehen von Lösungen, die zusätzliche Middleware erfordern, gibt es im Bereich der Automatisierung standardisierte Kommunikationsprotokolle, die die Kommunikation in Offline-Phasen ermöglichen und dabei die Datenintegrität und -konsistenz, einschließlich der Ereignisreihenfolge, gewährleisten.

– Im Energiesektor ermöglicht DNP3 einem DNPMaster die Abfrage einer DNP3-Outstation. Das kann beispielsweise einmal täglich erfolgen, um bestimmte Zählerstände abzurufen. Gleichzeitig kann die Outstation wichtige Daten über den dualen Endpunkt des Masters übermitteln.

– Anhand von IEC 61850 kann ein MMSClient zwischengespeicherte Berichte auf dem MMS-Server aktivieren, um sicherzustellen, dass bei kurzen Unterbrechungen der Netzwerkkommunikation keine Daten verloren gehen.

– Im Bereich der allgemeinen Automatisierung kann die Client-Server-Kommunikation über OPC UA kurze Verbindungsausfälle überbrücken, wenn der OPC-UA-Client eine Subscription verwendet. OPC UA Durable Subscriptions unterstützen auch längere Kommunikationsausfälle. Die Verbreitung dieser Funktion durch OPC-UA-Server und -Clients scheint jedoch begrenzt zu sein. Während Energieprotokolle für die Prozessindustrie möglicherweise nicht optimal sind, stellt OPC UA mit Durable Subscriptions unter Umständen nicht die beste Wahl für Geräte mit begrenzten Systemressourcen dar.

WENN ZENON LOGIC ZUM OFFENEN

CONTROLLER WIRD

Bislang wurde ein typisches zenon Logic-Projekt auf demselben System ausgeführt wie die Service Engine, und der Datenaustausch erfolgte in der Regel lokal. Mit OpenDCS läuft zenon Logic mit der Service Engine in einem Container auf Linux-Edge-Geräten als offene Steuerung. GMP-relevante Produktionsdaten werden mit einer redundanten zenon Service Engine ausgetauscht, die den Prozess steuert.

Bei solchen Konfigurationen ist es entscheidend, dass Unterbrechungen der Netzwerkverbindung nicht dazu führen, dass Alarmmeldungen übersehen werden oder Lücken in Zeitreihendaten entstehen. Andernfalls könnte es zu erheblichen Auswirkungen auf die Qualitätskontrolle kommen.

TCP-BASIERT UND NOCH EINIGES MEHR

Geht es um Lean Design und die Implementierung eines leistungsstarken Kommunikationsprotokolls, das unter anderem Unterbrechungen standhält, fällt der Großteil der Arbeit auf Seiten der Application Layer an. Dieses hält Unterbrechungen stand und erfüllt die Anforderungen vieler Anwendungsfälle.

*https://blog.cloudflare.com/when-tcp-sockets-refuse-to-die/.

Die effiziente Übertragung von Ereignissen, die Speicherung von Ereignissen bei Kommunikationsausfällen sowie der Empfang und die Verarbeitung (gespeicherter) Ereignisse spielen dabei eine wichtige Rolle. Eine gängige Wahl ist die Verwendung von TCP/IP. Wer sich jedoch für TCP/IP entscheidet, nimmt auch einige Herausforderungen in Kauf. Der von Cloudflare veröffentlichte Blogbeitrag „When TCP sockets refuse to die“ bietet eine erleuchtende Lektüre dazu.*

Selbst das COPA-DATA Team findet sich gelegentlich in Situationen wieder, in denen Experimentieren nach Sir Arthur Conan Doyles Worten angebracht ist: „Wenn man das Unmögliche ausgeschlossen hat, muss das, was übrig bleibt, so unwahrscheinlich es auch sein mag, die Wahrheit sein.“

INDUSTRIELLE EDGE-COMPUTER WERDEN ZU SOFTWAREDEFINIERTEN OFFENEN

STEUERUNGEN

Ab Version 15 nutzen zenon Logic Service und der stratonNG -Treiber das neue T5BEV-Protokoll – eine neue und zuverlässige Option für Anwender, die die Softwareplattform zenon zu einem intelligenten OpenDCS macht. Während hochkomplexe DCS-Systeme für einige Anwendungsfälle geeignet sein mögen, macht die Verwendung kostengünstiger Hardware in Kombination mit softwaredefinierter Automatisierung die Notwendigkeit komplexerer Architekturen überflüssig. Mit etwas Weitsicht könnte das traditionelle DCS nun endgültig in Ruhestand gehen – in einer Bar (oder zwei).

Mit Version 15 nutzen der zenon Logic Service und der stratonNG-Treiber das neue T5BEV-Protokoll (T5 Buffered Event) auf dem TCP-Port 12000. Hier kann für jede Variable eine Option aktiviert werden, um bei Verbindungsabbrüchen Ereignisse zu persistieren. Die Ereignisse werden automatisch übertragen, nachdem die Verbindung wiederhergestellt wurde, wenn sowohl der Logic Service als auch der stratonNG-Treiber weitergelaufen sind. Dadurch können vergangene Alarme, die während der Unterbrechung aufgetreten sind, zusammen mit den entsprechenden Zeitstempeln des Auftretens erfasst werden. Spontane Archive, die über Funktionen für die Chargenaufzeichnung gestartet und gestoppt wurden, werden nach Wiederherstellung der Verbindung mit den zwischengespeicherten Werten gefüllt. Standardmäßig wird ein Zeitraum von 96 Stunden persistiert, danach gilt der Client als dauerhaft verloren und die zwischengespeicherten Ereignisse werden ent fernt. Das bisherige ereignisbasierte Protokoll kann dank Abwärtskompatibilität weiterhin verwendet werden.

INDUSTRIES & SOLUTIONS

SUSTAINABILITY COLUMN

IM GESPRÄCH MIT KIVA ALLGOOD:

EIN ENTSCHEIDENDER MOMENT FÜR DIE GLOBALE

FERTIGUNGSINDUSTRIE

COPA-DATA ist Partner des Centre for Advanced Manufacturing & Supply Chains (CAMSC) des Weltwirtschaftsforums. Die Organisation setzt sich für eine verantwortungsvolle Transformation der Industrie ein, indem sie weltweit führende Unternehmen aus den Bereichen Fertigung und Lieferketten zusammenbringt, um Best Practices auszutauschen, Innovationen anzuregen und die Wirkung zu skalieren. Im Exklusivinterview sprechen wir mit Kiva Allgood, Managing Director des Weltwirtschaftsforums (WEF) und Visionärin, die sich für ein globales Ökosystem für nachhaltige Entwicklung einsetzt.

INTERVIEW: EMILIAN AXINIA, DIRECTOR INDUSTRY MANAGEMENT, SUSTAINABILITY SOLUTIONS

Emilian Axinia: Was hat Sie dazu inspiriert, bei der Gestaltung des globalen Fertigungsökosystems eine Führungsrolle zu übernehmen?

Kiva Allgood: Ich bin schon immer der Überzeugung, dass Technologie, wenn sie richtig eingesetzt wird, einige der komplexesten Herausforderungen unserer Zeit lösen kann. Die Fertigung befindet sich an der Schnittstelle von Innovation, Nachhaltigkeit und Personalentwicklung. Dieser Sektor hat das Potenzial, die Gesellschaft zu inspirieren und Volkswirtschaften zu verändern. Beim Weltwirtschaftsforum habe ich die Chance erkannt, führende Unternehmen aus dem öffentlichen und privaten Sektor zusammenzubringen, um eine neue Form des industriellen Wandels voranzutreiben – integrativer, digitaler und nachhaltiger. Dieser Mission fühle ich mich tief verbunden.

ALLGOOD World Economic Forum

Kiva Allgood blickt auf über 25 Jahre Erfahrung in führenden Technologieunternehmen zurück und hat eine Leidenschaft für fortschrittliche Technologien und strategischen Wandel. Kiva ist Managing Director und Head of the Centre for Advanced Manufacturing and Supply Chains beim World Economic Forum, wo sie mit ihrem Team und den Partnern an der gemeinsamen Mission der Organisation arbeitet.

Wir alle sehen, dass sich die Welt schnell verändert. Was bedeutet das für die Fertigungsindustrie?

Hersteller müssen heute robuster, anpassungsfähiger und vernetzter werden. Geopolitische Spannungen, Klimawandel, technologische Entwicklungen und veränderte Personaldynamiken verändern die Wettbewerbsfähigkeit. Klassische, auf Kosteneffizienz ausgelegte Geschäftsmodelle reichen nicht mehr – Agilität, digitale Integration und kontinuierliche Weiterentwicklung gewinnen an Bedeutung.

Der neue Bericht des Weltwirtschaftsforums From Shock to Strategy: Building Value Chains for the Next 30 Years beleuchtet diesen Wandel. Er identifiziert acht Schlüsselfaktoren für den Fertigungssektor, bietet einen strategischen Rahmen für 2030, 2040 und 2050 und ruft Hersteller dazu auf, ihre Wertschöpfungsketten langfristig widerstandsfähig und wettbewerbsfähig zu gestalten.

KIVA

Warum bleibt Nachhaltigkeit auch in wirtschaftlich schwierigen Zeiten unverzichtbar?

Weil es bei Nachhaltigkeit nicht nur um Compliance geht, sondern auch um langfristige Wettbewerbsfähigkeit und finanzielle Stabilität. Ressourceneffizienz, Emissionssenkung und die Kreislaufwirtschaft sind heute wichtige Leistungsfaktoren. Die in Sachen Nachhaltigkeit führenden Hersteller reduzieren nicht nur ihre Risiken, sondern erschließen gleichzeitig neue Märkte, positionieren sich als attraktive Arbeitgeber und fördern Innovationen. Unser neuer Bericht Sustainability Meets Growth: A Roadmap for SMEs and Mid-Sized Manufacturers unterstreicht diesen Wandel.

Worauf sollten Fertigungsunternehmen heute bei ihrer Personalstrategie achten?

Erfolgreich sind heute vor allem Hersteller, die ihr Personal, insbesondere jenes an vorderster Front, mit den richtigen Werkzeugen, Schulungen und Möglichkeiten ausstatten, um aktiv an der Transformation teilzunehmen. Das bedeutet, in Aus- und Weiterbildung zu investieren, Rollen rund um mitarbeiterorientierte Technologien neu zu definieren und klare Karrierewege zu schaffen. Berufe in der Fertigung können so zu einer attraktiven, technologisch fortschrittlichen und lohnenswerten Wahl für künftige Generationen gemacht werden.

Wie gehen Sie diese globalen Herausforderungen an?

Im CAMSC bringen wir führende Köpfe aus Wirtschaft, Politik, Wissenschaft und Zivilgesellschaft zusammen, um gemeinsam Lösungen zu entwickeln – sei es, um kleine und mittelgroße Herstellern bei der Dekarbonisierung zu unterstützen, die Einführung von Spitzentechnologien wie KI zu skalieren, industrielle Kompetenzen in Schulen zu vermitteln oder neue Rahmenbedingungen für robustere Wertschöpfungsketten zu schaffen.

Können Sie uns etwas mehr über Ihre Initiativen verraten?

Unsere Organisation verfolgt den Wandel der Fertigungsindustrie über vier strategische Säulen, jeweils mit gezielten Initiativen, die das „Wie“ in den Mittelpunkt stellen:

– Mit der Initiative Future-Proofing Global Value Chains unterstützen wir Unternehmen und Volkswirtschaften dabei, Produktionsbereitschaft und Widerstandsfähigkeit zu steigern. Unser jährlicher Country Readiness Report zeigt, welche Komponenten für Wirtschaftswachstum durch Fertigungs- und Lieferketten entscheidend sind.

– Das Global Lighthouse Network würdigt weltweit führende Produktionsstätten und vernetzt deren Führungskräfte, um praxisnah zu diskutieren, wie Technologien in fünf Schlüsselbereichen skaliert werden können. Darauf aufbauend liefert das Lighthouse Operating System einen praktischen Rahmen für ein sich ständig weiterentwickelndes Produktionssystem, während Next Frontier of

Operations die Auswirkungen neuer Technologien auf die Fertigung untersucht.

– Frontline Talent of the Future fördert Innovationen in Personalgewinnung, Bindung und Weiterqualifizierung. New Generation Industry Leaders gibt Nachwuchsführungskräften die Chance, aktiv an einer integrativeren Zukunft der Fertigungsindustrie mitzuwirken. –

Mit Industry Net Zero Accelerator und Circular Transformation of Industries helfen wir Unternehmen, Dekarbonisierung und Kreislaufwirtschaft in ihre Wachstumsstrategien zu integrieren. Der SME Sustainability Accelerator unterstützt insbesondere kleinere Unternehmen auf diesem Weg.

Welche Rolle spielen Unternehmen wie COPADATA in diesem Zusammenhang?

Anbieter digitaler Technologien spielen eine ganz praktische Rolle bei der Unterstützung eines nachhaltigen Wandels. Ihre digitalen Tools bieten Herstellern die Möglichkeit, auf Echtzeitdaten zuzugreifen, die Betriebseffizienz zu steigern und Nachhaltigkeit in die täglichen Prozesse zu integrieren. Funktionen wie Energieüberwachung, automatisierte Berichterstattung und Systemintegration werden immer wichtiger für Hersteller, die ihre Bemühungen in diesem Bereich ausweiten wollen. Technologieanbieter sind Teil eines größeren Ökosystems, das Innovation und industriellen Wandel vorantreibt. Sie sind damit nicht nur Lieferanten, sondern strategische Partner für die Mitgestaltung einer nachhaltigen Industrie.

Tatsächlich kann ich genau das aus unserer Erfahrung bestätigen. Was möchten Sie unseren Leserinnen und Lesern aus der Fertigungsindustrie mit auf den Weg geben?

Die Fertigungsindustrie steht an einem Wendepunkt: Sie kann nachhaltige Energie, widerstandsfähige Lieferketten und integratives Wachstum vorantreiben. Dies erfordert aber mutige Führung und kontinuierliches Lernen. Führende Unternehmen sind eingeladen, offene industrielle Ökosysteme mitzugestalten – etwa über das Global Lighthouse Network (nächste Runde ab Dezember).

Vielen Dank, Kiva Allgood! Haben Sie noch eine abschließende Botschaft für junge Menschen?

An die nächste Generation: Die Fertigungsindustrie braucht euch. Sie ist nicht mehr das, was sich Eltern oder Großeltern vielleicht darunter vorstellen. Jobs in der Fertigung sind längst nicht mehr monoton, dreckig oder gefährlich. Sie drehen sich heute um Robotik, KI, Spitzentechnologien und nachhaltige Transformation. In der Fertigung gehen wir direkt einige der spannendsten Herausforderungen an, denen die Welt gegenübersteht. Wenn ihr nach einer sinnstiftenden, wirkungsvollen und innovativen Tätigkeit sucht, dann seid ihr hier genau richtig. Traut euch und gestaltet die Zukunft aktiv mit.

VIRTUALISIERUNG VON UMSPANNWERKEN

Wie wird die Automatisierung von Umspannwerken fit für die Netze der Zukunft gemacht? Software ist seit Jahren ein Katalysator, der verschiedene Branchen und Industriezweige prägt. Sie hilft Unternehmen dabei, Innovation in Produkten und Dienstleistungen zu realisieren sowie die Produktivität zu steigern. Unzählige Beispiele unterstreichen das enorme Potenzial, das durch Digitalisierung, Virtualisierung oder Vernetzung von Systemen ausgeschöpft werden kann. So ist auch die Weiterentwicklung der Energiebranche zu einem erheblichen Teil auf die Innovationskraft der Informationstechnologien angewiesen.

Im Rahmen der Smart-Grid-Evolution wird die fundamentale Rolle von Software in Form von Tools, Algorithmen oder Plattformen deutlich sichtbar. Zahlreiche Entitäten im modernen Stromnetz müssen miteinander kommunizieren, Erträge oder Verbräuche melden, Prognosen auswerten oder Energiekontingente handeln, Energieflüsse optimieren, Steuersignale austauschen und vieles mehr. Doch auch beim Betrieb der – oberflächlich betrachtet – eher starr anmutenden Infrastrukturanlagen, wie etwa von Hochspannungsleitungen oder Umspannwerken, sickern neue Methoden langsam, aber sicher bis in die sensibelsten Bereiche der Anlagenautomatisierung durch.

HERAUSFORDERUNGEN FÜR DIE

NETZBETREIBER

Bis zum letzten Jahr hatten

wir im Schnitt fünf neue

Umspannwerke, dieses Jahr

sind es acht und nächstes Jahr werden es 14 sein.

So oder so ähnlich klingen die Aussagen der Verantwortlichen bei den Netzbetreibern. Netzausbau und Modernisierung sind in vollem Gange. Man sucht händeringend nach Ressourcen, um diesen Workload zu bewältigen. Zudem muss jede Anlage – ist sie erst einmal in Betrieb – akribisch überwacht und gewartet werden, was angesichts der wachsenden Anlagenflotte zunehmend zur Herausforderung wird. Der steigende Energiebedarf sowie die notwendige Integration dezentraler, erneuerbarer Energieträger fordert hier die Netzbetreiber und Energieversorger auf allen Ebenen.

Apropos erneuerbare Energieträger: Bekanntermaßen liefern Photovoltaik und Co, die an unterschiedlichen Stellen ans Netz angebunden sind, je nach Wetter-

bedingungen unstetige Mengen an Energie. Die dadurch entstehende Dynamik der Energieflüsse im Stromnetz wirkt sich auch auf die Umspannwerke sowie deren Überwachungs- und Schutzeinrichtungen aus. Hier geht es um die Entwicklung neuer Konzepte, die dieser Dynamik folgen können.

ZENTRALISIERUNG DER SCHUTZTECHNIK

In heutigen Umspannwerken finden sich viele Geräte, die verschiedene Aufgaben übernehmen. Insbesondere den Schutzgeräten (sogenannte IEDs, Intelligent Electronic Devices) kommt hierbei eine Schlüsselrolle zu. Sie überwachen anhand von vorgegebenen Schutzfunktionen direkt vor Ort die Integrität des jeweiligen Feldes (Zuleitungen, Abgänge) oder nehmen bereichsübergreifende Prüfungen vor (Trafo-, Sammelschienen-, Leitungsdifferentialschutz) und lösen im Ernstfall geeignete Schutzmaßnahmen aus bzw. informieren weitere Schutzgeräte sowie übergeordnete Systeme. Selbstredend müssen diese Geräte äußerst zuverlässig und schnell funktionieren. Da zur Ausstattung moderner Umspannwerke je nach Größe und Aufbau gut und gerne 30 oder mehr IEDs benötigt werden, stellen die Installation, Konfiguration, notwendige Tests sowie die kontinuierliche Wartung dieser Geräte einen erheblichen Kostenaufwand dar.

Hier kommt der Vorschlag einer zentralisierten Architektur ins Spiel. Es werden alle Schutzgeräteinstanzen aus den Feldern „eingesammelt“ und auf einem gemeinsamen, zentralen Server im Umspannwerk zusammengefasst. In den Feldern selbst verbleiben nur mehr die erforderlichen Geräte zur digitalen Anbindung der Primärtechnik. Für die Übermittlung von Messwerten werden beispielsweise sogenannte Merging Units (gemäß IEC 61850 Nomenklatur) eingesetzt. „Switch Control Units” liefern Statusinformation bzw. bieten die Steuerungsschnittstelle für Hochspannungsschalter.

Es liegt auf der Hand, dass durch diese Zentralisierung eine Vereinfachung der Konfiguration und Wartung der Schutzfunktionen erreicht werden kann. Ein weiterer Vorteil ist die flexible und direkte Kommuni-

kation zwischen den funktionalen Softwareeinheiten am zentralen Server. Folgende Tabelle zeigt Beispiele für Schutzfunktionen auf Stationsebene, die von einer zentralisierten Anordnung profitieren [1]:

BEISPIELE FÜR SCHUTZ- UND ANALYSEFUNKTIONEN, DIE AUF MESSUNGEN MEHRERER

FELDER ANGEWIESEN SIND

– Differentialschutz, z. B. für Sammelschienen

– Sensitiver Richtungserdschlussschutz, z. B. für intermittierende Fehler

– Schutz vor Fehlern mit geringer Fehlerstromstärke, z. B. hochohmige Erdschlüsse

– Inselbetrieb und Netzausfallschutz, wenn Inselbetrieb nicht zulässig ist

– Fehlerortung

ERWEITERTE FUNKTIONEN

– Stationsweiter Störschrieb

– Automatische Neuberechnung der Schutzparameter auf Basis von Topologieund DG-Änderungen, Anpassung der Schutzanwendung

– Erweiterte Zustandsüberwachung und Unterstützung beim Asset-Management

– Überwachung und Schutz der Cybersicherheit

– Selbstüberwachung auf Stationsebene

Der Vorschlag für eine Zentralisierung der Schutztechnik ist nicht neu, er wurde bereits vor ca. 50 Jahren erläutert und diskutiert [2]. Des Weiteren stellt dieser Ansatz auch per se noch keine herstellerunabhängige Lösung dar. Einer Unabhängigkeit hinsichtlich Herstel-

ler und Technologie wird jedoch durch die Technik der Virtualisierung ein Stück weit auf die Sprünge geholfen.

VIRTUALISIERUNG

Ganz allgemein spricht man in der Informationstechnik bei Virtualisierung von einer „Entkopplung zwischen Hardware und Software“. Konkret geht es um die Einfassung einer Funktion – etwa eines Betriebssystems, einer bestimmten Applikation oder eben einer Schutzfunktion – in eine standardisierte Softwarekomponente, die auf einen beliebigen Host eingespielt und dort verwaltet und betrieben werden kann.

Ein Beispiel

Früher – sagen wir vor der Einführung des iPhones rund um das Jahr 2006 – waren Mobiltelefone schlicht konzipiert. Ihre Hauptfunktion war die Telefonie oder das Versenden von SMS. Dazu gab es unterstützende Funktionen wie ein Adressbuch, Notizen, einen Taschenrechner. Nebenbei bemerkt: Kein Mensch wäre auf die Idee gekommen, freiwillig mehr als zehn Minuten pro Tag mit solch einem Gerät zu verbringen. Der springende Punkt hierbei ist, dass diese frühen Mobiltelefone als Gerät vom Hersteller mit einer fixen Software-Ausstattung ausgeliefert wurden, die nicht verändert oder erweitert werden konnte. Die Funktion des Mobiltelefons war also vom Hersteller festgelegt.

Moderne Smartphones hingegen fungieren als Plattform für unterschiedliche Funktionen und Anwendungen, die der Anwender nutzen möchte. Ob ich mein Smartphone heute zum Telefonieren, Gamen oder als Wasserwaage benutzen will, bleibt mir überlassen. Die entsprechenden Anwendungen kommen aus dem jeweiligen Ökosystem des Herstellers oder von externen Ent-

wicklern und Anbietern.Die Funktion des Smartphones kann also vom Anwender jederzeit erweitert oder verändert werden. Und zwar durch Software in Form virtualisierter Anwendungen (den Apps).

... zurück zur Umspannwerksautomatisierung

Hier finden wir heute zum überwiegenden Teil hardwarebasierte Standardkomponenten wie etwa IEDs (Intelligent Electronic Devices,Schutzgeräte) oder RTUs (Remote Terminal Units). Diese sind, wie im obigen Beispiel des klassischen Mobiltelefons, vom Hersteller typischerweise vollständig vorkonfektioniert und können für den jeweiligen Anwendungsfall von einem Schutztechniker konfiguriert werden. Eine funktionale Erweiterung nach Auslieferung ist in der Regel nicht vorgesehen, geschweige denn das Einspielen von Funktionen eines Drittanbieters. Die Virtualisierung von Schutzgeräten bzw. -funktionen bedeutet nun, dass die verschiedenenAutomatisierungs- und Schutzfunktionen für ein Umspannwerk nicht „am Gerät“, sondern als frei verwendbare Softwarekomponente ausgeliefert und appliziert werden. Gemeinsam mit dem weiter oben erläuterten Aspekt der Zentralisierung ergibt sich also eine zentrale sowie offene Hosting-Plattform, auf der die diversen Funktionen für Automatisierung und Schutz, aber natürlich auch höherwertige Anwendungen wie HMI oder Cybersicherheit flexibel kombiniert werden können.

CHANCEN UND HERAUSFORDERUNGEN

DURCH VIRTUALISIERTE SOFTWAREDEFINIERTE UMSPANNWERKE

Welche Vorteile ergeben sich aus einer zentralisierten und virtualisierten Architektur für Anwender und Anbietermärkte? Welche vorläufigen Schwierigkeiten birgt dieser Ansatz bzw. welche Lösungen müssen für den produktiven Einsatz geschaffen werden?

Eine Auswahl:

CHANCEN

– Hardwareunabhängiger Ansatz reduziert den Bedarf zur Vorhaltung von Ersatzgeräten und ermöglicht ein effizientes, unternehmensweites Ersatzteilmanagement

– Bessere Skalierbarkeit vor dem Hintergrund erforderlicher Neuprojekte und Modernisierungen

– Mehr Flexibilität durch softwaredefinierte Konfiguration und Re-Konfiguration

– Schnellere Inbetriebnahme durch einheitliche, softwaregestützte Prozesse

– Schaffung einer Plattform für höherwertige Anwendungen wie Advanced Analytics, Predictive Maintenance und maschinelles Lernen

– Innovation durch neue Marktteilnehmer, Einführung neuer HW- und SW-Techniken

HERAUSFORDERUNGEN

– Gewährleistung eines unterbrechungsfreien Betriebs und Sicherstellung entsprechender Redundanzen, insbesondere für PAC-Komponenten – Parallele Verwaltung verschiedener Systemgenerationen wie konventionelle, digitale und virtualisierte Anlagen entlang eines langfristigen Innovationspfades – Aufbau erforderlicher Expertise im Umgang mit Virtualisierungstechnologien bzw. verstärkte IT-OT-Synthese

– Etablierung effektiver Standards, um einem herstellerneutralen Ansatz zu maximaler Wirkung zu verhelfen – wichtiges Beispiel: IEC 61850

Wie bei jedem Technologiewechsel gilt es also auch bei der Virtualisierung von Umspannwerken eine Reihe von Herausforderungen zu überwinden. Nachdem frühe Konzepte auf Basis von IEC 61850 bereits Mitte der 2000er Jahre diskutiert wurden, sich erste produktive (Pilot-)Anwendungen jedoch erst um 2020 realisieren ließen [2], können wir davon ausgehen, dass die Branche noch einen längeren Weg bis zu einer möglichen Reife dieser Technologie zurücklegen muss.

Verschiedene Standards sowie Arbeitsgruppen flankieren diesen Weg. Insbesondere der Standard IEC 61850 für digitale Umspannwerke sorgt für Orientierung und Klarheit, wenn es um die Kombination von Hardware und Softwarekomponenten verschiedener Hersteller im Rahmen eines virtualisierten softwaredefinierten Umspannwerks geht.

DIE SOFTWAREPLATTFORM ZENON:

FLEXIBLER BEGLEITER AM WEG IN EINE

VIRTUALISIERTE ZUKUNFT

Die Virtualisierung von Umspannwerken liefert eine plausible Antwort auf viele Herausforderungen der Netzbetreiber. Arbeitsgruppen, Studien und eine steigende Zahl praktischer Anwendungsbeispiele zeigen, dass die Industrie diese Technologie zunehmend erforscht und vertieft. Es geht um die Schaffung langfristiger Pläne, Konzepte und Prozesse. Die Industrie muss dabei jedoch permanent die bestehenden Anlagen am Laufen halten.

Die Softwareplattform zenon bietet einen optimalen Rahmen für die Gestaltung dieses Übergangs. Als hersteller- und technologieneutrales System hilft zenon dabei, Brücken zwischen den verschiedenen Lösungsgenerationen zu bauen, egal, ob es sich um Komponenten für konventionelle, digitale oder virtualisierte Umspannwerke handelt. Anwender profitieren von einer Reihe an Vorteilen:

zenon ist modular: Komponenten wie der Umspannwerksserver, Native Clients oder HTML5Webserver, Protocol Gateways oder die IEC 61131-3

Modernization / Retrofit

Legacy Protocol Support

Unified Device Control

Re-use of legacy engineering data

Comprehensive IEC 61850 Support

IEC MMS and GOOSE protocol

Top-Down and Bottom-up Engineering

SCL Import,

Automatic Project Creation

Template / Object Libraries

Soft SPS lassen sich flexibel auf unterschiedliche Hosts verteilen.

– zenon läuft in virtuellen Laufzeitumgebungen: Egal ob unter Windows oder Linux auf klassischen On-premise-Hosts, virtuellen Maschinen oder in Docker-Containern, zenon Services können auf sämtlichen Plattformen betrieben werden.

– zenon unterstützt wichtige IT- und CyberSicherheitsstandards: Zentrales BenutzerManagement, Patching, Protokollverschlüsselung und Authentifizierung oder Meldung sicherheitsrelevanter Ereignisse u. v. m. –zahlreiche Funktionen ermöglichen eine sichere und nahtlose Integration einer zenon Lösung in eine moderne IT-Verwaltung.

– zenon beherrscht IEC 61850: Umfassende MMSServer- und Client-Kommunikation und selbst GOOSE stehen in zenon zur Verfügung. Flexible Tools, sowohl für Top-down- als auch Bottomup-Engineeringprozesse, ebnen den Weg für effizientes Engineering und herstellerunabhängige Umspannwerksautomatisierung.

– zenon hilft bei der Umsetzung und Vereinheitlichung: Vorlagen und Plattformstandards können individuell und technologieübergreifend umgesetzt werden. Dies mindert die Komplexität und sorgt für einheitliche Schnittstellen, selbst bei heterogenen Systemlandschaften.

ZEIT, DEN SCHALTER UMZULEGEN

Die enorme Dynamik im Bereich der Energienetze, der Netzmodernisierung und des Netzausbaus erfordert Lösungen und Technologien, die die notwendige Skalierbarkeit und Flexibilität nachhaltig sicherstellen. Die Zentralisierung und Virtualisierung der Umspannwerksautomatisierung repräsentiert hier einen vielver-

Windows and Linux compatibility

Hypervisor and container deployment

Modular architecture:

Multi Server / Multi Client, Protocol Gateway, 61131-3 Logic Engine, Device Management

Web and IT standards support

zenon als generationenübergreifende Plattform.

sprechenden Ansatz, der angesichts der vorliegenden Hausforderungen von der Industrie in zunehmendem Maße aufgegriffen, erprobt und eingesetzt wird. Die Softwareplattform zenon liefert hierfür einen flexiblen Unterbau, der es den Anwendern ermöglicht, Bestandsanlagen sicher zu betreiben und sukzessive zu modernisieren, während gleichzeitig bereits die Weichen für die Umspannwerke der Zukunft gestellt werden.

STEFAN HUFNAGL

Industry Specialist Energy

Industrielle Automatisierung steht im Mittelpunkt von Stefans beruflicher Laufbahn. Nach mehreren Jahren als Anwendungsingenieur folgten Stationen im Innovations- und Produktmanagement. Seit 2013 ist Stefan bei COPA-DATA: Als Mitglied des Energy-Industry-Teams beschäftigt er sich intensiv mit den Trends und Herausforderungen dieser Branche.

stefan.hufnagl@copadata.com

Seamless integration with zenon

AUTOMATISIERTES ENGINEERING FÜR INTELLIGENTE GEBÄUDE

Je intelligenter die Gebäude, desto komplexer ihr Engineering. Manuelle Verfahren können mit den wachsenden Anforderungen an Effizienz, Skalierbarkeit und Nachhaltigkeit nicht mehr Schritt halten. In diesem Artikel wird untersucht, wie virtuelle SPSen und automatisiertes Engineering den Weg in ein neues Zeitalter flexibler, zukunftsfähiger BMS ebnen.

INTELLIGENTE GEBÄUDE: VIRTUELLE SPSEN UND AUTOMATISIERUNG

Von der manuellen Planung bis zur intelligenten Automatisierung wurde die Entwicklung von Gebäudesteuerungen stets von zwei Faktoren vorangetrieben: Kosteneffizienz und Zeitersparnis. Doch mit der zunehmenden Intelligenz der Gebäude wird auch ihr Engineering immer komplexer. Wie lässt sich ein modernes Building Management System (BMS) entwickeln, warten und skalieren, ohne sich in Programmierung, Herstellerabhängig-

keiten oder veralteter Hardware zu verlieren? Die Antwort liegt in der Kombination von virtuellen SPSen, automatisiertem Engineering und modularem Softwaredesign.

WARUM MUSS SICH ETWAS DARAN ÄNDERN, WIE WIR INTELLIGENTE GEBÄUDE BAUEN?

Traditionell sind Änderungen an Projekten zur Gebäudeautomatisierung (vom Layout bis zum System insgesamt) fast immer mit zeitaufwändigen Nacharbeiten verbunden, sowohl bei der SPS-Programmierung als auch für die Entwicklung neuer grafischer Oberflächen (Visualisierung). Bei modernen digitalen Gebäuden ist das Tempo der Veränderungen allerdings schneller und die Erwartungen sind noch höher. Wie kann das Engineering da mithalten? Genau hier kommen Virtualisierung und automatisierte Engineering-Tools ins Spiel. Durch die Entkopplung der Logik von der Hardware und die Nutzung von Projektierungsassistenten wird die Gebäudeautomatisierung schneller, schlanker und erheblich anpassungsfähiger.

WAS SIND VIRTUELLE SPSEN UND WARUM SIND SIE SO WICHTIG?

Eine virtuelle SPS ist genau das, wonach es klingt: eine softwarebasierte Steuerung, die statt auf dezidierter, proprietärer Hardware auf einer allgemeinen IT-Infrastruktur läuft. Die Abhängigkeit von einem einzigen Hersteller entfällt somit, was traditionell mit langen Vorlaufzeiten oder Kompatibilitätsproblemen verbunden war. Stattdessen kann ihre Automatisierungslogik auf x86-64-Plattformen oder Linux-basierten Geräten ausgeführt werden, wobei die verwendete Software Standards wie IEC 61131 erfüllt. Dank zenon Logic sind keine Tools von Drittanbietern erforderlich und ihr Engineering bleibt in einer optimierten Umgebung.

Virtuelle SPSen können außerdem containerisiert werden, beispielsweise mit der zenon Service Engine in Docker-Containern. Dadurch werden Dienste und Abhängigkeiten isoliert, die Bereitstellung wird beschleunigt, die Ressourcenauslastung reduziert und eine skalierbare, konsistente Umsetzung von Updates ermöglicht.

VON HARDWAREABHÄNGIGKEIT ZU HARDWAREFLEXIBILITÄT

Was passiert, wenn Ihr Hardwarelieferant ein Produkt einstellt? Oder wenn Sie nächste Woche eine Gebäudesteuerung installieren müssen, die Lieferzeiten aber zwei Monate betragen? Das ist die Realität bei vielen Brownfield- und Greenfield-Projekten. Mit virtualisierten Ansätzen vermeidet man Hardwareabhängigkeiten. Das Projektteam kann direkt Updates bereitstellen, Anpassungen vornehmen und problemlos die Kontrolle behalten, ohne auf Dritte warten zu müssen.

SKALIERBARKEIT OHNE

REENGINEERING: EIN LINUXBASIERTER ANSATZ

Stellen Sie sich eine Steuerungsarchitektur vor, die mit Ihrem Gebäude mitwächst. Sie beginnen mit einer Steuerung für eine einzelne Etage und erweitern diese später auf das gesamte Gelände mit mehreren vernetzten, intelligenten Gebäuden. Durch den Einsatz von Linux-basierten Steuerungen wie Siemens IOT2050 oder Beckhoff CX9240 können Sie hierfür eine fle -

xible Hardwarearchitektur schaffen. Mit zenon lassen sich Projekte flexibel nach Etagen, Räumen oder Funktionen strukturieren. Dank des modularen Designs der Softwareplattform arbeiten alle Elemente nahtlos zusammen.

WIE LÄSST SICH

AUTOMATISIERUNG

AUTOMATISIEREN?

Die Projektierung eines Gebäudes beginnt oft mit Tabellenkalkulationen. Mit einem zenon Wizard wird die Excel-Liste zur Grundlage des Automatisierungsprojekts. Sie definieren Ihre Räume, Geräte und Vorrichtungen wie Ventile, Sensoren, Klappen und Leuchten – und der Assistent erstellt dafür eine voll funktionsfähige Visualisierung mit Steuerungsfunktionen. Komplett mit SPS-Logik unter Verwendung von Elementen aus der BMS-Bibliothek. Was früher Tage oder Wochen gedauert hat, ist jetzt in wenigen Stunden einsatzbereit.

WAS BEFINDET SICH IN DER ZENON BMS-BIBLIOTHEK?

Die Grundlage dieser Automatisierung bildet die zenon BMS-Bibliothek, eine umfangreiche Sammlung

Das Bild zeigt drei Smart Objects, einen Luftkühler, ein Ventil und ein Gebläsekonvektor, die jeweils mit ihren Prozessinformationen auf Faceplates (Pop-ups) angezeigt werden. Diese Faceplates heben wichtige Betriebsdaten und Parameter hervor und zeigen, wie Smart Objects für Echtzeittransparenz und -kontrolle innerhalb des Systems sorgen.

von Smart Objects zur Darstellung wichtiger Gebäudekomponenten.

Derzeit umfassen diese Pakete:

– Symbole und Faceplates

– Steuerungslogik und Variablen

– integrierte Funktionen und Anzeigen

Die Elemente sind nicht nur wiederverwendbar, sondern auch versionskontrolliert und kompatibel mit Plug-and-Play-Engineering. Das Ergebnis? Schnellere Bereitstellung, standardisierte Qualität und weniger Fehler. F unktioniert das auch in bestehenden Gebäuden? Absolut.

Das Konzept eignet sich zwar hervorragend für Neubauten, ist aber auch in Altbauten effektiv.

WIE SIEHT DIE ARCHITEKTUR

AUS?

Eine typische Konfiguration umfasst

– ein redundantes zenon Serverpaar für hohe Verfügbarkeit

Kommunikation über zenon Standardprotokolle

– Linux-basierte Steuerungen mit Schnittstellen zu Feld-I/O

– optionale Integration mit vorhandenen SPSen

WEB VISUALIZATION

SERVICE (WVS) FÜR

BROWSERBASIERTE

STEUERUNG ÜBER HTML5

Mit WVS haben Gebäudemanager direkt vom Smartphone oder Computer aus Zugriff auf Dashboards, KPIs und Trenddaten, um beispielsweise die Beleuchtung anzupassen, die HLK-Daten der letzten 24 Stunden zu überprüfen oder andere Aufgaben zu erledigen. Das System ist robust und dennoch intuitiv.

NACHHALTIGKEIT: MEHR ALS NUR EIN TRENDBEGRIFF

Nachhaltigkeit wird für Gebäudeund Facility-Manager immer wichtiger, da Gebäude für einen großen Teil des weltweiten Energieverbrauchs und der CO2-Emissionen verantwortlich sind. Das Weltwirtschaftsforum geht davon aus, dass Gebäude 40 Prozent des weltweiten Energieverbrauchs und ein Drittel der Treibhausgasemissionen ausmachen.

Intelligentere BMS-Designs liefern Erkenntnisse zur Optimierung von Zeitplänen, Erkennung von Energieverschwendung und Förderung von Investitionen in effiziente Modernisierungen. Durch die Umstellung von statischer Hardware auf dynamische, softwarebasierte Systeme schaffen wir intelligentere Gebäude – und schonen die Umwelt.

Erfahren Sie, wie virtuelle SPSen und automatisierte Engineering-Tools Ihr nächstes Bauvorhaben voranbringen können: www.copadata.com/building-automation

Das Bild zeigt eine beispielhafte Systemarchitektur mit einem redundanten Serverpaar und zusätzlichen zenon Komponenten. Es veranschaulicht die nahtlose Integration von Greenfield- und BrownfieldSzenarien und zeigt, wie moderne und ältere Infrastrukturen in derselben Umgebung zusammenarbeiten können.

MICHAEL LEGAT Industry Specialist Sustainability

Michael Legat ist Industry Specialist for Industrial Sustainability bei COPA-DATA und konzentriert sich auf Lösungen für eine effiziente Gebäudeautomatisierung. Mit seinem Hintergrund in den Bereichen Programmierung und Projektierung unterstützt er weltweit Kunden bei der Implementierung skalierbarer BMS-Lösungen.

michael.legat@copadata.com

[1] The World Economic Forum: Why buildings are the foundation of an energy-efficient future (Feb 22, 2021) https://www.weforum.org/stories/2021/02/why-the-buildings-of-the-future-are-key-to-an-efficient-energy-ecosystem/.

BELIMED LIFE SCIENCE: PLUG AND PRODUCE FÜR STERILISATOREN

Belimed Life Science ist ein führender Hersteller cGMP-konformer Reinigungsanlagen und Dampfsterilisatoren für Pharma- und Biopharmaindustrie sowie Labore und Forschungseinrichtungen. Nach Implementierung eines MTP-Gateways auf Basis der Softwareplattform zenon sind die Anlagen nun fit für die Integration in flexible Gesamtsysteme nach dem Motto „Plug and Sterilize“.

Keimfreiheit ist in der Arzneimittelherstellung unerlässlich: Maschinenteile, Behälter oder Verpackungen müssen vor jedem Gebrauch sterilisiert werden. Dies erfolgt meist unter Druck mit Dampf in sogenannten Sterilisatoren; diese werden beispielsweise in der pharmazeutischen Industrie bei Arzneimitteln und deren Primärverpackungen angewendet. Um den regulatorischen Auflagen zu genügen, müssen die Sterilisatoren die vermehrungsfähigen Mikroorganismen eliminieren.

KUNDENSPEZIFISCHE

PROZESSLÖSUNGEN

Die aus der Zahnarztpraxis bekannten Sterilisatoren – meist Tischgeräte – eignen sich allein aufgrund der Größe und mangelnder Möglichkeiten zur Integration in automatisierte Gesamtanlagen für Großlabore, Forschungseinrichtungen oder Pharmafabriken nicht.

Die Belimed Life Science AG mit Sitz in Sulgen (Schweiz) und einem Zweigwerk in Grosuplje (Slowenien) ist auf Reinigungs- und Sterilisationslösungen für solche Anwendungen spezialisiert. Sie entwickelt und

produziert Maschinen und Anlagen für die maschinelle Reinigung und Sterilisation zur Gänze im Haus. Und sie kombiniert diese meist mit der passenden Fördertechnik für kundenspezifische, genau auf die Anforderungen der Life-SciencesBranche zugeschnittenen Workflow-Lösungen. Dabei nutzt Belimed die bis 1968 zurückreichende eigene Erfahrung im Bereich der Sterilisation und Reinigung. Belimed ist seit 2024 mit Steelco unter dem Dach der Miele-Gruppe zusammengeschlossen.

Die Visualisierung in zenon bietet Übersichtlichkeit und Ergonomie.

Unter Verwendung der MTP Library – PL V1 für Siemens S7 von COPA-DATA schuf Systemintegrator RETEL Neuhausen ein einfach zu konfigurierendes MTP-Gateway.

SPITZEN-STERILISATOR ALS SINGLE

Zu den Spitzenprodukten von Belimed Life Science gehört der Dampfsterilisator PST.2. Die kundenindividuell konfigurierbare, energieeffiziente Maschine ist in 19 Standardgrößen von 300 bis 3.430 Liter Kammervolumen sowie in Sondergrößen verfügbar. Sie kann Festkörper und Flüssigkeiten mit den jeweils optimalen Verfahren sterilisieren und ist mit einer sicheren Steuerung mit Touchscreen ausgestattet. Diese basiert auf aktuellen Steuerungs- und Prozessleitsystemen von Siemens oder Rockwell. Zwar können die Sterilisatoren über zahlreiche Protokolle wie OPC DA, OPC UA, Modbus oder EtherNet/IP Daten zur Verfügung stellen, allerdings im Standard nur unidirektional. Deshalb war ihre Integration in ein kundenseitiges übergreifendes Prozessleitsystem in der Vergangenheit mit einem erheblichen Aufwand verbunden. So gestalteten sich Definition und Implementierung der erforderlichen Schnittstellen recht

Die zenon Visualisierung stellt Nutzern rollenabhängig sehr unterschiedliche Darstellungen zur Verfügung.

Das direkt auf der Maschinensteuerung laufende MTP-Gateway ermöglicht die einfache Integration der Devices und Services in das zenon Orchestration Studio des Endkunden.

ressourcenintensiv, noch mehr die Inbetriebnahme.

EINFACHE INTEGRATION MIT MTP

Um Endgeräte einfach und flexibel in Gesamtsysteme zu integrieren, setzen die Branchen Chemie, Nahrungsmittel, Kosmetik und Pharma auf die Modularisierung der Produktionsprozesse mittels des sogenannten Module Type Packages (MTP). Dieser von NAMUR, der Interessengemeinschaft Automatisierungstechnik der Prozessindustrie, und ZVEI, dem Zentralverband Elektrotechnik- und Elektronikindustrie, geschaffene neue Datenstandard dient als Konvention zur herstellerneutralen Beschreibung modularer Produktionsanlagenteile.

Das nach VDI/VDE/NAMUR 2658 definierte MTP besteht aus einer vereinheitlichten Beschreibung der Informationen der einzelnen Module – Welche Datenobjekte werden erfasst? Welche Dienste sollen ausgeführt werden? – und der Schnittstellen in Form von MTP-

Dateien. Neben der herstellerneutralen, funktionalen Beschreibung der Automatisierung von Prozessmodulen enthalten diese auch grafische Objekte, die man für eine Visualisierung nutzen kann. Dadurch lässt sich MTP mit wenig Aufwand in gemeinsame Leitsysteme integrieren und erleichtert so den modularen, herstellerunabhängigen Aufbau von Produktionsanlagen.

STANDARDKONFORMITÄT GEFORDERT

Angesichts dieser Eigenschaften ist es keine Überraschung, dass sich MTP in den genannten prozesstechnisch geprägten Branchen mittlerweile als anerkannter Standard etabliert hat. Auch Belimed Life Science hatte bereits seit einiger Zeit Pläne verfolgt, in diese Richtung zu gehen. Das Go-Signal zur Umsetzung gab ein großer Endkunde aus dem Pharmabereich, als er in einer Ausschreibung die MTPFähigkeit der Reinigungs- und Sterilisationsanlagen zur Bedingung machte.

Das Unternehmen nutzt als Prozessleit- und Visualisierungssystem die COPA-DATA Softwareplattform zenon. Diese ermöglicht die nahtlose Integration von MTP-Dateien in Gesamtprojekte, wo sie sich genauso behandeln lassen wie native Objekte. Dazu verfügt die Entwicklungsumgebung zenon Engineering Studio über eine Importschnittstelle. Diese wandelt die importierten MTP-Dateien in Smart Object Templates (SOT) für die Integration in den übergeordneten Process Orchestration Layer (zenon POL) um.

STANDARDKONFORMITÄT GESCHAFFEN

„Bei MTP handelt es sich nicht um einen Sonderwunsch eines einzelnen Kunden oder einen vorübergehenden Trend, sondern um die Möglichkeit, unsere Maschinen und Anlagen mit der Fähigkeit Plug and Produce auszustatten“, betont Markus Maier, Product Manager Sterilizer bei Belimed Life Science. „Deshalb entschlossen wir uns, die Konformität mit diesem zukunftsgerichteten Standard vollumfänglich herzustellen.“

Der Kunde unterstützte das Vorhaben, indem er den Kontakt zu COPA-DATA und dessen Schweizer Vertriebspartner SATOMEC AG herstellte. Diese wiederum empfahlen eine Zusammenarbeit mit dem Systemintegrator RETEL Neuhausen AG. In enger Kooperation mit den Steuerungssoftwareentwicklern von Belimed Life Science realisierte der COPA-DATA Silver Partner in wenigen Monaten ein einfach zu konfigurierendes MTPGateway. Dieses läuft direkt auf der Maschinensteuerung. Es ist an die bestehende Anlagensteuerungssoftware gekoppelt und an eine lokale Visualisierung angebunden.

MTP LIBRARY UND POL AUS EINER HAND

Wesentlich zur raschen Implementierung beigetragen hat die Verwendung der MTP-Bibliothek „MTP Library – PL V1“ für Siemens-S7Steuerungen, die COPA-DATA direkt zur Verwendung in der Siemens-Engineering-Umgebung TIA-Portal zur

Verfügung stellt. „Die S7-MTP Library PL V1 enthält alle Funktionen, die für die Erstellung des MTP-Gateways benötigt werden“, bestätigt Tino Rüedi, OT-Solution Architect und Projektleiter im Bereich Process Technology bei RETEL Neuhausen. „Mit einfach zu konfigurierenden Bausteinen ermöglicht sie effizientes Engineering.“

Dass der Process Orchestration Layer und die MTP Library vom selben Hersteller stammen, reduziert den Koordinationsaufwand und führt durch wegfallende Verbindungstests zu einer erheblichen Zeitersparnis im Engineering. Einen Beitrag zur Einhaltung der Projekttermine leistete ebenfalls der COPADATA Support, der bei technischen Herausforderungen unterstützte.

PLUG AND STERILIZE

„Mit dem MTP-Gateway für Belimed Life Science konnten wir den Nachweis erbringen, dass auch komplexe, qualifizierte Anlagen einfach an die bestehende Anlagensteuerungssoftware gekoppelt werden können“, sagt Tino Rüedi.

„Dies bedeutet sowohl einen Mehrwert für Belimed Life Science als Anlagenlieferant als auch für alle Endkunden, welche die Anlagen in kürzester Zeit in ihr Leitsystem integrieren können.“

Das Ergebnis lässt sich sehen: Mit dem MTP-Gateway verfügen die Reinigungs- und Sterilisationsanlagen von Belimed Life Science nun über eine klar strukturierte und definierte Schnittstelle zur schnellen sowie unaufwändigen Anbindung an das Prozessleitsystem (zenon POL) mit allen benötigten Datenpunkten und der gesamten Anlagenvisualisierung.

„Die Integration konnte dank der klaren Struktur und der standardisierten zenon Module und der MTP Library nahtlos umgesetzt werden“, berichtet Alejandro Brunschwiler, Head of R&D Software bei Belimed Life Science. „Mit diesem durchgängigen Engineering-Ansatz konnten wir unsere Geräte nach dem Motto ‚Plug and Sterilize‘ für die einfache Integration in flexible Gesamtsysteme fit machen.“

ÜBER SATOMEC AG

SATOMEC AG ist ein Handelsunternehmen mit Werksvertretungen für Automatisierungssysteme. Der zenon Distributor mit Sitz in Cham unterstützt seine Kunden in der Schweiz und Liechtenstein mit hochqualifiziertem Support, Beratung, Schulung, Trainings und einem umfangreichen Lager in der Schweiz. Verantwortlich für das Projekt mit Belimed Life Science und RETEL war Vertriebsleiter Elger Gledhill. www.satomec.ch

ÜBER RETEL NEUHAUSEN AG

Die RETEL Neuhausen AG ist ein unabhängiges Ingenieurunternehmen mit über 50 Jahren Erfahrung in Automation und Digital Solutions. Als COPADATA Silver Partner verfügt das Unternehmen über besondere Expertise im regulierten Life-Sciences-Umfeld. Mit einem interdisziplinären Team entwickelt RETEL Neuhausen AG massgeschneiderte, validierte und nachhaltige Lösungen – von der Prozessautomation bis zur digitalen Transformation – und positioniert sich als verlässlicher FullService-Partner für ihre Kunden. www.retel.ch

HIGHLIGHTS zenon MTP-Gateway für Reinigungs- und Sterilisationsanlagen von Belimed Life Science: – Volle Konformität zu VDI/ VDE/NAMUR 2658 – Schnelle und einfache Integration in flexible Gesamtsysteme – Zeitersparnis im Engineering durch wegfallende Verbindungstests – Anlagenweit durchgängige Ergonomie

AROUND THE WORLD

EINE BÜHNE FÜR SOFTWARE-

DEFINED AUTOMATION

Über 500 Automatisierungsexperten aus aller Welt trafen sich Anfang Oktober in Salzburg zur zenonIZE 25. Unser Kunden- und Partnerevent zeigte dank zahlreicher Praxisbeispiele eindrucksvoll, wie die Vision softwarebasierter Automatisierung schon heute gelebt wird –und welche Möglichkeiten sich in Zukunft ergeben.

Wenn sich die internationale zenoneer-Community in Salzburg trifft, steht Innovation auf dem Programm. Die zenonIZE 25 fand in der traditionsreichen Stiftung Mozarteum statt und war mit über 500 Teilnehmern die bisher größte COPA-DATA Kundenveranstaltung. Unter dem inspirierenden Motto „Composing Tomorrow: Automatize, Digitalize, zenonIZE“ erlebten Kunden, Partner und Branchenexperten zwei Tage voller Impulse, Austausch und praktischer Einblicke. Das zentrale Thema: Software-defined Automation – der fundamentale Wandel von hardwaregebundenen zu flexiblen, softwarebasierten Automatisierungslösungen.

„zenonIZE 25 bot ein reichhaltiges Programm mit über 60 Referenten, darunter Vertreter aus Kundenprojekten, die Erfahrungen aus der Praxis sowie Erfolgsgeschichten teilten“, sagt Phillip Werr, Mitglied der Geschäftsführung bei COPA-DATA. Das Programm umfasste Spezial-Sessions für Manufacturing mit Fokus auf Life Sciences, Prozessindustrie und industrielle Nachhaltigkeit sowie Energy-Tracks zu Virtualisierung und Interoperabilität. Besonders beliebt waren die praxisorientierten Engineering-Workshops und die Partnerstände, bei denen Teilnehmer die Funktionen der Softwareplattform zenon hautnah erleben konnten.

FLEXIBEL IN DIE ZUKUNFT

„Seit Jahrzehnten stellt sich die Automatisierungsbranche eine Zukunft vor, in der Prozesse nicht mehr an die Hardware gebunden sind, sondern über flexible Software koordiniert werden“, betont Stefan Reuther, ebenfalls Mitglied der Geschäftsführung. „Auf der zenonIZE 25 haben wir gezeigt, wie unsere Kunden mit zenon Flexibilität, Widerstandsfähigkeit und langfristige Wettbewerbsfähigkeit erlangen.“ Kundenpräsentationen mit laufenden oder umgesetzten Projekten aus der ganzen Welt machten den zenon Impact sicht- und spürbar. Podiumsdiskussionen mit Branchenspezialisten und COPA-DATA Experten beleuchteten technologische Entwicklungen: vom HMI-Design über automatisiertes Engineering bis zu neuen Geschäftsmodellen und Auswirkungen auf den Fachkräftemangel.

Salzburg, Mozarts Heimatstadt und COPA-DATA Hauptsitz, bot den Rahmen für diese Veranstaltung zwischen Tradition und Zukunft. Abgerundet durch ein exquisites Networking-Dinner im St. Peter Stiftskulinarium, dem ältesten Restaurant Europas, hallen die inspirierenden Klänge von zenonIZE 25 in den Köpfen aller Teilnehmer hoffentlich noch lange nach. Wir sehen uns 2027!

VONEINANDER LERNEN –MIT DER CDPC AN DIE

SPITZE

Bereits im Jahr 2011 gegründet und 2024 an neue Erfordernisse angepasst, hat sich die COPA-DATA Partner Community (DDPC) als Success Story einen festen Platz in unserer Firmengeschichte gesichert. Damals wie heute stehen gemeinsames Wachsen und gegenseitige Unterstützung an vorderster Stelle. Um die Erfolge der Partnerfirmen zu würdigen und die umgesetzten Arbeiten einem breiteren Publikum vorzustellen, wurden bei der zenonIZE 25 erstmals COPADATA Partner Community Awards in den Kategorien Manufacturing und Energy and Critical Infrastructure verliehen. In beiden wurden Auszeichnungen in Gold,

Silber und Bronze vergeben. Als Gold-Gewinner in der Kategorie Manufacturing konnte sich Memo3 mit einer CDPC-Zugehörigkeit von gerade einmal etwas über einem Jahr durchsetzen. In der Kategorie Energy and Critical Infrastructure ging Gold an SPIE Energotest für ein Projekt mit zenon als skalierbare Plattform für die Automatisierung hybrider erneuerbarer Energien. Manuela Rettenbacher und Verena Glück betreuen die COPA-DATA Partner Community und führten durch die Award-Zeremonie. Sie sind als Business Development Manager die Ansprechpartnerinnen für alle CDPC-Anliegen. www.copadata.com/en/partner-community

Manuela Rettenbacher arbeitet seit 2015 bei COPA-DATA und ist seit Juni 2024 als Business Development Manager für den Bereich Global Partners & Alliances verantwortlich. Zuvor war sie im Marketing tätig. manuela.rettenbacher@copadata.com

Verena Glück hat ihre Berufslaufbahn nach Abschluss der Studienrichtung Informationstechnik und Systemmanagement (ITS) im Herbst 2018 im technischen Support bei COPA-DATA begonnen. Seit März 2025 ist sie für die Partner Community zuständig. verena.glueck@copadata.com

DIE COPA-DATA PARTNER COMMUNITY

Die COPA-DATA Partner Community (CDPC) ist eine internationale Gemeinschaft mit über 500 Mitgliedern. Sie treibt die digitale Transformation voran und unterstützt Unternehmen bei der Integration der Softwareplattform zenon. Die Partner sind vorwiegend Systemintegratoren, aber auch Maschinenbauer, Erstausrüster (Original Equipment Manufacturer, OEM) und Forschungs- oder Bildungseinrichtungen bringen ihre Kompetenz ein.

CDPC auf Youtube

DIE PARTNERLEVELS – RUND UM ZENON

benötigen zum Einstieg noch keine Zertifizierung.

haben Basiskenntnisse und erste Projekterfahrungen.

verfügen über vertieftes Wissen in Theorie und Praxis.

konnten bereits umfangreiche Projekte umsetzen.

Sie wollen Teil der COPA-DATA Partner Community werden oder haben Fragen?

Wir freuen uns auf Ihre Nachricht an partner@copadata.com

Weitere Infos finden Sie auf www.copadata.com/partner Werden Sie Teil der Community.

ABOUT ZENONEERS

Wer sind die Menschen, die mit zenon herausfordernde Projekte in verschiedensten Branchen umsetzen? COPA-DATA stellt sie vor.

ZENONEER IN DER LÖSUNGSENTWICKLUNG

Dennis Jährlich

Die Umsetzung von komplexen Projekten mit der Softwareplattform zenon ist Dennis’ Tagesgeschäft. Als stellvertretender Fachbereichsleiter Informatik bei KROPF Solutions ist er dabei stets mit Herausforderungen konfrontiert. In seiner bereits über 20-jährigen Betriebszugehörigkeit konnte Dennis Erfahrungen in den verschiedensten Bereichen und Einsatzmöglichkeiten von zenon sammeln. Lassen wir ihn selbst berichten.

ÜBER DENNIS

Wie würden Sie sich selbst beschreiben? Grundsätzlich bin ich ein positiv eingestellter Mensch und sehr aufgeschlossen gegenüber neuen Dingen. Beim Herangehen an Herausforderungen würde ich mich als sachlich und technisch lösungsorientiert beschreiben.

Wie hat sich Ihr beruflicher Werdegang gestaltet?

Nach meiner Ausbildung bei KROPF Solutions zum Fachinformatiker für Systemintegration war ich an der Umsetzung zahlreicher zenon Projekte und Projektinbetriebnahmen beteiligt. Anschließend absolvierte ich eine Weiterbildung zum IT-Projektleiter. Derzeit bin ich stellvertretender Fachbereichsleiter und koordiniere als Projektleiter mehrere Teams.

UNTERNEHMEN

In welchen Branchen ist KROPF Solutions aktiv?

KROPF Solutions ist mit 30 Jahren Erfahrung an vier europäischen Standorten vertreten und zählt Unternehmen aus dem Anlagen-/Maschinenbau, der Automobilindustrie, der Energieindustrie und der Nahrungsmittel- und Genussmittelindustrie zu seinen Kunden.

PERSÖNLICHES

Wie verbringen Sie Ihre Freizeit?

Ich bin gerne in Bewegung: Laufen, Schwimmen, Radfahren und auch Triathlon gehören zu meinen Hobbys. Wenn dann neben dem Westernreiten noch etwas Zeit bleibt, nutze ich diese gerne für Reisen.

ZENON

Was war bis jetzt Ihre größte Herausforderung bei der Umsetzung mit zenon?

Die Umsetzung von verschiedensten zenon Projekten in mehreren VW-Werken. Hinzu kamen der verstärkte Einsatz von zenon Logic, Smart Objects und Add-in- Interface sowie die Betreuung des zenon 3rd-Level-Supports für VW.

Was war Ihr bisher spannendstes Projekt?

Die Erstimplementierung des SAP-Interface bei AUDI Győr, zusammen mit einem weiteren Softwareentwickler aus Salzburg.

Wie erleichtert zenon Ihr tägliches Arbeitsleben?

Die Softwareplattform gleicht einem großen Baukasten mit vielen vorkonfigurierten Templates für alle Anforderungen unserer Kunden. Dadurch wird die Projektierung stark vereinfacht.

EIN BLICK IN DIE ZUKUNFT

Welche Ideen würden Sie künftig gerne verwirklichen?

Gerne würde ich die Abläufe in unseren Projekten durch den Einsatz von zenon Wizards und Add-ins noch weiter optimieren, um so bei der zenon Projektierung Zeit zu sparen.

ZENONEER IN DER PHARMAINDUSTRIE

Marlene Robles

Als Projektingenieurin in der pharmazeutischen Industrie ist Marlene mit der Planung, Umsetzung und Inbetriebnahme von Automatisierungsprojekten für Produktionsanlagen beschäftigt.

Wie ihr zenon dabei hilft, diese Aufgaben zu bewältigen, erfahren Sie am besten von ihr selbst.

ÜBER MARLENE

Wie würden Sie sich mit wenigen Worten kurz beschreiben?

Ich würde mich als flexibel, engagiert und offen für Neues bezeichnen.

Wie sind Sie in diesen Tätigkeitsbereich gekommen?

Neben meinem Ingenieurstudium in Venezuela habe ich in Deutschland eine Ausbildung zur Elektronikerin absolviert. Nach dem Abschluss habe ich mich auf interessante Stellenangebote beworben und bin so zu Actemium gekommen. Ein Glücksfall: spannende Projekte, moderne Technologien und ein zuverlässiges sowie kollegiales Team.

UNTERNEHMEN

In welchem Aufgabenfeld ist Actemium aktiv?

Actemium unterstützt weltweit Kunden aus dem Industriebereich mit nachhaltigen Lösungen bei Planung und Umsetzung von Industrieanlagen und Prozessen. Mit Niederlassungen in 40 Ländern und rund 100 Standorten in Deutschland hat Actemium stets einen Ansprechpartner in der Nähe.

PERSÖNLICHES

Was unternehmen Sie in Ihrer Freizeit?

Motorradfahren für den Adrenalinkick, Sport für den Ausgleich, Reisen für neue Eindrücke und das Lernen von weiteren Sprachen zur Erweiterung des geistigen Horizonts.

ZENON

Welche Herausforderungen konnten Sie mit zenon lösen?

Hier fällt mir sofort die Umsetzung eines zenon Projekts an der Extrusionslinie bei einem pharmazeutischen Kunden unter strengen Validierungsbedingungen ein. Die Dokumentation, die Nachvollziehbarkeit der Änderungen und das Testen nach GAMP5-Richtlinien haben dabei deutlich mehr Aufwand als in klassischen Industrieprojekten erfordert.

Was war Ihr persönliches Highlight bei der Arbeit mit zenon?

Die Zusammenarbeit mit einem internationalen Kunden, bei der ich gelernt habe, wie wichtig klare Kommunikation und Flexibilität sind, um schnell auf unterschiedliche Anforderungen reagieren zu können.

Wie setzen Sie zenon in Ihrer täglichen Arbeit ein?

Mit zenon realisiere ich hauptsächlich Visualisierungen von Prozessanlagen, das Rezeptmanagement, das Alarmhandling sowie die Benutzerverwaltung. Zusätzlich verwende ich zenon zur Erstellung von Berichten, zur Anbindung an SPS-Systeme und zur Umsetzung von GMP-konformen HMI-Lösungen.

EIN BLICK IN DIE ZUKUNFT

Beruflich möchte ich gerne Projekte mitgestalten, die einen echten Mehrwert bringen: technisch und gesellschaftlich. Privat wünsche ich mir, weiter anzukommen, Neues zu lernen und vielleicht irgendwann etwas Eigenes auf die Beine zu stellen.

ABOUT US

In jeder Ausgabe der Information Unlimited holen wir Mitarbeiterinnen und Mitarbeiter vor den Vorhang, damit uns unsere Leserinnen und Leser besser kennenlernen können. Die Kolleginnen und Kollegen erzählen über ihren beruflichen Alltag und über Persönliches.

FRANZISKA HALBRAINER

Expert Software Developer, COPA-DATA Headquarters

Bei COPA-DATA seit: 2012

Ich habe in meiner Laufbahn als Entwicklerin in vielen Bereichen gearbeitet. Mein Name fällt bei Kollegen, wenn es um die Themen Energy, Process Recorder und Smart Objects geht. Aktuell arbeitet mein Team an der Linux Service Engine. Mir ist wichtig, dass wir als Team gemeinsam in die gleiche Richtung gehen. Finden wir einmal mehrere Wege zum gleichen Ziel, wägen wir die Optionen ab und entscheiden gemeinsam. An meinem Job gefällt mir die Spannung, wenn ich mit einem Problem konfrontiert bin, die Lösung skizziere, und ich freue mich, wenn der Knopf aufgeht. Wenn das bei Kollegen passiert, freue ich mich mit.

Mein Arbeitsplatz ist funktional mit zwei Monitoren, einer Tastatur, einer Maus ausgestattet – sowie einem Glas Wasser und schwarzem Tee. Inspiration finde ich auf meiner Pinnwand voller Fotos und bei meiner Familie.

Mein Spezialgebiet liegt im Bereich Energy Connectivity mit Fokus auf Treibern und Prozess-Gateways sowie auf Protokollen wie IEC 61850, IEC 60870, DNP3 oder OPC UA. Mit meinem umfassenden Allgemeinwissen zu zenon berate ich Kunden und Kollegen bei der Umsetzung praxisnaher Lösungen, analysiere Kommunikationsprobleme und unterstütze bei der Definition von Produkterweiterungen in diesem Bereich.

Im Technology-Excellence-Team (TET) legen wir großen Wert auf nachhaltige und skalierbare Wissensgenerierung sowie -verteilung rund um die Technologie zenon. Wir unterstützen uns als Team gegenseitig bei den oft herausfordernden Aufgaben. Die inhaltlichen Schwerpunkte sind aufgeteilt, wodurch wir fast alle Bereiche abdecken können.

Besonders schätze ich, dass mein Job mir die Freiheit gibt, mich tief in komplexe Themen einzuarbeiten und anderen zu helfen, ihre Aufgaben erfolgreich zu meistern.

leo.steinlechner@copadata.com

Head of International Marketing, COPA-DATA CEE/ME

Bei COPA-DATA seit: 2021

Ich bin für sämtliche Marketing-Aktivitäten in der Region Zentral- und Osteuropa sowie im Nahen Osten verantwortlich. Kollegen und Kunden wenden sich mit Fragen rund um strategisches und operatives Marketing an mich. Und wenn es einmal nicht darum geht, freue ich mich ebenso über einen offenen Austausch oder ein gutes Gespräch zwischendurch.

Bei der Zusammenarbeit ist mir ein respektvoller und kollegialer Umgang sehr wichtig – und so sind einige meiner Teamkollegen längst mehr als nur berufliche Wegbegleiter geworden. Die Mischung macht’s: Ein abwechslungsreiches Aufgabenfeld und ein Team, das mit Herzblut und Zusammenhalt arbeitet – besser geht’s kaum. Genau das motiviert mich jeden Tag aufs Neue.

susanna.jankovic@copadata.com

HELMUT WEBER

Software Architect for Connectivity, COPA-DATA Headquarters

Bei COPA-DATA seit: 2004

Mein Spezialgebiet umfasst zenon Treiber, Prozess-Gateways sowie zenon Logic Service. Kollegen wenden sich an mich, wenn es um Kommunikationsprotokolle aus dem Industrieund Energiebereich, Softwarearchitektur, Entwicklungsrichtlinien und Constraints geht. Ich helfe außerdem bei der Fehlersuche oder wenn Entwickler einmal nicht mehr weiterkommen. Meine Programmierkenntnisse umfassen vor allem C++.

Mir sind das proaktive Arbeiten und der unkomplizierte Austausch mit den Kollegen sehr wichtig. Gute Kommunikation im Team und Eigenverantwortung sind für mich Grundpfeiler einer erfolgreichen Zusammenarbeit. Besonders schätze ich an meinem Job die Fehleranalyse, das Lösen komplexer Probleme und die Unterstützung meiner Kollegen bei der Softwareentwicklung.

helmut.weber@copadata.com

Aktionssetzung in der Fabrik

Aktion

Fabrik

Testung der Aktion im Modell

Aktion

Anpassung

Kontrollalgorithmus (Agent)

Status und Evaluierung

der Fabrik

Evaluierung

ADAPTIV LERNENDE

ALGORITHMEN IN STEUERUNGSSYSTEMEN

Oft müssen Unternehmen für eine große Menge an bereitgestellter Energie bezahlen, obwohl sie diese schlussendlich nicht verbrauchen. Um die Energiekosten mehr an den tatsächlichen Verbrauch anzupassen, kann ein selbstlernendes KI-Steuerungssystem eingesetzt werden, das den Energieverbrauch optimiert. Damit kann der Energiekonsum nachhaltig gestaltet und Kosten können gesenkt werden. Genau daran forscht das Intelligent Data Analytics (IDA) Lab Salzburg in Zusammenarbeit mit COPA-DATA.

BERECHNUNG DES ENERGIEPREISES

Im Bereich der Industrie benötigen die Produktion von Waren und die Erhaltung von Gebäuden viel Energie. Die Kosten können in diesem Bereich sehr hoch ausfallen und setzen sich aus drei Teilen zusammen. Zu den beiden ersten gehören die Fixkosten für die Infrastruktur, die der Energieanbieter zur Verfügung stellt, und der Energiepreis für die Menge an verbrauchter Energie. Der dritte Teil ist der Bereitstellungspreis, mit dem die dauerhafte Bereitstellung einer an das Unternehmen angepassten Energiemenge beglichen wird. Die Höhe des Preises wird aus dem letzten Abrechnungszeitraum ermittelt, der beispielsweise ein Jahr oder einen Monat betragen kann. In diesem Zeitraum wurden die Mittelwerte von je 15-Minuten-Perioden festgehalten. Als Richtwert für die neue Abrechnungsperiode wird der höchste dieser Mittelwerte gewählt.

OPTIMIERUNGSPOTENZIAL

Da der Energieverbrauch der meisten Unternehmen etwas schwankt, kommt es hin und wieder zu Lastspitzen. Diese sind ein plötzlicher starker Anstieg des

Energieverbrauchs, der in der 15-Minuten-Periode, in der er auftrat, einen übermäßig hohen Mittelwert bewirkt. Daher kann es geschehen, dass am Ende der Abrechnungsperiode viele dem üblichen Energieverbrauch des Unternehmens entsprechende Mittelwerte und wenige sehr hohe Mittelwerte (die Lastspitzen enthalten) vorliegen. Da der höchste dieser Mittelwerte als Referenz für den Preis des folgenden Abrechnungszeitraums verwendet wird, liegt der Preis für die Bereitstellung des nachfolgenden Zeitraums weit über dem normalerweise auftretenden Verbrauch des Unternehmens. Daher kann ein großer Teil der zur Verfügung gestellten Energie nicht genutzt werden, wobei dennoch die Bereitstellungskosten vom Energieversorger in Rechnung gestellt werden.

In genau diesem Bereich der Kostenzusammensetzung kann mit der passenden Optimierung eine substanzielle Menge an nicht nachhaltig eingesetzten Kosten gespart werden. Dafür müssen Mittelwerte aneinander angeglichen und daraus folgend Lastspitzen geglättet werden.

Modell

METHODIK ZUR LASTSPITZENGLÄTTUNG

Es gibt zwei grundlegende Herangehensweisen, um eine Lastspitze zu glätten. Die erste ist das temporäre Abschalten oder Zurückschalten von Verbrauchern und die zweite ist das Zuschalten von Generatoren. Beide senken den allgemeinen Energieverbrauch und können auch in Kombination angewendet werden.

Um dies rechtzeitig einleiten zu können, muss im Vorhinein bekannt sein, dass eine Lastspitze auftreten wird. Dafür ist die Vorhersage der Grundlast verantwortlich. Der gesamte Energieverbrauch setzt sich aus dem Teil der Grundlast, dem unveränderlichen Teil des Energieverbrauchs, und der variablen Last, den zusätzlichen Generatoren und ausschaltbaren Verbrauchern, zusammen. Wenn eine sehr hohe Grundlast vorhergesagt wird, können die genehmigten Verbraucher ausgeschaltet und die Generatoren eingeschaltet werden.

Die Entscheidung dafür trifft der „Agent“ (Kontrollalgorithmus) des Systems. Dieser hat unter anderem die Informationen über die vorzugsweise Reihenfolge der Ein- und Ausschaltung, und das Wissen über die konkrete Verfügbarkeit im Moment der Entscheidung, der Ein- und Ausschaltung von bestimmten Systemteilen. Der Agent berechnet die optimale Schaltstrategie im Rahmen dieser Einschränkungen.

KREISLAUF

AUS VORHERSAGE, AKTIONSSETZUNG, RÜCKMELDUNG UND ADAPTION

Die Infografik illustriert den gesamten Regelkreis: Zunächst prognostiziert ein Modell die Grundlast und den Energieverbrauch des Werks. Daraufhin simuliert der Kontrollalgorithmus, der in direkter Verbindung mit zenon steht, verschiedene Schaltfolgen von Verbrauchern und Erzeugern und bewertet jede Alternative. Die Variante mit der besten Bewertung wird in der Anlage umgesetzt, indem der Kontrollalgorithmus diese als Vorschlag an zenon übermittelt, der sie schließlich einleitet. Danach liefert das System den aktualisierten Gerätestatus und eine reale Bewertung zurück an zenon, die der Agent, nach der Weitergabe der Daten von zenon, mit der simulierten Bewertung vergleicht, um die Modellgüte zu prüfen. Abschließend aktualisiert er das Prognosemodell mit den neuesten Betriebsdaten. So bleibt das Modell verlässlich, passt sich laufend an neue Situationen an und verbessert sich durch kontinuierliches Lernen.

Die Prognose bezieht sich jeweils auf die aktuelle Abrechnungsperiode. So kann der Algorithmus nicht nur die nächste Schaltaktion, sondern gleich eine ganze Abfolge von Schritten vorausplanen, verschiedene Aktionsketten optimieren und damit einen möglichst hohen Energieverbrauch erzielen, ohne die zulässige Spitzenlast zu überschreiten.

Der Agent wird in den nächsten Jahren weiterentwickelt und setzt dabei auf KI-Verfahren wie Deep Reinforcement Learning kombiniert mit robusten statistischen Methoden. So kann er flexibel und zuverlässig auf individuelle Kundenanforderungen reagieren, während die gewünschte Funktionsweise seiner Algorithmen jederzeit garantiert bleibt.

MODELLBAU

Das Modellieren der Anlage besteht aus den Teilen Modellspezifikation und Anpassung des Modells an die vorliegenden Daten. Für den ersten Teil wird festgelegt, welche Form das Modell haben soll. Dies kann in simplen Fällen ein gleichmäßiger linearer Anstieg oder in komplexeren Fällen eine gezielte Kombination aus linearen und saisonalen Komponenten sein. Dabei sind die Parameter (Stärke von Anstiegen und Ausprägung von saisonalen Komponenten) noch nicht fixiert.

In der Anpassung an die vorliegenden Daten werden diese konkret bestimmt. Dafür werden diejenigen Parameter ermittelt, mit denen das Modell die Daten mit der höchsten Wahrscheinlichkeit vorhersagen würde, was in einem vorgegebenen komplexen Modell, das die Daten bestmöglich beschreibt, resultiert.

SIMON HIRLÄNDER

Als Teil des IDA Lab Salzburg und im Auftrag von COPA-DATA entwickelte Simon Hirländer die erste Version des Agenten, die anschließend von Sarah Trausner weiterentwickelt wurde. Unter Betreuung von Simon Hirländer wird sich Sarah Trausner in ihrer Promotion mit der Erweiterung des Systems beschäftigen.

https://idalab.at/

MEDIENINHABER, HERAUSGEBER UND VERLEGER

Thomas Punzenberger Ing. Punzenberger COPA-DATA GmbH Karolingerstraße 7b 5020 Salzburg, Österreich Firmenbuchnummer: FN56922i T: +43 662 431002-0 office@copadata.com www.copadata.com

REDAKTIONSTEAM Sebastian Bäsken, Michaela Hasslacher, Samuel Inwinkl, Andrea Mitterer, Phillip Werr

LEKTORAT Eva-Maria Oberauer-Dum, Esther Rutter, Dieter Strauß (alle extern)

KORREKTORAT Supertext Deutschland GmbH

ART-DIRECTOR Kathrin Machmer

AUTOREN Emilian Axinia, Mark Clemens, Constantin Collini, Stefan Eder, Alessandro Gnutti, Simon Hirländer (Gastautor), Stefan Hufnagl, Peter Kemptner (Gastautor), Bernhard Korten, Michael Legat, Lukas Punzenberger, Josef Ries, Matthias Schnöll, Sarah Trausner (Gastautorin), Dominic Voithofer

DRUCK Offset 5020 Druckerei & Verlag GesmbH, Bayernstraße 27, 5072 Wals-Siezenheim, Österreich

LETTERSHOP Pro Mente Salzburg – Arbeitstrainingszentrum Siezenheim, Angerstraße 10, 5071 Wals-Siezenheim, Österreich

AUFLAGE 2.400 Stück

COPYRIGHT © Ing. Punzenberger COPA-DATA GmbH. Alle Rechte vorbehalten. Das Magazin und alle darin enthaltenen Beiträge und Abbildungen sind urheberrechtlich geschützt. Eine Verwendung oder Vervielfältigung ist ohne Einwilligung der Redaktion nicht gestattet.

Technische Daten dienen nur der Produktbeschreibung und sind keine zugesicherten Eigenschaften im Rechtssinn.

zenon®, zenon Analyzer®, zenon Supervisor®, zenon Operator®, zenon Logic® und straton® sind eingetragene Warenzeichen der Ing. Punzenberger COPA-DATA GmbH. Alle anderen Markenbezeichnungen sowie Produktnamen sind Warenzeichen oder eingetragene Warenzeichen der jeweiligen Eigentümer. Sie wurden nicht explizit gekennzeichnet.

Wir bedanken uns bei allen Mitwirkenden für die freundliche Unterstützung und das zur Verfügung gestellte Bildmaterial. Änderungen vorbehalten.

Zugunsten der besseren Lesbarkeit wird in diesem Magazin hauptsächlich das generische Maskulinum verwendet. Gemeint und angesprochen sind immer alle Geschlechter gleichermaßen.

KONTAKT/ GRATIS-ABO IU@copadata.com www.copadata.com/IU

linkedin.com/company/copa-data-headquarters facebook.com/COPADATAHeadquarters youtube.com/copadatavideos instagram: @copadata_insights

SIMATIC* TIA LIBRARY

Lesen Sie mehr über die Vorteile der neuen Process Library auf Seite 47.

DEMOPROJEKTE

Nutzen Sie vorkonfigurierte Best-Practice-Lösungen.

SMART OBJECT TEMPLATES (SOTS)

Reduzieren Sie die Entwicklungszeit um 50 % mit Plug-&-Play-Logik.

UI-KOMPONENTEN

Erstellen Sie durchgängige Designs mit HMI-Elementen.

NEU: SIMATIC* TIA istLibrary hier

Turn static files into dynamic content formats.

Create a flipbook
Issuu converts static files into: digital portfolios, online yearbooks, online catalogs, digital photo albums and more. Sign up and create your flipbook.
Magazin Information Unlimited #44 – Software-defined OT by COPA-DATA - Issuu