50

Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

  • Upload
    others

  • View
    0

  • Download
    0

Embed Size (px)

Citation preview

Page 1: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP
Page 2: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Software für Versorger und Industrie

PSI-CLICK-DESIGNFLEXIBLE FERTIGUNGERP-SYSTEM

Mehr UsabilityMit der neuen Java-basierten PSIpenta-Version gestalten Unternehmen mit PSI-Click-Design selbst ihre Benutzer-oberfl äche nach eigenen Bedürfnissen. Auch mobil per App.

» www.psi-automotive-industry.de

Lernen Sie uns kennen und besuchen Sie uns in Halle 7 | Stand A24.

IT Director DU 12.02.2018.indd 1 26.01.2018 11:07:41

Page 3: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

¬ Schreiben Sie uns:  E-Mail: [email protected] | Twitter: @ITDredaktion | Facebook & Google+: IT-DIRECTOR

VORWORT

> Ein wichtiges Ziel der DSGVO ist es, die Daten von EU-Nutzern vor Missbrauch zu schützen. Daran müssen sich weltweit alle Unter-nehmen halten, die personenbezogene Daten erheben und verarbei-ten. Während es unmittelbar nach dem endgültigen Inkrafttreten der Verordnung im Mai 2018 noch recht ruhig hinsichtlich der Ahndung möglicher Datenschutzverletzungen blieb, hagelte es zuletzt erste Stra-fen. So musste das Jugendportal Knuddels.de bereits vergangenen November eine Strafe von 20.000 Euro bezahlen, nachdem Passwör-ter von Nutzern unverschlüsselt gespeichert wurden. Und im Januar sorgte die Nachricht für Aufsehen, dass die französische Datenschutz-behörde CNIL aufgrund eines Verstoßes gegen die DSGVO-Auflagen

Google zu einer Geldstrafe von 50 Mio. Euro ver-donnerte. Der Grund: Unter anderem seien Infor-mationen zur Verwendung der erhobenen Daten und dem Speicherzeitraum für die Nutzer nicht einfach genug zugänglich. Bedenkt man aller-dings, dass die Google-Mutter Alphabet im letzten abgelaufenen Geschäftsjahr 2017 einen Umsatz von 110 Mrd. US-Dollar erzielte, klingen 50 Millionen eher wie ein Klacks. Dies unter-streicht die im Juni 2017 verhängte Wettbewerbs-strafe der EU-Kommission von 2,42 Mrd. Euro,

die Google jeweils in nur einem Quartal verdaut haben soll.

Noch scheinen die DSGVO-Strafen überschaubar zu sein. Künftig könnte sich dies jedoch ändern. Denn laut den Datenschutzbeauftrag-ten der Länder würden derzeit bundesweit zahlreiche Verfahren lau-fen. Dabei soll es sich allein in Bayern um 85 Bußgeldverfahren im Zusammenhang mit der DSGVO handeln. Zudem bleibt abzuwarten, wie die EU-Behörden auf die jüngsten Datenschutzverletzungen von Facebook oder Mariott im Januar 2019 reagieren werden. <

Viel Spaß beim Lesen dieser Ausgabe!

Ina Schlücker

von Ina Schlücker, Redakteurin IT-DIRECTOR

DSGVO: Es hagelt erste Strafen

Seit knapp neun Monaten greift die Datenschutz-Grundverordnung. Nun setzte Frankreich mit einer

Strafe gegen Google ein erstes Ausrufezeichen.

IT-DIRECTOR · AUSGABE 1–2/2019 3

JANUAR–FEBRUAR  < 2019

Exklusiv. ERP für Losgröße 1+

Kostenloses Probetraining:www.ams-erp.com

amsD i e E R P - L ö s u n g

Prozesse verstehen. Transparenz gestalten.

Spezialisten für große Momente

INNOVATIONSPREIS-IT

BEST OF 2018

ERP

INNOVATIONSPREIS-IT

BEST OF 2018

ERP

Software für Versorger und Industrie

PSI-CLICK-DESIGNFLEXIBLE FERTIGUNGERP-SYSTEM

Mehr UsabilityMit der neuen Java-basierten PSIpenta-Version gestalten Unternehmen mit PSI-Click-Design selbst ihre Benutzer-oberfl äche nach eigenen Bedürfnissen. Auch mobil per App.

» www.psi-automotive-industry.de

Lernen Sie uns kennen und besuchen Sie uns in Halle 7 | Stand A24.

IT Director DU 12.02.2018.indd 1 26.01.2018 11:07:41

Page 4: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

INHALT14 32

AKTUELLES > UNTERNEHMEN

6 Supercomputer für

industrielle Produktion

Das Hochleistungsrechenzentrum der Uni Stuttgart und HPE ko­operieren beim Bau und der In­stallation eines Supercomputers.

8 „Europa hat ein

KI-Ressourcenproblem“

Ein Kommentar von Prof. Peter Liggesmeyer, geschäftsführender Institutsleiter des Fraunhofer­ Instituts für Experimentelles Software Engineering

10 DSGVO-konformer Einsatz

von Testdaten

Originaldaten zu Testzwecken zu verwenden, ist ein zumeist riskantes Unterfangen.

12 Internet of Things für alle

Hiber startete mehrere Nano­satelliten zur Re alisierung von IoT­Projekten auf fast 90 Prozent der Erdoberfläche.

Interview mit Jens Prautzsch, Geschäftsführer der Interxion Deutschland GmbH

Die Netzwerke am Rande der Welt: Mit der Verbreitung von Edge Computing geht der Wandel der weltweiten Infrastrukturen einher.

Zu viele leere Phrasen? Hinter dem Schlagwort „Digitalisierung“ verbirgt sich oftmals viel heiße Luft.

TITELTHEMA > RECHENZENTREN

14 Die Netzwerke am Rande

der Welt

Mit der Verbreitung von Edge Computing geht der Wandel der weltweiten Infrastrukturen einher, wenn an immer mehr Endpunkten von Netzwerken leistungsfähige Rechenressourcen aufgebaut werden.

20

28 Im Data Center der Zukunft

In künftigen Rechenzentren werden Dezentralisierung und lernende Algorithmen eine immer wichtigere Rolle spielen.

30 Am Puls des Rechenzentrums

Verschiedene Open­Source­ Monitoring­Tools können RZ­Administratoren dabei helfen, alles Wichtige im Blick zu behalten.

IT-DIRECTOR · AUSGABE 1–2/2019 4

2019 > JANUAR–FEBRUAR

Page 5: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

42 46

40 Intelligente Analysen

im Bankengeschäft

Im Interview zeigt Dr. Steffen Gutjahr von Targens auf, wie sich Banken im Zuge der Digitalisierung erfolgreich positionieren können.

SOFTWARE> ERP-SYSTEME

42 Das Ziel: Prognostizierende

Steuerung

Geschäftsprozessmanagement zeigt auf, wer in einem Unternehmen was, wann, wie und womit erledigt. In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung.

44 Solide Basis fürs ERP

Wer den Umstieg auf SAP S/4 Hana gezielt angehen möchte, kommt um das Thema Daten­archivierung nicht herum.

PRAXIS > IT-PROJEKTE

46 Workflow mit Archivanschluss

Der Garten­ und Forstgeräte­ her steller Stihl Österreich hebt mit einem neuen Archivierungssystem seinen Rechnungsstellungsprozess auf die nächste Digitalisierungs­ebene.

STANDARDS

3 Vorwort: DSGVO: Es hagelt erste Strafen

48 Veranstaltungen: Termine

50 Letzte Seite: Vorschau und Impressum

Das Ziel ist die prognostizierende Steuerung: Process Mining heißt der Nachfolger der bisher bekannten Prozesssteuerung.

Workflow mit Archivanschluss: Stihl Österreich hebt den Rech­nungsstellungsprozess auf die nächste Digitalisierungsebene.

STRATEGIE > DIGITALISIERUNG

32 Zu viele leere Phrasen?

Bei genauerem Hinsehen wird schnell klar, dass sich hinter dem Schlagwort „Digitalisierung“ viele leere Phrasen verbergen.

36 Rechnungsverarbeitung

fit für die Zukunft

IT als Prozesstreiber verstehen – mit dieser Denkart und SAP S/4 Hana als Basis ist man bei der Weig­Gruppe angetreten, den digitalen Wandel zu meistern.

38 Infrastrukturen für

Automatisierung

Viele Unternehmen suchen nach Lösungen für ihre Industrie­4.0­Strategien. Immer öfter steht dabei der Posteingang im Mittelpunkt der Projekte.

IT-DIRECTOR · AUSGABE 1–2/2019 5

JANUAR–FEBRUAR < 2019

Page 6: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

AKTUELLESNeuer CEO für Teradata> Der Vorstand von Teradata

hat Oliver Ratzesberger mit so-

fortiger Wirkung zum neuen

President und Chief Executive

Officer (CEO) ernannt. Er folgt

auf Victor L. Lund, der in die

Position des President und Exe-

cutive Chairman im Board of

Directors wechselt.

Zuvor war Ratzesberger seit

Februar 2018 als Chief Opera-

ting Officer (COO) verantwort-

lich für die globalen Aktivitäten

des Anbieters für Big-Data- und

Analytics-Lösungen und leitete

die Strategie in den Bereichen

Markteinführung, Produkte und

Dienstleistungen. Zusammen

mit Lund plante und setzte er

die Transformation des Unter-

nehmens um. Vor seiner Rolle

als COO war Ratzesberger von

2016 bis 2018 Executive Vice

President und Chief Product

Officer im Unternehmen, wo er

den Bereich Forschung und Ent-

wicklung verantwortete. Vor

seiner Tätigkeit bei Teradata

hatte er Führungspositionen bei

verschiedenen Anbietern in den

Bereichen Software-Entwick-

lung und IT inne. So war er u. a.

für den Ausbau des Analytics-

Bereichs bei Ebay verantwort-

lich. <

Im Internet: www.teradata.de

> Das neue System namens „Hawk“ soll dabei 3,5-mal schnel-ler sein als das aktuelle HLRS-Sys-tem, womit es sich um den welt-weit schnellsten Supercomputer für die industrielle Produktion handle. Dabei soll Hawk die com-putergestützten Ingenieurwissen-schaften und die Forschung in Wissenschaft und Industrie unter-stützen, um Anwendungen in den Bereichen Energie, Klima, Mobili-tät und Gesundheit voranzubrin-gen. Das System basiert auf der nächsten Generation von HPEs High-Performance-Computing-Plattform, die mit einem EPYC-Prozessor von AMD mit dem Codenamen Rome ausgestattet ist. Sie wird eine theoretische Spitzen-leistung von 24 Petaflops aufwei-sen und aus einem Cluster mit 5.000 Knoten bestehen.„Hawk bringt verglichen mit unse-rem aktuellen Supercomputing-System eine deutliche Leistungs-steigerung“, betont Prof. Dr. Micha-el M. Resch, Direktor des HLRS. Profitieren soll davon insbesonde-re die Nutzer-Community aus

Computeringenieuren, da damit die Durchführung von viel kom-plexeren Simulationen möglich ist.Der Bau wird voraussichtlich 38 Mio. Euro kosten. Die Finanzie-rung erfolgt unter der Schirmherr-schaft des Gauss Centre for Super-computing (GCS), dem Zusam-menschluss der drei Bundes-hochleistungsrechenzentren in Deutschland.Anknüpfend an den jüngsten Rollout von Hochleistungsrech-nern der nächsten Generation im Leibniz-Rechenzentrum der Baye-rischen Akademie der Wissen-schaften in Garching (LRZ) und im Jülich Supercomputing Centre (JSC) – den zwei weiteren Mitglie-dern des GCS – gilt das neue HPC-System des HLRS als nächs-ter Schritt in Deutschlands High-techstrategie. Der Einsatz von AMDs EPYC-Prozessoren der nächsten Generation soll dabei konkurrierende Prozessoren in den beiden anderen GCS-Zentren ergänzen. So werde das Ziel des GCS unterstützt, Nutzern eine Auswahl an Computerarchitektu-ren anzubieten. Darüber hinaus verwenden AMDs EPYC-Prozesso-ren ein Speichersubsystem, das sie besonders geeignet macht für Si-mulationen wie beispielsweise in der numerischen Strömungssimu-lation, der Molekulardynamik und anderen Forschungsbereichen. <Im Internet: www.hpe.com/de/de

Supercomputer für industrielle Produktion

Das Hochleistungsrechenzentrum der Universität Stuttgart (HLRS) und Hewlett Packard Enterprise (HPE)

kooperieren beim Bau und bei der Installation eines Supercomputers der nächsten Generation.

Oliver Ratzesberger, Teradata

IT-DIRECTOR · AUSGABE 1–2/20196

AKTUELLES > UNTERNEHMEN

Page 7: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

IT-DIRECTOR · AUSGABE 1–2/2019 7

UNTERNEHMEN < AKTUELLES

Digitalisierung und Cloud gehören zusammen. Geschäftserfolg und gute Beratung auch. Wir zeigen Ihnen, wie die Cloud Ihrem Business weiterhilft. Und das sorgt bestimmt für gute Laune! Spannend?

Besuchen Sie uns unter arva.to/heiterweilwolkig.

Arvato Systems | An der Autobahn 200 | 33333 Gütersloh | [email protected]

Arvato Systems – Empowering Digital Leaders.

Heiter weil wolkig?

Page 8: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

KOMMENTAR

> Die Bundesregierung treibt das Thema „Künstliche Intelligenz (KI)“ seit Kurzem voran. So erklärte Bundeswirtschaftsmi-nister Peter Altmaier im Rahmen des Di-gital-Gipfels im Dezember 2018 sogar stolz, bereits erste Gespräche mit anderen EU-Staaten geführt zu haben. Der Plan: die Gründung eines europäischen Unter-nehmens zur KI-Forschung nach dem Vorbild von Airbus. Bereits in wenigen Monaten könnte es laut Altmaier so weit sein – und es wird auch allerhöchste Zeit.

KI wird unser Leben grundlegend ver-ändern – darüber sind sich Wissenschaft, Politik und Wirtschaft weitgehend einig. Momentan steht man al-lerdings noch am Anfang einer Entwicklung, die in den kommenden Jahren und Jahrzehnten erst richtig Fahrt aufnehmen wird. Aber eins ist sicher: Kaum ein Be-reich wird von den Umwälzungen verschont bleiben, die dank intelligenter Roboter und Computer auf uns zukommen.

Künstliche Intelligenz in der Praxis

IBM testet den Supercomputer Watson aktuell in der Krebsforschung. Das System wurde mit der gesamten medizinischen Fachliteratur zu diesem Thema gefüt-tert: mehr als 2.300 Veröffentlichungen sowie sämtli-che Beipackzettel von Medikamenten – die schier un-endliche Menge an Informationen könnte ein Mensch wohl niemals aufnehmen. Dazu wertet Watson Rönt-gen- und Blutbilder sowie Computertomografien aus.

Doch damit nicht genug: Die KI von Watson verar-beitet darüber hinaus sämtliche personenbezogenen Informationen, die über den Patienten während bishe-

„Europa hat ein KI-Ressourcenproblem“

Google, Facebook und Alibaba investieren seit Jahren Milliarden in Künstliche Intelligenz. Jetzt will Europa nachziehen. Doch haben die europäischen Herausforderer

überhaupt eine Chance? Ein Kommentar von Prof. Peter Liggesmeyer, geschäfts-führender Institutsleiter des Fraunhofer-Instituts für Experimentelles Software

Engineering

riger Untersuchungen erstellt wurden. Der Supercomputer ist daraufhin in der Lage, alle genannten Daten zu analysie-ren und im Kontext der Erkrankung zu betrachten. So kann die Technologie den behandelnden Arzt dabei unterstützen, eine maßgeschneiderte Therapie für den Patienten mit seinem individuellen Krankheitsbild zu suchen und zu finden.

Im Straßenverkehr müssen wir uns mit dem Gedanken anfreunden, dass wir in wenigen Jahren immer häufiger selbstfah-renden Autos begegnen. Zu Beginn sind

es nur vereinzelte Fahrzeuge. Doch nach und nach wird die Dichte zunehmen, bis es für uns völlig normal ist, dass unbemannte Autos, Lkws und Busse mit uns die Straße teilen. 2017 gab es weltweit etwa eine Milli-on Verkehrstote – mithilfe höherer Automatisierungs-grade, umfassender Vernetzung und des Einsatzes der KI lässt sich diese Zahl wahrscheinlich verringern. Ak-tuell gilt es allerdings noch einige Herausforderungen wie die Gewährleistung der Verlässlichkeit der KI zu bewältigen. Gelingt dies, ist das Potential aber gewal-tig. Denn selbstfahrende Autos werden nicht müde, ha-ben kein Glas Wein zu viel getrunken und werden auch nicht von ihren Beifahrern oder dem Smartphone ab-gelenkt.

Damit KI-Systeme „intelligent“ werden, muss bisher vorrangig Fleißarbeit geleistet werden – von einem tat-sächlichen eigenen Bewusstsein oder einem „gesunden Menschenverstand“ sind die Systeme noch meilenweit entfernt. Die Computer werden mit Unmengen an Da-ten gefüttert, bis sie in der Lage sind, beispielsweise ei-nen Hund von einer Katze zu unterscheiden. Nach und nach wird ein dem menschlichen Gehirn nachempfun-

Peter Liggesmeyer, Fraun­hofer­Institut

IT-DIRECTOR · AUSGABE 1–2/20198

AKTUELLES > UNTERNEHMEN

Page 9: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

denes, computerbasiertes neuronales Netz angelernt – bis die Tref-ferquote stimmt.

Und das ist einer der Hauptgründe, warum Google in puncto KI-Forschung aktuell die Nase vorn zu haben scheint: Das Internet-Unternehmen verfügt nun mal über gigantische Datenmengen und über das Personal, um seine Systeme immer weiter zu verbessern. Dazu kommt, dass Technologieunternehmen wie Amazon, Apple, Facebook, Alibaba und eben Google scheinbar unbegrenzte wirt-schaftliche Möglichkeiten besitzen.

Es fehlt der KI-Nachwuchs

Und nun will auch Europa groß in die KI-Forschung einsteigen: Bis 2020 planen Politik und Wirtschaft Investitionen von rund 20

Mrd. Euro, um den Bereich „Künstli-che Intelligenz“ auf dem alten Konti-nent voranzutreiben. Die Bundesregie-rung hat mittlerweile erklärt, bis 2025 insgesamt 3 Mrd. Euro zu investieren, um den Tech-Riesen wie Google oder Facebook die Stirn zu bieten.

Doch Geld ist nicht alles: Benötigt wird auch das Personal, das in dieser noch eher jungen Disziplin das nötige Know-how mitbringt. Insbesondere Deutschland hat aber im IT-Ressort

ein generelles Ressourcenproblem. Unternehmen aller Couleur su-chen momentan händeringend nach Informatikern – von Banken über die Industrie bis hin zum Gesundheitsbereich. An den hiesigen Universitäten sind jedoch aufgrund der teilweise überzogenen An-forderungen in den IT-Kernfächern Abbruchquoten von 50 Prozent pro Jahrgang keine Seltenheit.

Schaffen die Studierenden den Informatikabschluss, stehen sie oftmals vor der nächsten Hürde: Zu häufig passen die meist sehr theoretischen Studiengänge nicht mehr zu den immer wieder neu entstehenden Jobprofilen unserer Zeit. Auch durch Zuwanderung von Spezialisten lässt sich der Mangel an hierzulande ausgebildeten Fachkräften mittlerweile nicht mehr kompensieren.

Im Mittelpunkt sollte deshalb besonders der Nachwuchs stehen – und da kann man aktuell eher schwarzsehen. In der Politik, Wirt-schaft und Forschung muss dringend ein Umdenken stattfinden: Bereits in der Schule müssen die Kinder an digitale Themen heran-geführt werden. Doch dazu sind die Lehrkräfte aktuell gar nicht in der Lage, weil ihnen selbst die Kompetenz in diesem Bereich fehlt. Zudem sollte die Überforderung an den Universitäten einer praxis-nahen Vorbereitung auf reale Problemstellungen weichen – und das im engen Austausch mit der Wirtschaft. Dies ist Grundvorausset-zung dafür, dass Deutschland und Europa in Zukunft zumindest die Chance haben, den Abstand zu den Technologieführern zu verrin-gern. <

IT-DIRECTOR · AUSGABE 1–2/2019 9

UNTERNEHMEN < AKTUELLES

DOKUMENTEEFFIZIENTERMANAGEN

Schnelle Verfügbarkeit, einheitliche Datenformate, automatisierte Erfassung, Weiterleitung und Archi-vierung – das KYOCERA Performance Set spart Ihnen viel Zeit für die wirklich wichtigen Aufgaben im Unternehmen.

KYOCERA Document Solutions Deutschland GmbH Infoline 0800 187 187 7 www.kyoceradocumentsolutions.de

KYOCERA Document Solutions Inc. www.kyoceradocumentsolutions.com

K_089_KYO_effizienter_managen_IT_Mittelstand_73x297.indd 1 18.10.18 09:55

Page 10: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

AKTUELLES

> Wozu werden Testdaten über-haupt benötigt? Unternehmen müssen Standardprodukte testen, bei denen personenbezogene Da-ten verarbeitet werden. Beispiele dafür sind CRM-Anwendungen oder Recruiting-Software. Oder sie nutzen personenbezogene Daten für die Tests selbstentwickelter Software.Um mögliche Risiken im operati-ven Betrieb auszuschließen, müs-sen diese Systeme regelmäßig in-tensiven Tests unterzogen werden. Dabei ist bei der Entwicklung von Anwendungen oder beim Custo-mizing Vorsicht geboten: Werden externe Entwickler eingesetzt, müssen bereits hier Datenschutzre-geln eingehalten werden. Denn die Datenschutz-Grundverordnung (DSGVO) besagt, dass Daten aus-schließlich für den Zweck verwen-det werden dürfen, zu dem sie er-hoben wurden und zu dem der Betroffene auch seine Einwilligung gegeben hat (DSGVO; Art. 6 Ab-satz 4, Buchstabe e). Das gilt natür-lich ebenso für den Testbetrieb – besonders in cloud-basierten An-wendungen. Im Klartext heißt das: Nur korrekt pseudonymisierte oder anonymisierte Daten dürfen zu Testzwecken genutzt werden.Zusätzlich stehen die IT-Verant-wortlichen vor einem anderen Pro-blem: Die Testszenarien müssen

möglichst realitätsnah sein. Unter-nehmen führen deshalb in vielen Fällen Testdatenbanken mit Pseu-do-Einträgen: Eine mühsame Ar-beit, die viel Zeit benötigt und häu-fig nicht den flexiblen Anforderun-gen der Tester entspricht. E-Mail-Adressen müssen etwa noch als E-Mail-Adressen erkennbar sein, damit die Fachanwendung damit arbeiten kann und nicht in einen Fehlerzustand gerät. Bestimmte In-formationen müssen zudem noch mit den Daten verknüpft sein.Was dies bedeuten kann, zeigt ein Beispiel aus der Finanzbranche: Ein Schweizer Finanzdienstleister, der auch Kreditkarten ausstellt, muss seine eigene Software regel-mäßigen Tests unterziehen. Diese Anwendung ist eine komplexe Ei-genentwicklung, die strengsten Re-gulierungen und gesetzlichen Vor-gaben wie dem Payment Card In-dustry Data Security Standard (PCI-DSS) unterliegt. Daher waren die Anforderungen klar: Es musste

gewährleistet werden, dass die Testdaten aus 16-stelligen Kredit-kartennummern bestehen, die mit entsprechenden Prüfziffern, Codie-rungen und Steuerinformationen verknüpft sind. Aus den Original-daten sollten anonyme Testdaten werden, ohne dass Rückschlüsse auf die echten Daten gezogen wer-den können. Eine Herausforderung bestand allerdings darin, dass die Lösung mit dem System des Unter-nehmens kompatibel sein muss und sowohl Webanwendungen und Dateien als auch Datenbanken wie DB2 und Oracle unterstützt.Durch Pseudonymisierungslösun-gen wie z.B. von Eperi können alle rechtlichen Vorgaben eingehalten werden. Eine Tokenisierung ge-währleistet, dass keine Rückschlüs-se auf die Originaldaten gezogen werden können, aber gleichzeitig unter realen Bedingungen getestet werden kann. Zusätzlich können Firmen die Testdaten ganz nach ihren Anforderungen konfigurie-ren, einzelne Parameter können so jederzeit angepasst werden. Nutzt man Pseudonymisierungslösungen, die als transparenter Proxy vor die Testsysteme geschaltet werden, so minimiert sich der Integrationsauf-wand und man kann in Echtzeit Testdaten erzeugen, die über alle Systeme konsistent sind. <

ELMAR EPERIESI-BECK

DSGVO-konformer Einsatz von Testdaten

„Es wird schon nichts passieren“, denken und hoffen viele IT-Verantwortliche, wenn es darum geht, Originaldaten zu Testzwecken zu verwenden. Ein zumeist riskantes

Unterfangen, denn häufig handelt es sich dabei um personenbezogene Daten.

IT-DIRECTOR · AUSGABE 1–2/201910

AKTUELLES > UNTERNEHMEN

Page 11: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

IT-DIRECTOR · AUSGABE 1–2/2019 11

UNTERNEHMEN < AKTUELLES

Erfahren Sie mehr unter:www.caniaserp.de

VERNETZT DENKEN, DIGITAL HANDELN. ZUSAMMEN MEISTERN WIR DIE DIGITALE ZUKUNFT!#READYFORTHEFUTURE?

INNOVATIONSPREIS-IT

BEST OF 2018

ERP

Bild: Doka Group Amstetten

Page 12: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

AKTUELLESSicherheitsverletzungen an IoT-Geräten> Der Sicherheitsanbieter Ge-

malto zeigte jüngst in einer Stu-

die auf, dass nur rund die Hälfte

(48 Prozent) aller Unternehmen

in der Lage ist, eine Sicher-

heitsverletzung bei einem ihrer

Internet-of-Things-Geräte (IoT)

zu erkennen. Der Anbieter be-

fragte 950 Führungskräfte und

IT-Entscheidungsträger welt-

weit. Deutlich wurde ein klarer

Appell an die Regierungen zur

Intervention beim Thema Richt-

linien für die IoT-Sicherheit –

dies fordern 79 Prozent der

Teilnehmer. Zudem verlangen

59 Prozent eine Klarstellung

darüber, wer für den Schutz des

IoT verantwortlich ist. Trotz der

Tatsache, dass viele Regierun-

gen bereits Vorschriften erlas-

sen oder angekündigt haben,

die speziell für die IoT-Sicher-

heit gelten, sind die meisten

Firmen (95 Prozent) der Auffas-

sung, dass es einheitliche Vor-

schriften geben sollte.

Die Firmen fordern staatliche

Maßnahmen, da sie sich bei der

Sicherung von IoT-Geräten mit

großen Problemen konfrontiert

sehen. Dies gilt insbesondere

für den Datenschutz (38 Pro-

zent) und die Erfassung großer

Datenmengen (34 Prozent). Nur

drei von fünf (59 Prozent) Fir-

men geben an, dass sie alle Da-

ten verschlüsseln, die durch IoT

erfasst und zur Analyse genutzt

werden – trotz vorhandener IoT-

Sicherheitsbudgets. <

Im Internet: www.gemalto.de

> Vor Kurzem gingen die ersten Hiberband-Nanosatelliten in Be-trieb. Der erste Start erfolgte vom Satish Dhawan Space Centre in Sriharikota in Indien aus, der zweite folgte einige Tage später in Kalifornien. Das Start-up wird von der niederländischen Regierung unterstützt und hat die nach eige-nen Angaben erste „echte“ globale, satellitenbasierte Lösung für IoT-Konnektivität in den Teilen der Welt, denen derzeit ein Netzwerk fehlt, entwickelt.Aktuell werden weniger als zehn Prozent der Welt mit einer IoT-fä-higen Netzabdeckung versorgt, wobei die bestehenden Verbindun-gen (wie Wifi und Low Power Wide Area Network, LPWAN) meist in städtischen Gebieten und wohlhabenden Länder verfügbar sind. Daneben sind traditionelle Satelliten, die eine breitere Abde-ckung bieten würden, recht teuer und stromfressend. Aus diesen Gründen sind viele IoT-Anwen-dungen und -Dienste derzeit nicht wirtschaftlich – etwa die Überwa-chung der Bodenfeuchte zur Ver-

besserung der Produktionseffizi-enz und Pflanzenqualität in den Ländern der Dritten Welt, die am stärksten von der Landwirtschaft abhängig sind. Hiber möchte dies nun mit seinen Satelliten ändern.Sobald die Nanosatelliten voll ein-satzbereit sind, werden sie 16-mal täglich über die Pole der Erde und zweimal täglich über den Äquator fliegen und den Planeten mit einer zuverlässigen IoT-fähigen Konnek-tivität versorgen, heißt es in einer Pressemitteilung. Dabei sollen die Satelliten bis zu 20-mal billiger sein als bestehende Lösungen. Die Verbindung funktioniert, indem die Daten der Modems und Anten-nen der Nutzer direkt an den Mik-rosatelliten gesendet werden. Die Datenpakete werden dann über die beiden bestehenden Satellitenstati-onen im norwegischen Spitzbergen und im niederländischen Delft zur Erde zurückgeschickt.Das Netzwerk soll ab dem ersten Quartal 2019 kommerziell betrie-ben werden und mit mehr als 25 Kunden starten. <Im Internet: hiber.global

Internet of Things für alleDas niederländische Start-up Hiber startete mehrere

Nanosatelliten, mit denen die Realisierung von Internet-of-Things-Projekten (IoT) auf fast 90 Prozent der Erde

möglich sein soll.

Die Hiber-Satellitenstation im norwegischen Spitzbergen soll für weltweite IoT­Konnek­tivität sorgen.

IT-DIRECTOR · AUSGABE 1–2/201912

AKTUELLES > UNTERNEHMEN

Page 13: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

IT-DIRECTOR · AUSGABE 1–2/2019 13

UNTERNEHMEN < AKTUELLES

IT-DIRECTOR · AUSGABE 1-2/2019 13

DELL < ADVERTORIAL

> Das Dell EMC OpenManage-Portfolio enthält leistungsstarke Produkte, die IT-Administratoren bei der effizienten Bereitstellung, Aktualisierung, Überwachung und Verwaltung von IT-Ressourcen unterstützen. Mit den Tools des Managementportfolios sind IT-Administratoren in der La-ge, schnell auf Herausforderungen zu reagieren. Die In-Band sowie Out-of-Band und damit agentenfrei arbeitenden Werkzeuge unterstüt-zen die IT-Administratoren dabei, Dell EMC Server mit Intel® Xeon Prozessoren in physischen, virtuel-len, lokalen und entfernten Umge-bungen komfortabel und problemlos zu verwalten. Eine zentrale Kom-ponente des OpenManage-Portfo-lios ist der Dell Remote Access Con-troller (iDRAC) inklusive Lifecycle Controller.

die OpenManage Integration für VMware vCenter stellt eine einheit-liche Hardwareansicht auf Cluster-Ebene direkt in vCenter bereit und ermöglicht sowohl eine einfache Skalierung als auch einen hocheffi-zienten Ablauf bei der Installation von Updates auf mehrere Dell Hosts in einem einzigen Workflow.

Zudem können IT-Administrato-ren durch Einsatz der Dell EMC OpenManage Ansible Modules auch Red Hat Ansible für die Automati-sierung und Orchestrierung der Pro-visionierung, Konfiguration, Bereit-stellung und Aktualisierung von Servern einsetzen. Zur Verwaltungs-automatisierung stehen ihnen die Out-of-Band-Funktionen des integ-rierten, agentenlosen iDRAC zur Verfügung, wie sie jeder PowerEdge Server enthält. <

Dell EMC OpenManage Enterpri-se 3.0 ist die aktuelle Generation der kostenfreien Konsole. Sie wurde entwickelt, um zentrale Aufgaben des IT-Infrastrukturmanagements zu vereinheitlichen, intelligent zu automatisieren und damit zu verein-fachen. Dell EMC OpenManage Enterprise ist eine Virtuelle Maschi-ne mit einer unkompliziert zu bedie-nenden Konsole, die nur minimalen Schulungsaufwand erfordert. Sie ermöglicht ein umfassendes, einheit-liches Lifecycle-Management für alle Dell EMC PowerEdge-Modelle, egal ob Rack, Tower oder Modular bzw. Blade.

Darüber hinaus bietet OpenMa-nage Enterprise auch Funktionen zur End-to-End-Infrastrukturüber-wachung für Storage- und Netzwerk-geräte von Dell EMC sowie der Hard-ware von Drittanbietern. Dell EMC OpenManage Enterprise kann bis zu 8.000 Nodes überwachen und enthält eine leistungsfähige REST API. Durch die Integration von OpenManage Mobile in OpenMa-nage Enterprise erhalten IT-Experten von ihrem Handheld-Gerät aus mo-bilen Zugriff auf den Systemzustand und die Verfügbarkeit der Systeme von Dell EMC sowie auf Drittanbie-ter-Hardware.

Durch die Dell OpenManage In-tegration für VMware vCenter und die Integration für Microsoft System Center können IT-Administratoren ihre physischen und virtuellen Inf-rastrukturen umfassend und kom-fortabel verwalten. Das Plug-in für

Einfach ist besserDie System-Management-Lösung „OpenManage“ von Dell EMC

stellt eine umfassende Ansicht von Servern, Chassis, Speichersystemen und Netzwerk-Switches im Unternehmensnetzwerk bereit. Sie ermöglicht eine einfache

und umfassende Verwaltung und Steuerung.

Der iDRAC ist in jeden Dell EMC PowerEdge Server integriert und unterstützt mit seinen Funktionen die IT-Administratoren bei der Bereitstellung, Aktualisierung, Über-wachung und Wartung von Dell-Servern. Es muss keine weitere Software installiert werden. (Quelle: Dell EMC)

Page 14: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

IT-DIRECTOR · AUSGABE 1–2/201914

TITELTHEMA > RECHENZENTREN

Page 15: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Mit der Verbreitung von Edge Computing geht der Wandel der weltweiten Infrastrukturen einher, wenn an immer

mehr Endpunkten von Netzwerken leistungsfähige Rechenressourcen aufgebaut werden.

> Sprach man bislang über dezentrale Infrastrukturen, ging es meist darum, die IT von weltweit verteilten Standorten, Filialen und Produktionsstätten an das zentrale Rechenzentrum des jeweiligen Un­ternehmens anzubinden. Doch damit ist es heute nicht mehr getan. Denn im Zuge der Verbreitung des Internets der Dinge müssen immer mehr Endpunkte integriert werden. Um die Netze nicht über Gebühr mit unkriti­schem Datenverkehr zu belasten, soll sich am Netzwerk­rand künftig das sogenannte Edge Computing etablie­ren. Dahinter verbirgt sich der Ansatz, die im Internet of Things (IoT) anfallenden Daten quasi in „Mini­ Rechenzentren“ dezentral zu verarbeiten. Doch wie se­hen die Orte des Geschehens aus? Wie lassen sich die

amder Welt

Die Netzwerke

¬

von Ina Schlücker, Redakteurin IT-DIRECTOR

Rande

IT-DIRECTOR · AUSGABE 1–2/2019 15

RECHENZENTREN < TITELTHEMA

Page 16: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

hohen Datenmengen schnell und sicher verarbeiten? Und worauf sollte man beim Aufbau des benötigten Rechen­ oder Speicherbedarfs besonders achten? An der Frage, inwieweit sich Edge Computing hierzulande

¬ bereits als Bestandteil von Infrastrukturen etabliert hat, scheiden sich derzeit die Geister. Es gibt Stimmen, die noch viel Potential für Edge­Installationen sehen, andere hingegen führen bereits erfolgreiche Beispiele

Den Netzwerkrand nicht stiefmütterlich behandeln

Interview mit Karin Hernik von Schneider Electric über den 5G-Ausbau und eine notwendige Ausfallsicherheit beim Edge Computing

IT-DIRECTOR: Frau Hernik, inwieweit stößt man hierzulande bereits auf erfolgrei-che Edge-Computing-Installationen?K. Hernik: Im Bereich Streaming kommen bereits seit vielen Jahren Edge­Infra­strukturen zum Einsatz. Video­ oder Audiodaten sollen dabei möglichst na­he an den Nutzer gebracht und La­tenzzeiten vermieden werden. Auch im Rahmen des 5G­Ausbaus entstehen viele regionale Edge­Rechenzentren in Deutsch­land. Diese sind jedoch mit lokalen Kleinrechen­zentren herkömmlicher Edge­Infrastrukturen kaum vergleichbar, da sie oft für Kapazitäten von bis zu 1 MW ausgelegt sind.IT-DIRECTOR: Für welche Einsatzgebiete eignen sich „Edge Datacenter“?K. Hernik: Ihr Einsatz ist immer dann sinnvoll, wenn große Datenmengen verarbeitet und analysiert wer­den müssen. Zudem können Bandbreitenbeschrän­kungen und Latenzzeiten gegen eine zentralisierte Datenverarbeitung sprechen. Ein Beispiel hierfür sind Industrie­4.0­Anwendungen. In der Produkti­on können Edge­Rechenzentren die Verlaufsdaten tausender Sensoren in Echtzeit analysieren und auswerten. Die Ergebnisse lassen sich anschließend in einer zentralen Cloud weiterverarbeiten und können von dort aus auch in eine standortübergrei­fende Produktionsplanung einfließen.IT-DIRECTOR: Welche Daten werden dabei vorrangig al-lein am Netzwerkrand verarbeitet und welche an „klassische“ Rechenzentren weitergeleitet?

K. Hernik: Ein Beispiel für eine verteilte Edge­Anwendung stellt die industriel­le Bildverarbeitung dar. Sie wird häu­fig zur Prozesskontrolle eingesetzt und erzeugt hohe Datenmengen. Eine Übertragung der Bild­ oder Videoda­ten an ein entferntes Rechenzentrum würde innerhalb kürzester Zeit zu ei­ner Überlastung der Netzwerkressour­cen führen und könnte so auch die

Zuverlässigkeit der Produktion beeinträchtigen. Überträgt man diese Anwendung in ein Edge­Mo­dell, werden die Bilddaten zunächst in einem leis­tungsfähigen Kleinst­RZ unmittelbar an der Ferti­gungslinie ausgewertet. Weitergeleitet werden dann nur noch die für den jeweiligen Prozess relevanten Metadaten, wie etwa Produktionsmenge, Fehler­quoten oder Normabweichungen.IT-DIRECTOR: Ein funktionierender Netzwerkrand kann geschäftskritisch sein. Wie können Ausfallsicherheit und Energieversorgung gewährleistet werden?K. Hernik: In puncto Redundanz lag der Fokus vieler Betreiber bisher eher auf den jeweiligen Hauptre­chenzentren. Dezentrale Installationen wurden eher stiefmütterlich behandelt. Mit dem Aufkom­men nativer Edge­Anwendungen ändert sich dies, da sich geschäftskritische Aufgaben zunehmend an den Netzwerkrand verlagern. USV­Absicherung, wartungsarme Kühllösungen und hohe physikali­sche Sicherheit sind daher unabdingbar, um die be­nötigten Service Level zu garantieren. <

INA SCHLÜCKER

IT-DIRECTOR · AUSGABE 1–2/201916

TITELTHEMA > RECHENZENTREN

Page 17: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

¬

ins Feld. „Wir stehen am Anfang der größten industriellen Revo­lution der Menschheit. Edge Computing als überall verfügbarer sicherer, leistungsstarker Datenspeicher und ultraschnelle Verar­beitung steckt hierzulande noch in den Kinderschuhen“, beleuch­tet Dr. Jens Struckmeier, CTO von Cloud & Heat Technologies, die eine Seite. Um künftig alle Vorteile der Technologie ausspie­len zu können, sei zunächst der Ausbau einer geeigneten Infra­struktur (Glasfaser und/oder die nächste Mobilfunkgeneration 5G) notwendig. „Erst dann wird es für jedermann möglich sein, Anwendungen wie Augmented Reality, Echtzeitbilderkennung oder Künstliche Intelligenz flächendeckend zu entwickeln bzw. anzubieten“, so Struckmeier weiter. Demgegenüber verweist Klaas Mertens, Global Solutions Architect bei Equinix, auf kon­

krete Einsatzszenarien. Seiner An­sicht nach sind Edge Datacenter unabdingbar für alle Anwendungs­fälle, in denen große Datenmengen flächendeckend verteilt werden müssen. Als Beispiel führt er Strea­ming­Dienste wie Netflix oder Amazon Video an, die Filme und Serien möglichst nah an den Nut­zern speichern, um schnelle Über­tragungen zu ermöglichen. Auch Smart­Home­Anwendungen wie Google Assistant oder Amazons Alexa sprechen für die heutige Ver­

breitung von Edge­Computing­Installationen in vielen Ländern.Auch Andreas Keiger, Executive Vice President Global Busi­

ness Unit IT bei Rittal, geht davon aus, dass ein dezentraler Aus­bau der IT­Infrastruktur über Edge­Rechenzentren für viele Un­ternehmen schon Realität geworden ist. Fabriken etwa müssten mit vernetzten und automatisierten Fertigungsstraßen die anfal­lenden Datenströme in Echtzeit verarbeiten. In diesem Zusam­menhang verweist Keiger auf den Rittal­Kunden Thyssenkrupp Steel: „Das Unternehmen installiert an seinen Produktionsstand­orten neue Edge­Rechenzentren mit Cloud­Anbindung, um da­mit die Digitalisierung von produktionsnahen Prozessen voran­zutreiben.“ Nicht zuletzt skizziert Jens Struckmeier ein weiteres Beispiel: Schon länger bekannt seien kleine performante Rechen­zentren für das High­Speed­Trading von Banken. „Diese müssen in unmittelbarer Nähe zu den Börsen stehen, um im kleinen ein­stelligen Millisekundenbereich über kaufen und verkaufen zu entscheiden“, berichtet Struckmeier.

Der eingangs erwähnte Ausbau geeigneter Infrastrukturen könnte zudem bald dafür sorgen, dass sich weitere Edge­Anwen­dungen durchsetzen. Dann wird die Technologie im Smart Home und beim Autonomen Fahren eine Rolle spielen, ist sich Thomas Sting, Geschäftsführer bei der DC­Datacenter­Group, sicher. Denn immer dort, wo Caching und das (Vor­)Verarbeiten

Klaas Mertens, Global Solutions Architect bei Equinix

IT-DIRECTOR · AUSGABE 1–2/2019 17

RECHENZENTREN < TITELTHEMA

IFS APPLICATIONSTM 10YOUR CONNECTION TO WHAT´S NEXT.

Um die digitale Transformation zu meistern, bedarf es einer

zukunftsfähigen Business Software.

Unsere ERP Software IFS ApplicationsTM, von Analysten und Kunden ausgezeichnet,

ist dafür genau die Richtige!

Ob Digitalisierung, IoT oder Servitization –mit IFS Applications 10 sind Sie

bereit für die Zukunft.

Page 18: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

von Daten Geschwindigkeits­vorteile bringen und Latenzzei­ten verringeren, spielt die Tech­nologie ihre Stärken aus.

Generell kommt Edge Com­puting an allen Standorten zum Zuge, an denen große Daten­mengen vor Ort erfasst, gebün­delt und anschließend weiterge­leitet werden müssen. „Hierun­ter fällt beispielsweise hochspe­zialisierter Maschinenbau“, betont Oliver Fronk, Vertriebs­leiter bei der Prior1 GmbH. Da­rüber hinaus würde in Zukunft sicherlich auch die automatisier­te Landwirtschaft entsprechen­de Ressourcen benötigen, er­gänzt Fronk.

Geht es um die Konzeption und Implementierung neuer Ressourcen am Netzwerkrand, bieten sich verschiede­ne Vorgehensweisen an. „Bei unseren Kunden spielt zunächst die physikalische Sicherheit eine wichtige Rolle. Denn oft stehen die Edge­Systeme in Lagerhal­len oder sind in Stahlcontainern auf Freiflächen aufge­baut“, berichtet Andreas Keiger. Um Sabotage oder Da­tenmanipulationen zu vermeiden, seien entsprechend gesicherte IT­Racks und Einhausungen notwendig. Die derart gesicherten Rechenzentren sollte man schließ­lich über redundante Kabel­ und Funkverbindungen mit dem Internet verbinden, sodass eine ausfallsichere Cloud­Anbindung realisiert werden kann.

Laut Marcel Kempe, Head of Governance and Stan­dards bei Noris Network, sollte ein Netzwerk von Tau­senden von Edge­Rechenzentren idealerweise ohne aktive Kühlung auskommen. Stattdessen brauche es für solche kleinen Einheiten robustere, temperaturunemp­findlichere Compute­ und Storage­Einheiten als die, die heute in klassischen Rechenzentren noch aktive Kühlsysteme erforderlich machen. Dies bestätigt Kem­pe: „Aktiv gekühlte Edge­Rechenzentren wären extrem unwirtschaftlich, schon weil die Kühlanlagen störungs­anfällig und wartungsintensiv sind.“ Und Jens Struck­meier fügt hinzu, dass „am Netzwerkrand Platz, Daten­dichte und Kühlung eine entscheidende Rolle spielen. Hier wird es einen Paradigmenwechsel weg von den veralteten luftgekühlten Servern geben.“ Eine moderne

¬ Flüssigkeitskühlung ermögliche es hier, die Wärme um den Fak­tor 4.000 besser von der Hard­ware weg zu transportieren. Da­mit könne nicht nur eine zehn­ bis 100­mal höhere Leistungs­dichte erreicht werden, sondern gleichzeitig würden auch laute, stromfressende Ventilatoren entfallen. „Ein leiser Rückküh­ler auf dem Dach ersetzt dann die klassische und energiefres­sende Klimatechnik“, rät der RZ­Spezialist.

Neben der energieeffizienten Kühlung sollte die Ausfallsi­cherheit von Edge­Installatio­nen im Vordergrund stehen. „Meist werden Edge­Rechen­zentren genauso abgesichert wie große zentrale RZ­Standorte –

nämlich mittels redundant aufgebauter Stromversor­gung und Notstromdieseln“, sagt Klaas Mertens. Soll­ten hingegen deutlich kleinere Edge­Installationen ausfallen, wird der Ausfall hingenommen und die Leis­

Wo trifft man auf Edge Computing?An Stellen, an denen viele Daten über Senso-ren generiert und in Echtzeit verarbeitet wer-den müssen, oder an denen eine Automatisie-rung das Leben einfacher und sicherer ma-chen soll – beispielsweise im Smart Home, bei Augmented Reality oder Robotik – findet man heute schon Edge-Anwendungen. Zudem setzt auch der Einzelhandel mit mehreren Nieder-lassungen und lokal erforderlicher Datenver-arbeitung in Echtzeit im Rahmen von Kassen- oder Bezahlsystemen hierzulande vielfach auf Edge Computing. Im Vergleich zu großen Re-chenzentren sind Edge-Computing-Installatio-nen klein, unauffällig und können prinzipiell in jeder Niederlassung eines Unternehmens oder an jeder Straßenecke stehen.

Quelle: Reinhard Purzer, Managing Director bei Vertiv

Thomas Sting, Geschäftsführer bei der DC-Datacenter-Group

IT-DIRECTOR · AUSGABE 1–2/201918

TITELTHEMA > RECHENZENTREN

Page 19: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

tung durch benachbarte Edge­Lokationen nahtlos übernom­men. „Moderne Infrastruktur­techniken wie Containerized Applications und die Distributi­on und Replikation von Daten aus einer zentralen Lokation sorgen hier für permanente Ver­fügbarkeit“, so Mertens weiter. Dazu ergänzt Andreas Schür­kamp, Bereichsleiter Consulting bei der DC­Datacenter­Group: „Der Trick ist, dass es beim Vor­lagern von Rechenleistung zwar eben keine hohen Anforderun­gen mehr gibt. Dennoch sind hohe Bandbreiten, eine hohe Ausfallsicherheit und geringe Latenzzeiten von Vorteil.“ Wenn Edge Computing so auf­gebaut sei, dass benachbarte Knoten einen Ausgefallenen „ersetzen“ können und Netzwerkkonnektivität als Mesh funktioniert, dann ist das Ziel erreicht.

Hinsichtlich der Stromversorgung hat Jens Struck­meier mehrere Alternativen in petto: „Spezielle Kombi­nationen von lokalen Rechenzentren mit Stromerzeu­gern ermöglichen neue dezentrale Ansätze. Wir kombi­nieren unsere Server etwa mit Solaranlagen. Ein Stromspeicher kann nicht nur nachts den Strom erzeu­gen, sondern pfiffig konfiguriert auch gleich als Unter­brechungsfreie Stromversorgung (USV) dienen.“ Auch die Kombination mit einem Gas­Blockheizkraftwerk (BHKW) mache nicht nur ökologisch, sondern vielfach auch ökonomisch Sinn. Das „normale“ Rechenzentrum wird laut Struckmeier dabei quasi zu einem gasbetrie­benen Rechenzentrum. „Dabei ist die Netzstabilität von Gas um ein Vielfaches höher als die des Stromnet­zes. Den Stromanschluss hätte man dann noch als Re­dundanz“, so Struckmeier weiter.

Doch welche Daten sollten überhaupt am Netzwerk­rand verbleiben und welche an zentrale Rechenzentren weitergeleitet werden? Laut Oliver Fronk werden Pro­zess­ und Steuerdaten sicherlich nicht Hunderte von Kilometern über das Netz transportiert, bei Konstruk­tions­ oder Entwicklungsdaten hingegen sehe die Sa­che anders aus. Sie wandern in zentrale Rechenzen­tren, um dort langfristig gespeichert zu werden. Ähnli­ches berichtet Andreas Keiger. Seiner Ansicht nach werden am Netzwerkrand vor allem Echtzeitdaten ver­

arbeitet, auf die Maschinen oder Systeme unmittelbar reagieren sollten. Dies können Sensorda­ten von einer Maschinensteue­rung innerhalb von IoT­Umge­bungen sein, Nutzungsdaten der Fahrzeuge eines Fuhrparks oder die Auslastung von Mobilfunk­netzen. Die weitergehende Ana­lyse dieser Daten erfolge dann in zentralen Rechenzentren oder Cloud­Systemen, beispielsweise für Machine­Learning­ und Pre­dictive­Maintenance­Lösungen.

An diesem Punkt ergänzt Reinhard Purzer, Vice President und Managing Director DACH bei Vertiv, dass große Daten­mengen, die in Echtzeit verar­beitet werden müssen und ex­trem niedrige Latenzzeiten er­lauben, oftmals schlichtweg zu

groß und auch zu teuer für den schnellen Transport über große Distanzen in eine Cloud und zurück sind. Das würde auch Verbindungen mit extrem hoher Band­breite erfordern, die meist einfach nicht zur Verfügung stehen oder sehr kostenaufwendig sind. Solche Daten würden immer häufiger direkt am Netzwerkrand ver­arbeitet. Weitere Beispielanwendungen sind neben den genannten Applikationen HD­Inhalte, medizinische Geräte oder auch der Aktienhandel. Für Autonomes Fahren wird Edge Computing sogar zur Voraussetzung. Denn laut Reinhard Purzer werden ohne 5G und ohne Rechenkapazitäten am Netzwerkrand die Autos nicht selbst fahren.

Nicht zuletzt sollte die Übertragung der Daten vom Netzwerkrand in zentrale Rechenzentren entsprechend abgesichert sein. Dabei sind sämtliche Faktoren, die in Netzwerken generell eine Schlüsselrolle spielen, wich­tig, darunter Verfügbarkeit, Kapazität oder Sicherheit. „Wer mit Diensten Geld verdienen will, muss die Ser­vicequalität sichern. In kritischen Anwendungen schließt dies beispielsweise eine priorisierte Weiterlei­tung der benötigten Daten über die gesamte Kette vom Endgerät über die Edge Cloud bis hin zur klassischen Cloud mit ein“, erklärt Marcel Kempe. Und Andreas Schürkamp unterstreicht abschließend, dass man das Thema Sicherheit heutzutage generell nie außer Acht lassen sollte, denn auch Edge­Rechenzentren könnten als Einfallstore für Cyberattacken dienen. <

Welche Daten lassen sich am Netzwerkrand verarbeiten?Große Datenmengen, die zunächst aggregiert, sicher verschlüsselt und vorverarbeitet wer-den müssen, werden in der Edge verarbeitet. Hierzu zählen insbesondere alle latenz- und zeitkritischen Anwendungen, z. B. Maschinen-daten in der Industrie, Sensordaten in Gebäu-dekomplexen und Videoaufzeichnungen in Stadien und Städten nebst Gesichtserken-nung. Einen weiteren Trend gibt es im Zusam-menhang mit Datenschutz, Sicherheit und Vertrauen. Diesbezüglich wollen Kunden die Daten lieber in ihrer (sicheren) Nähe haben, als nicht nachvollziehbar irgendwo in der Welt in einem Cloud-Rechenzentrum.

Quelle: Dr. Jens Struckmeier, CTO bei Cloud & Heat Technologies

IT-DIRECTOR · AUSGABE 1–2/2019 19

RECHENZENTREN < TITELTHEMA

Page 20: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Fotokonzept, Layout und Produktion: MEDIENHAUS Verlag GmbH

20

IT-DIRECTOR · AUSGABE 1–2/2019

TITELINTERVIEW MIT > JENS PRAUTZSCH

Page 21: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

21

Im Interview skizziert Jens Prautzsch, Geschäftsführer der Interxion Deutschland GmbH, aktuelle Anforderungen an Colocation-Anbieter, den

Trend zum hybriden Cloud-Betrieb und die Auswirkungen der zunehmenden Digitalisierung auf Rechenzentrumsbetreiber.

Text: Ina Schlücker Fotos: Jörg Ladwig

IT-DIRECTOR: Herr Prautzsch, Interxion bietet einen „Deutschen Cloud Hub“ an. Was verbirgt sich dahinter?J. Prautzsch: Mit diesem Ansatz bieten wir den carrier- und cloud-provi-der-neutralen Zugang zu Rechen-zentrumsressourcen. Grundsätz-lich bieten wir weder eigene Cloud- noch Software-Services an. Vielmehr ermöglichen wir den Kunden neben dem IT-Betrieb in Eigenregie in unseren Rechenzen-tren auch einen unkomplizierten Zugang zu den Lösungen der gro-ßen Public-Cloud-Provider.IT-DIRECTOR: Worauf kommt es dabei besonders an?J. Prautzsch: Wichtig ist, dass wir in unserer Cloud-Connect-Plattform sämtliche marktführenden Cloud-Anbieter wie Amazon Web Servi-ces, Azure, Google Cloud, IBM

und Oracle integriert haben und zudem die direkte Verbindung zu rund 700 nationalen und internati-onalen Carriern und ISPs vor Ort anbieten können.IT-DIRECTOR: Wie ist die Nachfrage nach solchen Cloud-Services?J. Prautzsch: Zunächst einmal mieten immer mehr Public-Cloud-Provi-der Flächen und Kapazitäten bei uns an, um ihre Ressourcen spezi-ell aus deutschen Rechenzentren heraus bereitzustellen. Auf lange Sicht werden immer mehr Cloud-Provider auf diesen Zug aufsprin-gen und sich der Bereitstellung von Cloud-Services aus Colocation- Rechenzentren anschließen.IT-DIRECTOR: Wie sieht es auf Anwen-derseite aus?J. Prautzsch: Das ist unterschiedlich. Es gibt Kunden, die sich für eine

VIEL PLATZFÜR ALLEIT-BETRIEBS-

MODELLE

¬

Jens PrautzschAlter: 50 Jahre

Werdegang: CEO bei der M-Net in München; zuvor verschie-dene Führungspositionen bei Telefónica o2

Derzeitige Position: seit Januar 2017 Geschäftsführer bei Interxion Deutschland

Hobbys: Skifahren, Segeln, Golf

IT-DIRECTOR · AUSGABE 1–2/2019

< TITELINTERVIEW

Page 22: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

22„Unser Cloud-Hub bietet den Kunden sowohl Zugang zu sämtlichen marktführenden Cloud-Anbietern als auch zu rund 700 Carriern und Internet-Service-Providern.“

Cloud-Nutzung auf breiter Front entschieden haben. Andere hinge-gen stehen noch am Anfang. Über-dies nutzen viele Anwender hybri-de Modelle, wobei sie kritische Applikationen bewusst nicht in Cloud-Umgebungen betreiben.Insgesamt bemerken wir verstärkt, dass immer mehr IT-Entschei-dungsträger willens sind, den Schritt in die Cloud zu wagen. So generieren wir bei bis zu 80 Pro-zent der Neukunden mittlerweile ein reines Cloud-Geschäft; die restlichen setzen auf On Premise.IT-DIRECTOR: Um welche Unternehmen handelt es sich dabei?J. Prautzsch: Es hängt weniger von der Firmengröße als vom Geschäfts-modell ab. Mittelständler und Großunternehmen, die hinsichtlich Digitalisierung schon sehr weit sind, bevorzugen Cloud-Modelle.IT-DIRECTOR: Welche Branchen besitzen hohe Digitalisierungsgrade?J. Prautzsch: Firmen, die ausschließlich auf digitale Plattformen setzen, wie etwa im E-Commerce, haben die Nase vorn. Zudem arbeiten die meisten Start-ups rein digital. Auch Medienunternehmen oder Finanzinstitute holen auf. Im Ge-sundheitswesen oder in der klassi-schen Produktion hingegen hinkt man eher noch etwas hinterher.IT-DIRECTOR: Was bedeutet dies genau?J. Prautzsch: In die Cloud gehen vor al-lem Unternehmen mit einem ho-hen Anteil digitaler Prozesse. Al-lerdings müssen sich vorhandene Applikationen auch in der Cloud betreiben lassen, was nicht immer der Fall ist. Generell tun sich viele

Kunden leichter, Office-Anwen-dungen aus der Cloud zu beziehen, während sie geschäftskritische Kernsysteme eher lokal vorhalten.Grundsätzlich besitzen sämtliche IT-Betriebsmodelle ihre Berechti-gung. Je nach Kritikalität wandern Systeme in die Cloud oder nicht, etwa wenn bestimmte Vorgaben hinsichtlich Datenschutz oder Speicherort existieren. Dement-sprechend gestalten wir unser An-gebot flexibel, sodass die Kunden in den Colocation-Rechenzentren sowohl Private- und Public-Cloud-Ressourcen als auch On-Premise-Installationen nutzen können.IT-DIRECTOR: Auf Ihrem Campus in Frankfurt planen Sie den Bau Ihres fünfzehnten Rechenzentrums. Was macht den Standort so attraktiv?J. Prautzsch: Frankfurt befindet sich geografisch sowohl in der Mitte Europas als auch Deutschlands, weshalb der Standort für viele in-ternationale Kunden interessant ist. Zudem verfügen wir vor Ort über hochwertige Glasfasertrassen, die insbesondere Finanzinstituten, die auf extrem kurze Latenzzeiten bei der Datenübertragung ange-wiesen sind, in die Karten spielen.IT-DIRECTOR: Wie werden die kurzen Latenzzeiten ermöglicht?J. Prautzsch: Zum einen befindet sich mit dem De-Cix einer der weltweit größten Internetknoten in unmit-telbarer Nähe unseres Standorts. Zum anderen verlaufen die zwei größten europäischen Glasfaser-trassen mitten durch das Frankfur-ter Ostend, wo unser Campus in einem großen Industriegebiet liegt.

¬

¬

IT-DIRECTOR: Inwieweit reichen die hiesi-gen Glasfaserkapazitäten aus, um die künftige Vernetzung für autono-mes Fahren, Smart Home und Künstliche Intelligenz zu stemmen?J. Prautzsch: Hinsichtlich der Glasfa-serverbindungen sind wir im Back-bone in Deutschland sehr gut auf-gestellt. Es gibt zahlreiche Anbieter und eine große Anzahl redundan-ter Verbindungen. Anders verhält es sich bei der Anbindung von Pri-vathaushalten oder Firmenstand-orten an die Netze, wo die Quali-tät der Anschlüsse zu wünschen übrig lässt. Nach wie vor sind über-dies noch viel zu wenige Haushalte an Glasfaser angeschlossen.IT-DIRECTOR: Wo kommen Sie als Re-chenzentrumsbetreiber bei der fort-schreitenden Vernetzung ins Spiel?J. Prautzsch: 5G-basierte, dezentrale Geschäftsmodelle werden dafür sorgen, dass der Datenverkehr an den großen Knotenpunkten deut-lich zunimmt. Parallel dazu wer-den immer mehr kleinere, dezen-trale Knotenpunkte etabliert, die entsprechende Performance bieten müssen – Stichwort „Edge Compu-ting“. So muss beim autonomen Fahren der Datenaustausch über Mini-Rechenzentren entlang der Straße gewährleistet sein.Letztlich müssen viele der im Zuge von Edge Computing erhobenen Daten in eine zentrale Cloud flie-ßen, wo sie verarbeitet und gespei-chert werden. Dafür werden nach wie vor klassische Rechenzentren und Infrastrukturen benötigt.IT-DIRECTOR: Ihre RZ-Neubauten lassen auf enormes Wachstum schließen.

IT-DIRECTOR · AUSGABE 1–2/2019

TITELINTERVIEW MIT > JENS PRAUTZSCH

Page 23: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

23

IT-DIRECTOR · AUSGABE 1–2/2019

< TITELINTERVIEW

Page 24: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

24„Der RZ-Hotspot Frankfurt liegt in der Mitte Europas, weshalb der Standort für viele internationale Kunden interessant ist.“

J. Prautzsch: Momentan befindet sich die gesamte Rechenzentrumsbran-che in einer immensen Wachs-tumsphase. Diese wird einerseits dadurch getrieben, dass es immer mehr Applikationen gibt, die Da-ten produzieren, sammeln und verarbeiten – und mit 5G rollt die nächste große Welle auf uns zu. Andererseits wollen immer mehr Firmen Teile ihrer IT oder die gesamte IT in die Cloud hieven. Hierfür werden leistungsfähige In-frastrukturen benötigt. Vor diesem Hintergrund suchen wir in Frank-furt und andernorts kontinuierlich nach neuen Flächen, um weitere Rechenzentren zu etablieren.

IT-DIRECTOR: Was spricht generell für einen RZ-Standort in Deutschland?J. Prautzsch: Allein aufgrund der schie-ren Größe ist Deutschland ein hochattraktiver Markt für Rechen-zentrumsbetreiber. Dabei hat sich Frankfurt zu einem Hotspot der Datacenter-Branche entwickelt. Die Finanzmetropole gilt als wich-tiger Anziehungspunkt für US-amerikanische und asiatische Cloud-Anbieter, auch da hier die Qualität der Infrastrukturen und Services sehr hoch ist.IT-DIRECTOR: Dennoch entschieden sich zuletzt viele RZ-Anbieter für andere Standorte, etwa in Skandinavien ...J. Prautzsch: ... weil die hiesigen hohen Strompreise dem RZ-Geschäft eher abträglich sind, sodass die Energiekosten über den Stand ent-scheiden können. Im Rahmen der EEG-Umlage werden einige ener-gieintensive Branchen steuerlich begünstigt, die RZ-Branche bleibt davon jedoch ausgeklammert.IT-DIRECTOR: Warum überdenkt die Politik die Regelung nicht?J. Prautzsch: Zum einen ist die Re-chenzentrumsbranche in Berlin nicht so stark vertreten wie die Software- oder Telekommunikati-onsindustrie. Zum anderen wird die Steuergesetzgebung vorrangig vom Bund geregelt, konkrete Standortfragen hingegen müssen wir mit der Stadt klären, wenn es z.B. um Baugenehmigungen oder die Stromversorgung geht.IT-DIRECTOR: Wie lassen sich Energie-kosten im RZ-Umfeld senken?J. Prautzsch: Wir setzen auf ein stan-dardisiertes RZ-Design mit mög-

¬ lichst effizienten Baumaßnahmen. Auch nutzen wir sämtliche natürli-chen Begebenheiten. So kühlen wir – wann immer möglich – mit Außenluft. Wir arbeiten mit Frei-kühlsystemen und schotten die zu kühlenden Bereiche mittels Kalt-gangeinhausungen ab.IT-DIRECTOR: Wie realisieren Sie die Energieversorgung der Datacenter?J. Prautzsch: Wir setzen ausschließlich auf regenerative Energien, wofür wir auch höhere Preise in Kauf nehmen. Hierbei arbeiten wir eng mit dem regionalen Energieversor-ger Mainova zusammen, mit dem wir auch ein eigenes Umspann-werk auf unserem Campus betrei-ben. So stellen wir langfristig ge-nügend Kapazitäten sicher.IT-DIRECTOR: Wie ist es um den Moder-nisierungsbedarf der älteren Gebäu-de auf Ihrem Campus bestellt?J. Prautzsch: Wir überprüfen alle Re-chenzentren in gewissen Zyklen. Um Ausfällen vorzubeugen, tau-schen wir in die Jahre gekommene Komponenten regelmäßig aus. Bis zu 50 Prozent unserer IT-Opera-tions-Ressourcen verwenden wir nicht für Neubauten, sondern für den Betrieb der Bestandsrechen-zentren.IT-DIRECTOR: In Frankfurt sind wie in vielen anderen deutschen Großstäd-ten Bauplätze Mangelware. Wie ge-hen Sie mit dieser Situation um?J. Prautzsch: Das neue Rechenzentrum FRA 15, das auf einem hinzuge-kauften Grundstück direkt neben unserem Campus entsteht, geht wie alle neueren Rechenzentren in die Höhe. ¬

IT-DIRECTOR · AUSGABE 1–2/2019

TITELINTERVIEW MIT > JENS PRAUTZSCH

Page 25: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP
Page 26: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

26Meiner Ansicht nach gibt es in Frankfurt und anderen deutschen Städten durchaus noch genügend freie Flächen, um moderne Data-center zu errichten. Kann man es sich leisten, die Rechenzentren au-ßerhalb der Stadtgrenzen zu er-richten, stellt die Suche nach ei-nem geeigneten RZ-Standort über-haupt kein Problem mehr dar.IT-DIRECTOR: In der Regel sollten Re-chenzentren weder direkt an Stra-ßen oder Bahnschienen angrenzen noch in Einflugschneisen liegen ...J. Prautzsch: Willkommen im Frank-furter Ostend, wo all diese Fakto-

ren zutreffen. Hier muss man die Standortvor- und -nachteile abwä-gen. RZ-Hotspots wie Amsterdam liegen sogar unter Normalnull, weil es dort nun mal nicht anders geht. Generell gilt: Je näher Re-chenzentren an Ballungsgebieten liegen, desto höher die Risiken.Da unsere Kunden ihre IT jedoch zumeist redundant betreiben, ver-lassen sie sich nicht allein auf ei-nen Standort. Die großen Cloud-Provider haben sogar weltumspan-nende Netze an verfügbaren RZ-Ressourcen aufgebaut, um Vorsorge zu treffen.

IT-DIRECTOR: Wie bewerten Sie denn den Umstand, dass viele IT-Anbieter derzeit Rechenzentren in skandina-vischen Ländern bauen?J. Prautzsch: Zwar ist Deutschland hinsichtlich des Strompreises im internationalen Vergleich eher be-nachteiligt, allerdings findet man in kaum einem anderen Land eine so hohe Qualität der Infrastruktur vor – schon gar nicht in den nordi-schen Ländern. Von daher gehe ich nicht davon aus, dass skandinavi-sche Datacenter unser Geschäft beeinträchtigen werden. Denn dort können weder extrem kurze La-tenzzeiten noch die Auswahl an über 700 verschiedenen Carriern und ISPs geboten werden.Generell besitzen wir in Deutsch-land das stabilste Stromnetz Euro-pas. In unserem eigenen Netz be-merkten wir in den letzten 24 Mo-naten ein- oder zweimal kleine Zuckungen, die aber eher manuell ausgelöst wurden, als dass die Ver-sorger sie verursacht hätten.IT-DIRECTOR: Welchen Einfluss hat die zunehmende Einbindung regenerati-ver Energien auf das Stromnetz?J. Prautzsch: Die Netze der Versorger laufen über sehr viele Knoten, so-dass die Einspeisung selbst zwar zu Schwankungen führen könnte, die Verteilung hingegen über das Netz ausgeglichen werden kann.IT-DIRECTOR: Interxion feiert dieses Jahr zwanzigjähriges Firmenjubiläum. Was waren die Höhepunkte?J. Prautzsch: Die enge Kooperation mit dem De-Cix war von Beginn an ein wichtiger Wachstumstreiber. In letzter Zeit bringen uns hybride

„Viele, der im Zuge von Edge Computing erhobenen Daten müssen in eine zentrale Cloud fließen. Dafür werden nach wie vor klassische Rechenzentren und Infrastrukturen benötigt.“

¬

IT-DIRECTOR · AUSGABE 1–2/2019

TITELINTERVIEW MIT > JENS PRAUTZSCH

Page 27: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

27

„Für die Versorgung unserer Rechen- z entren kaufen wir ausschließlich Strom aus regenerativen Energiequellen ein, wofür wir auch höhere Preise in Kauf nehmen.“Cloud-Modelle voran. Dabei bieten wir seit jeher carrier- und cloud-neutrale Colocation-Services an.Wir verzeichnen hohe jährliche Wachstumsraten von 20 bis 30 Prozent, weswegen wir stets auf der Suche nach Fachkräften sind. Gleichzeitig bilden wir unsere Mit-arbeiter konsequent weiter.IT-DIRECTOR: Brauchen Sie künftig noch Fachkräfte, wenn Künstliche Intelli-genz und Roboter menschliche Ar-beit obsolet machen?

J. Prautzsch: Auch in unserer Branche werden immer mehr Prozesse au-tomatisiert. Dennoch wird man in Rechenzentren stets die menschli-che Intelligenz benötigen, die Ab-läufe so betrachtet und einschätzt, wie Maschinen es nie tun können.Ich glaube, dass wir uns künftig zwar intensiv digitaler Hilfsmittel bedienen werden, diese die menschlichen Tätigkeiten aller-dings nur ergänzen werden – z.B. die Nutzung von Künstlicher Intel-

ligenz oder von Virtual-Reality-Brillen für die Wartung.IT-DIRECTOR: Wo finden Sie das ange-sprochene Fachpersonal?J. Prautzsch: Die Suche nach IT-Fach-kräften gestaltet sich schwierig, da in Frankfurt nicht nur die RZ-Branche vertreten ist, sondern auch viele große Anbieter aus dem Finanz- und Internetbereich.Aufgrund unseres Wachstums be-schäftigen wir uns derzeit verstärkt mit Employer Branding. Denn während RZ-Betreiber früher eher als graue Mäuse galten, müssen sie sich am Arbeitsmarkt inzwischen bestmöglich verkaufen. Dabei su-chen wir nicht nur nach IT-Spezia-listen, sondern vorrangig auch nach Elektroingenieuren, Klima-technikern oder Bauspezialisten. <

Das ungekürzte Interview mit Jens Prautzsch finden Sie auf www.it-director.de

IT-DIRECTOR · AUSGABE 1–2/2019

< TITELINTERVIEW

Page 28: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Zunehmende Komplexität und wachsende Daten-mengen zeichnen immer mehr Rechenzentren aus. Schon heute zeigen Trends, wie man die damit einher-gehenden Anforderungen meistern kann: mit Dezen-tralisierung in einer neuen Dimension und Machine Learning für mehr Automatisierung und proaktives Management.

Ob Unternehmen alle IT-Ressourcen in eigene Re-chenzentren packen oder auf Cloud-Dienste und ähnli-che Infrastrukturservices zurückgreifen, hängt von zahllosen Faktoren ab. Inzwischen sind derart viele Services dieser Art verfügbar, dass für jede Anwen-dung die geeignete Infrastrukturvariante zur Verfü-gung steht – bei Bedarf gleich ganz als Software-Ser-vice, mit oder ohne Management-Tools, auf Basis einer Pay-per-use-Cloud oder dedizierter Ressourcen. Dabei entstehen beinahe zwangsläufig „Infrastrukturstücke-lungen“ – sprich hybride Infrastrukturen. Zu unter-schiedlich sind die Ressourcenbedarfe und Anforde-rungen einzelner Anwendungen oder der Fachabtei-lungen – gerade wenn datenintensive Applikationen, etwa aus den Bereichen Internet of Things (IoT) oder Data Analytics, hinzukommen.

Bei der Verwaltung hybrider Infrastrukturen können Management-Tools behilflich sein, die mit Dashboards einen zentralen Überblick über verwendete Ressourcen geben oder mit Alarmen und halbautomatischen Vor-gängen unterstützen. Bisher werden diese Software-Lösungen vor allem für das Monitoring und die reakti-ve Ressourcenverwaltung verwendet. Ein wichtiger, aber zugleich sehr zeitaufwendiger Schritt, um heute verteilte IT-Infrastrukturen zu managen und zeitnah auf zusätzliche Bedarfe reagieren zu können. In Zu-kunft werden sich die Aufgabenbereiche sowohl der Management-Tools als auch der Administratoren, die diese verwenden, deutlich ausweiten, glaubt der Cloud-Anbieter Gridscale. Denn optimale Ressourcennut-zung braucht künftig noch mehr Flexibilität. Schon

Im Rechenzentrum der Zukunft

In künftigen Rechenzentren werden Dezentralisierung und lernende Algorithmen eine immer wichtigere Rolle spielen.

jetzt ist es oft zweitrangig, woher die IT-Ressourcen kommen – ob aus einer Public oder einer Private Cloud, ob geteilt oder dediziert. Hauptsache, sie sind verfüg-bar, wenn sie gebraucht werden, und bieten die benö-tigte Performance und Sicherheit zu einem attraktiven Preis.

Die Denkweise, die Rechenzentren von der verfügba-ren Infrastruktur her konzipiert, ist veraltet. Anwen-dungen und Daten sind es, die für das Geschäft ent-scheidend sind. Die Infrastruktur dafür kann gleich-wohl eine Management-Software evaluieren: Dabei prüft das System eigene Ressourcen und Cloud-Dienste in Abhängigkeit von Kosten und Rahmenbedingungen, wie z. B. geografischer Verfügbarkeit oder ökologi-schem Anspruch. Ob diese Cloud-Dienste künftig al-lein von speziellen Dienstleistern kommen müssen, ist nicht gesagt. Auch Unternehmen, die zeitweise private oder gebuchte öffentliche Cloud-Ressourcen nicht voll nutzen, könnten diese in einer Art Ressourcen-Pool an-bieten. Erste Ansätze in Richtung Cloud-Marktplätze gab es bereits, doch sie beruhten stets darauf, dass ein Dienstleister verschiedene Angebote zusammentrug. Künftig könnte ein sich selbst verwaltender Ressour-cen-Pool entstehen, der nicht einem einzigen Anbieter unterliegt, sondern freie Ressourcen – woher auch im-mer sie stammen – verfügbar macht.

Predictive Maintenance war erst der Anfang

Sollen Ressourcen derart flexibel zur Verfügung ste-hen, muss der Automatisierungsgrad von Rechenzen-trumsleistungen insgesamt wachsen. Soll heißen: Mit reaktiven Alarmen, z. B. wenn Festplatten ausgefallen sind oder Websites nicht mehr zur Verfügung stehen, ist dem Administrator kaum geholfen. Vielmehr soll-ten das Rechenzentrum bzw. die Software, die es ma-nagt, allein eine optimale Lösung finden.

IT-DIRECTOR · AUSGABE 1–2/201928

TITELTHEMA > RECHENZENTREN

Page 29: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Über bislang bekannte Predictive-Maintenance-Ansätze geht das weit hinaus: Wurde bisher an-hand von Telemetrieda-ten von Hardware-De-vices ermittelt, wann der optimale Austauschzeitpunkt vor dem Ausfall ist, wird künftig das System automatisiert anhand gelernter Ab-hängigkeiten Maßnahmen einleiten. So lassen sich ne-ben Wartungsprozessen auch Infrastruktur- und sogar Geschäftsprozessoptimierungen umsetzen. Ein Ran-somware-Angriff verursacht etwa eine ungewöhnlich hohe Lese- und Schreibbelastung, die vom System als Gefahr erkannt werden kann, wenn ihm zuvor beige-bracht wurde, dass es sich hier um eine Anomalie han-delt. Mittels zuvor festgelegter Features – das sind die im konkreten Anwendungsfall bedeutenden Kriterien – und großer Mengen an Laufzeitdaten von Rechen-zentren lernt das System, was im Sinne des Tagesbe-triebs nicht normal ist. Das müssen nicht immer An-griffe sein. Vielmehr geht es um automatisiertes, un-mittelbares Skalieren oder Migrieren, damit Workloads ohne ein Eingreifen der Admins umverlagert werden können, etwa wenn andere Cloud-Dienste in diesem Moment preisgünstiger sind.

Die Herausforderung ist der Prozess des maschinel-len Lernens. Denn intelligenter wird ein System nicht,

wenn ihm schlicht vorge-geben wird, was „unnor-males“ Verhalten ist. Hin-ter einer hohen I/O-Rate steckt nicht zwangsläufig ein Ransomware-Angriff. Zig Telemetrie- und ande-

ren Umgebungsdaten, manchmal sogar aus externen oder weniger infrastrukturtechnischen Quellen, müs-sen ausgewertet und in den richtigen Zusammenhang gebracht werden. Je mehr Beispieldaten ein Algorith-mus lernen kann und je mehr Features definiert werden, umso besser – gleichzeitig aber auch umso auf-wendiger und rechenintensiver. Ziel des Ganzen ist eine Erhöhung des Automatisierungsgrads in Rechen-zentren bei gleichzeitiger Verbesserung der Service-qualität. Diese erscheint zwingend notwendig, da die komplexer werdenden IT-Infrastrukturbedürfnisse schon jetzt kaum mehr manuell zu managen sind. Aus Sicht der Verantwortlichen sollte die Ressourcenfrage bald keine mehr sein, die eine definierte Antwort ver-langt. Für Anwendungen wird eher deren Bedarf an Performance, Verfügbarkeit und Sicherheit definiert, woraufhin ein intelligenter Algorithmus die optimale Infrastrukturlösung wählt. Dabei bezieht er Wechsel-wirkungen mit anderen Infrastrukturfaktoren mit ein – wie die Preis-Leistungs- oder Erfahrungswerte. <

HENRIK HASENKAMP

„Ziel ist die Er höhung des Automatisierungsgrades im Rechenzentrum bei gleich- bleibender Servicequalität.“

IT-DIRECTOR · AUSGABE 1–2/2019 29

RECHENZENTREN < TITELTHEMA

Page 30: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Moderne IT-Architekturen sind komplex, oft hoch-gradig verteilt, besitzen virtualisierte Komponenten und nicht selten dynamische Strukturen, bei denen alle Ressourcen flexibel eingesetzt werden sollen. Wer hier den Überblick behalten und Ausfallszeiten vermeiden will, braucht ein leistungsfähiges Monitoring. Aktuell finden sich hierfür zahlreiche kostengünstige Open-Source-Systeme, die sich für unterschiedlichste RZ-Architekturen eignen. Die im Folgenden betrachteten Systeme stammen laut der Becon GmbH aus verschie-denen Zeiten und zeichnen sich daher durch unter-schiedliche technologische Paradigmen aus. Während

Am Puls des Rechenzentrums

Wenn im Rechenzentrum nicht alles rund läuft, dann stocken bei vielen Unternehmen nicht nur interne Arbeitsabläufe, sondern oft auch das direkte

Geschäft mit den Kunden. Doch verschiedene Open-Source-Monitoring-Tools können den Administratoren dabei helfen, alles Wichtige im Blick zu behalten.

die ersten sich seit fast 20 Jahren im Einsatz bewährt haben und einer großen Entwickler- und Anwender-Community erfreuen, sind die jüngsten eher maßge-schneidert für den Einsatz in Cloud-Infrastrukturen.

Vom Klassiker Nagios ...

Das Monitoring-Tool Nagios lässt sich getrost als Klassiker unter den Open-Source-Monitoring-Syste-men bezeichnen. In der Programmiersprache C ge-schrieben und bereits 1999 veröffentlicht, galt es lange als das Standardsystem unter den Lösungen. Nagios

profitiert von einer großen Community, die viele ergänzende Plugins entwickelt hat. Es skaliert durch den Einsatz abgesetzter eigen-ständiger Instanzen, was das Tool schwer skalierbar macht. Für eine Übersicht aller Elemente in einem Web-Frontend müssen diese aufwendig zusammengeführt werden. Auf Basis von Nagios entstanden verwandte Nachfolgesysteme (sogenannte Forks) wie Naemon und Icinga. Alle drei Monitoring-Werkzeuge überwachen ihre Systeme mit Status-Checks: Sie prüfen Systemwerte im Hinblick auf vorher definierte Schwellenwer-te und melden zurück, ob das Ergebnis in Ordnung oder kritisch ist.

OpenNMS und Zabbix, die von 2000 und 2001 stammen, sind event-basierte Monito-ring-Systeme. Beide sammeln relevante Monitoring-Werte per Status-Checks, Collec-toren oder über Protokolle wie SNMP, ICMP, WMI, JMX oder HTTP. Mit ihren daten-bankbasierten Web-Frontends bieten sie rol-lenbasierte Zugriffskontrolle (RBAC). OpenNMS ist in Java geschrieben, skaliert

IT-DIRECTOR · AUSGABE 1–2/201930

TITELTHEMA > RECHENZENTREN

SPOT – DER DATENHÜTERIMMER IM EINSATZ

FÜR IHRE STAMMDATEN.Wenn in Ihrem Unternehmen inkonsistente,

kostenverursachende Stammdaten ihr Unwesen treiben, dann rufen Sie SPoT. Der heldenhafte Datenhüter

macht die Verschwender in Ihrer Datenherde dingfest und verbessert nachhaltig Ihre Datenqualität.

WWW. ZETVISIONS. DE/SPOT

IT Director // ET: 11.02.191/3 quer // 210 x 93 mm // 3 mm Beschnitt

Page 31: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

mittels verteilter Instanzen und bie-tet personalisierte Dashboards. Zabbix enthält Programmteile in C, Java und PHP und skaliert durch das Verteilen von Subprozessen auf unterschiedliche Systeme. Zur nächsten Generation von Systemen gehören Check_MK (2008) und Icinga2 (2014). Beide bieten mehr Business-Funktionen als ihre Vorgänger, wozu Visualisierung und Reporting gehören. Check_MK ermittelt relevante Monitoring-Werte üblicherweise mithilfe von Agenten, die auf den zu überwachenden Systemen installiert sind. Agenten-Updates können über das Web-Frontend gesteuert wer-den. Zur Skalierung können mehrere Instanzen von Check_MK eingesetzt und in einem Frontend konsoli-diert werden. Icinga2 ist ein Re-Write von Icinga, aber nicht kompatibel zur Vorgängerversion. Das Web-Frontend bietet RBAC und der Icinga Director unter-stützt bei der Konfiguration der gesamten Monitoring-Landschaft. Prometheus ist eine Open-Source-Lösung, die als Microservice für Cloud-Umgebungen konzipiert ist und 2012 veröffentlicht wurde. Sie sammelt Monito-ring-Werte mithilfe sogenannter Exporter, die als ei-genständige Dienste arbeiten und Metriken via Web-services für Prometheus bereitstellen. So können die Monitoring-Inhalte beliebig erweitert werden.

... bis zum Brückenbauer Sensu Go

Sensu ist als Microservice für Cloud-Architekturen konzipiert. Es wurde zunächst in Ruby geschrieben

und im Jahr 2011 veröffentlicht. Mit Sensu Go liegt seit Dezember 2018 das komplette Re-Write des Tools vor. Es überwacht alle Ebe-nen einer IT-Architektur – von Ser-vern, virtuellen Maschinen und Containern über Netzwerkgeräte, CPUs und Speicher bis hin zu Ap-

plikationen und Microservices. Sensu Go besteht aus einer Backend-Komponente und Agenten auf den zu überwachenden Systemen. Die Agenten führen auf Ba-sis eines Publish-Subscribe-Ansatzes Monitoring-Checks effizient durch und sparen so im Vergleich zu älteren Monitoring-Lösungen viel Rechenleistung ein. Sensu skaliert durch die Hinzunahme weiterer Ba-ckend-Instanzen und entfaltet seine Stärken in Cloud-Umgebungen und Infrastrukturen, in denen viel Dyna-mik herrscht und die Fluktuation von Hard- und Soft-ware hoch ist.

Sensu Go vereint nicht zuletzt die Möglichkeiten von Status- und Metrik-Checks, sodass Unternehmen be-währte Plugins, die sie beispielsweise mit dem Monito-ring-Klassiker Nagios erstellt haben, nahtlos integrie-ren können. So kann Sensu Go eine Nagios-Umgebung erweitern, ihre Skalierbarkeit verbessern, Workloads aus der Cloud einbinden oder sie unter Beibehaltung bewährter Plugins relativ einfach ablösen. Durch diese Kompatibilität baut Sensu eine Brücke zwischen alter und neuer Monitoring-Welt. Diee offene Architektur erlaubt es, das Tool mit wenig Aufwand in die IT-Land-schaft und -Prozesse einzubetten. <

CHRISTIAN MICHEL

„Das Monitoring- Tool Nagios gilt als Klassiker unter den Open-Source-Sys-temen.“

IT-DIRECTOR · AUSGABE 1–2/2019 31

RECHENZENTREN < TITELTHEMA

SPOT – DER DATENHÜTERIMMER IM EINSATZ

FÜR IHRE STAMMDATEN.Wenn in Ihrem Unternehmen inkonsistente,

kostenverursachende Stammdaten ihr Unwesen treiben, dann rufen Sie SPoT. Der heldenhafte Datenhüter

macht die Verschwender in Ihrer Datenherde dingfest und verbessert nachhaltig Ihre Datenqualität.

WWW. ZETVISIONS. DE/SPOT

IT Director // ET: 11.02.191/3 quer // 210 x 93 mm // 3 mm Beschnitt

Page 32: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Geht es um die Zukunft von Technologien, fällt derzeit wohl kaum ein anderer Begriff so häufig wie

„Digitalisierung“. Bei genauerem Hinsehen fällt jedoch auf, dass sich hinter diesem Schlagwort viele

leere Phrasen verbergen.

leerePhrasen?Zu viele

> Würde man die meistgenannten Fachbegrif-fe im Jahr 2018 in Medien recherchieren, fällt die inflationäre Nutzung von „Digitalisierung“ und „digitale Transformation“ sofort ins Auge. Dabei können sich hinter diesen Begriffen sowohl das große Ganze als auch jedes noch so kleinteilige IT-Projekt verbergen. Denn geht es um Digitalisierung, dann geht es um Software-Implementierungen egal welcher Cou-leur, aber auch um richtungsweisende Infrastruktur-projekte wie Breitbandausbau, die Einführung des neu-en Mobilfunkstandards 5G oder Cybersicherheit. Nicht wenige sehen in der digitalen Transformation gar den grundlegenden Wandel vorhandener Geschäftsmodel-le durch sogenannte „disruptive“ Technologien.

Doch wie sollen sich die Firmenverantwortlichen bei dieser allgemeinen, mit viel heißer Luft gestrickten

Themenlage noch orientieren? Wie können sie den von verschiedenen Seiten geforderten digitalen Wandel anstoßen und vorantreiben?

Fragen, die sicherlich in jedem Unternehmen einzeln beantwortet werden müssen. Allerdings sollten sich die Verantwortlichen dabei weder von Digitaljüngern noch von digitalen Darwinisten blenden lassen. Denn unüberlegter Aktionismus führt meist nicht zum Er-folg, sondern eher zu unkontrolliertem Chaos.

Wer profitiert von der Plattformökonomie?

Als Beispiel mag die in den letzten Jahren hochgelob-te Plattformökonomie dienen. Von Experten wird sie als „das“ Paradebeispiel für Digitalisierung angesehen.

von Ina Schlücker, Redakteurin IT-DIRECTOR

IT-DIRECTOR · AUSGABE 1–2/201932

STRATEGIE > DIGITALISIERUNG

Page 33: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

¬

Seltsamerweise führen die Auguren dabei seit Jahren immer wieder dieselben üblichen Verdächtigen an, nämlich Amazon, Airbnb, Uber oder Vergleichsportale wie Check24. Müssten, wenn das Modell tatsächlich so erfolgversprechend wäre, dann nicht Jahr für Jahr neue Firmen mit neuen Plattformen durchstarten und sämt-liche Märkte disruptieren? Von daher lässt sich eine allgemeingültige Durchschlagskraft dieses Geschäfts-modells wohl durchaus in Abrede stellen. Nicht nur deshalb sollte man Plattformökonomen nicht unreflek-tiert nacheifern. Denn hier gilt wie oft im (Geschäfts-)Lebens: Wer immer nur abkupfert, wird nicht mehr sein als ein billiger Abklatsch des Originals.

In diesem Zusammenhang beleuchten zuletzt immer mehr Stimmen auch die Schattenseiten der Plattform-ökonomie. So zweifelt etwa Buchautor Tim Cole in sei-

nem jüngsten Werk „Wild Wild Web“ an der dauerhaf-ten Durchschlagskraft großer Internetkonzerne. Denn die Lehren der Geschichte zeigten „sonnenklar, dass Monopole langfristig keine Chance haben“. Von daher seien Anbieter wie Apple und Amazon trotz aktueller

Alle 16–49 Jahre

Kunden der Plattform

70 %

60 %

Anbieter auf der Plattform

82 %

77 %

Plattformbetreiber

95 %

95 %

0 10020 40 60 80

Digitale Plattformen haben Vorteile für alleWer profitiert von digitalen Plattformen?Basis: Alle Befragten (n=1008)

Quelle: Bitkom Research

IT-DIRECTOR · AUSGABE 1–2/2019 33

DIGITALISIERUNG < STRATEGIE

Page 34: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Börsenwerte von rund einer Bil-lion bzw. 800 Mrd. US-Dollar und ihrer damit verbundenen „schieren Größe“ nicht für alle Zeiten unantastbar.

Alexandra Borchardt, Journa-listin und Autorin des Buchs „Mensch 4.0 – Frei bleiben in einer digitalen Welt“, verweist daneben auf das mit der digita-len Transformation einherge-hende „Diktat der Effizienz“: „Zuweilen entsteht der Ein-druck, dass es den Internetrie-sen allein darum geht, den (Tur-bo-)Kapitalismus am Laufen zu halten mit immer mehr Dienst-leistungen und Produkten, wobei die Kunden erst ler-nen müssen, dass sie solche auch benötigen. Dieser Ein-druck versteht sich überhaupt nicht mit einer Menge weichgespülter Slogans, die von Nachhaltigkeit kün-den, dem Besitz abschwören und das Teilen als neue Philosophie anpreisen. In Wirklichkeit geht es der Wirtschaftswelt vor allem darum, die Effizienz zu stei-gern und auf diese Weise jedem Produkt noch ein biss-chen mehr Profit abzupressen. Das ist kein Spiel, bei dem alle gewinnen. Einiges und einige müssen dabei auf der Strecke bleiben. Und andere wenige machen in dem knallharten Verdrängungswettbewerb den gro-ßen Reibach.“

Nicht zuletzt haben wahrscheinlich die meisten von uns die unschönen Folgen der Plattformökonomie be-reits am eigenen Leib erfahren. Denn reist man heute in Städte wie Amsterdam, Lissabon oder London, fal-len einem immer wieder die verwaisten Innenstädte auf. Denn Kurzzeitvermietungen von Wohnungen über Airbnb sind für die Eigentümer deutlich lukrativer als langfristige Mietverhältnisse mit den eigenen Lands-leuten.

Der Reiz der Bequemlichkeit

Trotz der beschriebenen Nachteile scheinen hierzu-lande allerdings immer noch viele zu glauben, dass Plattformökonomie das einzig erfolgreiche Geschäfts-modell der Zukunft sei. Dies lässt zumindest das Er-gebnis einer Mitte Januar vom Branchenverband Bit-kom veröffentlichten Umfrage schließen. Demnach brächten Plattformen verschiedene Anbieter, Partner und Kunden aus unterschiedlichsten Märkten zusam-

¬ men, wodurch weltweit Milliar-denumsätze erzielt und ganze Branchen grundlegend verän-dert würden. Nach Ansicht der großen Mehrheit der befragten Bundesbürger würden davon al-le Beteiligten profitieren: Platt-formbetreiber ebenso wie die Anbieter von Produkten und Dienstleistungen auf den Platt-formen sowie ihre Kunden.

Gemäß der erwähnten Bit-kom-Erhebung sagen drei von fünf der Befragten (60 Prozent), dass die Kunden profitierten. In der Altersgruppe zwischen 16 und 49 Jahre beträgt der Anteil

sogar 70 Prozent. Dass die Anbieter von den Plattfor-men profitieren, glauben mehr als drei Viertel (77 Pro-zent) aller Befragten und sogar 82 Prozent unter 50 Jahren. Und 95 Prozent aller Befragten sehen Vorteile für die Plattformbetreiber.

Mehr als die Hälfte der Bundesbürger (57 Prozent) gibt an, selbst aktiv digitale Plattformen zu nutzen. Da-bei kaufen drei von fünf Befragten (57 Prozent) auf Plattformen ein oder buchen Dienstleistungen. Jeder Vierte (27 Prozent) verkauft selbst Produkte über Platt-formen oder bietet Dienstleistungen an. Dabei nutzen jüngere Menschen die Plattformen deutlich häufiger. So sagen unter den 16- bis 29-Jährigen 78 Prozent, dass sie Plattformen als Kunden nutzen, 39 Prozent sind dort als Anbieter unterwegs. Unter den 30- bis 49-Jäh-rigen liegen die Anteile mit 76 Prozent Kunden und 36 Prozent Anbietern nur leicht darunter. Unter den 50- bis 64-Jährigen nutzt dagegen nur eine Minderheit von 43 Prozent Plattformen, unter denjenigen ab 65 Jahre sind es mit 30 Prozent nochmals deutlich weniger.

Doch woran könnte diese, wohl doch eher überzoge-ne Wertschätzung der Plattformen liegen? – Zum einen bieten sie praktische Vergleichsmöglichkeiten für die Kunden. Zum anderen vermitteln sie ein angeblich neutrales Ranking auf einen Blick, was der zunehmen-den Bequemlichkeit vieler Endnutzer entspricht. Man muss nicht selbst umfangreiche Recherchen starten, sondern bekommt per Klick vermeintliche Schnäpp-chen geliefert. An dieser Stelle wäre es interessant zu wissen, inwieweit Plattformbetreiber solche Aufzäh-lungen bereits im eigenen Sinne manipulieren – etwa nach den Produkten von auf der Plattform schaltenden Werbekunden. Zudem scheint die Frage legitim, inwie-

Oliver Süme, Internetverband Eco

IT-DIRECTOR · AUSGABE 1–2/201934

STRATEGIE > DIGITALISIERUNG

Page 35: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

weit die Kunden überhaupt mit den günstigsten oder qualitativ hochwertigsten Angeboten versorgt werden oder ob sie einfach nur hinters Licht geführt werden.

Die Digitalpolitik der Bundesregierung

Hinsichtlich Digitalisierung und digitaler Transfor-mation nur Bange machen zu wollen, würde jedoch deutlich zu kurz greifen. Denn aktuell werden in tech-nologischer Hinsicht vielfach die Weichen für die Zu-kunft gestellt, man denke nur an die aufkommende Verbreitung von Künstlicher Intelligenz (KI), Robotik oder virtueller Realität. Von daher gilt es, zuversicht-lich nach vorn zu schauen und kontinuierlich weiterzu-arbeiten. Denn anders, als viele Stimmen behaupten, können deutsche bzw. europäische Unternehmen noch viel aus eigener Kraft tun, um sich technologisch weder von China noch von den USA abhängen zu lassen.

Dass Digitalisierung zunehmend nicht nur die Wirt-schaft, sondern auch die gesamte Gesellschaft betref-fen wird, hat inzwischen auch die Politik erkannt. Da-bei hat die Bundesregierung im vergangenen Jahr so aktiv wie nie verschiedene ITK-Themen vorangetrie-ben. Zunächst wurde mit Dorothee Bär eine eigene Staatsministerin für Digitales etabliert. Zudem klappte es zwar nicht mit dem von vielen Seiten geforderten dedizierten Digitalministerium, allerdings sollen Digi-talkabinett und Digitalrat für das entsprechende Vor-antreiben der Technologien in Deutschland sorgen.

Neben neu geschaffenen Kommissionen und Ämtern hat sich die Bundesregierung zudem neue strategische Ziele gesetzt. So will man mit dem „Digitalpakt Schu-le“ das Bildungswesen auf den neuesten Stand der Technik hieven. Paradoxerweise bremste der Bundes-

rat die Pläne jedoch noch im Dezember 2018 vorzeitig aus, um den Gesetzesentwurf nochmals zu überarbei-ten. Denn Bildungspolitik ist im Föderalismus Länder-sache und bereitwillig gibt keiner seine Pfründe auf. Trotz der vielen seitens der Bundesregierung initiierten Aktionen gibt es jedoch auch Kritik, die der Internetverband Eco wie folgt auf den Punkt bringt: „Es fehlt nach wie vor ein digitalpolitisches Narrativ und vor allem eine konsequente Synchronisation und Zusammenführung all dieser losen Enden“, heißt es in einer Pressemeldung vom Dezember 2018.

Hinsichtlich der erwähnten Strategien sind beson-ders die Bemühungen der Bundesregierung hinsichtlich Künstlicher Intelligenz (KI) hervorzuheben. „Sowohl die KI-Strategie als auch die Umsetzungsstrategie der Bundesregierung werfen bereits durchaus richtige Schlaglichter auf aktuelle Herausforderungen im Kon-text der digitalen Transformation. Aber letztlich enthal-ten beide Papiere zunächst nur eine Sammlung nicht miteinander verbundener Initiativen und Einzelmaß-nahmen“, sagt Eco-Vorstandsvorsitzender Oliver Süme. „Leider fehlt es seitens der Politik auch nach wie vor an einem ganzheitlichen Verständnis der entscheidenden Faktoren und Zusammenhänge des Ökosystems Digi-talisierung“, so Süme weiter. Dies zeige sich beim The-ma digitale Infrastrukturen: „Digitale Infrastrukturen sind mehr als schnelle Netze und 5G. Künstliche Intel-ligenz basiert im Wesentlichen auf großen Datenmen-gen, die in Echtzeit verfügbar sein müssen und über bandbreitenintensive Anwendungen verarbeitet wer-den. Dies geschieht idealerweise in hoch effizienten, leistungsstarken und sicheren Rechenzentren, diese werden allerdings in der Umsetzungs- und KI-Strategie der Bundesregierung nicht mal erwähnt.“ <

> Digitalprojekte von Wettbewer-bern aus der eigenen Branche wer-den von knapp jedem zweiten Be-trieb in Deutschland, Österreich und der Schweiz als Bedrohung für das eigene Geschäftsmodell ge-nannt. Zu diesem Ergebnis kommt eine Umfrage von DXC Technolo-gy. Demgegenüber bewerten rund 70 Prozent der befragten Manager

Digitalpioniere bedrohen jede zweite Firmamarktfremde Konzerne wie spezia-lisierte Digital-Start-ups oder Platt-formbetreiber wie Amazon und Co. nicht als Risiko für die eigene Position. Im Gegenteil rechnet gut jede zweite Firma damit, von de-ren Know-how zu profitieren.86 Prozent der DACH-Manager sind aktuell überzeugt, dass die di-gitale Transformation den Markt

für das eigene Unternehmen be-reits verändert hat. 71 Prozent ver-fügen inzwischen über eine digita-le Agenda – das ist ein Plus von 20 Prozentpunkten im Vergleich zum Vorjahr. Weitere elf Prozent pla-nen, innerhalb des nächsten Jahres eine eigene digitale Strategie kon-kret zu beschließen. <Im Internet: dxc.technology

IT-DIRECTOR · AUSGABE 1–2/2019 35

DIGITALISIERUNG < STRATEGIE

Page 36: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Weig versteht sich als industrieller Dienstleister ent-lang der Wertschöpfungskette „Karton“. Am Hauptsitz in Mayen laufen alle Fäden zusammen. Dabei sind die Abläufe der Rechnungseingangsverarbeitung mittler-weile dank der Software Tangro IM effizient gebün-delt. Rund 45.000 Rechnungen erhält die Gruppe im Jahr, jeweils zur Hälfte per E-Mail und Post. Die Verar-beitung dieser Belege in SAP war bereits vor Jahren automatisiert worden. Allerdings mit einer Lösung, die lediglich über eine Schnittstelle ans ERP-System ange-bunden war mit dem Nachteil, dass alle angelegten Be-stellungen und Wareneingänge nur einmal täglich an SAP übertragen und dort verbucht wurden.

Die wichtigen Informationen standen damit immer erst am Folgetag für die Rechnungsverarbeitung zur Verfügung, sodass zur üblichen Durchlaufzeit des Be-legs eine eintägige Verzögerung hinzukam. Überdies gab es eine Fülle unterschiedlicher Freigabeprozesse, die die Rechnungsprüfung weiter verlangsamten. Der Vision von transparenten Prozessen entsprach diese alte Lösung nicht. Vor allem aber war das System auf S/4 Hana nicht so effizient und stand damit im Wider-spruch zur Firmenstrategie, S/4 Hana als führendes ERP-System im ganzen Unter-nehmen zu nutzen.

„Wir wollten auf jemanden bauen, von dem wir wissen, dass er S/4 Hana unterstützt. Mit Tangro haben wir den rich-tigen Partner gefunden“, sagt Tim Hoffmann von der Group Service IT. „Überzeugt hat uns der Praxisbeweis bei einem Re-ferenzkunden, bei dem die Soft-ware bereits auf S/4 Hana läuft.“ Die Lösung zur Rechnungsver-

Rechnungsverarbeitung fit für die Zukunft

IT nicht als Erfüllungsgehilfe, sondern als Prozesstreiber verstehen – mit dieser Denkart und SAP S/4 Hana als Basis ist man bei der Weig-Gruppe angetreten, den digitalen

Wandel zu meistern. Ein wichtiges Ziel: mehr Effizienz und Transparenz für die Geschäftsprozesse.

arbeitung ist SAP-embedded, d. h., sie kann ohne Schnittstellen direkt ins ERP-System eingebunden werden – auch in S/4 Hana. „Aus IT-Sicht vereinfacht diese Eigenschaft viel. Nur an einer Stelle gab es eine Anpassung, dann war die Basis-Software auf unserem S/4-Hana-System lauffähig“, so Hoffmann.

Direkter Zugriff auf SAP-Daten

Acht Wochen hat es gedauert, bis Tangro IM bei dem Kartonspezialisten produktiv im Einsatz war. Dies war auch der guten Vorarbeit der beteiligten Weig-Mitarbei-ter zu verdanken. Seitdem profitieren der Einkauf und die Rechnungsprüfung von der direkten Einbettung der Software in SAP, nicht nur weil die Sachbearbeiter ein-gehende Rechnungen in der gleichen Umgebung bear-beiten, sondern weil auch ein direkter Zugriff auf SAP-Daten möglich ist. Das Arbeiten in der gleichen Umge-bung erfordert besondere interne Absprachen über Ar-beitsabläufe. Das Überprüfen, Nachbearbeiten und Ergänzen von Belegdaten wird damit vereinfacht und beschleunigt. Rund 80 Prozent der Rechnungen bei Weig werden mit der Software nun vollständig automa-

tisch erkannt. Damit erfüllt das System eine der wichtigsten An-forderungen der Fachabteilun-gen, wie Alexander Paucar-Bahrs vom Group Service Ein-kauf erklärt: „Uns war wichtig, dass die Software zur Rech-nungseingangsverarbeitung eine möglichst optimale Erkennung gewährleistet und bei Bedarf Be-lege vollständig automatisch im Hintergrund verbucht.“ Insbe-sondere bei Rechnungen über

Die Weig-Gruppe …… ist ein Spezialist für Gipskarton, verfügt über integrierte Kompetenz bei Verpackungs-karton und Kartonverpackungen und bietet nachhaltige Lösungen bei der Entsorgung von Sekundärrohstoffen. Der Hauptsitz des 1931 gegründeten Unternehmens befindet sich in Mayen.

Im Internet: www.weig.de

IT-DIRECTOR · AUSGABE 1–2/201936

STRATEGIE > DIGITALISIERUNG

Page 37: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

bestandsgeführte Artikel, bei denen die Artikelnummer vorhanden und feste Preise hinterlegt sind, ist diese Forderung erfüllt. Es muss selten et-was ergänzt, korrigiert oder geneh-migt werden. Die Finanzbuchhalter sind nur noch pro forma dazwi-schengeschaltet, sichten kurz und buchen dann direkt aus der Soft-ware heraus mit einem Mausklick.

Bei den übrigen Rechnungen hat sich der Aufwand ebenfalls reduziert. Die Lösung er-kennt auch hier einen Großteil der Inhalte automa-tisch, etwa den Lieferanten, die Bestellnummer und die Positionen. Auch Kontierungen, Sachkonten und Steu-erkennzahlen werden automatisch gezogen, denn bei der Software können diese Informationen für jeden Kreditor buchungskreisspezifisch hinterlegt werden. Zur Freigabe oder zur Klärung von Fragen kommt der integrierte Business Workflow zum Tragen, der alle Workflow-Prozesse automatisiert und elektronisch ab-wickelt.

Mit der Implementierung der neuen Workflow-Lö-sung wurden gleichzeitig die Abläufe entsprechend der Firmenstruktur standardisiert und verschlankt. Jetzt gibt es feste Grenzen, nach denen die Rechnungsfreiga-be organisiert ist. Zudem sorgen Vertreterregelungen für eine verlässliche Verarbeitung von Belegen auch bei Abwesenheiten. Früher musste der abwesende Mitar-beiter seine Vertretung unmittelbar vor der Abwesen-heit einrichten. Dank der neuen Software ist er in der Lage, seine gesamte Urlaubsplanung im Voraus zu hin-terlegen. Zusätzlich ist die Handhabung so einfach, dass die Fachabteilung das meiste selbst regeln kann:

Wenn ein Kollege kurzfristig er-krankt und noch keine Vertreterre-gelung aktiviert ist, lassen sich die laufenden Workflows gesammelt abbrechen, um sie dann gezielt mit der vorgesehenen Vertretung zu starten.

Weitere Erleichterung bringt ein automatisierter Eskalierungsvor-gang, bei dem User, die eine Rech-nung noch nicht freigegeben haben,

an die Bearbeitung erinnert werden. Den Überblick über alle eingegangenen Belege gewährleistet das Rech-nungseingangsbuch mit den eigenständig eingerichte-ten Varianten. Hier sehen die Mitarbeiter, welche Rechnungen sich im Workflow befinden oder welche Belege sofort gebucht werden können. Rechnungen, die unbegründet sind, falsche Inhalte haben oder fälschli-cherweise bei Weig gelandet sind, können im Rech-nungseingangsbuch durch die Benutzer direkt aus dem System an den Lieferanten zurückgeschickt werden. Die Rechnungsverarbeitung wurde so derart beschleu-nigt, dass sich nach wenigen Monaten Produktivbe-trieb bereits eine Steigerung der Skontoziehungen be-merkbar macht. Im produktiven Einsatz zeigen sich auch Vorteile für die IT: „Der Wartungsaufwand wird sich langfristig reduzieren. Es gibt keine Schnittstellen mehr, die wir IT-technisch betreuen müssen, wenn der Anbieter etwas ändert. Wir haben ein einziges, zentra-les System zur Rechnungsverarbeitung, das mit einer ähnlichen Benutzerstruktur wie SAP arbeitet. Berech-tigungsrollen können wir daher übernehmen“, so Tim Hoffmann. <

GESINE LISKIEN

Tim Hoffmann, Group Service IT bei Weig

Das Unternehmen stellt jährlich rund 700.000 Tonnen verschie-dener Kartonsorten her.

IT-DIRECTOR · AUSGABE 1–2/2019 37

DIGITALISIERUNG < STRATEGIE

Page 38: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Insbesondere hinsichtlich des Posteingangs wollen viele Verantwortliche einen Meilenstein auf dem Weg zum digitalen Unternehmen setzen. Dabei sind die Prozesse im Posteingang meistens aufwendig und ver-zweigt. Dokumente kommen in den unterschiedlichs-ten Formaten ins Haus, häufig sind Formulare falsch ausgefüllt oder ungültig. Daher sind viele Mitarbeiter mit teuren, manuellen Tätigkeiten beschäftigt: Doku-mente sortieren, falsch ausgefüllt Formulare erkennen, neu stapeln, aussortieren. Und während jeder Scanner mehrere Hundert Seiten pro Minute verarbeitet, hält die manuelle Bearbeitung einer geringen Zahl von Do-kumenten die gesamte Produktion auf.

Vor diesem Hintergrund suchen Produktionsverant-wortliche oftmals nach einer Scan-Infrastruktur, die diese Probleme lösen kann. Dabei sollten die Vorberei-tung und das Nachbearbeiten der Scan-Prozesse mög-lichst so automatisiert sein wie das Scannen und Er-kennen der Dokumente selbst. Dabei wird deutlich,

Infrastrukturen für AutomatisierungViele Unternehmen suchen nach Lösungen für ihre Industrie-4.0-Strategien.

Immer öfter steht dabei der Posteingang im Mittelpunkt der Diskussionen. Denn hier ist die kritische Stelle, an der das meiste Papier in die Organisation kommt.

dass häufig die eingesetzte Software den Unterschied macht. Denn sie steuert nicht nur die Scanner, kann Barcodes oder Felder erkennen, sondern sie sortiert Dokumente mit extrem hoher Geschwindigkeit. In die-sem Umfeld scheint es, als hätten die Hersteller von kleinen und mittleren Scannern ihre Topgeschwindig-keit erreicht, sodass immer mehr Experten von High-volume-Scannern gefordert sind.

Software macht den Unterschied

Bei Highvolume-Scannern zählen Sortierfunktionen zu den wichtigsten Features. Die Hersteller dieser Ge-räte besitzen seit Jahren das Know-how, Dokumente automatisch und ohne bemerkbaren Geschwindig-keitsverlust zu sortieren. Wenn es ihnen gelingt, das Sortieren der Dokumente auf die Anforderungen von Desktop-Scannern zu skalieren, können sie deren Leis-tungsfähigkeit deutlich steigern. Damit können Unter-

nehmen ihre Desktop-Systeme zu einer „virtuellen“ Scan-Straße verbinden. Im Rahmen solcher Projekte würden die Kosten für die Eingangspostverarbeitung dann deutlich nach unten gehen.

Doch Stand heute können viele instal-lierte Systeme nicht die notwendige Ge-schwindigkeit erreichen, die das Manage-ment vor dem Hintergrund der Digitali-sierung im Zuge von Industrie 4.0 fordert. Gleichzeitig sind die Kosten für die Be-schleunigung der bestehenden Installatio-nen zu hoch. Deshalb hat der Anbieter Ibml die Desktop-Scanner seiner neu her-ausgebrachten Image-TracDS-Serie so entwickelt, dass sie beide Kriterien erfül-len: Sie scannen und sortieren viel mehr Dokumente in kürzerer Zeit als vergleich-

IT-DIRECTOR · AUSGABE 1–2/201938

STRATEGIE > DIGITALISIERUNG

Page 39: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

bare Geräte. Desweiteren ersparen sie den Anwendern hohe Kosten für zeitaufwendige manuelle Arbeit. Mit den neuen Arbeitsplatz-Scannern sollen die Poststellen innerhalb der Organisation zu Treibern der Digitalisie-rung werden. Denn sie wandeln die Information auf dem Papier deutlich schneller und deutlich günstiger in Daten als bisher.

Entscheidend ist, dass die Software die manuellen Arbeitsschritte der Mitarbeiter übernimmt. Und hier ist es wiederum die maschinelle Intelligenz, die den Unterschied ausmachen kann. Ibml-Technologie etwa bildet alle Sortierschritte im Desktop-Gerät ab. Die Scanner führen „inline“ eine einfache Sortierung durch – etwa das Aussortieren der Trennblätter, sie trennen Dokumente mit und ohne Barcode oder Batchcode. Die Software erkennt den Barcode oder das Trennblatt auf dem Dokument und entscheidet, in welches Fach es sortiert wird. Damit sparen die Scan-Produktionen ei-nen großen Teil der manuellen Nachbearbeitung. Wenn die Produktionsverantwortlichen die Geräte an

die „Software Capture Suite“, kurz „SCS“-Plattform, anbinden, können sich auch die intelligenten Funktio-nen freischalten. Sie nutzen dann während des Scan-nens die maschinelle Intelligenz beispielsweise für die Validierungsprüfungen: Ist ein Beleg gültig oder ungül-tig? Ist ein Dokument unterschrieben oder nicht? Die Software erkennt die Pflichtfelder und sortiert alle Do-kumente in das zweite Ausgabefach, die nicht korrekt ausgefüllt sind.

Schon deshalb, weil viele manuelle Sortierprozesse wegfallen, werden die Prozessmanager die Abläufe in den Poststellen ändern. Und zwar sowohl vor dem Scannen als auch die nachgelagerte Aussortierung von Dokumenten nach dem Scannen. Die Scanner arbeiten optimal, wenn die Wege der Dokumente zum Scanner und vom Scanner weg richtig ausgebaut sind. Auch hier kann das Wissen aus den voll automatisierten High-volume-Scan-Produktionen auf die Desktop-Scanner übertragen werden. <

CHRISTIAN RAUM

So beschleunigen Scanner die ProduktionKurzinterview mit Steffen Unmuth, Sales Director bei Ibml

IT-DIRECTOR: Herr Unmuth, Sie haben die Scanner der Image-TracDS-Serie neu aufgelegt. Ziel ist es, die Prozesse in den Scan-Produktionen zu automati-sieren und zu beschleunigen. Welche neuen Features gibt es?S. Unmuth: Wir haben unsere Scanner mit mehreren Funktionen auf den neusten Stand gebracht. Die Kunden erhalten Scanner mit Isis- und Twain-Unter-stützung; zudem sind die Geräte jetzt auch von Kofax zertifiziert. Damit können die Anwender alte Scanner ihrer Produk-tion durch unsere Desktop-Geräten ersetzen.IT-DIRECTOR: Welche Vorteile bekommen die Produk-tionsverantwortlichen mit den neuen Scannern im Unterschied zu herkömmlichen Modellen?S. Unmuth: Wir sind als Hersteller von großen Scan-Straßen bekannt. Und diese großen, intelligenten

Erfassungslösungen gibt es jetzt auch für kleine Volumina – beispielsweise deren Sortierfunktion und Intelligenz.IT-DIRECTOR: Sie versprechen die Beschleu-nigung der Scan-Produktion?S. Unmuth: Mit unserer Unterstützung werden unsere Kunden ihre Produk-tion bei der Vor- und bei der Nachbe-arbeitung beschleunigen. Bei der Vor-bereitung stellt der linksbündige Ein-zug eine herausragende neue Funktion dar. Diese unterscheidet unsere Scan-

ner von fast allen anderen Geräten auf dem Markt. Denn damit wird die Vorbereitung des Scan-Guts extrem verkürzt: Der Stapel des Belegguts wird le-diglich auf die linke obere Ecke gerüttelt. Auf diese Weise können alle Dokumentengrößen problemlos von einem Stapel gescannt werden. <

CHRISTIAN RAUM

Steffen Unmuth, Ibml

IT-DIRECTOR · AUSGABE 1–2/2019 39

DIGITALISIERUNG < STRATEGIE

Page 40: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

INTERVIEW

IT-DIRECTOR: Herr Gutjahr, wie stehen deutsche Finanzinstitute aktuell im Digitalisierungs-prozess da?S. Gutjahr: Die Finanzinstitute versuchen, mit hilfe der Digitalisierung neue Ge-schäftsmodelle zu entwickeln und die Au-tomatisierung von Prozessen voranzutrei-ben. Blockchain, Künstliche Intelligenz (KI) und Robotic Process Automation (RPA) sind dabei zentrale Technologien, die prototypisch eingesetzt oder im Rah-men eines Machbarkeitsnachweises evalu-iert werden. Obwohl die Investitionsbereitschaft steigt, sind die Finanzinstitute noch zurückhaltend, auch auf-grund beschränkender regulatorischer Anforderungen wie der Datenschutz-Grundverordnung. Führend in dem Bereich sind vor allem die USA sowie China und es bedarf großer Anstrengungen, um den bereits beste-henden Vorsprung zu verringern.IT-DIRECTOR: Wie können Finanzinstitute die Digitalisierung künftig verstärkt vorantreiben?S. Gutjahr: Eine große Herausforderung sind die mit der neuen Technologie einhergehenden Verfahrensmodelle und Innovationszyklen. Die Zusammenarbeit von Fach- und IT-Experten im Rahmen solcher Projekte ge-staltet sich agil und damit völlig anders, als es Fi-nanzinstitute bisher gewohnt sind. Verantwortung wird auf alle Mitarbeiter verteilt, was insbesondere im Management zu einem Umdenken führen muss. Paral-lel dazu gibt es mit den Fintechs neue Player. Sie be-schleunigen den Markt, weshalb Finanzinstitute neue Zusammenarbeitsmodelle entwickeln sollten, um von diesen mobilen, schnellen Start-ups zu profitieren.IT-DIRECTOR: Welche Ratschläge sollten die Verantwortli-chen beherzigen, um Digitalisierungsprojekte tatsächlich auch erfolgreich umzusetzen?

Intelligente Analysen im Bankgeschäft

Im Interview zeigt Dr. Steffen Gutjahr, Head of Compliance Solutions bei der Targens GmbH in Stuttgart, auf, wie sich Banken im Zuge der zunehmenden Digitali-

sierung erfolgreich positionieren können und Fintechs nicht fürchten müssen.

S. Gutjahr: Alle Mitarbeiter sollten in den Prozess eingebunden werden, auch wenn sie nicht direkt an den aufgesetzten Digi-talisierungsprojekten beteiligt sind. So können Vorbehalte abgebaut und Chan-cen in den Vordergrund gerückt werden. Um das Projektrisiko zu minimieren, soll-ten Firmen neue Geschäftsideen schnell auf Tauglichkeit prüfen. „Fast Fail“ ist hier das Schlagwort, d. h. schnelle Prüfung, ob sich eine tiefergehende Analyse lohnt.IT-DIRECTOR: Welche Rolle spielt das Thema

Data Analytics im Bankenumfeld?S. Gutjahr: Der fundamentale Werttreiber für das Ge-schäftsmodell von Banken sind Informationen. Infor-mationen über Märkte sowie Kunden und deren Ge-schäftsmodelle stellen die Basis für passgenaue Finanz-produkte und für die Einschätzung der damit verbun-denen Risiken dar. Daher spielt das Thema Data Analytics eine herausragende Rolle. Nur die Banken, die ihre Kunden und Märkte am besten kennen und in der Lage sind, die riesige Menge an Daten zu analysie-ren, um neue Erkenntnisse zu erhalten, haben eine Chance, sich durchzusetzen. Dies wird ohne Data Ana-lytics nicht möglich sein.IT-DIRECTOR: Worauf kommt es beim intelligenten Datenma-nagement besonders an? Welche Rolle spielen dabei Compliance-Vorgaben wie der Datenschutz?S. Gutjahr: Vorrangig ist der Aufbau eines zentralen Daten-speichers (Data Lake), um alle relevanten Daten, struk-turierte und unstrukturierte, an einem Ort zusammen-zufassen und zu verknüpfen. Bei Data Analytics han-delt es sich um einen Trial-and-Error-Prozess, d. h. man muss viele Modelle trainieren, um das beste Er-gebnis zu erzielen. Daher braucht es eine performante Zugriffsschicht, um die Daten zur Verfügung zu stellen

Steffen Gutjahr, Targens

IT-DIRECTOR · AUSGABE 1–2/201940

STRATEGIE > DIGITALISIERUNG

Page 41: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

und anschließend die Ergebnisse der Datenevaluation zurückzuschreiben. Über Datenauswertungs-Tools können dann die Ergebnisse bewertet und verglichen werden. Im Vorfeld aller Bemühungen steht jedoch die Datenqualität. Es ist einfach: Wenn die Daten fehler-haft und widersprüchlich sind, muss man erst in diesen Bereich investieren, bevor man sich mit dem Aufbau teurer Datenmanagementsysteme beschäftigt. Und es müssen die regulatorischen Rahmenbedingungen ein-gehalten werden. Daher sollten die Datenschutzverant-wortlichen früh in den Prozess eingebunden werden. IT-DIRECTOR: Welche Potentiale eröffnen sich durch den Ein-satz von Analyse- und Vorhersagemethoden?S. Gutjahr: Durch verbesserte Analyse-Ergebnisse wird das mit dem Geschäft verbundene Risiko genauer bewer-tet. Sie können bei Kreditentscheidungen im Zusam-menhang mit Bonitätsvorhersagen unterstützen oder präventiv bei der Betrugs- und Geldwäscheprognose fungieren. Immer dann, wenn auf Basis von Daten Ent-

scheidungen oder Vorhersagen getroffen werden, die sich algorithmisch nicht fassen lassen, leisten solche Methoden einen wertvollen Beitrag. Eine weitere An-wendungsform besteht in der automatischen Abarbei-tung von standardisierten Prozessen. Gerade im Com-pliance-Umfeld lassen sich bei Embargo- und Sankti-onsprüfungen hier Kostenpotentiale heben. IT-DIRECTOR: Worauf sollte man bei der Auswahl entspre-chender Software-Tools für Data Analytics achten?S. Gutjahr: Einfache Bedienbarkeit und Transparenz in der Methodik sind von großer Bedeutung. Gerade bei Mo-dellen, die mit KI-Methoden arbeiten, ist eine größt-mögliche Transparenz und systemgestützte Nachvoll-ziehbarkeit der Ergebnisse wichtig. Die Programmier-sprache Python hat sich als inoffizieller Standard im Bereich Data Analytics herauskristallisiert. Um am engen Personalmarkt erfolgreich zu sein, muss dies be-rücksichtigt werden. <

INA SCHLÜCKER

> Darauf hinzuwirken war Ziel ei-nes Treffens zwischen Politik und Branchenvertretern im Dezember 2018 in Berlin. Im internationalen Vergleich meistern diejenigen Ge-sundheitssysteme den digitalen Fortschritt in der Versorgung am erfolgreichsten, die eine klare und gemeinsam definierte E-Health-Strategie haben. Dies zeigt die Stu-die „#Smart-HealthSystems“ der Bertelsmann-Stiftung, deren Er-gebnisse Thomas Kostera, Projekt-manager der Stiftung, vorstellte. Weitere kritische Erfolgsfaktoren sind die Ausrichtung an gesund-heitspolitischen Zielen und die Umsetzung durch eine neutrale, aber verantwortliche Stelle. Maria Klein-Schmeink, MdB und gesund-

heitspolitische Sprecherin Bündnis 90/Die Grünen, schlug einen Di-gitaldialog vor, „mit dessen Hilfe eine Vision für die Digitalisierung im Gesundheitswesen entwickelt wird. Ziel und Maßstab muss es sein, die Potentiale der Digitalisie-rung zum Nutzen der Patienten zu erschließen und zwar nicht über deren Kopf hinweg, sondern unter ihrer aktiven Beteiligung. Die Chancen liegen u. a. in der Stär-kung der Patienteninformation und in der Anbindung ländlicher Räume an die moderne Medizin.“ Tino Sorge, MdB und Berichter-statter der Unionsfraktion für E-Health, ergänzt: „Die letzte Zeit hat gezeigt, dass im Politikfeld E-Health eine neue Strategiekultur

Den E-Health-Standort stärkenDeutschland soll zum Vorreiter bei der digitalen Gesundheit werden. Dafür stehen acht

Fachverbände der industriellen Gesundheitswirtschaft ein. Damit die Aufholjagd ge-lingt, braucht es eine gemeinsame Richtung der Akteure und politische Koordination.

Einzug hält. Das ist auch dringend notwendig: Denn einerseits müs-sen wir endlich Einzelinteressen überwinden. Andererseits müssen wir fernab der tagespolitischen Fragestellungen entscheiden, wie unser digitales Gesundheitssystem in Zukunft aussehen soll.“ <Im Internet: www.health-it-portal.de

IT-DIRECTOR · AUSGABE 1–2/2019 41

DIGITALISIERUNG < STRATEGIE

Page 42: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Process Mining nennt sich der Nachfolger der bisher bekannten Prozesssteuerung. Im ersten Schritt doku-mentiert dieses Verfahren die Ist-Prozesse in einem System. Ein deutlicher Fortschritt gegenüber der frühe-ren Methode, bei der Planer die Abläufe in Workshops über Fragebogen erfassen. In der neuen Variante lassen sich viele Routineprozesse in Unternehmen End-to-End abbilden. Man kommt schneller zum Ergebnis und kann zudem viel genauere Aussagen treffen. Analytics-Werkzeuge kommen im Process Mining zum Einsatz, um die erfassten Prozesse zu verschlanken. Datenana-lysten (Data Scientists) definieren Entscheidungsre-geln, um die Abläufe möglichst effizient zu gestalten. Mit den dabei entstehenden Daten steuern sie auch künftige Prozesse besser, als es bisher möglich war.

Nutzen soll das Process Mining zunächst über die Redokumentation der Prozesse und der unterstützen-den IT-Systeme bringen. Wo läuft es rund, wo hakt es, wo gibt es Automatisierungspotential? So lauten die Leitfragen der anschließenden Optimierung. Beim Vorbereiten einer Neueinführung be-triebswirtschaftlicher Software (ERP) ver-hindern diese Ergebnisse, dass sich die frühe-ren Brüche in der neuen Version wieder- holen.

Die meisten Anwender für Process Mining kommen bisher aus großen Industrie- und Handelsunternehmen, von Energieversor-gern oder Netzdienstleistern. Einsatzgebiete für diese Variante der Ablaufsteuerung fin-den sich aber in praktisch allen Branchen. Künftig wird beispielsweise aber wohl auch das Steuern von Fertigungsprozessen im Rahmen von Industrie 4.0 in den Fokus von Process Mining rücken.

Ein Einsatzbeispiel für die Prozessanalyse liefert das Szenario „Procure-to-pay“. Dieser

Das Ziel: Prognosti-zierende Steuerung

Geschäftsprozessmanagement zeigt auf, wer in einem Unternehmen was, wann, wie und womit erledigt. In Kombination mit Business Analytics wird aus der reaktiven

Betrachtung eine prognostizierende Steuerung.

Begriff beschreibt den gesamten Vorgang von der Be-stellung einer Ware über deren Auslieferung, die Rech-nungsstellung bis hin zum Zahlungseingang und dem Mahnwesen in der Debitoren- und Kreditorenbuchhal-tung. Problematisch sind dabei die vielen involvierten Akteure und IT-Systeme.

Variantenvergleich zeigt das Optimierungspotential

So vielfältig wie die Varianten dieses Prozesses sind auch dessen Optimierungspotentiale. Die Leitfragen betreffen beispielsweise die Compliance und zeichnen nach, ob eventuell Rechnungen bezahlt wurden, die ei-gentlich ein anderer Mitarbeiter abgelehnt hat. Oder sie decken auf, wenn Mitarbeiter Artikel am Beschaf-fungssystem vorbei besorgen und lediglich den Rech-nungseingang und die Bezahlung mittels IT abbilden. Dabei gehen Rabatte verloren, weil Rahmenverträge

IT-DIRECTOR · AUSGABE 1–2/201942

SOFTWARE > ERP-SYSTEME

Page 43: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

des Unternehmens nicht beachtet werden. Schließlich werden manuelle und zeitaufwendige Korrekturen im Ablauf reduziert, also beispielsweise andere Bestell-mengen oder Preise.

Process Mining zeigt im besten Fall sämtliche Vari-anten auf, die ein Prozess genommen hat. Es geht da-rum, wie lange welche Aktivität gedauert hat, wo es Engpässe gab und welche Variante die schnellste Durchlaufzeit lieferte. Auf Basis dieser Daten können die Planer die Prozesse dann anpassen. Nützlich ist da-bei die Simulation: Planer bewerten verschiedene Pro-zessvarianten und erkennen, wie und wann sich ein Ablauf verzögern oder verkürzen könnte. Auch die Kosten unterschiedlicher Varianten werden sichtbar. Ist ein optimaler Soll-Prozess definiert, liefert das Pro-cess Mining einen ständigen Echtzeitabgleich zum Ist-Prozess und legt Abweichungen davon offen. Das Sys-tem liest dafür Daten aus allen beteiligten IT-Anwen-dungen aus.

In bislang angewandten Verfahren zum Prozessma-nagement entwarfen die Planer die Prozesse meist am Reißbrett von oben nach unten und konfigurierten auf dieser Basis die IT-Systeme. Sämtliche Abläufe mussten sie manuell zeichnen. Die Mengenverteilung in den Prozessvarianten kannten die Planer nicht, da ihnen die Rückkoppelung zur Praxis fehlte. Heute läuft der Weg in umgekehrter Richtung: Die Planer schauen zu-nächst, wie die Mitarbeiter einen Prozess in der Praxis durchführen. Die Praxiswerte für die spätere Optimie-rung liefern die beteiligten IT-Systeme.

Autonome Geschäftsabläufe als Ziel

Die intelligente Steuerung von Prozessen hängt von deren Komplexität und Automatisierungsgrad ab. Ab-weichungen vom Soll-Prozess korrigieren die Prozess-beteiligten noch immer manuell. Im Entstehen sind gerade IT-gesteuerte Assistenten, die Anwender dabei unterstützen. Dank Natural Language Processing kön-nen Anwender mit manchen Assistenten in natürlicher Sprache kommunizieren. Angestrebt werden nun voll-ständig autonome Prozesse. Dabei versorgen elektroni-sche Assistenten die betriebswirtschaftlichen Systeme, die wiederum auf Basis „Künstlicher Intelligenz“ Ent-scheidungen treffen und im Rahmen einer weitreichen-den Automatisierung selbstständig weitere Prozesse starten. Ein Beispiel, wie so etwas aussehen kann, lie-fert die moderne Finanzbuchhaltung, die automatisiert Debitoren und Kreditoren abgleicht, Rechnungen be-zahlt und selbsttätig Abschlussbuchungen, Korrektu-

ren und Wertberichtigungen vornimmt. Nach diesem Muster automatisieren Unternehmen künftig im Rah-men von Robotic Process Automation sich wiederho-lende und regelbasierte Prozesse.

Algorithmen erkennen Brüche im Ablauf

Werkzeuge für die Optimierung sind die analyti-schen Systeme. Algorithmen prüfen den fachlichen Prozess und entdecken auf Basis von Mustererkennung Ungereimtheiten. So wird sichtbar, ob beispielsweise Prozessschritte ausgelassen wurden oder Aktivitäten mehrfach vorkommen. Zum Einsatz kommen dabei Machine Learning, Deep Learning, Advanced und Augmented Analytics, Cognitive Automation sowie Methoden der Assoziation, Segmentierung und Prog-nose. Historische Daten und abgeschlossene Prozesse lassen sich aktuell sehr gut analysieren. Eine Heraus-forderung stellt allerdings die Analyse laufender Pro-zesse dar. Ist so etwas einmal möglich, können die Un-ternehmen in Echtzeit in Abläufe eingreifen. Zeigt sich beispielsweise anhand der bisherigen Daten, dass eine Rechnung mit drei Prozent Skonto nicht mehr rechtzei-tig bezahlt wird, wenn sie nach sieben Tagen nicht ge-nehmigt ist, dann könnte ein Workflow starten, der diese Rechnung vorzieht. Diese Analyse laufender Pro-zesse liegt im Fokus der Forscher. Allerdings können auch Experten wie Maike Spierling und Georg Aholt vom Bielefelder Systemhaus und SAP-Partner itelli-gence den exakten Zeithorizont für die nächsten Ent-wicklungsschritte momentan nicht nennen. Erst wenn die Forschung Ergebnisse liefert, können die Entwick-ler von Process-Mining-Werkzeugen darauf aufsetzen.

SAP Hana konkurriert mit externen Modulen

SAP-Anwender, die bereits mit Process Mining star-ten wollen, stehen vor der Frage, ob sie dazu externe Spezialmodule nutzen oder Teile des Verfahrens im SAP-System abbilden. Für das Process Mining existie-ren viele externe Werkzeuge, die auf die Hana-Daten-bank zugreifen. Beispiele dafür sind Celonis, Fluxicon oder Signavio. Auch bei der Analyse hat man die Wahl: SAP bietet ein externes Werkzeug namens SAP Pre-dictive Analytics, mit dem sich Prozesse und Systeme bewerten lassen. Zudem gibt es bei Hana mit der Pre-dictive Analytics Library selbst Analytics-Funktionen und Algorithmen für Prozessanalysen. <

GESA MÜLLER

IT-DIRECTOR · AUSGABE 1–2/2019 43

ERP-SYSTEME < SOFTWARE

Page 44: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Mit S/4 Hana steht für alle etablierten SAP-ERP-Landschaften eine funktionale und technische Rund-um erneuerung an. Neue Core-Funktionalitäten, mobi-le Anwendungen sowie alternative Cloud-Betriebsmo-delle verändern in diesem Rahmen die IT-Architektu-ren vieler Firmen, von denen sich einige bereits in der Umstellungsphase befinden und andere die Implemen-tierung mittelfristig angehen wollen (bzw. müssen).

Was bei der Planung oft in den Hintergrund rückt, ist die Datenarchivierung, d.h. die Aufbewahrung von Da-ten aus legalen und betrieblichen Gründen, sowie die Bereinigung von nicht benötigten Daten (Data Clean-sing). Obwohl die mittlerweile exponentiell wachsen-den Datenmengen in vielen Unternehmen zu veritab-len Kostenfaktoren geworden sind und für Leistungs-einbußen in den Produktivsystemen sorgen, werden diese Problempunkte häufig ignoriert. Zu hoch sind die vermeintlichen Hürden einer Datenarchivierung. Be-fürchtet werden neben Zugriffsverlusten auf die Daten-historie Kapazitätsengpässe in der IT-Abteilung und Unsicherheiten darüber, welche Dokumentenarten aufbewahrungsrelevant sind. Um dem zu entgehen, er-höhen viele Unternehmen einfach ihr Hardwarebudget und versuchen, der wachsenden Datenmenge mittels neuer physikalischer Speicher Herr zu werden.

Speicher nicht beliebig erweiterbar

Bei der neuen ERP-Suite funktioniert diese Herange-hensweise jedoch nicht mehr. Dies hat vor allem tech-nische Gründe, die allerdings einen erheblichen Kos-teneffekt nach sich ziehen: Trotz sinkender Preise sind Hauptspeicher immer noch deutlich teurer als Festplat-tenspeicher. Daher sind die Hardwarekosten bei In-Memory-Datenbanken wie Hana im Vergleich zu kon-ventionellen Datenbanken um den Faktor drei bis fünf höher. Hier kann es sich also durchaus lohnen, die ei-genen, oft mehrere Terabyte großen Systeme rechtzei-tig abzuspecken. Hinzu kommt, dass sich Hana Stand heute nicht beliebig skalieren lässt sich, was bedeutet,

Solide Basis fürs ERPWer den Umstieg auf SAP S/4 Hana gezielt angehen möchte, kommt um das Thema Datenarchivierung nicht herum. Ein wichtiger Aspekt ist dabei eine unternehmens­

weite, transparente und ganzheitliche Archivierungsstrategie.

dass der Datenbankgröße physikalische Grenzen ge-setzt sind und die Kapazitäten nur mit hohem Auf-wand erweitert werden können – wenn überhaupt. Und: Das neue System soll ja nicht von Anfang an schon aus allen Nähten platzen.

Der Umstieg bringt neue, simplifizierte Datenmodel-le (Simple Finance, Simple Logistics) mit sich, zudem werden bestehende Komponenten obsolet und durch Nachfolgefunktionalitäten abgelöst. Die Datentrans-formation ist bei einem möglichst reibungslosen Um-stieg also unumgänglich und stellt für die Risikobewer-tung der Umstellung einen Schlüsselfaktor dar – und zwar unabhängig von der gewählten Vorgehensweise (Greenfield/Brownfield). Generell gilt: Je kleiner die in der Datenbank vorgehaltene und zu transformierende Datenmenge, desto einfacher der Umstieg und desto geringer sind Aufwand und Risiko.

Die Basis für die digitale Zukunft

Sich mit dem Thema Datenarchivierung zu beschäf-tigen, ist auch aus weiteren Gründen sinnvoll: Zum ei-nen trat im Mai 2018 die EU-Datenschutz-Grundver-ordnung in Kraft. Sie gilt in allen EU-Mitgliedsstaaten und statuiert neben altbekannten Pflichten auch neue Anforderungen zum Schutz personenbezogener Daten und revisionssicherer Archivierung. Zum anderen ver-ändert die Digitalisierung die Rahmenbedingungen. Bereits heute erzeugen global aufgestellte Unterneh-men mehrere Millionen Anwendungsbelege jährlich, vor allem in der Finanzbuchhaltung, der Logistik und der Produktion. Die Datenmengen, die künftig durch IoT-Daten und deren Auswertung zu betriebswirt-schaftlichen Zwecken entstehen, werden den Speicher-bedarf weiter steigern. Eine Archivierungsrichtlinie, die auf künftige digitale Ende-zu-Ende-Prozesse ausge-richtet ist, muss firmenweit geplant werden und für alle Bereiche transparent sein. Die Richtlinie sollte alle identifizierten Archivierungsobjekte (Anwendungsda-ten) sowie alle aufbewahrungsrelevanten Dokumenten-

IT-DIRECTOR · AUSGABE 1–2/201944

SOFTWARE > ERP-SYSTEME

Page 45: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

arten enthalten. Ebenso bein-haltet sie verbindliche Aufbe-wahrungsfristen, die den ge-setzlichen Anforderungen und internen Standards genügen, legt die Verweildauer von An-wendungsdaten in den Pro-duktivsystemen fest und defi-niert, wo die archivierten Da-ten physisch abgelegt werden. Zu den weiteren Kernbestand-teilen der Strategie bzw. Richtlinie gehören die Ausar-beitung eines Berechtigungs- und Zugriffskonzeptes für die Anzeige archivierter Daten sowie die Erstellung eines Dokumentationskonzepts zur effizienten Ab-wicklung des Archivierungsprozesses.

Im Zuge der Ausarbeitung einer Archivierungsstrate-gie und der Identifikation aufbewahrungsrelevanter Daten erhalten Unternehmen während einer Analyse-phase Transparenz darüber, welche Daten nicht mehr benötigt werden und somit unnötig Ressourcen bin-den. Die irrelevanten Daten können meist durch Stan-dardmaßnahmen entfernt werden, die im Hinblick auf S/4-Migrationen ohnehin unabdingbar sind.

Die Analysephase als Vorstudie zu einem möglichen Archivierungsvorhaben beinhaltet nicht nur techni-sche, sondern auch fachliche Optimierungsaspekte. Im

Fokus steht die Bewertung der Stammdaten und der Pflege-prozesse. So lässt sich die Stammdatenqualität langfris-tig verbessern. Zudem werden durch die Kostenbetrachtung der Stammdaten Auswirkun-gen fehlender Datenqualität sichtbar gemacht. Prozessbe-rater wie Corporate Business Solutions (cbs) bieten Indus-

trieunternehmen Unterstützung in den Phasen des Übergangs zu S/4. Neben dem „S/4 Hana Transition Program“ steht mit cbs ET for SAP S/4 Hana zudem laut Anbieter eine Standardsoftware für den Umstieg in die neue SAP-Welt bereit.

Sicher ist: Eine firmenweite und transparente Archi-vierungsrichtlinie zu erarbeiten, gelingt nur, wenn alle Abteilungen und Bereiche an einem Strang ziehen. Da-zu braucht es Vorlauf. In puncto Umsetzung der Archi-vierungsstrategie bietet Netweaver inklusive SAP ILM ein breites Spektrum an Archivierungsfunktionalitä-ten einschließlich des komfortablen und schnellen Zu-griffs auf archivierte Dateien, der Implementierung le-galer Sperren und der Unterstützung bei der Datenver-nichtung nach Erreichen der Aufbewahrungsfrist. <

RANDOLPH REUSS

Die Stammdaten-qualität optimierenGlobale Lösungen, digitale Transformation, S/4 Hana: Das sind wesentliche Treiber, um das Thema Master Data Management im SAP-Umfeld neu in den Blick zu nehmen. Stammdaten als digitale Ko-pie der realen Business-Objekte spielen eine im-mer wichtigere Rolle. Eine hohe Stammdatenquali-tät ist die Basis für effiziente Geschäftsprozesse. Hinter speziellen Tools verbirgt sich eine umfas-sende Standardsoftware zur Bewertung, Überwa-chung und Optimierung der Stammdaten. Indust-riefirmen können damit Ihre Stammdatenqualität langfristig verbessern. Durch die Kostenbetrach-tung der Stammdaten werden zudem Auswirkun-gen fehlender Datenqualität sichtbar gemacht.

IT-DIRECTOR · AUSGABE 1–2/2019 45

ERP-SYSTEME < SOFTWARE

Page 46: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

> Um seinen mehr als 400 Wiederverkäufern einen modernen Rechnungsstellungsprozess anbieten zu können, plante Stihl Österreich die Einführung eines E-Billing-Prozesses, bei dem die Rechnungen zudem auch automatisch archiviert werden. Ziel war es, die in der Vergangenheit manuell und postalisch erfolgte Rechnungsstellung sukzessiv in einen digitalen Work-flow zu überführen, bei dem automatisch die gesetzli-chen Archivierungsvorgaben erfüllt werden.

Der Auslöser für diese grundlegende Veränderung war die Notwendigkeit, das bestehende Archivierungs-system zu ersetzen. „Dabei wollten wir zwei Fliegen mit einer Klappe schlagen und zwar indem wir ein Ar-chiv einführen, das direkt mit einer E-Billing-Lösung verbunden ist“, erinnert sich Walter Wankmüller, Be-reichsleiter Finanzen & IT der Stihl Ges.m.b.H. Öster-reich. Wichtig war ihm, dass nicht zwei separate Lö-sungen eingeführt werden, sondern ein System, mit dem sich beide Aspekte umsetzen lassen. Außerdem sollte es ein einfaches System sein, das möglichst genau

Workflow mit ArchivanschlussDer Garten- und Forstgerätehersteller Stihl Österreich hebt mit einem neuen

Archivierungssystem seinen Rechnungsstellungsprozess auf die nächste Digitalisierungsebene.

auf die Bedürfnisse von Stihl zugeschnitten ist. Wank-müller: „Der schnelle und unkomplizierte Zugriff auf Rechnungsdaten, die Schnittstellen zu unserem ERP und die Datensicherheit, die uns das Eurodata-Archiv garantiert, haben uns überzeugt.“ So realisierte er zu-sammen mit einem kleinen Team aus Spezialisten ei-nen ersten Testlauf. Zu diesem Zweck wurden sämtli-che Daten eines Jahres ins Archiv gespielt und dann die Suchfunktionen und Zugriffsmöglichkeiten getes-tet. Die Rückmeldung war positiv und deshalb ent-schied man sich für die grundsätzliche Einführung von Edmail2archiv. Die Archivierung konzipierte der Gar-tengerätehersteller so, dass nachts alle Daten vollauto-matisch ins Archiv gespielt werden, ohne dass sich je-mand darum kümmern muss. „Wenn heute der Fall auftritt, dass Kunden uns bitten, ihnen nochmals ihre Rechnung oder andere Daten zur Verfügung zu stellen, haben wir per Mausklick alles zur Hand“, berichtet der Bereichsleiter Finanzen & IT.

Digitalisierter Rechnungsprozess

Aber auch im Normalfall ist seit der Einführung der Software mit dem optionalen E-Billing-Modul vieles besser geworden. Der Prozess der Rechnungsstellung funktioniert jetzt weitgehend standardisiert und auto-matisch. Die Rechnungen werden über das ERP-Sys-tem von Stihl generiert und den Kunden über einen entsprechenden Verteilerschlüssel zugeordnet. Je nach-dem ob diese eine Rechnung in Papierform oder als E-Rechnung bevorzugen, wird der Prozess dann fortge-setzt. Ist eine digitale Rechnung gewünscht, erfolgt der weitere Ablauf digital über das System – inklusive Zu-stellung und Archivierung. Mittlerweile werde 60 Pro-zent der knapp 70.000 Rechnungs- und Gutschriften-dokumente auf diese Art und Weise abgewickelt. Dieje-nigen, die keine E-Rechnung wünschen, erhalten ihre

Erprobung der Motorsäge MS in der Klimakammer

IT-DIRECTOR · AUSGABE 1–2/201946

PRAXIS > IT-PROJEKTE

Page 47: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

Abrechnung noch auf dem klas-sischen Postweg. Grundsätzlich aber sei die elektronische Rech-nung sehr praktisch, denn sie gehe schneller, ist günstiger und man sei unabhängig von der ös-terreichischen Post, meint man bei dem Garten- und Forstge-rätehersteller.

Die Änderungen haben sich gelohnt. Nicht nur, dass die Ar-chivierung und Rechnungsstel-lung jetzt reibungsloser funktio-nieren. Vor allem ist weniger Zeitaufwand erforderlich und durch die Vernetzung der Syste-me werden auch automatisch Fehlerquellen minimiert und damit die Datenvalidität erhöht. „Diese Cloud-Lö-sung ist perfekt für uns und im Grunde für viele andere kleine und mittelständische Unternehmen auch. Wir müssen uns um die Hardware keine Sorgen mehr ma-chen und auch die Einhaltung gesetzlicher Vorgaben ist automatisch gewährleistet“, weiß Walter Wankmül-ler. Er ist glücklich über die Entscheidung und die Er-

gebnisse dieses Digitalisierungs-projekts.

Der ganze Prozess passe her-vorragend in die Geschäftsstra-tegie von Stihl, sich solide und möglichst unabhängig aufzu-stellen und dabei immer die Er-fordernisse der Zukunft fest im Blick zu haben. „Das Thema Ar-chiv können wir jedenfalls von unserer K-Liste, unserer Kata-strophenliste, streichen“, freut er sich. Und sollte doch einmal dringend eine Rechnung aus der Vergangenheit benötigt werden, weiß Wankmüller, dass er in

seinem Archiv alles abgelegt hat und innerhalb weni-ger Augenblicke jedes Dokument verfügbar ist. Aber das Beste sei, dass es keiner großen Investitionen be-darf, um diese Effekte zu erzielen. Schließlich handle es sich bei der Archivlösung um eine Cloud-Lösung, die monatlich nur mit einer geringen Gebühr zu Buche schlage. <

ALEXANDRA SCHMIDT

Die Stihl-Gruppe …… entwickelt, fertigt und vertreibt motorbe-triebene Geräte für die Forst- und Landwirt-schaft sowie für die Landschaftspflege, die Bauwirtschaft und den anspruchsvollen Privatanwender. Seit 1971 ist Stihl global die meistgekaufte Marke im Bereich Motorsägen. Das Unternehmen beschäftigt weltweit 15.000 Mitarbeiter, davon 40 in Österreich.

Im Internet: www.stihl.at

IT-DIRECTOR · AUSGABE 1–2/2019 47

IT-PROJEKTE < PRAXIS

Page 48: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

TERMINEMit KI die Produktion

verbessern> Ob E-Commerce oder Gaming – der Einsatz von Künstlicher Intelli-genz (KI), Machine Learning oder Virtual Reality ist in kommerziel-len Bereichen weit verbreitet. Jetzt geht auch die Industrie nach vorn und zeigt unter dem Leitthema „In-dustrial Intelligence“ vom 1. bis 5. April 2019 im Rahmen der Han-nover Messe 2019, wie sie diese Technologien nutzt.„Es gibt eine Herausforderung, die noch größer ist, als das eigene Ge-schäft digital zu transformieren: es nicht zu tun“, auf diese Formel bringt es Microsofts General-Manager im Bereich Manufacturing & Re-sources Industry, Caglayan Arkan. Vor diesem Hinter-grund treibt die Fachmesse die Entwicklung zur Indus-trie 4.0 seit Jahren voran. Und Arno Reich vom Team der Hannover Messe betont: „Wir werden eine Vielzahl

von Ausstellern haben, die ihre KI-basierten Lösungsansätze zeigen.“ Schwerpunktmäßig findet man die Themen in den Hallen 5, 6, 7 und 8 unter dem Motto Digital Factory.

KI-Technologien – insbesondere Machine- und Deep-Learning-Technologien – finden zunehmend den Weg in die Fertigungsindustrie. Ein Beispiel ist die Erkennung von Mustern und Korrelationen basie-rend auf unstrukturierten Daten wie Bildern, Videos oder Tönen in Kombination mit strukturierten

Daten aus den Maschinen. Der Vorteil: Eine solche Verknüpfung kann den Aufwand verringern, Fehler oder Probleme zu identifizieren. Lernende Systeme werden so zur Basis für kontinuierliche Verbesserung in der Fertigung. <Im Internet: www.hannovermesse.de

Anfang April 2019 öffnet die Hannover Messe ihre Tore.

E-LösungstageTermin: 12. und 13. März 2019 in Düsseldorf

Preis: ab 95 Euro

Veranstalter: BME e.V.

Info: www.bme.de/eloesungstage

Zum zehnten Mal finden die „E-Lösungstage“ des Bundesverbands Materialwirtschaft, Ein-kauf und Logistik e.V. statt. Mit über 1.000 Teilnehmern hat sich das Event laut Veran-stalter zum größten Kongress für E-Sourcing und E-Procurement im deutschsprachigen Raum entwickelt. Dabei können sich die Teil-nehmer ein individuelles Programm zusam-menstellen und aus Workshops, Roundtables und Fachforen mit Best Practices wählen. Die Teilnehmer sollen das Rüstzeug für die Digita-lisierung ihrer Geschäftsprozesse erhalten. Dabei stehen u. a. folgende Themen im Fokus: Transparenz über Ausgaben, Contracts und Risiken, Lieferantenmanagement über Platt-formen und Geschäftsnetzwerke, Service-to-Consumer-Lösungen (S2C) für den strategi-schen Einkauf sowie Change Management.

Data FestivalTermin: 19. bis 21. März 2019 in München

Preis: ab 790 Euro

Veranstalter: Alexander Thamm GmbH, Barc

Info: www.datafestival.de

Das Data Festival fordert: Deutschland muss beim Thema Künstliche Intelligenz (KI) aufho-len. Darum haben das Analystenhaus Barc und das Beratungshaus Alexander Thamm ein For-mat entwickelt, das weit über eine Konferenz hinausgehen soll. Zum Hintergrund: Die Data Community im deutschsprachigen Raum müs-se laut den Veranstaltern wachsen und vom gegenseitigen Austausch profitieren. Tech-Deep-Dive-Sessions mit Datenexperten stehen daher ebenso auf dem Programm wie Networ-king-Formate. Für die Vorträge haben sich Ver-treter von Volkswagen, Deutsche Bahn, Sho-pify, Scout24 oder Henkel angekündigt. Ziele der Konferenz sind die Weiterbildung der Teil-nehmer und ein Austausch über neue Techno-logien in den Bereichen Künstliche Intelligenz, Data Science und Data Engineering.

Future ThinkingTermin: 11. April 2019 in Flörsheim

Preis: ab 99 Euro

Veranstalter: Dc-ce RZ-Beratung

Info: www.future-thinking.de

Zu ihrer zehnten Auflage präsentiert sich die Ideenplattform der deutschen Rechenzen-trumsbranche runderneuert. Auf einen Tag konzentriert will man mit dem neuen Format auf heutige Bedürfnisse nach Konzentration auf der einen sowie Austausch und Wissens-transfer auf der anderen Seite reagieren. In der neuen Location im Rhein-Main-Gebiet fin-den Messe und Kongress auf einer Fläche statt. Dabei können die Besucher 15-minütige Impulsvorträge mitten auf der Ausstellerflä-che verfolgen. Zudem geben ausgewählte Ins-pirationsvorträge, etwa von Zukunfts- und Trendforscher Matthias Horx, branchenüber-greifenden Input. Die Vorträge tangieren Digi-talisierung, Sicherheit und IT-Infrastrukturen über USV, Klima- und Kühltechnik bis zu Kollo-kation, Architektur, Planung und Consulting.

IT-DIRECTOR · AUSGABE 1–2/201948

VERANSTALTUNGEN > TERMINE

Page 49: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

IT-DIRECTOR · AUSGABE 12/2018 49

TERMINE < VERANSTALTUNGEN

TECHNOLOGIE-

NEWSMIT FORMAT

© M

EDIE

NHAU

S Ve

rlag

GmbH

© M

EDIE

NHAU

S Ve

rlag

GmbH

Page 50: Software für Versorger und Industrie - IT-ZOOM...In Kombination mit Business Analytics wird aus der reaktiven Betrachtung eine prognostizierende Steuerung. 44 Solide Basis fürs ERP

LETZTE SEITEVorschau auf Heft 3/2019Erscheinungstermin:

12. März 2019Redaktions- & Anzeigenschluss:

15. Februar 2019

Titelthema: Dokumenten-Management/ECM

Weitere Themen: Output-Management und Drucker, Industrie 4.0 und Robotik, IT-Outsourcing, Colocation sowie Hosting

Impressum

Thema: Industrie 4.0 und Robotik

Im Fegefeuer der Pilotprojekte> Für viele deutsche Industrieunternehmen hat die Umstellung auf eine digitale Produktion höchste Priorität. Sie automatisieren ihre

Prozesse und setzen immer mehr Roboter ein. Und dennoch gibt es Projekte, die nicht aus der Pilotphase her-auskommen. Woran liegt das? Und was müssen jene Unterneh-men beachten, um das Dilemma hinter sich zu lassen? <

vereinigt mit Client/Server-magazin

Herausgeber: Klaus Dudda

Redaktion: Ina Schlücker (IS, verantwortlich für den Inhalt), Guido Piech (GP), Berthold Wesseler (WE), Lea Sommerhäuser (LS), Philip Fassing (PF), Shipra Kren (SK, Volontärin)

E-Mail Redaktion: [email protected]

Internet: www.it-director.de

Ständige Mitarbeit: Siegfried Dannehl (SD), Daniela Hoffmann (DH), Ingo Steinhaus (ST), Markus Strehlitz (MST)

Autoren dieser Ausgabe: Elmar Eperiesi-Beck, Henrik Hasenkamp, Prof. Peter Liggesmeyer, Gesine Liskien, Christian Michel, Gesa Müller, Christian Raum, Randolph Reuss, Alexandra Schmidt

Grafik/Layout: Michael Schreiner, Daniel Hering

Titelfoto: Jörg Ladwig

Fotonachweis: Hannover Messe (48), Hiber (12), Jörg Ladwig (Titel, 4, 20–24, 26+27) Stihl (5, 46+47), Thinkstock/iStock (4-6, 9+10, 14+15, 29+30, 33, 38, 41+42, 50), Weig (37) sowie Produkt- und Personen-fotos der genannten Anbieter

Anzeigenverkauf/Mediaberatung:Gesamtanzeigenleiter: Thomas Büchel

Leiter Verkauf: Hendrik Dreisbach

Assistenz: Susanne Rosenbaum

Anzeigenverwaltung: Jutta Herkenrath

E-Mail Anzeigen: [email protected]

Anzeigenpreise: Es gilt die Anzeigenpreisliste vom 1. 1. 2019

Abonnement:Jahresbezugspreise Inland: EUR 75,- inkl. Versand u. MwSt. Europa: EUR 99,- inkl. Versand

Erscheinungsweise: 10 x jährlich

Abonnenten-Service: Tel.: 0 22 04 / 92 14 - 0

Online-Marketing:MEDIENHAUS Internet Publishing GmbH Beratung: Thomas Büchel

Druck/Litho/Druckunterlagen: L.N. Schaffrath GmbH & Co. KG DruckMedien www.schaffrath.de

Gedruckt auf chlorfrei gebleichtem Papier

Die Zeitschrift und alle in ihr enthaltenen Beiträge und Abbildungen sind urheberrechtlich geschützt. Mit Ausnahme der gesetzlich zugelassenen Fälle ist eine Verwertung ohne Einwilligung des Verlages strafbar. Für unverlangt eingesandte Beiträge haftet der Verlag nicht. Beiträge sind aber willkommen.

Mitglied

IT-DIRECTOR unterstützt die freiwillige Selbstkontrolle der deutschen Presse.

Verlag:MEDIENHAUS Verlag GmbH Bertram-Blank-Straße 8 · 51427 Bergisch Gladbach Tel.: 0 22 04/92 14 - 0 · Fax: 0 22 04/92 14 - 30

E-Mail Verlag: [email protected]

Geschäftsführer: Klaus Dudda

Beilagenhinweis: Diese Ausgabe enthält eine Beilage von AVNET SILICA. Wir bitten unsere Leser um freundliche Beachtung.

IT-DIRECTOR · AUSGABE 1–2/201950

IT-DIRECTOR > VORSCHAU & IMPRESSUM