16
März 2012 Cloud-Computing virtualisierungs-guide.de virtualisierungs-guide.de speicherguide.de speicherguide.de Eine Publikation von L RECHENZENTRUM Cloud und grün ist möglich L CLOUD-COMPUTING So ist es rechtlich kein Problem L STORAGE Der universelle Hypervisor machts +++ Eine Wolke für jede Firma? Nicht unbedingt … +++ Die Cloud – Vor- und Nachteile

ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

  • Upload
    others

  • View
    3

  • Download
    0

Embed Size (px)

Citation preview

Page 1: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

März 2012 Cloud-Computing

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Eine Publikation von

L RECHENZENTRUM Cloud und grün ist möglich

L CLOUD-COMPUTING So ist es rechtlich kein Problem

L STORAGE Der universelle Hypervisor machts

+++ Eine Wolke für jede Firma? Nicht unbedingt … +++

Die Cloud – Vor- und Nachteile

Page 2: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Storage Competence Partner ist eine Kooperation des VAD TIM AG mit führenden Storage Herstellern und Systemhäusern in Deutschland. Diese zeichnen sich aus durch:

❙ herstellerübergreifende Lösungskompetenz

❙ hochqualifi zierten Support und Professional Service

❙ methodische, technologische und kaufmännische Storage Beratungskompetenz

TIM AG Schoßbergstraße 2165201 Wiesbaden www.tim.de www.storagecompetencepartner.de

Kontaktieren Sie uns: 0611 2709-222 oder [email protected]

01277 [email protected]

22303 Hamburgwww.traffi x.destorage@traffi x.de

28357 [email protected]

30559 [email protected]

51063 Kö[email protected]

51647 [email protected]

53111 [email protected]

55543 Bad [email protected]

59457 [email protected]

61352 Bad [email protected]

63303 [email protected]

64625 [email protected]

72186 Empfi [email protected]

73479 [email protected]

74172 [email protected]

82178 [email protected]

94315 [email protected]

70563 [email protected]

85716 Unterschleiß[email protected]

Page 3: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

3

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Als Amazon vor fast sechs Jahren begann, nicht benötigte Serverkapazitäten einfach an andere Firmen zu vermieten, wurde das Internetkaufhaus mit Kritik überschüttet. Viel zu gefährlich sei das, weil hochsensible Daten in die Hände anderer fallen und Amazon so einen enormen Schaden zufügen könnten, hieß es damals. Schnee von gestern. Amazon-Chef Jeff Bezos war wieder mal seiner Zeit einfach um einige Jahre voraus – defacto hatte er die Cloud geboren.

Sie hieß nur damals noch nicht so. Nicht nur, dass Amazon durch das Vermieten freier Computerkapazitäten mittlerweile prächtig verdient. Vielmehr ist es auch so, dass das Auslagern von IT-Lösungen raus aus der Firma und rein ins Internet zum absoluten Trendthema geworden ist. Programme oder Daten liegen dabei zentral auf großen Rechnern und werden nur bei Bedarf vom Arbeitsplatz-PC abgerufen.

Mittlerweile spielt beim Cloud-Computing das Who’s who der Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard (HP) bis EMC und Microsoft. »Cloud Comput-ing ist der Megatrend im Hightech-Sektor«, stellt der deutsche Branchenverband Bitkom ganz nüchtern und sachlich fest.

Beispielsweise in der Spielebranche soll Cloud-Computing sogar für regelrechte Umbrüche sorgen. Das Szenario: Da künftig via Großrechner und Internet gespielt wird, müssen speicherplatzfressende Spiele gar nicht mehr auf dem heimisch-en PC installiert werden. Und weil Bild und Ton übers Internet kommen, brauchen Spieler selbst für aufwändige 3D-Spiele keine teuren Rechner mit leistungsstarkem Prozessor und schneller Grafikkarte.

Die Wachstumsraten sind enorm. Interessanterweise dürfte ausgerechnet die Finanz- und Wirtschaftskrise 2008/10 das neue Modethema befeuert haben. Denn IT-Lösungen, die zu geringeren Kosten das Gleiche bieten, sind für jede Firma, die sparen will (oder muss), attraktiv.

Und deswegen ist die Cloud ein Supertrend, der sich derzeit sogar noch richtig verfestigt.

Ihr Engelbert HörmannsdorferRedaktion virtualisierungsguide.de

Inhalt

EditorialEin Supertrend etabliert sich

Impressumvirtualisierungs-guide.de – eine Publikation von speicherguide.de GbR Karl Fröhlich, Engelbert Hörmannsdorfer, Ulrike Rieß

Auf der Grün 8, D-83714 MiesbachTel. 080 25/51 79, Fax: 080 25/51 71E-Mail: [email protected]

Chefredaktion, Konzept:Engelbert Hörmannsdorfer (verantwortlich für den redaktionellen Inhalt)[email protected].: +49 (0) 8025 - 5179

Redaktion: Karl Fröhlich, Ulrike Rieß

Schlussredaktion: Engelbert Hörmannsdorfer

Layout/Grafik: Uwe Klenner, Layout und Gestaltung, Rittsteiger Str. 104, 94036 Passau, Tel. 08 51/9 86 24 15 www.layout-und-gestaltung.de

Titelbild: Uwe Klenner (Composing), pixelio.de

Mediaberatung: Claudia Hesse, Tel. 00 41 41/761 32 47 E-Mail: [email protected]

Webkonzeption und Technik: Günther Schmidlehner E-Mail: [email protected]

Urheberrecht: Alle in »storage-magazin.de« erschienenen Beiträge sind urheberrechtlich geschützt. Alle Rechte (Übersetzung, Zweitverwertung) vorbehalten. Reproduktion, gleich welcher Art, sowie elektronische Auswertungen nur mit schriftlicher Genehmigung der Redaktion. Aus der Veröffentlichung kann nicht geschlossen werden, dass die verwendeten Bezeichnungen frei von gewerblichen Schutzrechten sind.

Haftung: Für den Fall, dass in »storage-magazin.de« unzutreffende Informationen oder Fehler enthalten sein sollten, kommt eine Haftung nur bei grober Fahrlässigkeit der Redaktion oder ihrer Mitarbeiter in Betracht.

Editorial / Impressum ..........................Seite 3

Grundlagen & Praxis: Die Cloud: Risiken und Gefahren ...Seite 4

Grundlagen & Praxis: Cloud-Computing – Vor- und Nachteile ..........................................Seite 8

Advertorial: Cloud-Computing ist in Deutschland rechtlich möglich ...........................Seite 10

Advertorial: Mit Storage-Hypervisor in die Private-Cloud .................................Seite 12

Grundlagen & Praxis: Grünes RZ ist doch sexy ................Seite 14

Page 4: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis4

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Ulrike Rieß, speicherguide.de

Da Cloud – in welcher Kombination auch immer – derzeit das erklärte Lieblingswort der IT-Branche ist, spricht nun auch jeder Anbieter Cloud. Dabei spricht oder besser verspricht der Hersteller wirklich Bilder-buchszenarien. Nun soll die IT-Wolke – bzw. sämtlich geforderten Ressourcen von Hard- über Software bis hin zu An-wendungen und Services – bildlich im klarblauen Himmel stehen und immer und überall leicht und sicher verfügbar sein. Unabhängig, was ein Unternehmen gerade braucht, es steht zu Verfügung und wird punktgenau abgerechnet.

Das ist zumindest das Idealbild, das dem potenziellen Kunden ausgemalt wird. Die Realität ist aber bislang noch eine andere. Wer sich als Kunde oder Nutzer nicht sorgfältig umschaut, prüft und informiert, auf den könnte hinter dem Wolkenszenario doch eher der Nebel

des Grauen lauern, in dem sich Daten oder Ressourcen verlieren und es unüber-schaubar wird, wo, wann welche Infor-mationen liegen und wer darauf Zugriff hat oder auch nur hatte.

Hype um des Hype WillenSchaut sich der Speichersuchende derzeit um, so begegnet ihm kaum eine Lösung, die nicht Cloud-fähig, Cloud-kompatibel oder zumindest Cloud-Enabler ist. Außer-

dem droht auch die »iCloud« von Apple und somit wären alle Bereiche wolken-versorgt. Die erste Frage, die der IT-Ent-scheider sich hier aber stellen muss, ist die, ob es die Cloud überhaupt braucht oder nur haben will, weil eben alle davon reden.

Sucht der IT-Verantwortliche nicht viel-mehr eine Lösung für ein Problem, das handfeste Systeme nötiger hat als wirres Wolkengerede? Der erste Schritt zur Wol-

Die Cloud-Szenarien sind bei weitem nicht ganz so rosig oder watteweiß, wie die Hersteller gern vermitteln. Vielmehr könnten dunklere Wolken in Form von Sicherheitsrisiken und Regelverfahren bzw. notwendigen Geschäftsprozessen aufziehen, die der schäfchenwolkenartigen IT-Cloud Paroli bieten.

Que

lle: S

tatis

ta; G

rafik

: spe

iche

rgui

de.d

e

Potenzial des Consumer-Marktes

IT-Himmel könnte wolkig werden mit Risiko des Datenverlustes

Risiken und Gefahren

Bild

: Uw

e K

lenn

er

Die Cloud:

Page 5: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis 5

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

ke sollte also der sein, zu hinterfragen, ob der Entscheidungsträger einem Hype um des Hype Willen folgt oder wirklich benötigt, was die Cloud verspricht.

Damit wird das nächste Problem ge-wahr, denn mittlerweile tummeln sich zahlreiche Anbieter am Markt herum, und jeder definiert die Cloud anders und bie-tet dementsprechend sehr unterschiedli-che Dinge an. Damit ist der potenzielle Interessent gezwungen, sich zunächst mit all diesen Angeboten auseinander zu set-zen. Hilfreich ist hier, wirklich vorher zu identifizieren, was das Unternehmen mit einer neuen Lösung – heißt sie nun Cloud oder anders – erreichen will oder muss. Die geschäftliche Notwendigkeit definiert letztlich den Rahmen dessen, was später zum Einsatz kommt.

Was die Wolke wirklich istDie so genannte Cloud ist kein fest zu machendes Produkt, sondern vielmehr ein Konzept, das es an den Mann zu bringen gilt. Das Konzept selbst ist dabei nicht einmal neu. Im Grunde genommen geht es um Funktionalitäten, Services und Res-sourcen, die früher unter Begriffen wie verteiltes Rechnen/Speichern, Outsorcing/Hosting oder Softare-as-a-Service subsu-miert wurden. Was wirklich neu an der Cloud ist, ist die Kombination neuer Tech-nologien, Funktionseigenschaften, Servi-ces, Skalierbarkeit, Mobilität und eben verteilt zugreifbaren Ressourcen an un-terschiedlichen Standorten.

Das ist sicher ein gewaltiges Konglo-merat. Die Basis hierfür sind solide Hard-ware mit hohem Nutzwert bzw. leistungs-fähige Infrastruktur, Konnektivität, Dienstleistungen, Implementierungsopti-onen sowie neue und effizientere Abrech-nungsmöglichkeiten. Hinzuzufügen ist zudem, dass erst neue Funktionen wie Virtualisierung, Thin-Provisioning, Dedu-plizierung und Verschlüsselung die Syste-me so effektiv machen, dass sie sich für einen flächenmäßig breiten Einsatz eig-nen. Frühere Monolithen, die kaum ska-lierbar – quasi nicht »aufschraubbar« – waren, ließen eine solche Verteilung der Ressourcen kaum zu.

Cloud ist also ein bereits bestehendes Konzept, dass sich nun erst mit den ak-tuellen technischen Mitteln wirklich um-setzen und um viele Punkte erweitern lässt. Die Fülle an Möglichkeiten macht es dabei nicht einfacher, eine reale Lösung für existierende Anforderungen zu fin-den. Der IT-Manager muss abwägen, wie

viel des Konzeptes in das eigene, also sein Geschäftskonzept passt.

Dabei gilt es, mehr als nur die techni-schen Notwendigkeiten herauszukristal-lisieren. Zusätzlich muss jeder IT-Manager seine Geschäftsprozesse und deren recht-liche Verbindlichkeiten kennen, ebenso seine Verpflichtungen als entscheidender Mitarbeiter – wahlweise CEO, CTO oder CIO. Das Konzept Cloud muss sich also der Strategie und dem Wesen des jewei-ligen Unternehmens anpassen. Und ge-nau diese Anpassbarkeit wird vom Cloud-Vertreter gepriesen.

Hohes MarktpotenzialKein Produkt ohne Markt oder einer Ana-lyse desselbigen. Und so lässt sich auch der Cloud-Sektor mittlerweile mit Zahlen belegen. So prognostiziert das Institut statista, dass der Umsatz im Business-to-Business-Umfeld für Cloud-Anbieter im Jahr 2012 allein in Deutschland bei 2,9 Milliarden Euro liegen wird. Für das Jahr 2013 sehen die Auguren hier ein Umsatz-potenzial von 4,5 Milliarden Euro, 2014 bereits 6,8 Milliarden Euro und 2015 gar 7,6 Milliarden Euro.

Ein Orakel für spätere Jahre gibt es nicht, vielleicht gibt es ja bis dahin wieder einen neuen Trend bzw. Hype. Allerdings lässt sich die gleiche Institution bei der Voraussage der Verbraucherausgaben bis zum Jahre 2016 hinreißen. Das Jahr 2012 soll demnach allein im deutschen Consu-mer-Cloud-Bereich rund 2,1 Milliarden Euro abwerfen. Für das Jahr 2014 gibt es das Potenzial von fast vier Milliarden und 2016 soll den Wolkenbeschwörern im Privatgeschäft etwa 6,1 Milliarden Euro einbringen. Hersteller oder Dienstleister wären schon ein wenig geschäftsfaul, sprängen sie nicht auf den rasanten Zug der Cloud auf.

Cloud-Bereiche und AnbieterDen obigen Prognosen entsprechend sprießen nun Cloud-Anbieter wie Pilze aus dem Boden. Dabei ist Cloud nicht gleich Cloud, wie bereits erwähnt, son-dern hier darf es sich der IT-Interessierte aussuchen. Sowohl als Hersteller oder Dienstleister als auch als Kunde. Die Be-reiche, die sich mit dem Begriff Cloud verbinden lassen, reichen von Cloud-Development bis Software-as-a-Service (SaaS; siehe Kasten).

Bei letzterem schreckten die Namens-geber dann wohl doch vor der Kombina-tion mit Cloud zurück. Die Liste erhebt

keinen Anspruch auf Vollständigkeit. Auch ein Journalist muss ständig damit rechnen, dass ein Startup aus der Hecke springt, das eine ganz neue Idee zum Wolkenthema hat. Oder es werden schlichtweg noch weitere Definitionen der Wolke und das dazu gehörende An-gebot entdeckt.

Insgesamt sind derzeit als mehr als 270 Dienstleister bzw. Hersteller rund um die Cloud unterwegs. Es ist nicht überra-schend, dass gerade im Storage/Hosting-Umfeld so viele Firmen vertreten sind. Dafür ist es erstaunlich, dass verhältnis-mäßig wenig Berater ihr Unwesen trei-ben, denn gerade im Cloud-Geschäft sollte sich der Kaufinteressierte Rat holen. Die einzelnen Unternehmen hier aufzu-zählen ist müßig, denn wortwörtlich jeder mischt nach eigenen Angaben im Cloud-Umfeld mit. Stellvertretend seien an die-

Cloud-Disziplinen

Cloud-Anbieter nach Bereichen (Beispiele)

Cloud-DevelopmentCitrix, cloud.com, RedHat, Unisys, CloudPilots, ThinkGrid

Cloud-SecuritySymantec, Panda Security, McAffee, Acronis, CA

Cloud-InfrastructureAMD, Brocade, CSC, Comparex, IBM, Datev, Dell, Fujitsu, Vmware

Cloud-Storage/HostingApple, Amazon, Cetera Networks, Twinstrata, EMC, Hewlett-Packard, Fujitsu, Nasuni, Netapp, Nirvanix, Microsoft, Strato, Symantec, T-Systems, Trend Micro, Verizon, AT&T

Cloud-Management/ToolsScaleUp, Vmware, CA, Riverbed, Dell, Novell

Cloud-Platform3tera, Amazon, CA, Datev, Dell, Citrix, Microsoft, Vmware

Cloud-Consulting Dell, EMC, Fujitsu, HP, IBM, Redhat, Unisys, Vmware

Software-as-a-ServiceAcronis, Cisco, CSC, Fujitsu, HP, IBM, Novell, Microsoft, SBC, Wyse

Page 6: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis6

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

ser Stelle einige genannt (siehe Kasten). Allein die Mehrfachnennungen belegen, wie kompliziert es wäre, sich einen An-bieter nach Bereich auszusuchen. Ebenso finden sich Firmen in Bereichen wieder, in die sie kaum jemand nach eigenem Wissensstand eingeordnet hätte. Und wiederum zeigt sich, dass man in der Wol-ke genau schauen muss, was sich anbie-tet und was im eigenen Unternehmen sinnvoll einsetzbar ist.

Verschiedene Wolkenbilder zeichnen sich abIn den letzten Jahren haben sich drei Wol-kenbilder abgezeichnet, die den unter-schiedlichen Einsatz der jeweiligen Cloud definieren. Unternehmen können sich für die »private Cloud«, die »Public Cloud« und die »hybride Cloud« entscheiden.

�� ►Die private Cloud beschreibt virtuali-siertes Rechnen und Speichern sowie das Verteilen der Daten oder Rechnerlast in-nerhalb eines Unternehmensnetzwerkes bzw. eines nach außen geschlossenen Netzwerks. Dabei ist es unerheblich, wie viele Standorte diese Cloud umfasst. Ziel ist es, selbst innerhalb des Unternehmens die IT als interne Dienstleistung zu be-trachten, die entsprechend besser aufge-teilt und, wenn an Dritte vergeben, ab-gerechnet werden kann. Die physischen Limitierungen, die NAS oder auch SAN haben, sollen dabei wegfallen. Die priva-te Cloud ist ein übergreifender Abstrak-tionslayer, auf dem alle Funktionen glei-

chermaßen genutzt werden können, ohne dabei die Hardware berücksichtigen zu müssen. Verwaltung und Wartung muss das Unternehmen jedoch selbst übernehmen. Hier wäre sicher auch die Nutzung einer privaten Cloud über einen Provider denkbar; das hieße aber auch, einer weiteren Instanz Zugang und Ein-blick in Geschäftsinternas zu geben. Das

sollte sich Firmen allerdings wirklich ge-nau überlegen.

�� Die Public-Cloud hingegen ist ein offe-nes Netzwerk. Es handelt sich hierbei um internetbasierte Rechenleistung, Speicher oder auch Anwendungen. Oft stellt dabei ein IT-Dienstleister Funktionen einer brei-ten Masse zur Verfügung, zum Beispiel Speicherplatz bei Amazon oder anderen.

Der Endanwender nutzt die Dienste nur und muss sich weder um Verwaltung noch Wartung kümmern. Die Basis für diese Bezahldienste ist in den meisten Fällen eine virtualisierte IT-Umgebung, die den häufig wechselnden Ansprüchen der Kunden gerecht werden kann und somit auch Service-Level-Agreements (SLAs) erfüllt. Zugriff wird über sichere Verbin-

dungen wie ein VPN (Virtual Private Net-work) gewährleistet. Allerdings muss sich der IT-Entscheider darüber im Klaren sein, dass solche Netzwerke durchaus eine Ziel-scheibe für Angriffe unerwünschter Per-sonen darstellt. Jede öffentliche Leitung ist angreifbar. Hier müssen die Cloud-Nutzer die Sicherheitsparameter sehr ge-nau abstecken.

�� ► Die hybride Cloud wiederum ist eine Kombination von privater und öffentli-cher (public) Cloud. Dabei können priva-te Netze Unternehmensnetzwerke sein (Intranet), und das öffentliche umschreibt meist das Internet bzw. frei zugängliche Netzwerke. Eine Verschmelzung beider Clouds bringt flexiblere und sichere Nut-zung mit sich. Denn die private Cloud wird nur soweit zugänglich gemacht, wie es die Sicherheitsstandards der Firma zu-lassen, während die Dienste der öffentli-chen Cloud voll genutzt werden können.

Zwischen Vorteilen und realen RisikenZu den von den Herstellern versproche-nen Vorteilen gehören unter anderem enorm hohe Rechenleistungen für extrem schnelle Ergebnisse, Ausfallsicherheit (bei Serverausfall wechselt die Belastung au-tomatisch auf ein anderes System), freie interne IT-Ressourcen und Personal für weitere Projekte sowie reduzierte Kosten,

Cloud-Computing: Ein Fall für Investoren

Investoren und Börsianer, die Cloud-Computing als Anlagethema interessiert, können nun mittels Zertifikat in das neue Geschäftsmodell investieren. Zusammen mit EFG Financial Products, einem Anbieter von struk-turierten Produkten, hat die deutsche Structured Solu-tions AG den »Solactive Cloud-Computing Performance Index« entwickelt. Der Index soll die Wertentwicklung von Unternehmen abbilden, die einen signifikanten Teil ihrer Geschäftstätigkeit in der Wertschöpfungskette des Cloud-Computing-Bereichs haben. Dazu zählen die Hersteller von Netzwerk- und IT-Infrastrukturlösungen, die Betreiber und Anbieter von Cloud-Computing-Lö-sungen sowie die Profiteure und Anwender dieser Technologie.Aktuell enthält das Börsenbarometer 15 Firmen, alle-samt aus den USA: ACME Packet, Ariba, Citrix, Comm-vault Systems, EMC, Informatica Corp., Netsuite, Rackspace Hosting, Red Hat, Rightnow Technologies, Riverbed Technology, SuccessFactors, Teradata und VMware. Der Index wird halbjährlich angepasst, die Firmen werden gemäß ihrem Börsenwert gewichtet und müssen eine Marktkapitalisierung von mindestens 250 Millionen US-Dollar haben.Das Indexzertifikat (ISIN: CH0127998315) von EFG deckt die Wertentwicklung des Index eins zu eins ab. Das Produkt kann börsentäglich gehandelt werden, der Spread lag zuletzt bei 0,60 Prozent. Die Verwaltungsgebühr beträgt 1,2 Prozent pro Jahr, die Laufzeit ist unbegrenzt. Das Zertifikat wurde am 11. April 2011 aufgelegt. Bis Redaktionsschluss zu diesem Beitrag lag es 24,4 Prozent im Plus. Kleines Manko: Das Zertifikat ist nicht währungsgesichert, die Entwicklung des Euro-Dollar-Kurses spukt deshalb in die Performance etwas mit hinein. (eh)

Que

lle: fi

nanz

en.n

et

24 Prozent im Plus: Die Entwicklung des Cloud-Zertifikats seit Auflegung

Que

lle: S

tatis

ta; G

rafik

: spe

iche

rgui

de.d

e

Umsatzpotenzial im Business-Bereich

Page 7: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis 7

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

da weniger für eigene Lösungen finan-ziert werden muss. Darüber hinaus kön-nen nun auch Startups und kleinere Un-ternehmen große Aufträge annehmen, ohne permanent in IT-Ressourcen inves-tieren zu müssen. Außerdem sollen wirk-lich je nach Bedarf die jeweiligen Ressour-cen verfügbar sein, egal an welchem Standort und zu welcher Zeit.

Dem stehen aber nach wie vor reale Risiken gegenüber: Sicherheit, Sicherheit, Sicherheit. Dabei geht es um ganz unter-schiedliche Aspekte. Zunächst fällt einem natürlich die Verbindungssicherheit ein, insbesondere für öffentliche Clouds wich-tig. ITler müssen sich bei allen Verschlüs-selungs-Technologien und Abschottungs-Mechanismen darüber im Klaren sein, dass öffentliche Leitungen immer in ir-gendeiner Form angreifbar sind. Hier gilt es, sich detailliert zu informieren, was der Provider an Sicherheitsfunktionen bietet und was im Falle eines Hackangriffs oder – niemand mag es hoffen – Datendieb-stahls passiert.

Compliance – genau bedenkenEin weiterer Sicherheitsfaktor sind von der Firma einzuhaltende SLAs und Compli-ance-Regeln. Hier muss klar sein, wer wofür zuständig und im Zweifel haftbar ist. Ganz wichtig sind rechtliche Vorga-ben, die das Cloud nutzende Unterneh-men beachten muss. Dementsprechend sollten die SLAs mit dem Provider abge-sprochen sein. Es ist eigentlich überflüssig zu sagen, dass dies die höchste Priorität hat, denn niemand möchte bei einem Daten-Desaster in den Schlagzeilen ste-hen, und noch weniger Geld- und Image-

Verlust hinnehmen müssen. Dies verdeut-licht, dass die Entscheidung zur Cloud nicht nur auf einer Etage gefällt werden darf, sondern vielmehr alle Abteilungen einbezogen werden müssen.

Nicht zuletzt dürfen Unternehmen die Prüfmechanismen nicht vergessen, mit denen sich die oben genannten Sicher-heitsaspekte überwachen lassen. Vertrau-en ist gut, Kontrolle viel besser. Natürlich möchte sich der Cloud-Nutzer auf den jeweiligen Provider verlassen, aber er darf den Anbieter nicht völlig blindlings laufen lassen und hinterher erschreckt feststel-len, dass abgesprochene Kriterien nicht eingehalten wurden. Hier sei jeder zur Selbstdisziplin ermahnt.

Ein besonders prekärer Fall ereignete sich 2011. Hier standen über einen län-geren Zeitraum höchst vertrauliche Pati-enteninformationen psychisch kranker Menschen für jeden verfügbar und her-unterladbar im Netz. Im Nachhinein konn-te niemand mehr genau sagen, wie lange dies der Fall war. Um so etwas gar nicht erst passieren zu lassen, benötigt jeder sorgfältig abgesteckte SLAs vom Provider und eben eigen initiierte Prüfinstanzen, regelmäßig versteht sich.

Hürden bedenkenAbgesehen von den Gefahren und zu beachtenden Risiken dürfen auch even-tuelle Hürden und potenzielle künftige Probleme bei der Cloud-Umsetzung nicht außer Acht gelassen werden. Eine mög-liche Hürde auf dem Weg zur Umsetzung könnten durchaus traditionelle IT-Abläufe oder gar die eigene IT-Abteilung sein. Hier sollte das jeweilige Management mit Fin-

gerspitzengefühl herangehen, denn kein IT-Team lässt sich gern Kompetenzen strei-tig machen.

Die Vorteile des Cloud-Konzeptes für das gesamte Unternehmen müssen über-wiegen und überzeugen – auch und ge-rade EDV-Verantwortliche. Darüber hin-aus darf die Entscheidungsebene nicht vergessen, dass mit Cloud-Szenarien auch potenzielle Probleme auftreten, die vor-her nicht so drängend waren. So wird es gerade bei öffentlichen und hybriden Clouds ein starkes Datenwachstum ge-ben, das nicht mehr nur aus rein geschäft-lichen Informationen besteht. Da muss dann geklärt werden, was in Sicherungs-prozesse fällt und wer Zugriff auf welche Informationen hat.

Zudem sollten die Besitzverhältnisse klar sein: Wem gehört die Information, die am Standort XYZ liegt, und wer ist bei Verlust oder Fehler dafür verantwortlich? Nicht zuletzt könnte sich das Netzwerk selbst als Flaschenhals entpuppen, wenn mit einem Schlag sehr viel mehr Daten zugreifbar sein müssen. Wie viel die eige-nen und öffentlich genutzten Leitungen an Bandbreite hergeben oder inwiefern diese skalierbar sind, sollten EDV-Verant-wortliche auf jeden Fall mit auf die To-do-Liste setzen.

FazitIm Grunde genommen gilt: Die Cloud ist ähnlich wie Twitter und Facebook. Es kann von tausenden, ja Millionen Men-schen verwendet werden. Wem es wirk-lich nutzt und wer wirklich sinnvollen Mehrwert daraus zieht, zeigt sich meist erst in der Praxis oder nach vernünftigen Abwägungen. Wer Risiken und Gefahren gegen Nutzen gestellt hat, kann dann sicher ruhigen Gewissens entscheiden, ob er die Tür zur Wolkenwelt aufstößt. �

Wer die Wolke nicht braucht

Es sollte sich jeder Cloud-Interessierte fragen, ob er Cloud-Dienste derzeit wirklich benötigt. Es gibt eindeutig Anwender und Anwendun-gen, die die Wolke nicht brauchen. Das mag sich über die Zeit ändern, aber bei zahlreichen Unternehmen würde Cloud-IT derzeit übers Ziel hinausschießen.Eigentlich kann man Organisationen mit kla-ren und vielfältigen Compliance-Auflagen nur von der Cloud, zumindest aber definitiv von der Public- oder hybriden Cloud abraten. Ebenso Unternehmen mit geringem Daten-durchsatz, fest stehenden und überschaubar wachsenden Anforderungen, die mit gerin-gem IT-Aufwand zurechtkommen, brauchen keine Wolkenkuckucksheime. Alt eingeses-sene Betriebe, die bislang nur einen geringen Teil an Digitalisierung oder keine Online-Ge-

schäftsprozesse betreiben, zählen auch dazu. Darüber hinaus gibt es auch Firmen, denen auferlegt wird, ihre eigene IT zu betreiben; für die käme höchstens eine eigene private Cloud in Frage. Drittangebote sind hier aus-zuschließen. Ebenso ist davon abzuraten, wenn sich der Endkunde nicht von einem Anbieter abhängig machen möchte. Zwar gibt es zahlreiche Angebote unterschiedlicher Hersteller oder Provider. Eine gute und sinnvolle Zusammen-führung einzelner Komponenten im Sinne einzelner Anbieter ist derzeit aber nicht wirklich am Markt verfügbar. Wer Cloud spricht, kauft meist von einem Unternehmen. Nutzer, die dies nicht wollen, müssen sich also in Sachen Cloud noch eine Weile zurück halten.

Cloud-Ökosystem

Cloud-Bereiche und Anzahl Anbieter (Stand November 2011)

Cloud-Development 24Cloud-Security 13Cloud-Infrastructure 25Cloud-Storage/Hosting 72Cloud-Management/Tools 27Cloud-Platform 33Cloud-Consulting 18Software-as-a-Service 61

Page 8: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis8

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Ulrike Rieß, speicherguide.de

Nach wie vor gehen Hersteller, Integrato-ren und Berater mit dem Begriff Cloud bzw. Cloud-Computing hausieren. Es scheint fast so, dass jeder dabei sein muss, um nicht ins Hintertreffen zu geraten. Derzeit gibt es drei Ansätze, das Konzept Cloud umzusetzen. Unternehmen sollten auf jeden Fall prüfen, ob und wie sie da-von profitieren können.

Die Rechnerwolke ist per se keine kon-krete technische Lösung, sondern eher eine neue Herangehensweise an die The-men Produktion, Verwaltung und Last-verteilung. Hierbei werden einzelne Dienste, also Rechnen, Speichern oder Vernetzen, nicht mehr lokal vom Anwen-der betrieben, sondern von entsprechen-

den Anbietern bereitgestellt. Diese kön-nen über ein öffentliches Netzwerk erreicht werden, der Zugriff auf die ein-zelnen Anwendungen erfolgt üblicher-weise über Webbrowser oder spezielle Client-Software.

Konzept unterfüttert mit neuer TechnikKonzeptionell geht die Wolke damit über die bisherigen Ansätze von Software-as-a-Service (SaaS) und Virtualisierung un-terschiedlicher Schichten wie Speicher und Rechner hinaus. Es geht hier nicht mehr um die Abstrahierung einzelner Be-reiche der EDV, sondern die Verfügbarkeit vollständiger Lösungsblöcke, deren Nut-zung je nach Auslastung bzw. Gebrauch abgerechnet wird. Diese Lösungsblöcke

sollen je nach Bedarf an Bandbreite, Re-chenleistung und Speicherplatz automa-tisch skalieren und in Zukunft auch zwi-schen unterschiedlichen Anbietern aus tauschbar sein.

Derzeit bestehen keine konkreten An-sätze zur Definition einer Cloud-Architek-tur. Es herrscht jedoch weitgehend Einig-keit darüber, diese in die drei Schichten Infrastruktur, Plattform und Anwendung einzuteilen. Die Infrastruktur besteht aus den grundsätzlichen (Hardware-)Kompo-nenten der Wolke: Netzwerken, Rechnern und Speichersystemen. Auf den Rechnern werden Betriebssysteme als Plattformen bereitgestellt, auf denen sich dann ent-weder vorgefertigte Anwendungen nut-zen oder eigene Applikationen erstellen und installieren lassen. In diesem Bereich soll die Cloud wie SaaS funktionieren.

Die Effizienz der Wolke wird grundsätz-lich durch relativ neue und nun funktio-nierende Techniken möglich. Dazu zählt vor allem die Abstraktionsschicht der Virtualisierung, der eine flächendeckende Ressourcen-Verteilung erst möglich macht. Hinzu kommen Thin-Provisioning (in Kombination mit Zero Space Reclaim), Daten-Deduplizierung, Storage-Tiering und Replikation. Mittels solcher Lösungen ist die Hardware hoch auslastbar und op-timal nutzbar.

Unterschiedliche Ansätze des Cloud-ComputingMomentan unterscheidet man drei un-terschiedliche Wolken. Eine »Private Cloud« wird im selben Unternehmen be-

Herausforderungen für Administratoren: Datensicherheit und Compliance

Cloud-Computing – Vor- und Nachteile

Cloud-Computing ist nach wie vor der Hype des Speichermarktes. Viele Angebote und noch immer unklare Definitionen lassen Anwender zögerlich reagieren. Dabei wird der Ansatz im privaten Umfeld und in kleinen Büros oft bereits genutzt. Sicherheit, Service-Level und Zuverlässigkeit sind entscheidende Kriterien für Pro oder Kontra.

Rechenzentrum für Cloud-Anforderungen

Bild

: Str

ato

Page 9: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis 9

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

trieben, aus dem auch ihre Anwender kommen. Hierdurch relativieren sich alle Bedenken, die im Hinblick auf die sichere Übertragung, Speicherung und Verarbei-tung von sensiblen Daten in externen Rechenzentren aufkommen könnten. Eine Private-Cloud kann auf Abteilungs-ebene (»Departmental Cloud«) oder für das gesamte Unternehmen betrieben werden (»Enterprise Cloud«).

Wesentlich komplexer ist das Thema Sicherheit bei der »Public Cloud«, also einem öffentlich zugänglichen System. Hier können Anbieter und Nutzer entwe-der vor dem eigentlichen Betrieb dessen Bedingungen aushandeln und noch dazu dafür sorgen, dass alle Beteiligten alle Konditionen kennen (»Exclusive Cloud«). Oder der Anbieter stellt seine Ressourcen vollständig öffentlich zur Verfügung und definiert von seiner Seite aus Service-Le-vel-Agreements (SLAs), denen sich die Nutzer dann anschließen können (»Open Cloud«).

Um Leistungsspitzen zu bewältigen oder die Kontinuität des Betriebs zu ge-währleisten lassen sich Private- und Pub-lic-Cloud auch kombinieren, vorzugswei-se mit Schnittstellen derselben Definition. So ist ein Nutzer in der Lage, bei Bedarf nach mehr Rechenleistung, mehr Kapa-zität oder bei Ausfall seiner eigenen Sys-teme den Betrieb außerhalb seines eige-nen Rechenzentrums weiterzuführen. Hierfür steht der Begriff »Hybrid Cloud«.

Vorteile der WolkeDurch die bessere Verteilung von Lasten auf die vorhandenen Systeme ermöglicht Cloud-Computing ebenso wie die »ein-fache« Virtualisierung teilweise erhebli-che Kostenreduzierung in der Datenver-arbeitung. Einzelne Server müssen nicht mehr übertrieben leistungsfähig sein, alle vorhandenen Systeme beteiligen sich an allen anstehenden Aufgaben. Durch die

Nutzung von Public-Clouds lassen sich gar die gesamten Hardware-Kosten für einzelne Anwendungen vermeiden.

Herausforderung der WolkeDas grundsätzliche Problem bei der Nut-zung öffentlicher Ressourcen ist nach wie vor die Abschottung des Datentransfers über Internet-Leitungen. Zwar gibt es viele Entwicklungen unter Nutzung von TLS-, SSL- und weiteren Verschlüsselungs-methoden, jedoch bestehen auch hier immer noch berechtigte Bedenken.

Aber nicht nur der Transport, sondern auch die Verarbeitung und Speicherung der persönlichen oder Firmendaten muss verlässlich abgeschottet sein. Zwar exis-tieren Ansätze zur Verteilung von Daten auf unterschiedliche Ressourcen ohne Möglichkeit, Rückschlüsse auf die Produk-tionsdaten zu ziehen, jedoch gibt es in diesem Bereich immer noch erhebliche Leistungsprobleme.

Megaaspekt SicherheitDas Thema Sicherheit ist mit Abstand das Wichtigste, wenn es um die Umsetzung insbesondere der public Cloud geht. Zu-griffsrechte, Überwachung und nachvoll-ziehbare Dokumentation der Aktionen sollten vorhanden sein, um das Einmi-schen unerwünschter Personen zu ver-hindern. Darüber hinaus sind Service-Level-Agreements sinnvoll, die das Cloud-suchende Unternehmen mit sei-nem Anbieter aushandeln kann.

Muss der IT-Manager zudem auf SLAs achten, die wiederum durch Dritte zu leisten sind, dann muss hier mit doppelter Vorsicht herangegangen werden. Kann ein Unternehmen seine SLAs nicht einhal-ten, weil der Cloud-Provider seinerseits diese nicht gewährleisten kann, so könn-te es trotzdem sein, dass das Unterneh-men dafür haftbar gemacht wird. EDV-Verantwortliche brauchen hier Netz mit

doppelten Boden für ihre IT und ihre gesetzlichen Zuständigkeiten.

Knackpunkt NetzwerkEbenso kann das Netzwerk zum Knack-punkt werden, wenn die Datenmengen, trotz Daten-Deduplizierung, auf einmal um ein Vielfaches ansteigen und schnell an mehrere Geräte bzw. Standorte gleich-zeitig verteilt werden müssen. Je nach vorhandener Leitung, kann die Perfor-mance hier in Knie gehen. Es gibt spezi-elle Anbieter, die im Umfeld von Cloud und Big Data entsprechende Lösungen anbieten, die die Netzwerkleistung opti-mieren bzw. die Workload optimal vertei-len. Teragate ist beispielsweise ein solcher Anbieter, der gerade in Cloud-Umgebun-gen für optimierte Netzwerke sorgt.

Zudem stehen rechtliche Aspekte ge-gen Cloud-Computing. Ein entsprechen-der Dienstleister kann nicht genau sagen, welcher Teil einer Datei sich gerade wo befindet. Allerdings könnten sich die ge-nutzten Ressourcen außerhalb des eige-nen Rechtsraumes befinden. Dem stehen die Paragraphen 9 und 11 sowie die An-lage 1 zum BDSG (Bundesdatenschutz-gesetz) mit ihren Vorschriften zur Auf-tragsdatenverarbeitung und zur Übertragung personenbezogener Daten entgegen. Unternehmen, die also Com-pliance-Vorgaben erfüllen müssen, sollten diese Bereiche vollständig wolkenfrei, zumindest aber fern der öffentlichen Cloud halten.

Fazit: Wolke nach MaßWelches Konzept im eigenen Unterneh-men am besten greift, kann nur den in-ternen Anforderungen entsprechend entschieden werden. Abgesehen von ei-ner gewissen Skepsis der Sicherheit we-gen bieten ausgelagerte Dienstleistungen höchste Flexibilität bei guter Kostenkon-trolle. Jeder IT-Entscheider muss aber ab-wägen, wie viel seiner internen IT-Prozes-se und somit Daten er wirklich gewillt ist außer Haus zu geben.

Trotzdem lässt sich bei den Angeboten für fast jeden Service und jedes Budget etwas finden und anpassen. Auch Skalie-ren, Lizenzerweiterungen und Software-Aktualisierungen zerren dann weniger an den Nerven des EDV-Verantwortlichen, dafür aber sicher am Geldbeutel.

Diese Anpassungsfähigkeit bei gleich-zeitigem Überblick über die Finanzen sind sicher die größten Vorteile der neuen Wolken-Welt. K

Komplettes Rechenzentrum in einem Container

Bild

: Em

erso

n

Page 10: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Advertorial10

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Matthias Schorer, VMware

Neben der deutschen Vorsichtigkeit ist sicher auch unser komplexes Daten-schutzgesetz (BDSG) daran schuld, dass sich Cloud-Computing in Deutschland nur langsam durchsetzt. Gerade erst ha-ben die deutschen Datenschutzbeauf-tragten des Bundes und der Länder eine Orientierungshilfe zu wichtigen Fragen des Cloud-Computings verabschiedet. Darin wird eingeräumt, dass es zwar für deutsche Unternehmen zulässig ist, Cloud-Services von US-Anbietern zu nut-zen, die Anforderungen, unter denen dies erlaubt ist, sind jedoch sehr hoch.

Der Cloud-Vertrag sollte ausdrücklich vorsehen, personenbezogene Daten aus-schließlich in Rechenzentren innerhalb des Europäischen Wirtschaftsraums zu verarbeiten. Der Cloud-Anbieter muss sich zudem zwingend der Geltung des EU-Rechts unterwerfen. Cloud-Anbieter aus den USA müssen sich gegenüber dem US-Handelsministerium zur Einhaltung der Safe-Harbor-Grundsätze verpflichten und zur Kooperation mit europäischen Datenschutzbehörden bereit sein.

Zwischen dem US-Cloud-Anbieter und dem deutschen Unternehmenskunden muss weiterhin eine Vereinbarung zur Auftragsdatenverarbeitung nach deut-schem Datenschutzrecht geschlossen werden. Die Entscheidung für oder gegen Cloud-Computing in Deutschland ist also weniger technischer als vielmehr juristi-scher Natur.

Zu gute etablierte RechenzentrumsinfrastrukturenWir haben uns bei VMware die Frage gestellt welche weitere Faktoren – neben

der unklaren Gesetzeslage – die Adaption der Cloud-Computing-Technologie in den westlichen Industrienationen so langsam voranschreiten lassen, obwohl sie doch Kostensenkung und gesteigerte Agilität verspricht. Unserer Meinung nach gibt es hierfür folgende wesentliche Gründe:

�� Im Gegensatz zu Firmen in den BRIC-Ländern haben unsere Kunden in Deutschland eine seit vielen Jahren etab-lierte RZ-Infrastruktur, in die immense Investitionen geflossen sind. Man kann diese nicht einfach abschalten und alles in einer Public-Cloud betreiben. Nicht zuletzt geht es hierbei auch um das bei den Mitarbeitern aufgebaute Know-how und um deren Arbeitsplätze in der IT.

�� Nach wie vor gibt es für die Nutzung von öffentlichen Cloud-Angeboten un-beantwortete Fragen bezüglich Compli-ance, Sicherheit und Kontrolle. Vor allem Cloud-Services von amerikanischen An-bietern haben in letzter Zeit immer wieder für Schlagzeilen gesorgt, denn dem ame-rikanischen Staat ist es durch den Patriot Act erlaubt, auch dann auf die Daten zuzugreifen, wenn die Cloud-Systeme in Europa gehostet werden.

Public-Clouds vs. OutsourcingTrotz dieser Faktoren bieten öffentliche Cloud-Angebote viele Anreize, die sie für das Business interessant machen. Ohne Zweifel sind dies die nutzungsabhängige Abrechnung, die günstigen Preise und die Möglichkeit der Selbstbedienung für den Abruf von Cloud-Services. Demgegen-über stehen aber zu Recht die Ansprüche der IT bezüglich Compliance und Sicher-heit und die Angst vor Kontrollverlust.

Genau hier verspricht aber das Public-Cloud-Paradigma Abhilfe. Denn im

Gegensatz zum Outsourcing bleiben Kon-trolle und Know-how für den Betrieb und die Weiterentwicklung beim Nutzer des Cloud-Dienstes. Lediglich die Rechenleis-tung oder die Plattform wird von dem Cloud-Anbieter bezogen. Investitionen in Infrastruktur werden dadurch mini-miert, und es fallen fast nur noch Be-triebskosten an.

Das Beste aus beiden Welten vereinenKunden, die Vmware-Virtualisierung ein-setzen, können Investitionskosten um bis zu 60 Prozent, Betriebskosten um 30 Pro-zent und den Energieverbrauch um bis zu 80 Prozent minimieren. Sie schaffen sich hierdurch aber vor allem eine wichtige Basis für das Cloud-Computing. Denn ohne die Zusammenfassung von vielen einzelnen Computerressourcen zu einem großen virtuellen Pool ist Cloud-Compu-ting nicht möglich.

Mit den Lösungen im aktuellen »vSphe-re 5«-Portfolio bringen wir nun die rest-lichen Eigenschaften der Public-Cloud – Selbstbedienung, Automation, Elastizität und nutzungsbasierte Abrechnung – in existierende Rechenzentren. Wir er-möglichen es unseren Kunden somit, basierend auf bereits existierenden Inves-titionen in Vmware-Technologie, eine Private-Cloud zu bauen. Die Kontrolle bleibt im eigenen Rechenzentrum, und bestehende Datenschutzmaßnahmen rei-chen nach wie vor aus.

Auf der anderen Seite wird es schwierig sein, nur durch die Etablierung einer Pri-vate-Cloud noch mehr Kosten einzuspa-ren. Eine Studie von McKinsey belegt, dass erst durch die Verbindung der Priva-te-Cloud mit der Public-Cloud, also der

Entscheidung für Cloud-Computing ist meist eher juristischer Natur

Cloud-Computing ist in Deutschland rechtlich möglichWegen der undurchsichtigen Rechtslage im Datenschutz sind viele Entscheider verunsichert, ob sie die Vorteile von Cloud-Computing in Deutschland überhaupt nutzen dürfen. Die gute Nachricht: Es gibt durchaus Möglichkeiten, die Vorteile von Cloud-Computing zu nutzen, ohne sich in eine rechtliche Grauzone zu manövrieren.

Page 11: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Advertorial 11

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Bau einer sogenannten Hybrid-Cloud, Kosten weiter optimiert werden können.

Ökosystem aus ServiceprovidernAber unter welchen Umständen würden unsere Kunden sich wegen der bereits angesprochenen Vorbehalte für dieses Modell entscheiden? Unsere Antwort auf diese Frage ist sehr einfach: Zusammen mit bekannten Serviceprovidern haben wir ein vertrauenswürdiges Cloud-Öko-system geschaffen. Aus diesem Ökosys-tem können unsere Kunden Public-Cloud-Leistungen sowohl weltweit als auch dediziert aus Europa, vor allem aber lokal aus Deutschland beziehen. So kann jeder Betreiber einer Private-Cloud entschei-den, welcher Public-Cloud-Anbieter für den Bau seiner Hybrid-Cloud am besten geeignet ist.

Und wie man es von einem solchen Ökosystem erwartet, sind die angebote-nen Public-Cloud-Services vollkommen kompatibel. Die Verbindung der Clouds und das Verschieben von Workload in die Public-Cloud, aber auch der Transfer zu-rück in die Private-Cloud, oder alternativ zu einem anderen Cloud-Provider, wird durch die Standardisierung auf den »VM-ware vCloud Stack« möglich. Dies bestä-tigt auch Gartner mit der Aussage, dass »VMware vCloudDirector« bis 2015 der Standard für Interoperabilität in der Cloud sein wird.

Hybrid-Cloud für Test & EntwicklungDer Hybrid-Cloud-Ansatz spielt seine Stär-ken beispielsweise im Bereich von Test und Entwicklung aus. Tatsächlich ist es oft die fehlende Verfügbarkeit von Test- und Entwicklungssystemen, die zu Pro-jektverzögerungen führt. Denn da diese Systeme nie für die Produktion genutzt werden, wird bei deren Beschaffung ger-ne gespart.

Und gerade weil es so schwierig ist, ein physikalisches Testsystem zu bekommen, werden viele Entwickler Mittel und Wege finden, Ressourcen zu horten. Dies wie-derum führt dann zu einer »wundersa-men« Server-Vermehrung und somit zu Mehrkosten.

Noch schlimmer aber ist es, wenn Ent-wickler sich benötigte Ressourcen über externe Clouds beschaffen, wie zum Bei-spiel Amazon EC2. Denn dadurch wird nicht nur jegliche IT-Kontrolle ausgehe-belt, sondern es entstehen auch Sicher-heits- und Compliance-Probleme. Es lie-

gen jetzt nicht nur Firmengeheimnisse in einer externen Cloud in den USA, sondern womöglich auch personenbezogene Da-ten, was definitiv einen Verstoß gegen die deutschen Datenschutzrichtlinien dar-stellt, außer die personenbezogenen Da-ten sind anonymisiert.

Horrorszenario: Mitarbeiter nimmt gehostete Daten mitDie nächste Frage, die sich stellt, ist, was mit den Daten passiert, wenn der Mitar-beiter, der den Server zum Beispiel bei Amazon geordert hat, das Unternehmen verlässt? Da die IT-Abteilung keinerlei Kontrolle über den Server hat, kann der Mitarbeiter alle Daten mitnehmen. Ein Horrorszenario für jeden Datenschutzbe-auftragten!

Im Gegensatz hierzu bietet eine Hybrid-Cloud, die in einem »vCloud«-Powered Rechenzentrum betrieben wird, der IT-Abteilung alle Sicherheits- und Kontroll-mechanismen, die auch für die private Cloud im eigenen Rechenzentrum gel-ten. Die IT-Abteilung entscheidet, welche Nutzer Zugriff haben und welchen der Zugriff wieder entzogen werden soll.

Sicherer durch Hybrid-CloudDer Spielehersteller SEGA hat durch die Nutzung einer Hybrid-Cloud auf Basis der Vmware-Technologie die Sicherheit sogar deutlich erhöhen können. Vor der Imple-mentierung musste SEGA externen Spie-letestern mittels VPN Zugriff auf interne Ressourcen geben, wenn neue, zu tes-tende Spiele auf Servern im Firmennetz-werk lagen.

Zur Lösung dieses Problems implemen-tierte ein Vmware Professonal Service

Team für SEGA zunächst eine Private-Cloud, um die Bereitstellung von Entwick-lungs- und Testsystemen zu beschleuni-gen. In einem zweiten Schritt wurde diese Private-Cloud dann mit der Public-Cloud aus dem Vcloud-Datacenter der Colt Telecom verbunden. Diese Lösung ermöglicht es SEGA nicht nur, schnell zu-sätzlich benötigte Ressourcen für Spitzen-lastzeiten aus der Public-Cloud zu bezie-hen, sondern auch einen speziellen Testbereich für externe Tester zu schaffen.

Diese benötigen nun keinen Zugriff auf das interne Netzwerk mehr, sondern ar-beiten nur noch auf Systemen in der Public-Cloud. Nach Abschluss der Tests werden diese Systeme einfach wieder dekommissioniert und der Zugriff ent-sprechend gesperrt. Dies alles erfolgt zentral durch die IT-Abteilung von SEGA ohne Interaktion mit Colt.

FazitCloud-Computing ist in Deutschland un-ter Einhaltung aller rechtlichen Anforde-rungen möglich. Vmware-Lösungen und Services für Private-Clouds und das Vc-loud-Ökosystem mit deutschen Partnern helfen unseren Kunden, die für sie opti-male Cloud-Lösung zu schaffen. �

Weitere Informationen

VMware Global, Inc.Zweigniederlassung DeutschlandFreisinger Str. 385761 Unterschleißheim/LohhofTel: +49 (0) 89 - 3706 17000Fax: +49 (0) 89 - 3706 17333www.vmware.de

Bild

: VM

war

e

So verbindet sich eine Private- und eine Public-Cloud zu einer Enterprise-Hybrid-Cloud

Page 12: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Advertorial12

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Christian Marczinke, Datacore Software

Ein Storage-Hypervisor ist eine universel-le Virtualisierungs-Software für Storage und konsolidiert angeschlossene Kapazi-täten in einem virtuellen zentralen Spei-cher-Pool, unabhängig von Hersteller oder Technologie. Er beseitigt die In-kompatibilitäten spezifischer Storage-Controller und Funktionsbeschränkungen herstellerspezifischer Firmware und Ad-ministrationstools.

Stattdessen werden die Speicherma-nagement-Funktionalitäten für die Speicherbereitstellung, Datensicherung, Replikation und Spiegelung sowie Ca-ching auf sämtliche Hardware angewen-det. Der Storage-Hypervisor integriert iSCSI- und FC-Ressourcen, unterstützt neben HDD-Technologien auch Solid-State-Drives (SSD) und nutzt in jüngsten Generationen auch NAS-Appliances, wo-durch einfach Hochverfügbarkeitslösun-gen für Shared-File-Cluster für CIFS- und NFS-Hosts implementiert werden können.

Storage-Hypervisor auch als ApplianceBasisfunktionen zur Speichervirtuali sie-rung sind heute in nahezu allen Speicher-subsystemen integriert, auch die Server-Hypervisoren von VMware, Citrix, Microsoft und Co integrieren partiell Speicherfunktionen. Der Storage-Hyper-visor fungiert jedoch universeller und bietet in heterogen wachsenden privaten Clouds höhere Investitionssicherheit.

Universelle Storage-Hypervisoren, wie »SANsymphony-V« von DataCore Soft-ware, sind als Appliance oder als reine Software verfügbar, die auf x86-Stan-dardservern oder auf virtuellen Maschi-nen installiert werden. Durch den reinen Software-Ansatz sind sie in der Ausstat-tung der Server in punkto Leistung und Kapazität skalierbar und über Hardware-Generationen hinweg einsetzbar.

Die ansonsten im proprietären Storage-Controller sitzende Intelligenz wird durch einen Storage-Hypervisor netzwerkweit verfügbar. Sansymphony-V als eine der ausgereiftesten Universallösungen mit

diesem Ansatz leistet geräte- und plattformunabhängig das zentrale Ma-nagement für die virtuelle Storage-Infra-struktur, virtuelles Disk-Pooling, automa-tisiertes Provisioning einzelner vDisks, Prozessautomation (Script gesteuerte Abläufe), synchrone Spiegelung (Hoch-verfügbarkeit), asynchrone und bi-direk-tionale Replikation, (Disaster Recovery),

Storage-Hypervisoren sind über Hardware-Generationen hinweg einsetzbar

Mit Storage-Hypervisor in die Private-CloudDie private Cloud mit virtuellen Servern, Applikationen und Desktops soll die Rechendienste im Unternehmen zentraler und flexibler machen. Solche Konzepte zur Hardware-Konsolidierung gehen aber langfristig nur dann auf, wenn auch für den benötigten Storage eine strategische Lösung gefunden wird. Einen Lösungsansatz liefert der Storage-Hypervisor »SANsymphony-V« von Datacore Software.

Datacore auf der CeBIT

Datacore Software finden Sie auf der CeBIT 2012 im »Virtualisation & Storage Forum«, Halle 2, Stand A40.

Bild

: Dat

aCor

e So

ftw

are

So managed der Storage-Hypervisor »SANsymphony-V« die Storage-Geräte für die physischen und virtuellen Server

Page 13: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Advertorial 13

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Snapshots (Datensicherung), Continuous-Data-Protection (CDP) für kontinuierliche Datensicherung sowie Thin-Provisioning und Auto-Tiering. Gerade im Verbund sind die beiden letztgenannten Tech-nologien der Schlüssel für einen effi-zienten Speicherbetrieb im Cloud-Re-chenzentrum.

Benötigte Hardware-AusstattungEin redundantes Hardware-Setup ist auch mit dem Einsatz eines Storage-Hypervi-sors wie Sansymphony-V für die Hochver-fügbarkeit der Storage-Infrastruktur in der Cloud ein Muss. Dazu wird er auf zwei oder mehr physischen x86-Maschinen unter »Windows Server 2008 R2« instal-liert und mit der SAN-Fabric (iSCSI oder FC) verbunden. Als Server eignen sich dafür unterschiedlichste Rechnertypen je nach E/A-Anforderung und Herstellerprä-ferenzen. Zu den Hardware-Anforderun-gen aktueller Lösungen gehören zwei Single-Core oder eine Dual-Core-CPU sowie ausreichend RAM, der für das Caching genutzt wird, und so die Perfor-manz der Storage-Systeme erhöht.

Die dedizierten Storage-Server bilden aus integrierten HDDs oder SSDs sowie angebunden Platten-Shelfs und Disk-Subsystemen den physischen Speicher-pool. Der Storage-Hypervisor ermöglicht dabei nicht nur eine Mischung von Gerä-ten unterschiedlicher Herkunft, sondern auch den Mischbetrieb mit SAS, SATA, FC und SSD. Aus dem Pool können nun vir-tuelle Kapazitäten mit unterschiedlichen Service-Leveln bereitgestellt werden.

Thin Provisioning und HochverfügbarkeitDa die Storage-Server direkt im I/O-Ver-kehr sitzen, bietet eine Management-

plattform wie Sansymphony-V R8 von Datacore mit Zusatzfunktionen für die Datensicherheit einen zentralen Mehr-wert. Diverse SAN-Managementwerkzeu-ge für die Verwaltung von Storage-Tiers, Service-Levels, Verfügbarkeit, Perfor-mance, Datensicherheit und Hochverfüg-barkeit können zentral genutzt werden. Die Hochverfügbarkeit unter dem Sto-rage-Hypervisor basiert auf Echtzeittech-nologien bzw. einer synchronen Daten-spiegelung zwischen zwei oder mehr Knoten.

Jede virtuelle Disk verfügt über eine unabhängige Caching-Logik und kann wahlweise auch zusätzlich mit einem asynchronen Spiegel versehen sein. Der Speicherplatz wird dabei mittels Thin-Provisioning effizienter zugeteilt, so dass jede virtuelle Disk nur den Speicherplatz im physikalischen Festplattenpool belegt, der auch wirklich zur Datenhaltung be-nötigt wird.

Jede einzelne virtuelle Disk bedient sich immer aller bereitgestellten Diskressour-cen im Festplattenpool. Dies führt zu einem Performance-Anstieg durch die Möglichkeit, über alle verfügbaren Fest-platten ein Striping zu erstellen. In geclus-terten Systemen können dieselben vir-tuellen Festplatten mehreren Hosts zugewiesen sein, selbst wenn die Back-End-Festplatten nicht über mehrere Ports verfügen (und somit nicht gemeinsam nutzbar sind).

Notfallsicherung und weitere FunktionenNeben der synchronen Spiegelung kann eine asynchrone Replikation über eine IP-Verbindung auf einen dritten Storage-Server eingerichtet werden. Über einen eingerichteten Buffer schreibt das aktive System dann Deltas, die noch nicht an den Remote-Server übertragen wurden. Für die bidirektionale Replikation muss auch auf dem Remote-Server ein entspre-chender Buffer-Bereich eingerichtet wer-den. Die Replikationsrichtung lässt sich dabei im Betrieb jederzeit umkehren, sodass das Risiko von Datenverlusten mi-nimiert wird.

Der Storage-Hypervisor bietet darüber hinaus SAN-Funktionen, wie Snapshots und eine CDP-Funktion zur kontinuierli-chen Datensicherung. Das Administrati-onstool liefert auch Informationen zu Gerätestatus und -leistung der Speiche-rinfrastrukturkomponenten sowie der angeschlossenen Serversysteme.

Mit Sansymphony-V ist es möglich, CIFS- und NFS-Hosts mit dem Block-Level-Speicher zu verbinden, und diesen als hochverfügbares NAS-Ziel beispielsweise für Microsoft-Shared-Cluster zu nutzen. Dazu wird die synchrone Spiegelung des Storage-Hypervisors mit dem Failover-Cluster aus Microsoft Server 2008 R2 kombiniert.

Effizienz durch geräteunabhängiges Auto-TieringEine wichtige Komponente für den effi-zienten Einsatz in der Cloud-Umgebung ist die Auto-Tiering-Funktion, da sie ent-sprechende Hot-Spots abfangen kann. Zahllose Spindeln mit entsprechendem Energiebedarf werden mit wenigen SSD- oder PCI-Memory-Karten in den Storage-Servern ersetzt. Sie können angesichts ihres niedrigeren Lebenszyklus im laufen-den Betrieb ausgewechselt werden, ohne das Gesamtsystem anzuhalten.

Das System verschiebt nun je nach vDisk-Priorität Hotspots in den High-I/O-Speicherbereich, Daten die unterhalb ei-ner bestimmten Access-Rate liegen, wer-den in einen weniger performanten Bereich geschoben. Resultat ist eine ext-rem effiziente Speichernutzung, die vom Administrator händisch nicht eingerichtet werden könnte. Sansymphony-V integ-riert darüber hinaus ein Cloud-Array-Gateway, das die Ausweitung des Auto-Tierings über die Private- in die Public-Cloud ermöglicht, und eine automatische Aus-lagerung von unkritischen Daten zu Ar-chivierungszwecken erleichtert.

FazitSansymphony-V schafft eine flexible, zen-trale Storage-Plattform, die in einer dy-namischen Cloud-Umgebung zahlreiche Managementprozesse automatisiert. Ihre Skalierbarkeit und umfassende Funktio-nalität trägt zur Sicherheit und Wirt-schaftlichkeit virtueller Infrastrukturen entscheidend bei, durch den reinen Soft-ware-Ansatz können sie zudem die An-schaffungs- und Betriebskosten für ein SAN beträchtlich senken. K

Weitere Informationen

Datacore Software GmbHBahnhofstraße 18D-85774 UnterföhringTel: +49 (0) 89 - 46 13 57 00Fax: +49 (0)89 - 461 35 70 90www.datacore.de

Bild

: Dat

acor

e So

ftw

are

Datacore »SANsymphony-V

Page 14: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

Grundlagen & Praxis14

Eine Publikation von speicherguide.de

speicherguide.despeicherguide.de

storage-magazin.destorage-magazin.de

virtualisierungs-guide.devirtualisierungs-guide.de

ECMguide.deECMguide.de

Cloud-Computing

Wolfgang Schwab, Experton Group

Nachhaltigkeits-Initiativen sind allseits bekannt. Im Rahmen solcher Initiativen geht es in der IT-Abteilung um die Rück-gewinnung, das Recycling, die Reduktion, Beseitigung, Wiederverwendung und Entsorgung von Produkten, die direkt oder indirekt im Rechenzentrum bzw. von anderen IT-Ressourcen verbraucht wer-den. Bei den meisten »grünen« Investiti-onen in umweltfreundlichere Technologi-en, die die Betriebskosten senken sollen, ist allerdings auch nach wie vor eine Amortisierung innerhalb von höchstens einem Jahr gefordert, damit die benötig-ten Gelder auch wirklich bewilligt wer-den. Kürzere Aktualisierungszyklen wer-den dank Cloud-Trend mehr und mehr akzeptiert und in der ROI-Analyse ent-sprechend berücksichtigt werden.

Durch die hohen Energiekosten steigt der Druck, die so genannte »Power Usa-ge Effectiveness« (PUE), den international anerkannten Messwert für die Energieef-fizienz von Rechenzentren, zu verbessern und entsprechend mehr und mehr Server, Speichertechnologie und diverse Virtua-lisierungs-Technologien einzusetzen, die diesen Energieeffizienzwert erhöhen kön-nen. Effizienzstandards gewinnen zuneh-mend an Akzeptanz und werden von den meisten IT-Herstellern auch im Marketing entsprechend genutzt.

TPW-Kennzahl wird zum »Heiligen Gral«Für viele wird die Transaktion-pro-Watt-Kennzahl (TPW) zum »Heiligen Gral« der Leistungsbewertung. Die Entwicklung eines vereinbarten und abgestimmten Standards und einer Methodik wird im Laufe des Jahres aber dennoch nur lang-sam vorangehen. Die Automatisierung und die Verwaltung von virtuellen Re-chenzentrumsumgebungen werden zu Schlüsselfaktoren für die IT-Effizienz und -Effektivität, des Weiteren spielen das Energiemanagement für Server sowie die Drehzahlreduktion und das so genannte Auto-Tiering für Storage-Arrays eine Rol-le, also das automatische Verschieben von Daten entsprechend ihrer Klassifizierung auf schnellere bzw. langsamere Speicher-laufwerke.

So mancher IT-Entscheider treibt ag-gressiv den Aufbau eines neuen Rechen-zentrums der nächsten Generation voran. Das Jahr 2012 wird ein Jahr der Rechen-zentrumsmigrationen, und in den neuen Rechenzentren der nächsten Generation werden sich neue Effizienz- und Automa-tisierungs-Standards etablieren.

Umweltplanung wird zur KernkompetenzDie Umweltplanung im Rechenzentrum entwickelt sich für die meisten Unterneh-men im Jahr 2012 zu einer Kernkompe-

tenz. Gebäudemanagement und Rechen-zentrumsverwaltung werden zunehmend integriert aufeinander abgestimmt. Auch bei den Systemintegratoren werden die Themen Umweltplanung und Rechenzen-trumsarchitektur groß geschrieben, eben-so das Outsourcing von Standard-IT-Funk-tionen ohne zusätzlichen Mehrwert an Offshore-Dienstleister; das betrifft insbe-sondere Helpdesk- und 1st-Level-IT-Sup-port. Für die Modernisierung und Ratio-nalisierung des Applikations-Portfolios wird 2012 mehr Geld bereitgestellt.

Die integriert planenden Unternehmen gehen weniger reaktiv vor, um mit Ände-rungsmaßnahmen die PUE-Rate zu ver-bessern (angestrebt wird ein Wert zwi-schen 1,20 und 1,05). Vielmehr wird verstärkt eine eher langfristige Nachhal-tigkeitsplanung und die Entwicklung von umweltfreundlichen Komponenten für das RZ der nächsten Generation verfolgt.

Die 2011er RealitätDie 2011er Einschätzung der Experton Group über die Umweltschutzmaßnah-men im Rechenzentrum gingen über das hinaus, was in der Realität tatsächlich erreicht wurde. IT- und Gebäudeverwal-tung wurden zum Geldsparen durch Ener-giesparmaßnahmen angehalten, aber in den meisten Fällen spielte das Thema dann doch eine eher untergeordnete Rol-le. Grüne Initiativen wurden in die Zu-kunft verschoben, wenn sie keine wirklich schnelle Amortisierung versprachen.

Dennoch trug »grüne« Technologie mit dazu bei, aufzuzeigen, wie Aktualisierun-gen und Upgrades in nicht einmal einem Jahr eine Rendite erwirtschaften können. In vielen Unternehmen wurden die Ener-giekosten in die Kosten-Nutzen-Analysen und die Auswahlkriterien mit einbezogen. Der PUE-Wert als wichtigstes Mess-Krite-rium war nützlich bei der Verbesserung der Nicht-IT-Infrastrukturen. K

Umweltschutz im Rechenzentrum – die Experton-Group-Prognose für 2012

Grünes RZ ist doch sexyViele IT-Verantwortliche sind sich darüber im Klaren, dass sich Nachhaltigkeit durchaus wirtschaftlich auszahlen kann. Doch für Energiespar- bzw. Effizienzmaßnahmen im Cloud-Rechenzentrum muss ein solider Business-Case für eine Wirtschaftlichkeitsbetrachtung her.

Bild

: APC

by

Schn

eide

r El

ectr

ic

Der Energiefluss und -verbrauch in einem typischen Rechenzentrum

Page 15: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard
Page 16: ECMguide.de Die Cloud · 2016. 4. 17. · Mittlerweile spielt beim Cloud-Computing das Who’s who der . Computerbranche mit – von IBM und Apple über Fujitsu und Hewlett-Packard

»Mit ETERNUS DX bietet Fujitsu eine überzeugende Lösung für unsere hohen Ansprüche an Zuverlässigkeit, Performance und Wirtschaftlichkeit im Storage-Management.«

Hartmut Hahn, General Manager Information Systems, Corporate Division, Olympus

Olympus hat der Welt das erste Endoskop beschert, entwickelt wegweisende Kameratechnik und ermöglicht tiefgreifende Erkenntnisse mit führender Mikroskopie: Innovationskraft, die rund um den Globus stattliches Umsatzwachstum generiert – und Petabytes von Daten produziert. Olympus lenkt den Strom dieser Daten mit Fujitsu in die Bahnen einer zuverlässigen und sicheren Speicherung. Altgediente Plattenspeicher wurden im laufenden Betrieb durch modernste ETERNUS Storage-Technologie von Fujitsu abgelöst. Olympus setzt damit neue Maßstäbe für ein Storage-Management, das sowohl aus dem Blickwinkel der Zuverlässigkeit als auch der Wirtschaftlichkeit überzeugt.http://de.fujitsu.com/referenzen-in-deutschland

Olympus setzt sein Storage-Management mit Fujitsu in ein neues Bild

14795_FTS_Ad_Olympus_QRcode_210x297.indd 1 26.09.11 11:54