303
Cu B.A. Januar 2002 IT-Know How IT-Business-Informationen für die IT-Berufe IT-, ITS-Kaufmann /-frau Fachinformatiker

ITKnowHow

  • Upload
    opexxx

  • View
    1.806

  • Download
    5

Embed Size (px)

DESCRIPTION

IT-KnowHow fuer Fachinformatiker

Citation preview

Page 1: ITKnowHow

Cu B.A. Januar 2002

IT-Know How

IT-Business-Informationen für die IT-Berufe

IT-, ITS-Kaufmann /-frau Fachinformatiker

Page 2: ITKnowHow

Cu B.A. Januar 2002

Inhaltsverzeichnis • IT-Grundlagen

o Business Reengineering o Change Management o Contentmanagement o Customer Relationship Management CRM o Data Warehouse o Datenbank Management o Enterprise Application Integration o Enterprise Ressource Planning ERP o Groupware und CSCW o Informationspolitik o IT Strategie o Qualitätsmanagement in der Softwareentwicklung o Software Reengineering o Wissensmanagement

• IT-Kultur

o Computerethik o Cyberculture o Die Geschichte des Internets o Die Zukunft des Internets o Philosophie o Recht o Revolution

• Internet

o Architektur des Internets o Contentmanagement (s.h. IT-Grundlagen) o Das Portal o Dienste o eBusiness und eCommerce o Internet Organisation o Standards im Internet o Suchmaschinen o W3C Standards o Webserver

Page 3: ITKnowHow

Cu B.A. Januar 2002

• Projektmanagement

o Analyse und Design o Datenmodellierung o Evaluation_Pflichtenheft o Informationssystem o Konzepte o Problemlösung o Relationales Datenbankmodell ERD o System Engineering • Hilfsmittel Methoden

! Brainstorming ! Brainwriting oder Methode 635 ! Delphi ! Die morphologische Methode ! Inverses Brainstorming ! Synektik

• Sicherheit

o Computerviren o Datenschutz o Denial of Service o Firewall o Kryptographie o Risikoanalyse

• Software

o Betriebssysteme o Datenbanken o Programmierung o Software Eigenschaft

• Systeme Hardware

o Datenträger o Der Rechner o Eingabe o Mobile Devices o Prozessor

Page 4: ITKnowHow

Cu B.A. Januar 2002

• Tele-Kommunikation

o Client o Das OSI o Middleware o Netzwerk o Netzwerkprotokolle o Telekommunikation Hardware

• Wissen

o Führung o Globalisierung und Informationstechnologie o Komplexität o Kunden o Strategie

• Kommunikation

! 10 Regeln fuer Pressearbeit ! Bewertungskreterien fuer Kurzreden ! Das Interview ! Das Statement ! Der Vortrag ! Die Podiumsdiskussion

Page 5: ITKnowHow

IT-Grundlagen

o Business Reengineering o Change Management o Contentmanagement o Customer Relationship Management CRM o Data Warehouse o Datenbank Management o Enterprise Application Integration o Enterprise Ressource Planning ERP o Groupware und CSCW o Informationspolitik o IT Strategie o Qualitätsmanagement in der

Softwareentwicklung o Software Reengineering o Wissensmanagement

Page 6: ITKnowHow

Business Reengineering

Der englische Begriff Reengineering kommt ursprünglich aus der Informationstechnik und umschreibt einen Vorgang, bei dem man versucht, ein bestehendes System ohne Rückführung auf seine Spezifikation durch ein anderes System zu ersetzten. Das in diesem Ursprung enthaltene "Ersetzen durch etwas völlig anderes (neues)" findet sich auch im Organisationsgestaltungskonzept Business Process Reengineering oder kurz BPR wieder. BPR ist ein vergleichsweise junger Ansatz, der Ende der 80er Jahre in den USA entwickelt wurde und mit dem Bestsellerbuch von Michael Hammer und James Champy "Reengineering the Corporation" seit seinem Erscheinen 1993 eine sehr grosse Bekanntheit und Implementierungsverbreitung erfahren hat.

Unter Business Process Reengineering versteht man das fundamentale Überdenken und die radikale Neugestaltung der Unternehmung in ihrer Gesamtheit, mindestens aber der grundlegenden und wesentlichen Unternehmensprozesse. Ziel dabei ist eine erhebliche Verbesserung der kritischen Leistungsdimensionen Qualität, Zeit, Kosten und Service. Dabei konzentriert sich das BPR auf die folgenden vier Kernthemen:

• Die Orientierung an den kritischen Geschäftsprozessen

• Die Ausrichtung der kritischen Geschäftsprozesse am Kunden

• Die Konzentration auf die Kernkompetenzen

• Die Nutzung modernster Informationstechnologie (IT)

Für das Gelingen von BPR unverzichtbar ist die Bereitschaft zu einem mentalen Wandel aller Beteiligten im Unternehmen, denn nach Hammer und Champy geht es nicht nur darum, einzelne Abläufe zu optimieren, sondern einen völligen Neubeginn zu wagen - eine Radikalkur durchzuführen. Dafür sei es notwendig, so die Autoren, dass das Unternehmen einen Grossteil traditioneller Weisheiten über Bord wirft und sich überlegt, welche Vorgehensweisen zum aktuellen Zeitpunkt adäquat wären.

Um über das Konzept des BPR Klarheit zu bekommen, müssen verschiedene zentrale Begriffe einheitlich verstanden werden: Fundamental, Radikal, Verbesserung um Grössenordnungen, Geschäftsprozess, Kerngeschäftsprozesse, Kernkompetenzen, Induktives Denken, Visionen, Structure follows Process. Fundamental

Unternehmer, Führungskräfte und Mitarbeiter müssen sich im BPR zu Beginn grundlegende Fragen stellen und damit die Fundamente ihres Geschäfts auf den Prüfstand stellen.

Beispiel: Was tun wir? Warum machen wir diese Dinge? Weshalb machen wir diese Dinge auf diese Art und Weise?

Mit diesen Fragen beginnt ein Unternehmen am Nullpunkt seines Geschäfts und lenkt die Aufmerksamkeit auf informelle und unausgesprochene Annahmen, Prämissen und Regeln, die sich bei genauer Betrachtung für die entsprechende Marktsituation oft als inadäquat und ungeeignet erweisen. Hammer und Champy verdeutlichen dieses

Page 7: ITKnowHow

fundamentale "In Frage stellen" mit einem Beispiel aus dem Bankwesen. Eine dort zur Verbesserung des Bankgeschäfts häufig gestellte Frage ist "Wie können wir die Kreditwürdigkeit unserer Kunden wirksamer überprüfen?". Die Fragestellung beruht auf der breit geteilten Ansicht, die Bonität der Kunden müsse auf jeden Fall überprüft werden, übersieht jedoch, dass die Überprüfungskosten oft die Verluste aus unsicherer Kreditgeschäften übertreffen. BPR hingegen stellt sich zuerst die Frage nach dem, Was ein Unternehmen tut, bevor es dazu übergeht, das Wie der Geschäfte zu beleuchten. BPR-gerecht würde man in diesem Beispiel zuerst danach fragen, ob die durchgängige Überprüfung potentieller Kreditkunden überhaupt sinnvoll und notwendig ist . Radikal

Aus dem Lateinischen Begriff radix (Wurzel) ableitend betonen Hammer und Champy, dass das BPR-Konzept keine oberflächliche Schönheitskorrektur sei, sondern an die Wurzeln der Unternehmung rühre. Es gehe den Dingen dabei stets auf den Grund, breche radikal mit der Vergangenheit und erziele durch eine völlige Neugestaltung mehr als die blosse Modifizierung bestehender Geschäftsabläufe. Verbesserung um Grössenordnungen

Hammer und Champy versprechen bei richtiger Umsetzung des BPR-Konzepts eine erhebliche Verbesserung um Grössenordnungen. Leistungssteigerungen um beispielsweise 10% werden dabei nicht als Ziel des BPR verstanden. Die Autoren propagieren hingegen die Realisierung "von ganzen Quantensprüngen". Geschäftsprozess - Kerngeschäftsprozesse

Unter einem Geschäftsprozess versteht man eine Reihe von strukturierten Aktivitäten, die für den Kunden zu einem wert- und nutzenvollen Ergebnis führen sollen und die Wertschöpfung eines Unternehmens steigern (Wertschöpfungskette). Die Schaffung von Kundennutzen steht dabei im besonderen Blickpunkt der BPR-Massnahmen.

Zu den Kerngeschäftsprozessen eine Unternehmens zählt man dabei z.B. die Eingangslogistik, die Produktion, den Vertrieb, die Ausgangslogistik und den Kundendienst, die durch sogenannte unterstützende Prozesse wie die Beschaffung und den Einkauf begleitet werden. Im Zuge der Implementierung von BPR ist es von besonderer Bedeutung die jeweils kritischen Geschäftsprozesse zu identifizieren, also diejenigen, die für das Gesamtziel des Unternehmens nachhaltig und langfristig wichtig sind. Weitere Merkmale kritischer Geschäftsprozesse können z.B. die hohe Bedeutung eines Prozesses für die Problemlösung und Zufriedenheit interner oder externer Kunden, die starke Auswirkung eines Prozesse auf die Kostenintensität/Kapitalbindungsdauer, die durchschlagende Wirkung eines Prozesses auf die Produktqualität oder die vergleichsweise lange Dauer eines Geschäftsprozesses sein. Je nach Unternehmensbranche sowie den angestrebten Wettbewerbszielen wie Kostenführerschaft oder Differenzierung können im BPR andere Geschäftsprozesse eines Unternehmens als kritische Prozesse bestimmt werden.

Page 8: ITKnowHow

Kernkompetenzen

Als Kernkompetenzen bezeichnet man spezielle Fähigkeiten eines Unternehmens, durch die es sich deutlich von den meisten anderen Unternehmen seines Marktes abheben kann. Sie eröffnen dem Unternehmen zumindest potentiell den Eintritt in andere Märkte, können von Konkurrenzunternehmen nur sehr schwer imitiert werden und tragen zu den vom Kunden wahrgenommenen Vorzügen des Endproduktes massgeblich bei. Im BPR konzentriert man sich vor allem auf diese Kernkompetenzen. Bei eingehender Prüfung können im Unternehmen jedoch in der Regel nur eine überschaubare Anzahl an Kompetenzen als solche identifiziert werden. Induktives Denken

Hammer und Champy verweisen darauf, dass die meisten Führungskräfte sehr gut in der Lage seien, durch Deduktion vorliegende Probleme zu lösen. Sie seien brillant darin, Probleme zu definieren, verschiedene Lösungsansätze zu bewerten und dabei nach geeigneten Lösungen zu suchen. Gerade im Zusammenhang mit dem Einsatz modernster Informationstechnologie, wie es das BPR vorsieht, kommt es nach Ansicht der Autoren jedoch viel stärker darauf an, eine Lösung zu erkennen, für die man das entsprechende Problem im Unternehmen erst aufspüren muss, um es dann damit lösen zu können. Als Beispiel führen Hammer und Champy das weltweit bekannte Unternehmen Xerox an, das in den späten 50er Jahren seinen ersten kommerziellen Kopierer nur unter erheblichen Problemen auf den Markt bringen konnte. Kein potentieller Käufer hatte damals erkannt, dass dieses Gerät, der sog. "914", ein Problem lösen konnte, das bis dahin noch niemand bewusst verspürt hatte: Die Möglichkeit, beispielsweise ein Skript, Handout oder Protokoll an eine grössere Anzahl von Zuhörern oder Beteiligten direkt austeilen zu können, war damit entstanden und erwuchs innerhalb kürzester Zeit zu einem nicht mehr fortzudenkenden Anspruch und Bedürfnis. Nach Hammer und Champy liegt demnach die wahre Kraft induktiven Denkens in Verbindung mit neuesten, technologischen Möglichkeiten darin, Antworten auf Probleme zu finden, von denen der Mensch bzw. der Markt (noch) gar nicht weiss, dass er sie überhaupt hat. Visionen

Visionen stehen am Anfang des BPR. Sie definieren das Fernziel, das sich die Unternehmung für seine Zukunft vorstellt. Es handelt sich bei Hammer und Champy "sowohl um eine qualitative wie auch quantitative Beschreibung, auf die das Unternehmen immer wieder vor und während des Reengineering zurückgreifen kann, als Erinnerung an die Zielsetzung des BPR, als Massstab, um den Fortschritt zu messen, und als Ansporn für die Fortführung des Reengineering-Projekts."

Page 9: ITKnowHow

Structure follows Process

Die Organisation eines Unternehmens wird üblicherweise in die Ablauf- (Prozess) und die Aufbauorganisation (Struktur) unterteilt. Zwischen Prozess und Struktur ergeben sich eine grosse Anzahl an Wechselwirkungen, wobei in traditionellen Unternehmen, die Prozesse nur im Rahmen der vorgegebenen Strukturen ablaufen können und sollen. BPR verkehrt nach Koenigsmarck dieses Prinzip in sein Gegenteil: die Struktur folgt den Ansprüchen der im Unternehmen ablaufenden (erfolgs)kritischen Geschäftsprozesse. Die gegebene Aufbaustruktur wird danach beurteilt, ob und inwieweit sie effiziente und effektive Prozesse vor allem in Bezug auf eine starke Orientierung an Kundenbedürfnissen zulässt.

Page 10: ITKnowHow

Change Management

Change Management heisst, Veränderungsprozesse auf Unternehmens- und persönlicher Ebene zu planen, zu initiieren, zu realisieren, zu reflektieren und letzten Endes zu stabilisieren. Das Spektrum der Veränderungsinhalte reicht dabei von der strategischen Ausrichtung bis zur Durchführung von Massnahmen zur Persönlichkeitsentwicklung der Mitarbeiter.

Change Management ist die laufende Anpassung von Unternehmensstrategien und -strukturen an veränderte Rahmenbedingungen. Wandel repräsentiert heute in Unternehmen nicht mehr den "exotischen" Sondervorgang, sondern eine häufig auftretende Regelerscheinung. Das Verhältnis der Gleichgewichts- und Ungleichgewichtsphasen in der Unternehmensentwicklung hat sich zu Gunsten mehr oder weniger turbulenter Veränderungsphasen verändert. Das "business as unusual" wird eher zur Regel als zur Ausnahme. Alle Prozesse der globalen Veränderung, sei es durch Revolution oder durch geplante Evolution, fallen in das Aufgabengebiet des Change Management.

Dabei sind zwei grundsätzliche Typen des Change Managements zu unterscheiden:

Die Organisationsentwicklung. Sie ist der weicher und stärker evolutionär angelegte Ansatz und war für Jahrzehnte die dominierende Form des Change Management. Die gedankliche Grundlage liegt in der Annahme, dass die Ziele des Unternehmens mit den Zielen des Mitarbeiters in Einklang gebracht werden können. Aus der Praxis heraus wissen wir, dass nur in den seltensten Fällen diese Übereinstimmung erreicht werden kann.

Das Reengineering. Seine Hauptarten sind die Corporate Transformation und die Business Transformation. Sie repräsentieren die „härteren“ Formen des Change Managements, da sie alle Bereiche des gewachsenen Kontexts zur Disposition stellen. Phasen von Veränderungsprozessen

Um den Veränderungsprozess erfolgreich managen zu können, muss analysiert werden, in welchen Phasen der Prozess abläuft und welche Situationen in den jeweiligen Abschnitten anzutreffen sind.

Am erfolgreichsten sind die Unternehmen, die in der Lage sind, sich am schnellsten auf die veränderten Bedingungen einzustellen. Dies verlangt bewusste, von der Organisation geplante und initiierte Lernprozesse mit dem Ziel der Effizienzsteigerung. Damit untrennbar verbunden ist die Fähigkeit der Mitarbeiter im Unternehmen, das eigenen Verhalten im Unternehmenskontext (z.B. Prozesse, Produkte, Ressourceneinsatz, Kunden) zu reflektieren.

Page 11: ITKnowHow

Der dabei stattfindende Veränderungsprozess vollzieht sich in 7 typischen Phasen:

• Schock und Überraschung Konfrontation mit unerwarteten Rahmenbedingungen. Dies kann „zufällig“ erfolgen (z.B. durch schlechte Geschäftsergebnisse) oder bewusst gesteuert werden (z.B. durch eine 3tägige Veranstaltung „Tal des Todes“). Dabei sinkt die wahrgenommene eigene Kompetenz, denn es wird festgestellt, dass sich die entwickelten Handlungsentwürfe nicht für die neuen Bedingungen eignen.

• Verneinung und Ablehnung Hier werden die Werte aktiviert, die die Überzeugung stärken, dass eine Veränderung nicht notwendig sei. Somit besteht keine Notwendigkeit zur Veränderung, so dass die eigene wahrgenommene Kompetenz wieder steigt.

• Rationale Einsicht Die Notwendigkeit zur Veränderung wird erkannt, wodurch die eigene Kompetenz wieder abnimmt. Der Fokus der Lösungssuche liegt auf kurzfristigen Lösungen, wobei dabei aber nur Symptome behandelt werden. Die Bereitschaft, die eigenen Verhaltensweisen zu ändern, ist nicht vorhanden.

• Emotionale Akzeptanz Diese Phase ist die entscheidende und wird auch als Krise bezeichnet. Gelingt es, die Bereitschaft zu wecken, Werte und Verhaltensweisen wirklich in Frage zu stellen, könne zukünftig neue und bis dahin ungenutzte Potentiale im Unternehmen erschlossen werden. Im "worst case" hingegen werden die Veränderungsprozesse gestoppt oder verlangsamt.

• Ausprobieren und Lernen Die nun vorhandene Akzeptanz zum Change setzt die Bereitschaft für einen Lernprozess in Gang. Dabei können nun neue Verhaltensweisen oder Abläufe ausprobiert werden, wobei es Erfolge und Misserfolge geben wird. Aufgabe des Change Managers ist es dabei, für frühzeitige Erfolge (Achieve early wins!) zu sorgen (z.B. durch kleinere und leichtere Projekte). Die wahrgenommene Kompetenz steigt in dieser Phase wieder an.

• Erkenntnis Beim Üben und Lernen werden nun immer mehr Informationen gesammelt. Dies wiederum wirkt als Feedback, in welchen Situationen welches Verhalten angemessen ist, was wiederum zu einer Erweiterung des Bewusstseins führt. Das verbreiterte Verhaltensrepertoire verbessert die Flexibilität der Organisation. Die nun wahrgenommenen Kompetenz übersteigt die Kompetenz vor der Veränderung.

• Integration Die neu entwickelten Denk- und Verhaltensweisen werden völlig integriert und übernommen. Sie gelten jetzt als selbstverständlich und werden weitgehend unbewusst vollzogen.

Page 12: ITKnowHow

Widerstand

Fragt man Mitarbeiter in Unternehmen zu ihrer Einstellung zum Wort Veränderung, ist festzustellen, dass die meisten Mitarbeiter negative Einstellungen oder Wahrnehmungen gegenüber diesem Begriff haben. Die Antworten und Aussagen reichen von Verlust des Arbeitsplatzes, der Stellung oder der sozialen Sicherheit bis zur Befürchtung einer höheren Belastung am Arbeitsplatz.

Die Auswirkungen von Veränderungen auf die meisten Angestellten, sowohl in Linien- als auch in Leitungsfunktionen sowie die Auswirkungen auf das allgemeine Leistungsniveau sind in der Regel negativ. Die Auswirkungen umfassen Sorgen, Stress, Frustration und eine generelle Ablehnung der Veränderung.

Die meisten Mitarbeiter im Unternehmen haben eher einen Widerstand gegenüber Veränderungen als die Veränderung als Chance zur Verbesserung zu begrüssen. Das halbvolle Glas ist eher halbleer als halbvoll. Sie befürchten, etwas zu verlieren, weil zum Teil Informationen darüber fehlen, was die veränderte Zukunft bringen wird, was passieren wird und welche Anforderungen und Aufgaben dann an sie gestellt werden.

Führt die Veränderung gar zum Abbau von Arbeitsplätzen, haben diejenigen, die "übrig geblieben" sind, immer noch eine Ablehnung gegenüber der Veränderung. Ursache dafür sind unter anderem die gestiegenen Verantwortungsbereiche und die neuen Aufgabenfelder. Andere Mitarbeiter können sich sogar schuldig dafür befinden, dass sie die "Überlebenden" des Veränderungsprozesses sind und andere "verloren" haben. Die emotionalen Einstellungen können zusätzlichen Stress im Unternehmen erzeugen.

Diese Probleme der Wirkungen von Veränderungsprozessen müssen beachtet werden, um die positiven und angestrebten Effekte der Veränderung zu erreichen. Dabei hängt der Erfolg der Veränderung massgeblich von der Fähigkeit des Unternehmens ab, seine Mitarbeiter in den Veränderungsprozess vollständig zu integrieren.

Page 13: ITKnowHow

Contentmanagement Was ist ein CMS?

Das Internet wächst ständig und damit auch die Anzahl der auf den Servern bereitgestellten Dokumente. Durch die steigende Zahl dieser Online-Publikationen und die zunehmende Kombination mit Datenbankdaten wird die manuelle Verwaltung immer schwieriger. Auch wird es immer wichtiger, Inhalte in verschiedenen Formaten mehrfach verwenden zu können sowie zusätzliche Präsentationskanäle (html, pdf usw.) adäquat zu bedienen. Hier greifen Content Management Systeme (CMS) ein. CMS sollen Inhalte für verschiedene Ausgabemedien und Zielgruppen aktuell und strukturiert zur Verfügung stellen sowie deren Erstellung von Anfang an organisieren. Dabei bezeichnet Content gleichermassen alles, was in digitaler Form publiziert werden kann: Texte, Grafiken, Audio und Video.

Grundsätzlich zeichnen sich CMS durch folgende wichtige Funktionen aus:

Dokumentenmanagement Die Fülle unterschiedlicher Publikationen muss bequem

verwaltet werden können. Dabei helfen Seiten-Templates, Assistenten und andere Hilfsmittel auch HTML-unerfahrenen Autoren und Redakteuren bei der Erstellung von Seiten. Die einzelnen Benutzer greifen auf vorgefertigte Templates zurück, innerhalb derer sie je nach Zugriffsrechten Texte bearbeiten können, ohne in das Layout einzugreifen.

Workflowmanagement Eine Vielzahl von Interaktionen muss koordiniert werden. Innerhalb des Systems wird ein Rollenkonzept erstellt, das die Arbeitsabläufe des Teams wiederspiegelt. So kann beispielsweise festgelegt werden, dass bestimmte Inhalte eines Redakteurs erst veröffentlicht werden, wenn ein Chefredakteur diese gesehen hat.

Benutzer- und Zugriffsrechteverwaltung

Damit wird beispielsweise festgelegt, wer an welchen Teilen einer Site arbeiten darf und was er dort ändern kann. So sollen sich Redakteure nicht gegenseitig "in die Quere kommen", indem Sie zur selben Zeit das gleiche Dokument bearbeiten. Natürlich spielen in einer immer mehr vernetzten Arbeitswelt auch Sicherheitsbedenken eine grosse Rolle.

Import- und Exportschnittstellen

Sie dienen der Einbindung und Ausgabe von Dokumenten und multimedialen Inhalten. Diese Funktion ist wichtig, damit gegebenenfalls auch fremde Dateiformate, wie z.B. PDF oder Flash, auf der Seite

Page 14: ITKnowHow

eingebunden oder in umgewandelter Form veröffentlicht werden können. Vielleicht sollen bereits vorhandene Inhalte ebenfalls voll in das neue System übernommen werden.

Versionskontrollen Bestandsänderungen am Content sollten jederzeit erfasst werden, um sicher zu stellen, dass die Mitarbeiter an der jeweils aktuellsten Version arbeiten. Diese sollten archiviert werden, um im Notfall ältere Versionen wieder herstellen zu können.

Indizierungs- und Suchfunktionen

Alle Dokumente und Inhalte müssen jederzeit schnell auffindbar sein. Dies kann zum Beispiel in Form einer graphischen Navigation erfolgen.

Wann ist ein CMS sinnvoll?

Für kleinere Sites dürfte der Einsatz eines professionellen CMS nach wie vor unrentabel sein, selbst wenn sich mittlerweile einige Anbieter genau dieser Zielgruppe zuwenden. Werden die zu verwaltenden Inhalte jedoch umfangreicher, vielfältiger oder funktionaler ist eine effektive Organisation gefragt. Kundenorientierte, speziell angepasste Lösungen oder flexible Systeme nach dem Baukastenprinzip sollen hier auch individuellen Anforderungen gerecht werden.

Die Einführung eines CMS bietet sich vor allem bei folgenden Merkmalen an:

Viele Inhalte Werden ständig, zyklisch oder ereignisorientiert, neue Inhalte

veröffentlicht? Zur Pflege einer fortwährend aktuellen Präsentation, an der gleich mehrere Online-Redakteure zeitgleich am Inhalt arbeiten, wird der Einsatz eines CMS allein durch den Umfang unersetzlich. Auch müssen Mechanismen gegeben sein, den Zugriff auf einzelne Teile des Contents zu beschränken - nicht jeder soll alles ändern dürfen.

Verteiltes Arbeiten

Jeder Mitarbeiter soll sich auf seine speziellen Fähigkeiten konzentrieren können: Der Layouter beschäftigt sich ausschliesslich mit der optischen Präsentation, der Redakteur ist für die Textproduktion zuständig und der Administrator verfügt über die technischen Kenntnisse. Ein CMS kann den gesamten Workflow während der Produktion abbilden und hilft somit, Fehler durch mangelnde Kenntnisse Einzelner zu verhindern. Ein weiterer Vorteil liegt in der Unterstützung vernetzter Arbeitsplätze.

Page 15: ITKnowHow

Ausgabekanäle Das Internet mag derzeit als das Nonplusultra für Unternehmenspräsentationen erscheinen. Dennoch müssen auch herkömmliche Präsentationskanäle (Printmedien, CD-ROM Kataloge usw.) aus dem gleichem Datenbestand bedient werden können. Ebenso sollten aktuelle Entwicklungen berücksichtigt werden. Ein zukunftsorientiertes CMS unterstützt diesen Ansatz durch getrennte Haltung der reinen Content-Daten.

e-Business Gerade im e-Business Bereich kommt man kaum noch um den Einsatz eines CMS herum. Viele Hersteller haben das bereits seit geraumer Zeit erkannt und bieten e-Commerce Zusatzmodule, Shop-Systeme oder branchenspezifische Komplettlösungen an. Besonders interessant sind hier auch Personalisierungsfunktionen und Möglichkeiten, das Besucherverhalten zu dokumentieren.

Worauf muss ich achten?

Diese Checkliste soll lediglich ein erster Anhaltspunkt bei der Beschäftigung mit CM-Systemen sein. Mit zunehmendem Projektumfang und steigenden Anforderungen an das CMS ist eine professionelle Beratung unumgänglich.

Folgende Funktionen und Eigenschaften sollten jedoch in jedem Fall beachtet werden:

Saubere Struktur Content-, Layout- und Strukturdaten sollten getrennt

gespeichert und verwaltet werden.

Visualisierung Die Struktur der Informationen sollte flexibel dargestellt werden können, beispielsweise in einer Baumansicht oder einem Graph. Neue Elemente sollten direkt generiert werden.

Workflow Das CMS sollte in der Lage sein, die Arbeitsabläufe innerhalb eines Teams abzubilden.

Meta-Daten Es sollte die Möglichkeit gegeben sein, Meta-Daten zu definieren und zu verwalten.

Link Management Links sollten überprüft und on-the-fly generiert werden.

Versions-Abgleich Es sollte ein ständiger Versionsabgleich erfolgen, nicht nur der Daten-Objekte, sondern auch der Meta-Daten. Nur so ist

Page 16: ITKnowHow

sichergestellt, dass komplette Versionen später wieder hergestellt werden können.

Zugriffsverwaltung Es muss die Möglichkeit gegeben sein, die Rechte verschiedener Usergruppen zu verwalten. Die Zugänge sollten in Standard-Directory-Services wie X500 oder LDAP integrierbar sein.

Suchmöglichkeit Eine gute Volltextsuche (nach Möglichkeit unabhängig vom Dokumentenformat) sollte integriert sein.

Erweiterungsfähigkeit Die Möglichkeit spezifischer Anpassungen sollte unterstützt werden.

Activity Logs Alle Aktivitäten sollten nach Möglichkeit geloggt werden.

Integration Bestehende Websites, Applikationen, Datenbanken, o.ä. sollten problemlos integrierbar sein.

Page 17: ITKnowHow

Customer Relationship Management

CRM - Customer Relationship Management - ist ein Managementansatz, der die Kundenorientierung des Unternehmens verstärkt. Durch die heute verfügbaren neuen Technologien in den Bereichen Enterprise Network / Internet ergeben sich sowohl für Industrie- als auch für Dienstleistungsunternehmen wettbewerbsbestimmende neue Chancen. Der CRM-Ansatz bietet neue Möglichkeiten zur Verstärkung der Kundenbindung, aber auch zur Entwicklung neuer Dienstleistungsprodukte und zur Erschliessung neuer Märkte. Zudem eröffnet er neue Ansätze zur Effizienzsteigerung der Leistungserstellung und nicht zuletzt zur Verbesserung der Unternehmenskommunikation auf allen Stufen.

CRM bezeichnet einen weitreichenden Prozess, der alle Bemühungen eines Unternehmens umfasst, die Kunden zu gewinnen, zu halten und zu pflegen sowie ihre Beziehungen zum Unternehmen auf einen optimalen Servicegrad auf- und auszubauen. CRM-Ziele

• Steigerung der Kundenloyalität durch überlegene, bedürfnisgerechte Gesamtmarktleistung (Produkt, Service, Zusatz- und Nebenleistungen, Kommunikation)

• Verstärkung der Konkurrenzfähigkeit durch Alleinstellung und Abhebung gegenüber der Konkurrenz, insbesondere durch rascheren, einfacheren direkteren und "situationsgerechten" Kundenzugang zum Unternehmen und all seinen Leistungsträgern.

• Expansion in neue Märkte durch systematische, laufende Verbesserung der "Market- und Business Intelligence" unter Nutzung der neuen Technologien.

• Kürzere "Time to market" durch rascheres Anpassen und aktives Nutzen der sich schnell ändernden Marktgegebenheiten.

• Steigerung der Produktivität durch Reduzierung der Kosten pro Transaktion sowie durch laufende Verbesserung der Qualität der Kunden- und internen Interaktionen.

CRM ist ein holistischer Managementansatz, der insbesondere die strategischen, operativen und dispositiven Dimensionen eines Unternehmens miteinander verbindet. Schon seit längerem ist bekannt, dass für die rasche Neuausrichtung von Unternehmen nicht die Schnittstellen zwischen den Funktionsbereichen des Unternehmens kritisch sind, sondern die ganzheitlich-koordinierte Umsetzung der Strategie in operative Strukturen und Prozesse mit entsprechendem dispositivem Ressourceneinsatz.

Page 18: ITKnowHow

CRM-Konzepte und Lösungen

Mit CRM ist es möglich, den Kunden in allen Leistungsdimensionen persönlich, subjektiv und individuell zu bedienen. Der Kunde wird von einem anonymen Marktobjekt zu einem Partner mit individuellen Bedürfnissen und Bedarfsprofil. Daraus entstehen zwei Erfolgsanforderungen an das Unternehmen. Einerseits gilt es, durch geschickte Segmentierung so weit wie möglich auf diese individuellen Kundenbedürfnisse einzugehen und die entsprechenden Unternehmensleistungen in allen Dimensionen des Marketing (Marktleistung, Pricing, Logistik, Kommunikation) zeitgerecht anzubieten und zu erbringen.

Andererseits ist durch entsprechende Ausgestaltung der unternehmerischen Prozesse und Nutzung der neuen Technologien die Rentabilität in dieser marktseitig notwendigen Vielfalt sicherzustellen. CRM-Lösungen beinhalten somit die kontinuierliche Optimierung dieser beiden Aspekte mittels gezielter Nutzung ensprechender Technologien:

• Verbessern des Kundenkontakts durch direkte, ganzheitliche und kundenspezifische Kommunikations mittels Kundendatenbanken, Auftragsbearbeitungs-Systeme, Customer Contact Centers, Help Desk usw.

• Kontinuierliches verbessern der Produktivität durch intelligentes, prozessorientiertes Work Management, wie beispielsweise durch die Integration von Enterprise Resource Planning Systeme (ERP-Systeme).

• Sicherstellen und Ausbauen der verantwortungsgerechten Befähigung aller Mitarbeitenden, diese immer rascher ändernden Anforderungen im Markt und hinsichtlich der Effizienz des Unternehmens zeitgerecht zu erfüllen. Auch dazu bieten die neuen Technologien neue Möglichkeiten un direkte kürzere Kommunikationswege (z.B. eMail).

Die praktische Realisierung von CRM-Projekten erfordert ein schrittweises Vorgehen. Vorerst empfiehlt es sich, im Rahmen eines Vorprojektes eine ganzheitliche, längerfristige "CRM-Vision" als Grundlage zu schaffen und damit das Management in das Vorhaben einzubinden. Als wesentlich haben sich dabei die Erarbeitung klarer und zeitlich etappierter CRM-Konzepte und die daraus abgeleitete Pflichtenhefte für die technische Gestaltung von CRM-Lösungen erwiesen. In den jeweiligen Realisierungsphasen liegt das Schwergewicht auf die Befähigung aller Mitarbeiter zur kundenwirksamen Nutzung der neuen technologischen Möglichkeiten. Das erfolgreiche Einführen von CRM-Lösungen setzt eine intensive und laufende Zusammenarbeit von betriebswirtschaftlich und anwendungsorientierten Mitarbeitern mit IT-Fachleuten in einem entsprechenden Projektmanagement voraus.

Page 19: ITKnowHow

Data Warehouse

Daten sind in keinem Unternehmen Mangelware. Und mit jedem Bestell- oder Liefervorgang, jeder Buchung, jeder Transaktion werden es mehr. Gigantische Datenbanken aufzubauen und zu füllen, ist schon lange keine Kunst mehr. Eine wahre Kunst ist es aber, die gesammelten Daten auch gewinnbringend zu nutzen: dazu gehört es, wichtige Informationen aus dem Datenberg zu filtern und sie zu unternehmensrelevantem Wissen anzureichern. und so eine Wissensgrundlage zu schaffen, auf der sich gesicherte strategische Entscheidungen fällen lassen.

Bevor es möglich ist, gesichterte strategische Entscheidungen aufgrund eines Data Warehouse zu fällen, müssen erst einmal zwei grundlegende Probleme aus dem Weg geräumt werden:

1. Das Unternehmen hat nicht eine grosse Datensammlung, sondern viele kleine. Und die befinden sich an verschiedenen Orten. So wacht die Abteilung Marketing beispielsweise über die Daten der letzten Werbeaktion, der Verkauf über die Umsatzzahlen. Die Kundendaten dagegen lagern separat in einer dritten Datenbank. Eine Aufgabe des Data Warehouse ist es, diese Daten unter einen Hut zu bringen.

2. Die Daten liegen in verschiedenen Formaten vor - von unterschiedlichen Datenbanken bis zum Excel-Sheet oder einer Word-Datei und zum Zettelkasten auf dem Schreibtisch. Logisch, dass es hier unvollständige, fehlerhafte Eintragungen und Duplikate gibt.

Die Konsequenz: Wer aus Daten Informationen ziehen will, muss die unterschiedlichen Datenquellen zusammenfassen, in die für Datenanalyse geeignete Form aufbereiten und den Anwendern verfügbar machen. Das alles kann ein Data Warehouse. Als zentrale Datenbank sammelt es regelmässig Einträge aus den operativen Systemen, ordnet und verdichtet sie und versieht sie mit beschreibenden Zusatzinformationen, sogenannten Metadaten.

Bei der Übernahme der Daten ins Data Warehouse sorgen Transformationsprogramme für Einheitlichkeit. So entsteht eine konsistente Datengrundlage, bereinigt von Unstimmigkeiten, wie zum Beispiel eventuelle Fehler in der Datenstruktur, Falscheinträge, oder unterschiedliche Schlüssel für gleiche Kundengruppen. W.H. Immon, einer der Väter der Data Warehouse Idee schätzt, dass 80 Prozent der Anstrengung in die Datenextraktion, also beispielsweise Zugriff und Säuberung investiert werden müssen.

Page 20: ITKnowHow

Planung

Ein Data Warehouse stellt die Ordnung her, die nötig ist, um in dem Datendickicht eines Unternehmens die Informationen zu finden, die man benötigt. Als schlüsselfertige Standardlösung ist es nicht zu kaufen. Grösse und Konzept sind von Unternehmensstruktur und Anforderungen der Benutzer abhängig. Wer einsteigt, muss allerdings nicht sofort ein ganzes Einkaufszentrum planen. "Think big, start small", lautet der Ratschlag vieler Experten. So kann ein modularer Aufbau sinnvoll sein. Man startet mit sogenannten Data Marts, vergleichbar mit einzelnen Fachabteilungen innerhalb des Data Warehouses.

Und auch ein Unternehmen, dessen Datenvolumen sich im Vergleich mit einem Handelsriesen winzig ausnimmt, sollte über den Einsatz eines Data Warehouses nachdenken. Ab wann sich der Aufbau eines Data Warehouses lohnt, sollte man nicht an der Unternehmensgrösse fest machen sondern an zwei anderen Faktoren: der Zahl der Kunden in Kombination mit der Zahl der Transaktionen.

Nicht jedes Grossunternehmen braucht ein Data Warehouse, und wer eines braucht, muss nicht unbedingt ein Grossunternehmen sein. OLAP und Data Mining

Bei den Werkzeugen zur Analyse des strukturierten Datenbestands im Data Warehouse tauchen verstärkt zwei Begriffe auf: OLAP und Data Mining.

OLAP (Online Analytical Processing) ist mit einer stark erweiterten Tabellenkalkulation vergleichbar. Die Daten werden in einem multidimensionalen Datenwürfel zusammengefasst und dann in Berichten mit Tabellen und Grafiken angezeigt. Der Nutzer kann sich die Kriterien, die für ihn interessant sind, auswählen und miteinander kombinieren.

So kann der Marktforscher die Faktoren Zeit, Gebiet und Produkt in einem Datenwürfel kombinieren, um das gewinnträchtigste Produkt zu ermitteln. Innerhalb dieser Analyse kann er die einzelnen Bezugsgrössen beliebig verändern, beispielsweise die Umsatzzahlen wochen-, tages- oder stundenweise vergleichen.

Internet- und Intranet erweitern die Fähigkeiten von OLAP. So bieten viele OLAP- Werkzeuge die Möglichkeit, Reports über das Internet oder ein Intranet durchzuführen. Der Mitarbeiter kann über einen Browser auf den OLAP-Server seines Unternehmens zugreifen, erhält die notwendigen Daten und erstellt ortsunabhängig und flexibel die gewünschten Analysen.

Während OLAP die Antwort auf gezielte Fragen gibt, schürfen Data Mining-Tools nach unbekannten Zusammenhängen innerhalb der Unternehmensdaten. Dazu nutzen sie neuronale Netze und genetische Algorithmen.

Ein bekanntes Beispiel, das den Nutzen des Schürfens in der Datenmine zu verdeutlicht, handelt von einer Handelskette, die durch das Analyse-Instrument entdeckte, dass am frühen Abend häufig Bier und Windeln gemeinsam in einem Einkaufskorb landen. Warum? Die Verantwortlichen zerbrachen sich die Köpfe, bis sie die Antwort fanden. Nach Feierabend kaufen viele junge Väter noch schnell die

Page 21: ITKnowHow

benötigten Windeln und belohnen gleichzeitig ihren Einsatz für Haushalt und Familie mit ein paar Flaschen Bier. Das Handelsunternehmen zog aus dieser Erkenntnis Konsequenzen: Beide Produkte wurden nebeneinander plaziert.

Die meisten Data Mining-Werkzeuge verwenden die folgenden Suchstrategien:

• Assoziationen suchen nach Mustern, bei denen das Auftreten einer Sache das Auftreten einer anderen impliziert. Beispiel: "Käufer von Taucheraustrüstungen sind gute Kandidaten für Urlaubsreisen nach Australien"

• Sequentielle Muster sind zeitliche Zusammenhänge. Beispiel: "Wenn der Preis von Aktie X um 10% steigt, sinkt der Preis von Aktie Y eine Woche später um 15%"

• Clustering sucht nach Gruppierungen und Klassifikationen auf hoher Ebene. Beispiel: "Über 70% der Wechselwähler haben ein Einkommen von über 60'000 Dollar, sind zwischen 40 und 50 Jahre alt="" und leben in der Nähe von XYZ."

Page 22: ITKnowHow

Datenbank Management Was ist eine Datenbank ?

Datensatz (record): ein Datensatz ist die Vertretung und Darstellung eines materiellen oder immateriellen "Objekts". Ein Datensatz enthält verschiedene Attribute (attribute), die die Beschreibung entsprechender Eigenschaften des Objekts sind (z.B. Name, Titel ...) sich selbst beschreibend: eine Datenbank soll ihre eigene Struktur beschreiben. Diese Beschreibung der Struktur einer Datenbank nennt man Meta-Daten (meta-data) (Daten über die Daten).

Eine Datenbank besteht aus Daten und Meta-Daten. Die Meta-Daten sind in einem Bereich der Datenbank gespeichert, der data dictionary oder system catalog heisst. Der data dictionary (system catalog) beschreibt und definiert die Tafeln, Kolumnen, Indices usw., die die Struktur der Datenbank bilden integriert: eine Datenbank enthält nicht nur unverbundene Datensätze, sondern ermöglicht auch, die Beziehungen zwischen Datensätzen zu erfassen (die Datensätze sind aufeinander bezogen, in ein Ganzes integriert).

Eine Datenbank besteht aus:

• Daten: den integrierten Datensätzen

• Software: dem Datenbank Management System (DBMS) Was ist ein Datenbank Management System (DBMS) ?

Unter Datenbank Management System verstehen wir einen Satz von Programmen, die dazu dienen, Datenbanken und die mit ihnen verknüpften Anwendungen zu definieren, verwalten und zu bearbeiten. Das DBMS ist die Software, die zwischen den spezifischen Anwendungen (z.B. Akzessionsverwaltung) und den Daten vermittelt.

Ein DBMS umfasst typischerweise folgende Leistungsmerkmale:

• eine Data Definition Language (DDL): enthält die Befehle zum Erstellen, Modifizieren oder Löschen einer Datenbank

• eine Data Manipulation Language (DML): enthält die Befehle zum Unterhalt einer Datenbank, d.h. zum Eintragen, Ändern oder Auswählen von Daten aus einer Datenbank. Ein wichtiger Bestandteil der DML ist eine Query Language, die das Auffinden und Aussuchen von Daten ermöglicht.

• eine Data Control Language (DCL): enthält die Befehle zur Sicherheit einer Datenbank. Bestandteile dieser Sicherheit sind u.a.:

o security system: Zugangskontrolle: verhindert, dass nicht dazu Bevollmächtigte zu Daten Zugang haben oder Daten bzw. die Datenbank verändern können.

o integrity system: Sicherung der Unversehrtheit der Daten

Page 23: ITKnowHow

o concurrency control system: Regelung von gleichzeitigem Zugang zur Datenbank

o recovery control system: Mittel zur Wiederherstellung der Datenbank im Falle von Hardware- oder Softwareproblemen

o user-accessible catalog: Nutzer-zugängliche Beschreibung der Daten

• einen View Mechanism, der es jedem Nutzer erlaubt seine eigenen Sichteweisen (views) der Datenbank zu schaffen.

Ein DBMS verwaltet die physischen Details der Datenspeicherung, sodass sich die Anwendungsprogramme nur um die logische Struktur der Daten und ihrer Beziehungen kümmern muss, nicht darum, wie diese Daten gespeichert sind. Ein DBMS, das auf verschiedenen Arten von Computern (Mainframes, Minicomputer, PCs) läuft, nennt man skalierbar (scaleable). Dies ist besonders wichtig für Netzwerke, die verschiedenste Arten von Computern (vom Supercomputer bis zum Notebook und PDA) enthalten.

Ein DBMS steht in folgender Umgebung:

• Hardware

• Software: Betriebssystem, Netzwerk-Software, DBMS, Anwendungsprogramme

• Daten

• Prozeduren: Tätigkeiten von Personen an der Datenbank

• Personen: Endnutzer, Datenverwalter, Datenbankverwalter, Datenbank-Designer, Programmierer

Datenbank-Modelle

Die wichtigsten heute üblichen Datenbankmodelle sind:

• das hierarchische Datenbankmodell

• das Netzwerk-Modell

• das relationale Datenbankmodell

• das objektorientierte Datenbankmodell

Page 24: ITKnowHow

Das hierarchische Datenbankmodell

Abbildung: Beispiel einer Datenbank nach dem hierarchischen Modell

Eine hierarchische Datenbank ordnet verschiedene Datentypen verschiedenen Ebenen einer Datenstruktur zu. Die Verbindungen zwischen den Daten verschiedener Ebenen sind einfach. Ein Nachteil des hierarchischen Modells ist, dass ein einzelner Dateneintrag unter Umständen mehrfach erscheinen muss, da er in verschiedenen hierarchischen Zusammenhängen steht. Ein weiterer Nachteil des hierarchischen Modells ist, dass es schwierig ist, im Nachhinein die Struktur der Datenbank wesentlich zu verändern. Das Netzwerk-Modell

Abbildung: Beispiel einer Datenbank nach dem Netzwerkmodell

In einer Datenbank nach dem Netzwerkmodell hat prinzipiell jeder Datenknoten unmittelbaren Zugang zu jedem anderen. Deswegen muss kein Knoten mehrfach vorhanden sein. Das Netzwerkmodell einer Datenbank wurde 1969 von der Data Base Task Group (DBTG) von CODASYL (Conference on Data Systems Languages) formuliert, um die Notwendigkeit von mehrfachen Datenknoten des hierarchischen

Page 25: ITKnowHow

Modells zu vermeiden. Der wichtigste Nachteil des Netzwerkmodells ist, dass die Struktur sehr schnell ziemlich undurchsichtig wird. Das relationale Datenbankmodell

Abbildung: Beispiel einer relationalen Datenbank

Das Hauptmerkmal einer relationalen Datenbank ist, dass die Daten in Tabellen (tables), akademisch Relationen (relations) genannt, organisiert sind, die voneinander weitgehend unabhängig sind. Eine Tabelle / Relation ist ein zweidimensionales Gebilde aus Reihen (rows) und Spalten (columns). Alle Einträge in einer bestimmten Spalte haben dieselbe Bedeutung (z.B. Titel, Untertitel ...). Jede Spalte repräsentiert ein bestimmtes Attribut (attribute) der durch die Tabelle repräsentierten Objekte. Jede Reihe enthält die Attributs eines einzigen Objektes der Tabelle. Die Reihenfolge der Reihen und Spalten in einer Tabelle ist ohne Bedeutung. Verschiedene Tafeln sind dadurch direkt verknüpft, dass sie jeweils mindestens eine Spalte mit demselben Attribut enthalten. Über direkt verknüpfte Tafeln lassen sich indirekte Vernüpfungen herstellen.

Der Hauptvorteil des relationalen Datenbankmodells ist, dass die Struktur der Datenbank verändert werden kann (indem man Tabellen hinzufügt oder entfernt), ohne dass deswegen Anwendungen geändert werden müssen, die sich auf die ältere Struktur gründeten. Ein weiterer Vorteil des relationalen Modells ist, dass man beliebig viele Sichtweisen (views) oder virtuelle Tabellen (virtual tables) der Daten mit unterschiedlichster logischer Struktur schaffen kann, indem verschiedene Tabellen bzw. Teile von Tabellen kombiniert werden. Dazu muss die Datenbank physisch nicht verändert werden.

Die Meta-Daten der Struktur der ganzen Datenbank und ihrer Tabellen wird in sogenannten Schemas (schemas) definiert und gespeichert. Der Bereich der Werte, die ein Attribut (d.h. ein Eintrag in einer bestimmten Spalte) annehmen kann, nennt man

Page 26: ITKnowHow

Wertebereich (domain) des Attributes. Dieser Wertebereich wird durch Einschränkungen (constraints) näher bestimmt.

Das relationale Datenbankmodell wurde 1970 von E. F. Codd bei IBM entworfen. 1979 erschien dann mit Oracle die erste kommerzielle Implementierung. Heute gibt es über 100 relationale DBM's. Das objektorientierte Datenbankmodell

Abbildung: Beispiel für ein objektorientiertes Datenschema

Page 27: ITKnowHow

Abbildung: Notation für das objektorientierte Datenschema

Für manche "Nicht-Standard-Anwendungen" erwies sich das relationale Datenbankmodell als nicht besonders geeignet. Solche Anwendungen sind:

• Rechnerunterstützte Ingenieursysteme (computer aided engineering systems): Anwendungen aus diesem Gebiet sind unter anderem dadurch gekennzeichnet, dass häufig grosse Mengen komplex strukturierter Daten zu bearbeiten sind. Zum Beispiel müssen von einem EDM-System (engineering data management system) komplexe Beschreibungsdaten, die die Struktur zu fertigender Produkte definieren, verwaltet werden. Diese Beschreibungsdaten werden dann im weiteren Verlauf der Konstruktion und Arbeitsvorbereitung etwa um technologische Daten angereichert. Datenbanksysteme dienen in diesem Anwendungsgebiet dazu, solche angereicherten Beschreibungsdaten einheitlich und konsistent zu verwalten.

• Computerunterstützte Softwareentwicklung: Auch hier fallenkomplexe Daten in den verschiedenen Phasen an. Zum Beispiel entstehen innerhalb der Entwurfsphase Diagramme und Schnittstellenbeschreibungen, die später etwa zur Erzeugung von Dokumenten dienen. Im weiteren Prozess werden viele verschiedenartige Dokumente erzeugt. Datenanksysteme übernehmen dabei die Verwaltung aller innerhalb des Softwareentwicklungsprozesses anfallenden Daten in Form eines sogenannten Repositories.

• Multimedia- und Hypermedia.

Page 28: ITKnowHow

Datenbank-Architektur

Die wichtigste Unterscheidung ist:

• Standalone System: ein einziger Computer und Nutzung durch gleichzeitig nur einen Nutzer.

• Multiuser System:

o Teleprocessing: mittels dummer Terminals; der Hauptcomputer übernimmt alle Verarbeitungs-Aufgaben

o Client/Server: die Clients übernehmen alle Anwendungen, der Server (der Serverteil des DBMS) beschränkt sich auf den unmittelbaren Umgang mit den Daten. Der Server ist also ein echter Database Server.

o Resource Sharing: ein Client/Server-System, bei dem man statt eines Database-Servers einen File-Server hat; d.h. der Server ist relativ dumm, das ganze DBMS liegt bei den Clients. Nachteil: starker Datenverkehr, da die Daten erst bei den Clients verarbeitet werden und so immer ganze Datenfiles übertragen werden.

o Distributed Data Processing: ein Client/Server-System mit sowohl mehreren Servern als auch mehreren Clients, wobei verschiedene Server dieselbe Datenbank oder identische Teile derselben Datenbank enthalten können. Vorteil: geringer Datenverkehr, da man die Daten dort speichert, wo sie zumeist gebraucht erden. Problem: die Daten auf allen Servern immer auf dem gleichen Stand halten.

Datenbank-Design

Die Grundlage einer guten, brauchbaren Datenbank bleibt auch trotz aller Erleichterungen durch moderne Hilfsmittel beim Entwurf und der Erstellung einer Datenbank ein gutes Datenbank-Design, d.h. vor allem, dass man sich klar ist, wozu eine Datenbank dienen soll, welche Zwecke sie erfüllen soll. Dies ist eine sachliche Aufgabe, die immer die Nutzer, ihre Bedürfnisse, Eigenarten, Schrullen usw., im Auge behalten muss.

Man unterscheidet beim Datenbank-Design folgende Ebenen:

• Konzeptionelles Design: Design der Datenstrukturen, des Gebrauchs der Daten usw. ohne Rücksicht auf ein bestimmtes Datenbank Management System (DBMS)

• Logisches Design: Umwandlung des konzeptionellen Designs auf die Strukturen des vorgesehenen Datenbank Management Systems (DBMS)

• Physisches Design: Design der Implementierung

Page 29: ITKnowHow

Enterprise Application Integration (EAI)

EAI-Lösungen bilden das Fundament für die Integration von Anwendungen. Die verfügbaren EAI-Konzepte unterscheiden sich von existierenden Middleware-Produkten, Applikationsservern und Gateways aufgrund ihres grösseren Leistungsumfangs. Neben dem Transport von Daten aus der einen in die andere Lösung werden auch betriebswirtschaftliche Anforderungen berücksichtigt.

Applikationsprofile Applikationen, die mit anderen integriert werden müssen, können in zwei Gruppen eingeteilt werden:

• Standardanwendungen mit einer festgelegten API und einer unterstützten Connection Middleware Nicht-Standardanwendungen, die eine API haben können, aber über keine gängige Connection Middleware verfügen. Standardapplikationen ermöglichen leichten Zugriff durch Client-Software-Komponenten. Beispiel hierfür ist SAP R/3, das eine RPC-basierte API verwendet.

• Nicht-Standardanwendungen werden meist als Legacy- oder Individual-Applikationen bezeichnet. Um eine Integration mit diesen Anwendungen zu ermöglichen, muss ihnen eine "Softwareschicht" oder ein Wrapper zugefügt werden. Dieser Wrapper erzeugt eine Art Standardschnittstelle.

Konnektivität und Prozessintegration

Die zu integrierenden Anwendungen müssen auf irgendeine Weise miteinander verbunden werden, Informationen müssen ausgetauscht werden. In der IT-Welt gibt es grundsätzlich drei Arten, Applikationen zu verbinden:

• über Nachrichten (Message Queues)

• über eine RPC-basierte Methode

• über eine Prozessintegrationsmethode

Prozessintegration basiert generell auf Komponentenmodellen wie zum Beispiel COM, CORBA oder JavaBeans. Diese Technologien haben als Basis selbst RPCs. Die betriebswirtschaftlichen Anforderungen von ERP-, SCM- und CRM-Systemen müssen berücksichtigt werden. EAI-Lösungen kümmern sich um den Austausch von Daten und lassen Geschäftsprozesse miteinander kommunizieren. Sie gleichen unterschiedliche Formate ab und sorgen dafür, dass die Informationen in den richtigen Anwendungen zur Verfügung stehen.

Grundsätzlich existieren drei Ansätze zur Integration:

• Individuelle Integration: Der erste Ansatz fusst auf einer Individuallösung, deren in C oder C++ geschriebene APIs sich um die Konnektivität und Verarbeitungsanforderungen kümmern.

• Integration per Plug-and-Play: Plug-and-Play-Adapter stellen hier die Verbindung zwischen den zu integrierenden Anwendungen her. Es bedarf

Page 30: ITKnowHow

keinerlei Entwicklungsaufwands, die vorgefertigen Adapter können von entsprechenden Anbietern lizenziert werden. Dieser Ansatz funktioniert nur bei Standardanwendungen.

• Integration per Plug-and-Customize: Bei diesem Ansatz wird der Grossteil der Integration durch vorgefertigte Prozess-Adapter vereinfacht. Die verwendeten Adapter können spezialisiert und modifizert werden. Die Plug-and-Customize-Lösung erlaubt auch die Integration von Nicht-Standard-Applikationen.

Das Thema Enterprise Application Integration hat nicht zuletzt im Zeitalter von E-Commerce neuen Auftrieb erhalten. Unternehmen brauchen die Fähigkeit, Informationstechnologie als Wettbewerbsvorteil einzusetzen. Das reibungslose Zusammenspiel der vielen unterschiedlichen Unternehmensanwendungen kann massgeblich zum Erfolg oder Misserfolg eines Unternehmens beitragen. Auch die Vision eines grenzenlosen elektronischen Handels kann nur dann Wirklichkeit werden, wenn unterschiedlichste Systeme miteinander verbunden werden. Die Integration von Geschäftsprozessen und Anwendungen ist und bleibt daher einer der grössten Herausforderungen, der sich IT-Abteilungen stellen müssen.

Weitere Informationen:

• Kriterienliste für die EAI-Produktauswahl, Richard Nussdorfer

• Competence Center zum Thema EAI-Systeme

Page 31: ITKnowHow

Enterprise Ressource Planning ERP

Als Enterprise Ressource Planning (ERP) Software bezeichnet man eine Sammlung von Applikationen, die Abteilungen mit Finanz- und Personalressourcen automatisieren und Herstellern helfen Aufgaben wie Bestellungsabwicklung und Produktionsplanung zu erfüllen. Diese Systeme sind hoch komplex, und ein Einsatz dieser Software erfordert oftmals eine Änderungen der internen Prozesse des Kunden.

Die Einsatzgebiete von ERP Systemen werden immer vielfältiger und die Anbieter von ERP Software stossen in neue Gebiete wie Supply Chain Management (SCM) oder Customer Relationship Management (CRM) vor. Einsatzgebiete von ERP Systemen

Finanz - Module für Buchhaltung und zur Überwachung des Zahlungsverkehrs. Als Beispiele:

• Hauptbuch: Beinhaltet zentralisierte Kontenpläne und Firmenbilanz

• Debitoren: Überwacht Kundenzahlungsn und Aussenstände

• Kreditoren: Überwacht Zahlungenstermine an Lieferanten

• Anlagevermögen: Verwaltet Abschreibungen und Kosten die mit Gebäuden, Eigentum und Ausstattung zusammenhängen

• Finanzverwaltung: Überwacht und analysiert den Kassenbestand, Finanzverträge und Investitionsrisiken

• Kostenkontrolle: Analysiert Gemeinkosten und Kosten von Produkten und Produktionsaufträgen

Human Ressources - Software um personelle Aufgaben für Manager und individuelle Angestellte zu übernehmen. Als Beispiele:

• Verwaltung von Arbeitsreserven: Automatisiert Personalmanagementprozesse wie Anwerbung neuer Mitarbeiter, Geschäftsreisen und Urlaubszuteilungen

• Lohnlisten: Handhabt die Buchung und Vorbereitung von Lohnschecks, Löhnen und Boni

• Selbstverwaltung personeller Daten: Mitarbeiter können ihre persönlichen Daten selbstständig ändern und aktualisieren (Adressänderungen, Bankverbindungen,...)

Produktion und Logistik - Eine Gruppe von Applikationen für Produktionsplanung, Auftragserfassung und Vertrieb zum Kunden. Als Beispiele:

Page 32: ITKnowHow

• Produktionsplanung: Vollführt Kapazitätsplanungen und erstellt tägliche Produktionspläne für Erzeugerfirmen.

• Materialmanagement: Kontrolliert den Einkauf von Rohmaterialien und die Bestände

• Auftragserfassung und Auftragsabwicklung: Automatisiert den Datenerfassungsprzess von Kundenaufträgen und verfolgt den Status von Aufträgen

• Lagerverwaltung: Enthält Datensätze von lagerverwalteten Gütern und wickelt den innerbetrieblichen Transport ab.

• Güterverkehrsteuerung: Arrangiert, plant und überwacht die Zustellung von Produkten zu Kunden mittels LKWs, Zügen und anderen Transportmitteln

• Projektmanagement: Überwacht Kosten und Arbeitspläne auf einer Projekt-nach-Projekt Basis

• Werkswartung: Erstellt Pläne und Übersee-Instandhaltungen von internen Anlagen

• Kundenservice: Administriert Wartungsverträge and überprüft Verträge und Garantien bei Kundenanfragen.

Begriffe in Zusammenhang mit ERP Prozesskostenrechnung Eine Form der Buchführung, die versucht die wirklichen Kosten jedes Teils eines Geschäftsprozesses zu quantifizieren. Für Produzenten könnte es eine Alternative zu jährlichen Standardproduktionskosten sein. Kapazitätsplanung Die konstante Produktion von Gütern. Sie erlaubt dem Produzenten unter nahezu voller Auslastung ohne Spitzen und Tiefen in der Auslastung Kostenstellenrechnung Prozess um Gemeinkosten verschiedenen Geschäftsobjekten zuzuordnen. Die Gemeinkosten inkludieren (Gehälter, Gebäudeinstandhaltung und andere Kosten, die nicht direkt produzierten Gütern zuordenbar sind) Anlagevermögen Inkludiert Gebäude, Möbel, Maschinen, Fahrzeuge und anderes physisches Eigentum, das für Aufgaben wie zB. Abschreibung und Wartung verwaltet werden muss. Just-in-time Produktion Lieferung vom Materialien zu einer Produktionsstätte zu dem Zeitpunkt, in dem sie gebraucht werden um den Lageraufwand zu verringern.

Page 33: ITKnowHow

Logistikverwaltung Verwaltet Operationen der Produktion, wie Vertrieb, Werksdisposition und Transport. Herstellungsressourcenplanung Koordiniert den Produktionsprozess. Sie erlaubt eine Vernetzung verschiedener Funktionen, wie Planung, Produktion, Vertrieb und Disposition Supply Chain Management Verwaltet Angebot und Nachfrage im Zusammenhang mit Bestellung, Produktion, Lagerhaltung, Bestandsüberprüfung und Vertrieb eines Produktes.

Page 34: ITKnowHow

Groupware und CSCW Informationsarbeiter als Zielgruppe

Im Mittelpunkt des Interesses an Groupware stehen Informationsarbeiter ("white collar workers") und ihre kooperativen Beziehungen zu anderen Mitgliedern einer Arbeitsgruppe. Informationsarbeiter können sowohl Sachbearbeitungsstellen als auch Planungs- und Entscheidungsstellen im Informationssystem der Unternehmung sein.

Informationsverarbeitungsaufgaben bilden den Arbeitsinhalt für den Informationsarbeiter in Büroumgebungen. Informationsverarbeitung ist gekennzeichnet durch informationelle Prozesse, in denen durch fortschreitende Verwirklichung und Konkretisierung das gewünschte Ziel "aufgabengerechte Information" in Form von "Informationsprodukten" erreicht werden soll. Informationsverarbeitungsaufgaben implizieren Gruppenarbeit, wenn unter den gegebenen Randbedingungen Informa-tionsprodukte nur gemeinsam, aber nicht einzeln erzielt werden können. Eine anerkannte Definition für Gruppenarbeit findet sich b ei Rosenstiel. Offensichtlich dabei ist, dass sich die Gruppenmitglieder als solche bewusst wahrnehmen müssen ("Psychologische Gruppe") und nicht nur durch äussere Merk-male wie z.B. räumliche Nähe als Gruppe erkennbar werden ("Soziologische bzw. Geographische Gruppe"). Kooperationskonzepte für die Informationsverarbeitung

Gruppenarbeit ist durch kooperative Prozesse gekennzeichnet, bei denen mehrere Personen individuelle Aktivitäten zur Bewältigung bestimmter Aufgaben oder Probleme aufeinander abstimmen können oder müssen, um ein gemeinsames Ziel zu erreichen.

Nach Piepenburg sind für kooperatives Arbeiten die Faktoren

• Zielidentität

• Plankompatibilität

• Ressourcenaustausch

• Regelbarkeit und

• Kontrolle

notwendig.

Bei den kooperierenden Aufgabenträgern muss eine zumindest teilweise Übereinstimmung in deren Zielen vorhanden sein. Kooperatives Arbeiten setzt neben einer Zielidentität auch ein aufeinander Abstimmen der Handlungspläne der beteiligten Individuen (Plankompatibilität) voraus. Die Qualität von Kooperationen wird u.a. davon bestimmt, inwieweit ein Austausch von Ressourcen gewährleistet werden kann.

Das Angleichen von Plänen wie auch der Ressourcenaustausch ist nicht immer von vornherein exakt festzulegen, sondern erfordert ein bestimmtes Ausmass an

Page 35: ITKnowHow

Regelbarkeit ("Flexibilität") der Handlungspläne für die Koordination verschiedener Kooperationspartner.

Die Kontrolle über den Handlungsablauf stellt einen unabdingbaren Bestandteil der Regulierbarkeit dieses Ablaufes dar und bestimmt das Ausmass, in dem ein angestrebtes Ziel erreicht werden kann. Demnach lässt sich eine Kontrollierbarkeit der eigenen Handlungsabfolgen wie die der anderen Kooperationspartner als Voraussetzung für das Zustandekommen kooperativen Arbeitens ableiten.

Der Kommunikationswissenschaftler Herrmann hält wiederum folgende ähnliche Bestimmungselemente für Kooperationen bedeutsam:

• Gemeinsame bzw. überlappende Ziele

• Gemeinsamer Plan

• Bewusstsein, dass man mit jemanden kooperiert

• Gemeinsames Material, das die Kooperation koordinierend vermittelt

• Bewusste Kommunikation bezüglich der Kooperation

Im Gegensatz zu Piepenburg jedoch hält er nicht die Gesamtheit der Faktoren für kooperatives Arbeiten für unbedingt notwendig, sondern es reicht für eine Kooperation bereits aus, wenn nur eines dieser Bestimmungselemente gegeben ist. Dimensionen von Kooperationen

Neben den Bedingungen für kooperatives Arbeiten können nach Piepenburg noch drei z.T. dichotom ausgeprägte Dimensionen von Kooperation unterschieden werden:

• Bilaterale vs. multiple Kooperation

• Konjunktive vs. disjunktive Kooperation

• Unmittelbare vs. mittelbare Kooperation

Die erste Dimension bezieht sich auf die Anzahl der Kooperationspartner - Kooperation unter Beteiligung von zwei oder mehreren Partnern ("bilaterale vs. multiple Kooperation"). Die zweite Dimension bezieht sich auf die Art und Weise, in der Kooperationspartner das gemeinsam zu erreichende Arbeitsergebnis herbeiführen. Im Gegensatz zur konjunktiven reicht es bei der disjunktiven Kooperation aus, wenn lediglich nur einer der Beteiligten den Handlungsablauf bis hin zum Kooperationsziel vollzieht.

Die dritte Dimension von Kooperation bezieht sich auf die räumliche und zeitliche Distanz der Beteiligten. Eine unmittelbare Kooperation findet statt, wenn sich alle Kooperationspartner zur gleichen Zeit am gleichen Ort aufhalten. Mittelbare Kooperation bezieht sich auf die übrigen Formen, die sich durch die Kombination der beiden Kriterien Zeit und Ort ergeben.

Page 36: ITKnowHow

Kommunikation als Mittel für kooperatives Arbeiten

In der einschlägigen Literatur wird Kooperation eng mit dem Kommunikationsbegriff verknüpft. Auf die vielfältigen Ausprägungen und Strukturmerkmale von Kommunikationsprozessen (z.B. formelle/informelle oder vertikale/horizontale Kommunikation) gehen Picot et al. näher ein.

Nach Watzlawick und Herrmann besteht zwischen Kommunikation und Kooperation trotz des engen Zusammenhangs keine eindeutig umkehrbare Beziehung. Im Mittelpunkt von Kooperation steht stets ein gemeinsames Handeln mindestens zweier Personen. Das Mittel für Kooperationen stellt die Kommunikation dar. Die Art und Qualität kommunikativer Prozesse richten sich nach den Zielen der konkreten Aktivität, die kooperativ ausgeführt wird. Demnach macht eine komplexe gemeinsame Handlungsplanung und -durchführung ein hohes Niveau an Kommunikation erforderlich.

Kommunikation am Arbeitsplatz hat grundsätzlich immer zwei Funktionen, eine arbeitsbezogene und eine soziale Funktion. Die soziale Kommunikation ist auf der Gefühlsebene der Kommunikationspartner angesiedelt und dient der Entwicklung der persönlichen Beziehungen. Die arbeitsbezogene Kommunikation befindet sich auf der Ebene des objektiven Austausches von arbeitsspezifischen Informationen und lässt sich wieder untergliedern in eine inhaltsbezogene und eine arbeitsablaufsteuernde bzw. prozessbezogene Kommunikation. Die inhaltsbezogene Kommunikation dient der Bereitstellung von fachbezogenen Fakten oder von Methoden zur Fakten- und Datenanalyse oder sonstigen Übertragung von Sachinformationen, während die prozessbezogene Kommunikation Hinweise für die Arbeit und Zusammenarbeit der beteiligten Kommunikationspartner zu geben versucht. Definition von Groupware

Da für die drei Komponenten der Kommunikation (Arbeitsinhalt, Arbeitsablauf und Soziale Kommunikation) in der Regel unterschiedliche Kommunikationsmedien - technische Aspekte der Kommunikation - benutzt werden, ist davon auszugehen, dass ein Groupware-Arbeitsplatz durch das Angebot der technischen Kommunikationsmittel und die Organisation der Bedienerführung alle drei Ebenen einer arbeitsplatzbezogenen Kommunikation unterstützen muss.

Resultierend aus den vorstehenden Erklärungen ist Groupware ein computergestützter Informationsarbeitsplatz, welcher eine transparente Integration der drei Ebenen der Kommunikation mit Informationsverarbeitungswerkzeugen möglich macht.

Diese Definition lässt noch offen, ob Groupware nur zur Erledigung kooperativen Arbeitens genutzt werden muss oder kann, bzw. ob Groupware Ersatz oder Ergänzung für andere Formen kooperativen Arbeitens ist. Durch diese Definition werden bewusst Technologien ausgenommen, die lediglich die technische Gestaltung der Kommunikation herstellen, aber keine Integration mit typischen Informationsverarbeitungswerkzeugen (z.B. für die Textverarbeitung, Datenhaltung, Tabellenkalkulation etc.) möglich machen.

Die Integration der drei Ebenen der Kommunikation am Arbeitsplatz beschränkt sich nicht nur auf den Einsatz von technischen Kommunikationsmedien, sondern muss auch Formen der persönlichen Kommunikation (z.B. verbale oder nonverbale Kommunikation

Page 37: ITKnowHow

in einer Face-to-Face-Situation oder Sprache via Telefon etc.) berücksichtigen und unterstützen können - Beispiel Integration von Telefon und elektronischem Notizblock: automatische Anwahl der Nummer des Teilnehmers durch den Computer, Möglichkeiten zum Anfertigen von Notizen während eines Telefonats, und automatische Zeitrechnung durch den Computer nach Beendigung des Gesprächs.

Groupware muss die transparente Verwaltung der dabei auftretenden Medienbrüche durch eine einheitliche Bedieneroberfläche auf dem Arbeitsplatzrechner möglich machen. Transparenz der Integration bedeutet hier, dass die beteiligten Anwender unbelastet von computertechnischen Aspekten ihren individuellen und kooperativen Aufgaben am Arbeitsplatz nachgehen können. Die transparente Verwaltung verschiedener Kommunikationsmedien und Applikationen für die Informationsverarbeitung ("Mehrwertanwendungen") ist wichtiger als die Vermeidung von Medienbrüchen. Schliesslich muss jeder Groupware-Arbeitsplatz an eine real existierende Arbeitsumwelt angepasst werden, und in dieser kann nicht jeder Kooperationspartner über dieselben technischen Medien und zur gleichen Zeit erreicht werden.

Bisherige, z.T. sehr unterschiedliche Abgrenzungsversuche, wie sie u.a. von Ellis, Oberquelle oder Gerhard unternommen worden sind, beziehen sich nur auf einzelne, vornehmlich kommunikationsunterstützende Systeme an den Arbeitsplätzen von kooperierenden Informationsarbeitern. Auch die in der Literatur oft genannte Bezeichnung für Groupware als "Hardware und Software oder nur Computerunterstützung für Gruppen" geht nicht auf die transparente Integration von Werkzeugen zum Erstellen von Informationsprodukten einerseits und Kommunikationswerkzeugen andererseits am computergestützten Arbeitsplatz ein. Um diesen Mangel an transparenter Integration verschiedener arbeitsplatzspezifischer Werkzeuge zu beseitigen, muss für den Informationsarbeiter ein Arbeitsplatz geschaffen werden, der sowohl auf seine als auch auf die Bedürfnisse der Arbeitsgruppe, in die er eingebettet ist, ausgerichtet sein muss.

Dieser anwenderorientierte Ansatz verlangt, dass sich Groupware-Benutzer durch transparente Integration von IuK-Technologien ungeachtet der technischen Aspekte an ihren Informationsarbeitsplätzen auf das "Was" und nicht auf das "Wie" ihrer Arbeit konzentrieren können. CSCW - Computer Supported Cooperative Work

CSCW ist nach dem bisherigen Erkenntnisstand eine noch nicht einheitlich verwendete Sammelbezeichnung für ein Forschungsgebiet, auf dem sich Wissenschaftler verschiedener Disziplinen mit der Untersuchung der Zusammenhänge zwischen Informations- und Kommunikationstechnologien sowie kooperativem Arbeiten auseinandersetzen. CSCW-Forschungsarbeiten bilden demnach die Grundlage für die Entwicklung von Groupware-Anwendungen. Der hier vorgestellte Rahmen dient zur Einordnung einzelner CSCW-Forschungsaktivitäten und hebt die Multidisziplinarität von CSCW hervor.

Bei der Ausarbeitung von Ansätzen und Konzepten der CSCW-Systementwicklung dominieren heute vor allem Forschungsarbeiten aus der Informatik und anderen Computerwissenschaften, die in der Praxis zu einer Vielzahl von Kommunikations-, verteilten Multimedia-Systemen sowie von Multi-User-Interfaces geführt haben. Diese Systeme sind die technischen Grundlagen, auf denen heute Groupware-Anwendungen

Page 38: ITKnowHow

basieren können. Zum Verständnis von Gruppenarbeit tragen vor allem empirische Forschungsarbeiten aus den Sozialwissenschaften, der Psychologie, den Kommunikations- und Organisationswissenschaften etc. bei.

Für die Entwicklung von Groupware müssen in Zukunft die Abhängigkeiten der drei sich beeinflussenden Forschungsschwerpunkte von CSCW, wie sie in der vorhergehenden Abbildung dargestellt sind, beachtet werden. Daher ist es offensichtlich, dass Forschungsarbeiten nicht auf der Ebene von Werkzeug- und Konzeptimplementierungen beginnen dürfen, sondern auf einer objektiven Analyse des Arbeitsumfelds der Gruppe basieren müssen.

Aus diesem objektiven Wissen über Gruppenmechanismen und aus den von verschiedenen Gruppenmitgliedern zu erledigenden Aufgaben müssen Gestaltungsansätze und konzeptionelle Grundlagen für die Entwicklung von Groupware abgeleitet werden. Zu den Gruppenmechanismen gehören soziale und funktionale, auf die Gruppe und ihre einzelnen Mitglieder einflussnehmende Faktoren. Bei empirischen Forschungsarbeiten über Gruppen mit CSCW-Erfahrung müssen auch Vergleichsstudien zu früheren Forschungsarbeiten über Gruppen ohne CSCW-Erfahrung durchgeführt werden, um die Wirksamkeit von Groupware sowie die Akzeptanz neuer Anwendungen durch die Gruppenmitglieder objektiv beurteilen zu können.

Das aus frühen wissenschaftlichen Untersuchungen resultierende Gruppenverständnis ist dahingehend zu untersuchen, welche Formen an Computerunterstützung mit welchen Eigenschaften zum Untersuchungszeitpunkt zur Verfügung standen und ob das damals (z.T. vor zwanzig Jahren) erarbeitete Wissen auch für die gegenwärtig soziale und technische Umwelt noch Gültigkeit hat. Bei der Untersuchung der Nutzung von Groupware muss auch beachtet werden, dass Gruppen in der Regel nicht nur kurzfristig und einmalig zusammenarbeiten, sondern auch über längere Zeit hinweg bestehen. Dieser Untersuchungsaspekt, der von der bisherigen Groupware-Entwicklung nicht ausreichend beachtet worden ist, betont, dass von einer einmaligen Zusammenarbeit zwischen kooperierenden Informationsarbeitern nicht automatisch und zeitunabhängig auf fortlaufende Gruppenprozesse geschlossen werden darf. Auch müssen "natürliche" Gruppen in die Forschungsarbeit miteinbezogen werden, damit nicht nur, von Forschern gestellte künstliche Aufgaben, sondern auch jene aus einer praxisorientierten Arbeitsumwelt bearbeitet werden können.

Page 39: ITKnowHow

Informationspolitik

Informationspolitik ist die Regelung des Zusammenwirkens von Individuen, Gruppen, Organisationen, Kommunen und Staaten zur Erreichung zuvor festgelegter informationspolitischer Ziele. Sie wird eingeteilt in Ordnungspolitik, Strukturpolitik und Förderpolitik Informationswissenschaft

Informationswissenschaft befasst sich mit der Klärung des Informationsbegriffs und des Informationsverständnisses und seiner/ihrer erkenntnistheoretischen, historischen, sozialen, ökonomischen, genetisch/biologischen und technischen Zusammenhänge. Sie befasst sich weiterhin mit Theorie und Praxis des Informationsmanagements in allen seinen Erscheinungsformen. In ihrer modernsten Ausprägung schliesst sie die Bereiche Bibliothekswesen, Archivwesen und Museologie ein und arbeitet eng mit den Nachbardisziplinen Betriebswirtschaft, Bildungswissenschaften, Design, Ingenieurwissenschaften, Informatik, Kommunikationswissenschaft, Kulturwissenschaften, Linguistik, Sozialwissenschaften, Verhaltenswissenschaften und Volkswirtschaft zusammen. Durch Forschung und Lehre sowie durch permanente Zusammenarbeit mit Informationspolitik und Informationspraxis leistet sie unverzichtbare Beiträge zum technischen und sozialen Fortschritt und zur humanen Gestaltung des Lebens.

Aufgabe der Informationswissenschaft, wie aller Wissenschaft, ist neben den Aufgaben:

• Aufstellen einer neuen Theorie

• Ermittlung neuer Grunderkenntnisse

• neue Thesen als Detaillierung von Grunderkenntnissen

• neue Thesen als Kombination von Grunderkenntnissen verschiedener Disziplinen

• neue Thesen durch Anwenden neuer Methoden

• Quantifizierung bisher qualitativ beschriebener Zusammenhänge

• Interpretation begrenzter Einzelerscheinungen

• Materialerschliessung und -zusammenstellung nach bestimmten Aspekten

• Überblicke über Themenproblematiken nach bestimmten Aspekten

auch die Aufgabe, praktische Probleme durch Angabe konkreter Lösungswege zu lösen. Dies geschieht - konventionell - in drei Schritten:

• Erkennen der Problemsituation und Darstellung des Problems (Stadium der Problemerstellung)

• Analyse der Bedingungen und Methoden, die eine Problemlösung gestatten (Stadium der Problembarbeitung)

Page 40: ITKnowHow

• Aufstellung von Hypothesen und ihre Überprüfung in der Praxis (Stadium der Problemlösung)

Informationspraxis

Informationspraxis ist die Informationsversorgung von Staat, Wirtschaft, Wissenschaft, Medien, gesellschaftlichen Organisationen und Einzelnen durch Gestaltung und Prägung ihres Informationsumfeldes unter Anwendung des Standes so-wie der Forschungs- und Entwicklungsergebnisse der Informationswissenschaft(en) und ihrer Nachbardisziplinen sowie die Erbringung von Informationsdienstleistungen aller Art.

Aufgabe der Informationspraxis ist,

• für Auftraggeber (Firmen, Firmen-Abteilungen, Behörden, Wissenschaftseinrichtungen, Berater) die existierenden Informationsstränge zu ermitteln, zu analysieren, kritisch zu bewerten, Vorschläge für deren Verbesserungen in apparativer, organisatorischer, ökonomischer und führungsmässiger Beziehung zu machen, die Einführung zu planen und vorzubereiten, hierfür erforderliche Hardware und Software auszuwählen, die Einführung zu überwachen, erforderliche Schulungsmassnahmen rechtzeitig einzuleiten, Querverbindungen zu potentiellen Ko-Informato-ren herzustellen, das Informations-Umfeld zu pflegen und die permanente Anpassung an die technische Entwicklung sicherzustellen,

• die Informationsbedürfnisse ihrer Benutzer bezüglich des fachlichen und/oder des zeitlichen Umfangs zu ermitteln, schnellstmöglich hierfür geeignete Quellen auszuwählen, Suchstrategien auszuarbeiten, in den ausgewählten Quellen als Einzelauftrag oder periodisch als Dauerauftrag zu recherchieren, die Rechercheergebnisse benutzergerecht aufzubereiten, dem Kunden zu präsentieren und gegebenenfalls nachzurecherchieren und/oder nachzubereiten,

• die Informationsstruktur(en) der Geselllschaft und einzelner gesellschaftlicher Gruppen zu beobachten, zu analysieren, und Vorschläge für ihre Optimierung durch Verbesserung von Effektivität und Effizienz zu machen.

Page 41: ITKnowHow

IT Strategie

Die Fähigkeit zur schnellen Reaktion auf sich verändernde Märkte und die Beherrschung zunehmender Komplexität - sowohl in den vernetzten Prozessen als auch in der innovativen Produktgestaltung - entscheiden über die Wettbewerbsfähigkeit der Finanzdienstleistungsunternehmen in der Zukunft. Diese Entwicklung - in der Fertigungsindustrie bereits weitgehend vollzogen - erzwingt den strategischen Einsatz des Produktionsfaktors Information.

Die Optimierung und Weiterentwicklung der Informationsverarbeitungssysteme zur Sicherstellung der Wettbewerbsfähigkeit des Unternehmens ist unabdingbar. Dabei gewinnt die effiziente Rollenverteilung bei der Gestaltung der Informationssysteme an Bedeutung. Neben der Organisations-, Produkt- und Marketingstrategie ist die IT-Strategie der entscheidende Träger der Unternehmensstrategie.

Die IT-Abteilung wandelt sich zu einem Dienstleister mit Beratungsfunktion. Sie liefert und integriert Softwarebausteine aufgrund gemeinsam abgestimmter Regeln. Fachbereiche und Betriebsorganisationen leisten eigenständig qualitativ hochwertige Entwicklungsarbeit und kombinieren auf der Grundlage dieser Regeln Produkte und Prozesse flexibel aus den gelieferten Softwarebausteinen. Diese Sichtweise hat Konsequenzen - auf die Zusammenarbeit zwischen den Bereichen ebenso wie auf die Prozesse innerhalb der IT-Abteilung. Fachbereiche und Betriebsorganisation müssen als Auftraggeber verbindlich das Bausteinprinzip und die Regeln zu dessen Nutzung anerkennen und in ihrer täglichen Arbeit berücksichtigen! Dazu zählt auch die vollständige formale Spezifikation ihrer Anforderungen. Die IT-Abteilung muss in strenger Kundenorientierung die Entwicklungsarbeit bei ihren Auftraggebern unterstützen und die geforderten Softwarebausteine und Beratungsleistungen in der vereinbarten Qualität termin- und aufwandsgerecht liefern. Eine hohe Stabilität der Grundlagen dieser Zusammenarbeit im Zeitverlauf ist unabdingbar für den dauerhaften Erfolg.

IT-Management wird zur strategischen Aufgabe für das Gesamtunternehmen

Vor dem Hintergrund ständiger Paradigmenwechsel in der Informatik, kürzer werdende Innovations- und Entwicklungszyklen von Hard- und Software, Trends zum Einsatz von Standardsoftware, anstelle teurer Eigenentwicklungen und nicht zuletzt eines betriebswirtschaftlich gebotenen Investitionsschutzes (die Liste liesse sich beliebig fortsetzen) müssen neue Anwendungen in existierende, in der Regel in den 70er und 80er Jahren gewachsene, Umgebungen integriert werden.

Für jede Problemstellung existieren eigene Anwendungen. Fachliche, organisatorische und technische Wiederverwendung sowie horizontale bzw. vertikale Datenintegration sind noch Vision.

Dies sind Fakten, die zunächst in einem krassen Gegensatz zu den betriebswirtschaftlichen Bedürfnissen des Unternehmens nach stabilen, flexiblen, redundanzarmen, sicheren und bezahlbaren Informationssystemen stehen. Steigende Aufwände für die Wartung bestehender und die Einbindung neuer Anwendungen verbunden mit dem Risiko von Inkonsistenzen, machen die Informationsverarbeitung zeitaufwendig, kostenintensiv und führen oft zu mangelnder Qualität.

Page 42: ITKnowHow

Die Alternative einer kompletten Neuentwicklung, mit der Ablösung aller bestehenden Informationssysteme in einem Schritt, ist extrem teuer und mit hohen Risiken behaftet - nur wenige Unternehmen werden sich diesen Weg leisten können und wollen.

Die Informatik steht in den Finanzdienstleistungsunternehmen vor einem klassischen Zielkonflikt. Die strategische Situation der Unternehmen fordert einen Quantensprung in der Qualität der Informationssysteme - Schlüsselworte sind Flexibilität, Wiederverwendung und Offenheit; schnelle Anpassungen an die sich wandelnden Markterfordernisse müssen möglich sein. Dabei wird gleichzeitig eine deutliche Dämpfung der Kostenverläufe gefordert, ein hinreichender Investitionsschutz muss gewährleistet werden, Termin- und Aufwandstreue werden als Randbedingung vorausgesetzt.

Page 43: ITKnowHow

Qualitätsmanagement in der Softwareentwicklung

Unter "Softwareentwicklung" versteht man alle Tätigkeiten, die ausgeführt werden müssen, um ein Softwareprodukt zu erzeugen. Dazu gehören Anforderungsanalyse, Entwurf, Implementierung und Integration, Wartung, Konfigurationsmanagement, Qualitätssicherung und Dokumentation. "Qualitätsmanagement" bezeichnet die Planung, Steuerung und Kontrolle von Qualität.

Was bedeutet "Qualität"? Einige Fachleute verstehen unter "Qualität" die Abwesenheit von Fehlern. Unsere alltäglichen Erfahrungen mit Softwareprodukten bestimmter Hersteller weisen allerdings darauf hin, dass Software sehr fehlerhaft und dennoch erfolgreich sein kann. Offenbar verfügen diese Produkte über andere "Qualitäten" als Fehlerlosigkeit. Und offenbar bewegen diese anderen Qualitäten die überwältige Mehrheit von Computernutzern weltweit, diese Produkte trotz ihres offensichtlich hohen Fehleranteils zu erwerben und jahrelang damit zu arbeiten.

Im allgemeinen wird unter "Qualität" das Ausmass verstanden, in dem ein Gegenstand geeignet ist, Anforderungen zu erfüllen. Diese Anforderungen können sich bei Software auf Benutzerfreundlich-keit, Kompatibilität, Portierbarkeit, Integrationsfähigkeit, Performanz, Wart- und Erweiterbarkeit sowie auf viele andere Aspekte beziehen. Damit ist auch klar, dass "Softwarequalität" für verschiedene Benutzer völlig unterschiedliche Dinge bedeuten kann. Unter Berücksichtigung der jeweiligen Rahmenbedingungen müssen Anforderungen festgelegt werden, die beschreiben, was in einer spezifischen Situation unter "Qualität" verstanden werden soll.

Es lassen sich zwei verschiedene Perspektiven des Qualitätsmanagements in der Softwareentwicklung unterscheiden. Die erste Perspektive fokussiert auf das Softwareprodukt, die zweite auf die Softwareentwicklung selbst – oder anders formuliert: auf den Prozess der Entwicklung der Software bzw. auf den Softwareprozess.

Bei der produktorientierten Perspektive werden zunächst Anforderungen an das Softwareprodukt formuliert. Diese Anforderungen dienen als Leitlinien zur Entwicklung der Software und als Kriterien zur Bewertung des entwickelten Produktes. In der Regel werden diese Anforderungen im Rahmen der Anforderungsanalyse formuliert und z. B. in Form eines Pflichtenhefts dokumentiert. Im Rahmen der Qualitätssicherung wird überprüft, inwiefern das entwickelte Produkt diese Anforderungen erfüllt.

Bei der prozessorientierten Perspektive werden Anforderungen an den Prozess der Softwareentwicklung formuliert. Diese Anforderungen dienen sowohl als Vorgaben z. B. für die Gestaltung einzelner Softwareprojekte als auch als Bewertungskriterien für einen Softwareprozess, z. B. im Rahmen der Zertifizierung eines Qualitätsmanagementsystems.

Selbstverständlich besteht zwischen der produkt- und der prozessorientierten Perspektive eine enge Verbindung. Es handelt sich lediglich um unterschiedliche Perspektiven auf den selben Gegenstand, nämlich die Softwareentwicklung . Die Verfechter beider Perspektiven haben das selbe Ziel, sie setzen lediglich unterschiedliche Schwerpunkte bei der Wahl ihrer Mittel.

Die Verfechter der prozessorientierten Perspektive gehen davon aus, dass ein qualitativ hochwertiger Prozess (das heisst ein Prozess, der die an ihn gestellten Anforderungen

Page 44: ITKnowHow

erfüllt) mit einer hohen Wahrscheinlichkeit auch ein qualitativ hochwertiges Produkt hervorbringt. Demzufolge konzentrieren sie sich auf die Gestaltung des Softwareprozesses. Die Verfechter der produktorientierten Perspektive gehen davon aus, dass zur Erreichung eines qualitativ hochwertigen Softwareproduktes die Überprüfung der Anforderungen an das Produkt höchste Priorität haben sollte. Demzufolge betonen sie die Qualitätssicherung des Produktes - in der Regel in Form von Tests oder Inspektionen.

In der Praxis der Softwareentwicklung werden beide Perspektiven miteinander kombiniert. Die Unterscheidung der Perspektiven dient in erster Linie zum besseren Verständnis der unterschiedlichen Ansätze zur Verwirklichung des Qualitätsmanagements in der Softwareentwicklung. Produktorientiertes Qualitätsmanagement

Im Rahmen der produktorientierten Perspektive lassen sich im wesentlichen zwei verschiedene Massnahmenbündel unterscheiden: die dynamische Qualitätssicherung (oder anders formuliert, das Testen) und die statische Qualitätssicherung. (Daneben gibt es noch formale Verifikation und symbolische Ausführung. Da diese Ansätze jedoch nur in Spezialbereichen verwendet werden, wird hier nicht näher darauf eingegangen.) Dynamische Qualitätssicherung (Softwaretesten)

Softwaretesten bedeutet Überprüfen von Software durch Ausführen eines Testobjektes (z. B. eines Softwaremoduls) mit Testdaten. Softwaretesten wird deshalb auch als "dynamische Qualitätssicherung" bezeichnet. Das Ziel des Testens besteht darin, Fehler zu finden. Fehler sind Abweichungen von den Anforderungen. Softwaretests sind nicht geeignet, die Sicherheit, Korrektheit oder Qualität eines Softwareproduktes nachzuweisen. Softwaretests können lediglich Abweichungen von den Anforderungen (= Fehler) aufzeigen. Selbst wenn bei umfassenden und sehr gründlichen Softwaretests keine Fehler gefunden wurden, heisst das nicht, dass das getestete Objekt keine Fehler enthält.

Jedem Softwaretest liegt folgende Struktur zugrunde:

• Definition von Testfällen

• Auswahl einer Testdatenkombination

• Definition des erwarteten Ergebnisses

• Ausführen des Testobjekts mit einer Testdatenkombination

• Vergleich des erwarteten mit dem tatsächlichen Ergebnis

Weicht das erwartete von dem tatsächlichen Ergebnis ab, liegt ein Fehler vor.

Ein Testfall beschreibt eine Menge von Eingabedaten, mit denen ein bestimmter Aspekt des Verhaltens eines Testobjekts geprüft werden soll. Ein Testfall spezifiziert eine Menge von Testdaten bzw. Testdatenkombinationen. Testdaten sind die Eingabewerte, die bei der Testdurchführung verwendet werden. Eine Testdatenkombination ist eine

Page 45: ITKnowHow

Kombination von Testdaten, die gemeinsam für eine Ausführung des Testobjekts verwendet werden. Ein Testverfahren bezeichnet eine begründete Vorgehensweise zur Aufdeckung einer bestimmten Klasse von Fehlern.

Es gibt sehr unterschiedliche Testverfahren. Da Testobjekte in der Regel nicht vollständig, das heisst mit allen denkbaren Testdatenkombinationen getestet werden können, geben Testverfahren Hinweise zur Auswahl von Testfällen und von Testdaten(kombinationen). Die verschiedenen Testverfahren unterscheiden sich im wesentlichen dadurch, welche Schwerpunkte bei der Auswahl von Testfällen und Testdaten(kombinationen) gesetzt werden. Durch diese unterschiedlichen Schwerpunkte ergeben sich auch unterschiedliche Stärken und Schwächen der einzelnen Verfahren.Die Testverfahren können in funktionsorientierte und strukturorientierte Testverfahren unterteilt werden.

Funktionsorientierte Testverfahren benutzen die Spezifikation des Testobjekts als Referenz für die Bildung von Testfällen. Beispiele für funktionsorientierte Testverfahren sind die Äquivalenzklassen-Analyse, die Grenzwertanalyse und die Ursache-Wirkungs-Analyse.

Strukturorientierte Testverfahren benutzen die Implementation des Testobjekts (in der Regel den programmierten Code) als Referenz für die Bildung von Testfällen. Strukturorientierte Testverfahren lassen sich unterteilen in kontrollflussorientierte Testverfahren und datenflussorientierte Testverfahren.

Bei den kontrollflussorientierten Testverfahren werden Strukturelemente (z. B. Anweisungen, Zweige, Bedingungen) zur Erzeugung von Testfällen verwendet. Bei den datenflussorientierten Testverfahren werden Zugriffe auf Variablen (z. B. Definitionen oder berechnende Verwendungen) zur Erzeugung von Testfällen verwendet.

Der Aufwand für das systematische Testen von Software ist hoch. Verschiedene empirische Untersuchungen zeigen, dass die Kosten für das Testen 20 bis 50 % des gesamten Projektbudgets ausmachen können. Wird weniger systematisch getestet, drohen noch weitaus höhere Kosten, z. B. für die Behebung von Fehlern bei Kunden bzw. für die Anfertigung und Auslieferung verbesserter Versionen. Statische Qualitätssicherung

Die statische Qualitätssicherung umfasst alle Aktivitäten, die Informationen über ein Prüfobjekt bereitstellen, ohne es dynamisch auszuführen. Ein typisches Beispiel der statischen Qualitätssicherung sind Inspektionen. Dabei wird ein Objekt durch ein Team von drei bis sieben Teilnehmern überprüft. Das Team versucht, durch gemeinsames Lesen des Prüfobjekts und mit Hilfe von Checklisten Fehler zu entdecken. Prüfobjekte können z. B. Anforderungsdokumente, Daten- oder Ablaufmodelle oder Softwarecode sein.

Typische Fragen, die im Rahmen einer solchen Sitzung überprüft werden, sind:

• Stimmt das Objekt mit der Spezifikation überein?

• Ist das Objekt vollständig?

• Ist die gewünscht Funktionalität korrekt implementiert worden?

Page 46: ITKnowHow

• Enthält das Objekt nur die Funktionen / Inhalte, die es enthalten soll?

• Sind relevante Richtlinien, Normen und Standards eingehalten worden?

Einer der Vorteile der statischen Qualitätssicherung besteht darin, dass bereits in den frühen Phasen der Softwareentwicklung Zwischenprodukte systematisch überprüft werden können. Das Testen hingegen erfordert ablauffähigen Softwarecode. Ein weiterer Vorteil der statischen Qualitätssicherung besteht darin, dass Fehler direkt - und nicht nur anhand ihrer Auswirkungen wie beim Testen - erkannt werden können.

Das Softwaretesten scheint in der Praxis im Vergleich zur statischen Qualitätssicherung verbreiteter zu sein. Das ist vor allem deshalb unverständlich, weil verschiedene empirische Untersuchungen zeigen, dass z. B. Code-Inspektionen im Vergleich zum Testen deutlich effizienter sind. Setzt man den Gesamtaufwand ins Verhältnis zur Anzahl der gefundenen Fehler, so ist mit Code-Inspektionen häufig eine deutlich höhere Wirtschaftlichkeit erreicht worden.

Das produktorientierte Qualitätsmanagement hat den Nachteil, dass Fehler in der Regel erst nach der Realisierung eines (Zwischen-)Produktes entdeckt werden können. Im prozessorientierten Qualitätsmanagement versucht man dagegen, die Softwareentwicklung so zu gestalten, dass die Wahrscheinlichkeit, Fehler zu begehen, reduziert wird. Prozessorientiertes Qualitätsmanagement

Der Begriff "prozessorientiertes Software-Qualitätsmanagement" bezeichnet ein Bündel von Massnahmen, mit denen wesentliche Teilaufgaben der Softwareentwicklung geplant, gesteuert und kontrolliert werden können. Diese Massnahmen sind darauf ausgerichtet, die Softwareentwicklung innerhalb einer Organisation zu standardisieren und kontinuierlich zu verbessern. Auf diese Weise soll die Leistungsfähigkeit der Softwareentwicklung erhöht werden. Die erhöhte Leistungsfähigkeit soll sich z. B. durch verbesserte Produktqualität, niedrigere Entwicklungskosten und kürzere Entwicklungszeiten bemerkbar machen.

Das prozessorientierte Software-Qualitätsmanagement wird in verschiedenen Leitfäden beschrieben. Hierzu zählen insbesondere die ISO 9000-Normenfamilie und das Capability Maturity Model (CMM) for software, auf die im folgenden kurz eingegangen wird. Darüber hinaus entsteht zur Zeit die Norm ISO 15504 "Software Process Assessment", die auch unter der Bezeichnung "Software Process Improvement and Capability dEtermination (SPICE)" bekannt geworden ist.

Die Leitfäden können Unternehmen helfen, ihre Softwareentwicklung zu gestalten und zu verbessern. Sie eignen sich auch zur Bewertung der Leistungsfähigkeit von Softwarelieferanten bzw. als Massstab für eine Zertifizierung. Die ISO 9000-Normenfamilie

Die Entwicklung der ISO 9000-Normenfamilie begann Ende der 70er Jahre, um die verschiedenen damals bereits existierenden nationalen und branchenspezifischen Normen zur Qualitätssicherung zu vereinheitlichen. 1987 wurde die ISO 9000-Familie

Page 47: ITKnowHow

weltweit veröffentlicht und seit dem in verschiedenen Stufen überarbeitet. Parallel dazu glichen verschiedene nationale Normungsinstitute ihre Normen an die Vorgaben der ISO 9000 an.

Die Übertragung der Empfehlungen und Forderungen der branchenunabhängigen ISO 9000-Normenfamilie fiel besonders Dienstleistungsunternehmen und Software entwickelnden Organisationen schwer. Deshalb wurden verschiedene branchenspezifische Auslegungen und Konkretisierungen der Normen erstellt. Für Dienstleistungsunternehmen ist das z. B. die ISO 9004-2, für die Softwareentwicklung die inzwischen überarbeitete ISO 9000-3.

Die ISO 9000-Normenfamilie besteht aus verschiedenen Normen:

• In der ISO 8402 werden die der ISO 9000-Familie zugrundeliegenden Begriffe definiert.

• Die ISO 9000-1 ist ein Leitfaden zur Auswahl und Anwendung der ISO 9000 Normen. Sie gibt ausserdem eine Einführung in die Grundgedanken der Normenfamilie.

• Die ISO 9004-1 gibt Empfehlungen zur Gestaltung des Qualitätsmanagements bzw. zum Aufbau eines Qualitätsmanagementsystems. Der Begriff "Qualitätsmanagementsystem (QM-System)" bezeichnet die "zur Verwirklichung des Qualitätsmanagements erforderliche Organisationsstruktur, Verfahren, Prozesse und Mittel".

• Die ISO 9001 beschreibt Anforderungen für die Zertifizierung von QM-Systemen.

• Die ISO 9000-3 ist ein Leitfaden für die Anwendung der ISO 9001 auf die "Entwicklung, Lieferung und Wartung von Software". Die Verfasser der ISO 9000-3 haben versucht, die branchenunabhängig formulierten Begriffe der ISO 9001 in eine in der Softwareentwicklung übliche Terminologie zu übersetzen.

• Die Normen der "10000-er Reihe", die ebenfalls zur ISO 9000-Familie gerechnet werden, gehen auf einzelne Elemente des Qualitätsmanagements ein, z. B. auf die Durchführung von Audits oder die Erstellung von Qualitätsmanagement-Handbüchern.

Inhaltlich geben die Normen in erster Linie Empfehlungen zur Dokumentation, zur Qualitätssicherung, zum Konfigurationsmanagement, zur Verantwortung der Leitung einer Organisation sowie zu den Aufgaben von Qualitätsbeauftragten. Der Ruf der ISO 9000 Normenfamilie hat in der Softwarebranche – vermutlich in erster Linie wegen der Zertifizierungspraxis – gelitten. Allerdings haben viele Softwareunternehmen durchaus positive Erfahrungen mit der Gestaltung ihrer Softwareentwicklung gemäss den Empfehlungen der Norm gemacht. Das Capability Maturity Model (CMM) for software

Das Capability Maturity Modell (CMM) wird seit 1986 am Software Engineering Institute (SEI) der Carnegie Mellon University in Pittsburgh, USA entwickelt. Das US-amerikanische Verteidigungsministerium finanziert die Arbeiten am CMM, da es das Modell als Hilfsmittel zur Beurteilung und Auswahl von Lieferanten für Softwaresysteme benötigt.

Page 48: ITKnowHow

Das wesentliche Strukturierungsmerkmal des CMM sind die sogenannten "Reifegrade" ("Maturity levels"). Reifegrad 1 ("initial") beschreibt "unreife" Gestaltungen der Softwareentwicklung. Reifegrad 5 ("optimizing") beschreibt den höchsten Reifegrad. "Reife" im Sinne des CMM bezeichnet das Ausmass, in dem die Softwareentwicklung definiert und beschrieben ist, und in dem sie geplant, gesteuert und kontrolliert wird. Mit steigendem Reifegrad wird die Erwartung verbunden, dass Termine, Kosten- und Qualitätsziele besser geplant und eingehalten werden können. Gleichzeitig - so die Verfasser des CMM - sinke das Risiko, dass einzelne Projekte ihre Ziele nicht erreichen.

Die Verfasser des CMM stellen ausserdem einen Zusammenhang zwischen der Reife und der Effektivität der Softwareentwicklung her. Sie behaupten, je reifer die Softwareentwicklung sei, desto höher sei die Qualität der entwickelten Produkte, desto kürzer seien die Entwicklungszeiten und desto niedriger die Kosten. Die fünf Reifegrade bauen aufeinander auf. Jeder Reifegrad unterscheidet sich von dem vorhergehenden dadurch, dass zusätzliche Fähigkeiten beherrscht werden.

Die wesentlichen Charakteristika der fünf Reifegrade:

• Reifegrad 1 - "Initial Level"

Softwareentwicklungsprojekte werden ad hoc strukturiert und laufen in der Regel chaotisch ab. Nur wenige Vorgehensweisen, Methoden oder Verfahren sind klar definiert. Es gibt keine Vorgaben oder Hilfsmittel zur Planung und Steuerung von Projekten. Liefertermine und Budgets der Projekte sowie die Qualität der Produkte lassen sich nur schwer vorhersagen. Der Erfolg oder Misserfolg von Entwicklungsvorhaben hängt in erster Linie von den Bemühungen, der Motivation und der Qualifikation der beteiligten Personen ab.

• Reifegrad 2 - "Repeatable Level"

Grundlegende Projektmanagementaufgaben, wie Planung, Kontrolle und Steuerung von Zeit, Kosten und Qualität, sind etabliert. Die Planung von Projekten basiert auf den Erfahrungen ähnlicher Projekte. Erfolge einzelner Projekte können unter ähnlichen Bedingungen mit einer gewissen Wahrscheinlichkeit wiederholt werden.

• Reifegrad 3 - "Defined Level"

Es sind projektübergreifende, unternehmensweit gültige Regelungen zur Softwareentwicklung erlassen und dokumentiert worden. Alle Entwicklungsprojekte richten sich nach diesen Regelungen. Situationsspezifische Anpassungen und Interpretationen der Regelungen in einzelnen Projekten sind zulässig und erwünscht, sofern sie nachvollziehbar begründet werden können. Eine eigene organisatorische Einheit, die "Software engineering process group (SEPG)", pflegt die Regelungen und entwickelt sie weiter, so dass die Projekte dadurch sinnvoll unterstützt werden.

Page 49: ITKnowHow

• Reifegrad 4 - "Managed Level"

Es werden quantitative Ziele für Softwareprodukte und Teilaufgaben der Softwareentwicklung formuliert. Die Zielerreichung wird im Rahmen eines umfassenden Messprogramms überprüft. Alle Messergebnisse werden mit Hilfe einer Datenbank verwaltet und ausgewertet. Der Einfluss der verwendeten Hilfsmittel auf die Qualität der Produkte und die Produktivität der Entwicklung ist verstanden und quantitativ formuliert worden. Die Hilfsmittel können gezielt eingesetzt und verändert werden, um Zeit-, Kosten- und Qualitätsziele mit hoher Genauigkeit zu erreichen. Wenn gesetzte Ziele nicht erreicht werden, so können diese Abweichungen mit Hilfe der gesammelten Daten erklärt werden. Sobald in einem Entwicklungsprojekt Abweichungen von (Teil-)Zielen festgestellt werden, werden Gegenmassnahmen ergriffen.

• Reifegrad 5 - "Optimizing Level"

Das gesamte Unternehmen ist auf kontinuierliche Verbesserung eingestellt. Erfahrungen aus der Softwareentwicklung werden mit quantitativen Daten beschrieben. Diese Daten ermöglichen eine kontinuierliche Verbesserung aller Teilaufgaben der Softwareentwicklung. Neue Ideen, Methoden und Werkzeuge werden in Pilotprojekten erprobt. Quantitative Kosten-Nutzen-Analysen dieser Innovationen ermöglichen Empfehlungen für den unternehmensweiten Einsatz der jeweils besten Hilfsmittel.

Empirische Untersuchungen zeigen, dass sich die Mehrheit aller Softwareentwicklungsprozesse auf Reifegrad 1 oder 2 befindet. Für Software entwickelnde Organisationen scheint es - unabhängig von der Branche - sinnvoll zu sein, die Softwareentwicklung in Übereinstimmung mit den Empfehlungen der Reifegrade 2 und 3 zu gestalten. Die Anforderungen der Stufen 4 und 5 sind hingegen sehr aufwendig zu realisieren. Sie scheinen nur bei besonders hohen Anforderungen an die Qualität der entwickelten Software empfehlenswert zu sein.

Das CMM wird in Nordamerika vorwiegend von Unternehmen in den Branchen Telekommunikation, Luft- und Raumfahrt sowie von Finanzdienstleistern eingesetzt. Diese Unternehmen erreichen – wegen der Kritikalität ihrer Softwareanwendungen oft einen hohen Reifegrad nach CMM. Sowohl die ISO 9000 als auch das CMM geben vor, dass bestimmte Aspekte geregelt und dokumentiert werden müssen. Sie geben aber nicht vor, wie diese Aspekte gestaltet werden sollen. Vor allem werden keine Empfehlungen für bestimmte Werkzeuge gegeben. Diese Beschränkung auf allgemein gehaltene Hinweise hat Vor- und Nachteile. Einerseits lassen die Leitfäden den Anwendern weite Spielräume zur Interpretation und Gestaltung der Anforderungen und Empfehlungen. Andererseits können die Leitfäden nicht als "Kochbücher" verwendet werden, die man unmittelbar umsetzen kann, um zu einer qualitativ hochwertigen Softwareentwicklung zu gelangen.

Risiken von Fehlern

Am 1. Januar 1996 führt die Deutsche Telekom neue Tarife für die Abrechnung von Telefonaten ein. Durch einen Fehler werden dabei 11 Millionen Kunden überhöhte

Page 50: ITKnowHow

Gebühren in Rechnung gestellt. Nachdem der Abrechnungsfehler bekannt wird, entschliesst sich die Telekom, den Fehler zu beheben und die Kunden zu entschädigen. Es wird geschätzt, dass dem Unternehmen dadurch ein Schaden von mehr als 70 Millionen DM entstanden ist.

Am 14. September 1993 versuchen die Piloten eines Airbus A-320 der Deutschen Lufthansa bei schlechtem Wetter in Warschau zu landen. Nach dem Aufsetzen auf der Landebahn lässt sich zunächst die Schubumkehr des Airbus nicht betätigen. Neun Sekunden lang rast das Flugzug mit nahezu unverminderter Geschwindigkeit über die Landebahn. Als die Schubumkehr wieder funktioniert ist es zu spät. Der Airbus kommt nicht rechtzeitig zum Stehen, bohrt sich in einen Erdwall und fängt Feuer. Zwei Menschen werden getötet, 52 schwer und fünf leicht verletzt.

Am 25.02.1991, während des letzten Golfkrieges, verfehlt in Dharan (Saudi-Arabien) eine Patriot-Abwehrrakete eine irakische Scud-Rakete. Die Scud-Rakete trifft eine Mannschaftsunterkunft US-amerikanischer Soldaten. 28 Personen werden getötet, 90 weitere zum Teil schwer verletzt.

So unterschiedlich diese Beispiele auch sind, allen drei Fällen ist gemeinsam, dass mangelnde Softwarequalität massgeblich zu den Schäden beigetragen hat. Solche spektakulären Fälle mit zum Teil katastrophalen Folgen sind eine Facette mangelnder Softwarequalität. Eine andere Facette sind die vielen Fehler, die sich in Betriebsystemen und Anwendungssoftware verbergen. Obwohl diese Fehler nur selten zu spektakulären Folgen führen, sind ihre Auswirkungen – volkswirtschaftlich gesehen - ebenfalls erheblich. Das kann man sich leicht klar machen, wenn man errechnet, wie viele Arbeitsstunden alleine in Deutschland an einem Tag dadurch verloren gehen, dass Benutzer nach Softwareabstürzen ihre Systeme neu starten und dabei eventuell Daten neu eingeben müssen.

Qualitätsmanagement in der Softwareentwicklung ist nicht in der Lage, das Auftreten von Softwarefehlern zu verhindern. Es kann aber einen Beitrag dazu leisten, dass Software mit weniger Fehlern ausgeliefert und dass das mit den verbleibenden Fehlern verbundene Risiko vermindert wird. Qualitätsmanagement kann auch dazu beitragen, dass die Anforderungen der Benutzer an die Software in höherem Masse erfüllt wird. Ein richtig verstandenes prozessorientiertes Qualitätsmanagement kann ausserdem zu einer Reduktion von Entwicklungskosten und Projektlaufzeiten beitragen.

Produkt- und prozessorientiertes Qualitätsmanagement sind keine Alternativen, sondern sich ergänzende Massnahmenbündel. Im Total Quality Management (TQM) versucht man, beide Perspektiven zu vereinen. Dabei wird besonderer Wert auf die Ausbildung und Motivation der Mitarbeiter gelegt. Denn eines ist klar: Weder Prüfungen von Produkten noch Verbesserungen von Prozessen können ihre Wirkung voll entfalten, wenn sie nicht von engagierten Mitarbeitern getragen werden.

Weitere Informationen

• Software Engineering Institut

• DIN

• ISO

Page 51: ITKnowHow

IT-Kultur

o Computerethik o Cyberculture o Die Geschichte des Internets o Die Zukunft des Internets o Philosophie o Recht o Revolution

Page 52: ITKnowHow

Computerethik

In der Computerwelt ist wie im richtigen Leben: Ohne ein Mindestmass an gegenseitiger Rücksichtnahme ist ein effizientes Arbeiten nicht möglich.

Um dies in prägnanten und kurzen Sätzen eindrucksvoll darzustellen, wurden die 10 Regeln der Computerethik zusammengestellt, die oft auch als die 10 »Gebote« der Computerethik bezeichnet werden:

1. Du sollst nicht deinen Computer benutzen, um anderen Schaden zuzufügen.

2. Du sollst nicht anderer Leute Arbeit am Computer behindern.

3. Du sollst nicht in anderer Leute Dateien stöbern.

4. Du sollst nicht den Computer zum Stehlen benutzen.

5. Du sollst nicht den Computer benutzen, um falsches Zeugnis abzulegen.

6. Du sollst nicht Software benutzen oder kopieren, für die du nicht die Nutzungs- oder Kopierrechte erworben hast.

7. Du sollst nicht anderer Leute Ressourcen ohne deren Erlaubnis verwenden.

8. Du sollst nicht anderer Leute geistig Werk als deines ausgeben.

9. Du sollst über die sozialen Konsequenzen deiner Programme nachdenken.

10. Du sollst den Computer so benutzen, dass du Verantwortung und Respekt zeigst.

Page 53: ITKnowHow

Cyberculture Digitale Revolution

Ein vielgebrauchtes Synonym für die Chancen, die neue Technik für jeden einzelnen und damit für alle zusammen haben soll, ist das Internet. Schnell wird da in den einschlägigen Branchenblättern von einer " Digitalen Revolution" geredet, die uns von den Übeln des 20. Jahrhunderts mit einem Geniestreich befreien wird. So manche/r wünscht sich - wie vor kurzem Monica Brandis an dieser Stelle - genau das: Ein Ende der bürgerlichen, hierarchisierten, zentralisierten und patriarchalischen Welt.

Und ist enttäuscht, dass sich dem Fachmann wie dem Laien bislang so wenig davon zu erkennen gibt im Netz der Netze. Denn leider, leider ist die bisherige Entwicklung des Internets zwar explosionsartig, aber alles andere als politically correct verlaufen. Der Unmenschengeist des vergangenen Jahrtausends, der Profit, Profit und abermals Profit sucht, und an vierter Stelle eine Möglichkeit zur eitlen Selbstdarstellung, hat sich in Windeseile auch der Welt der binären Datenströme bemächtigt und so das Neue in den Sumpf des Alten herabgezogen.

Musste das denn wirklich so kommen? Müssen denn die Nutzniesser dieser grossartigen Quelle von Information und globaler Brüderlichkeit schon wieder männlich, weiss, wohlhabend und gymnasial gebildet sein? Hat denn nicht auch die Erfindung des Buchdrucks (und was sind Bücher aus Papier und Tinte schon im Vergleich zu rasant anwachsenden 100 Millionen URLs im Net?) die europäische Gesellschaft grundlegend verändert, folgte ihm nicht die Renaissance, die Entdeckungen, der Humanismus, die Reformation? Dürften wir denn nicht eigentlich mindestens das gleiche erwarten vom dritten Jahrtausend und seiner digitalrevolutionierten, lieblich kommunikativen Gesellschaft? Herrschaft im Internet?

Nein. Dürften wir nicht. Davon wird nichts Wahrheit werden. Und nicht nur das: Diejenigen, die solches fordern, versprechen oder lautstark erhoffen, sind nichts anderes als Heuchler. Die Wortführer der "Digitalen Revolution", die Vor- und Andenker der "Demokratisierung übers Netz", die die bürgerliche Moderne am Ende sehen, sind nämlich selber genau diejenigen, die solchen Prozessen als erste im Wege stehen. Denn nur sie sind für all das auf einmal Beweinte eigentlich verantwortlich. Die Menschen, weiblich oder männlich, die schon bisher in Politik und Medien das Sagen (und Schreiben) hatten, meinen nun, darob plötzlich ein ganz niedliches und gehätscheltes schlechtes Gewissen zu brauchen.

In der Tat symptomatisch ist es, dass sich ausgerechnet die Frankfurter Allgemeine, publizistische Speerspitze der Beharrungskräfte, über die elitäre Struktur der Internetkultur mokiert. Das Credo lautet also: " Nicht die gleichen Fehler nochmal machen. Es sollte doch bitte alles anders sein im interaktiven Internet. Aber trotzdem schon hübsch anzusehen, bitte." Und weiter geht es wie bisher.

Und genau so wird es immer sein. So muss es sogar sein, seitdem es die arbeitsteilige Gesellschaft gibt und die Idee, dass nicht jeder alles tun sollte. Es gestaltet nämlich nur derjenige, der nicht nur nimmt, sondern auch etwas von sich gibt. Derjenige, der ein

Page 54: ITKnowHow

Talent hat oder Ehrgeiz oder Wagemut oder Phantasie. Der sich nicht stillschweigend über seine Umwelt ärgert, sondern etwas dagegensetzt. Und dieses, was er dagegensetzt, ist nichts Mystisches und auch keine kriminelle Energie. Er braucht keine Verschwörung mit anderen ebenso Übelgesinnten, die seine Zwingherrschaft über die in unverschuldeter Knebelung Dahinvegetierenden auf alle Ewigkeit absichert. Er setzt dagegen: Das überzeugende Wort, den eloquenten Text und das eindrucksvolle Bild. Aber auch im Digitalen Zeitalter fällt einem nichts davon in den Schoss. Man muss es sich häufig genug geradezu abringen. Wie es eben immer war. Informationsgesellschaft

Sollte es daher in den nächsten Jahren und Jahrzehnten tatsächlich zur Ausprägung irgendeiner Art von neuer "Informationsgesellschaft" kommen, die über das Spezifikum der potentiellen Verfügbarkeit sämtlicher Informationen hinausgeht - was ich nicht glaube -, wird sie weder von neuer Technik noch vom anderen Menschen aus der Wiege gehoben und getragen werden. Kein Modem und kein Mausklick nimmt demjenigen, der Einfluss nehmen will, die Verpflichtung ab, mit seinen Worten und Taten im ganz klassischen Sinne überzeugend zu sein.

Im Gegenteil: In einer Welt - einem Web - voller irreführender Bilder, in der technisch alles darstellbar ist und ein jeder das weiss, sehnt sich der Mensch ganz besonders nach dem klaren, unmissverständlichen, stilsicheren Wort aus unkomplizierten, vertrauten Zeichen - das Internet ist ein viel literarischeres Medium als das Fernsehen. Vielleicht ist es bedauerlich, dass diese Fähigkeit zur Formulierung in gewissem Grade erlernbar ist und darum vor allem von Profis ausgeübt wird: Politikern, Werbemachern und Journalisten. Aber so ist es nun einmal. Diese sind es bereits und werden es auch in Zukunft sein, die die Inhalte und das Gesicht des WWW bestimmen. Und es hat nicht den geringsten Sinn, auf etwas anderes zu hoffen. Digital Age

Dass nämlich, wie z.B. Monica Brandis anscheinend glaubt, ein Mehr an verfügbarer Information auch bessere Informiertheit vieler nach sich zöge, ist anthroposophisches Wunschdenken. Und dass - von der technischen Seite aus betrachtet - neue Formen auch neue Inhalte generieren müssen, die wiederum neue "Köpfe" brauchen, ist ohnehin das grosse Ammenmärchen der Computerkids zwischen 15 und 35.

Wer sich die selbstpostulierten positiven Grundüberzeugungen der "Netizens" durchliest (Toleranz, Pluralismus, Eigenverantwortung, Gewinnstreben, Sozialdarwinismus, Popkultur, Rationalismus) erkennt sofort, dass diese haargenau identisch sind mit dem, was jeder halbwegs gebildete und erfolgsorientierte Mittzwanziger auf der westlichen Hemisphäre seit jeher als seine Werte angeben würde. Selbst, wenn er an seinem Rechner zu Hause kaum den Einschaltknopf findet. Das ist ganz natürlich so, denn auch im Digital Age wächst kein Mensch ohne starke Bezüge zu "alten Autoritäten" auf; anderes zu behaupten ist populistischer Individualismuskult.

Page 55: ITKnowHow

Konstruktive Kommunikation

Der einzige Unterschied liegt in zwei zusätzlichen Merkmalen: Der überzeugten Führerlosigkeit und dem Glauben an den "Geek". Denn: Führerlosigkeit aus Misstrauen Hierarchien gegenüber ist Schwäche. Und: "Geeks" (="Strebertypen", "Berufsintellektuelle") stehen vielleicht hinter den Kameras, aber niemals davor. Darum werden diese "Netizens" auch immer nur in ihrem eigenen, kuscheligen Universum leben. Vielleicht findet ihre kleine, feine Revolution im Saale statt, aber wahrscheinlich nicht mal das. Der Trost: Immerhin dürfen sie im Netz dieses kleine Universum darstellen, wie sie es gern hätten. Es bleibt allerdings der Verdacht, dass sie dabei der Welt eine Technologie als essentiell unterjubeln, die gewissen Leuten viel Geld und dem "Geek" eine Entschuldigung bringt, im Wohnzimmer sitzen bleiben zu dürfen und sich nicht in der Wirklichkeit ihrer Schüchternheit schämen zu müssen. Sondern sich weiter hinter Avataren und in Chatrooms verstecken zu dürfen.

Nicht schüchtern dagegen waren schon immer die Profis von Wort und Bild. Und nur das, was diese anbieten, wird der ganz normale AOL-Kunde mit Freuden konsumieren. Warum auch nicht? Sich unterhalten zu lassen ist schon längst zum Grundrecht geworden; auch nach einem Offenbarungseid ist der Fernseher unpfändbar, und demnächst wird es auch der Computer sein. Politische Mitbestimmung, Information, aber auch Entertainment, im ganzen also: konstruktive Kommunikation dagegen macht Arbeit, und die ist oft nicht so unterhaltsam und wird immer nur von wenigen geleistet werden. Alle anderen werden das tun, was sie schon immer getan haben: ihren eigenen Angelegenheiten nachgehen und sich darauf verlassen, dass die wenigen für sie mitdenken, wie sie es schon immer getan haben. Und genau so ist es richtig.

Page 56: ITKnowHow

Die Geschichte des Internets

Um die Geschichte des Internets ranken inzwischen die abenteuerlichsten Erzählungen. Weit verbreitet ist zum Beispiel die Version, dass der Internet-Vorläufer ARPANet zum Schutze der militärischen Grossrechner der USA gegen Atomschläge eingerichtet wurde. Schuld an diesem Gerücht ist auch der zweideutig definierte Grundauftrag der ARPA: "Die primäre Verantwortung der ARPA soll helfen, die technische Überlegenheit der Vereinigten Staaten von Amerika beizubehalten und gegen unvorhergesehene technologische Fortschritte durch mögliche Gegner zu schützen." ARPA

Im Jahre 1958 richtete das US-Verteidigungsministerium eine Arbeitsgruppe namens "ARPA" ("Advanced Research Projects Agency") ein, die nach neuen Ideen und Technologien Ausschau halten sollte. ARPA handelte dabei nur als Investor und Koordinator für wissenschaftliche Projekte in Universitäten und Forschungsinstituten, deren Ergebnisse bei entsprechender Eignung dem Militär zu überlassen waren oder alternativ privatwirtschaftlich genutzt werden durften.

Der erste Schritt der ARPA in die Informationstechnologie wurde 1962 mit der Gründung des IPTO ("Information Processing Techniques Office") gelegt, dessen Leitung von Joseph Carl Robnett Licklider übernommen wurde. Licklider war ein Visionär, der schon frühzeitig erkannte, dass Computer nicht nur zu rein wissenschaftlichen Zwecken genutzt werden sollten, sondern in Zukunft dank interaktiver und intuitiver Bedienung immer grössere Verbreitung finden würden. Dazu gehörte seiner Meinung nach auch die Vernetzung von Computerpower und er unterstützte viele Pionierprojekte in diese Richtung. Das Gerücht des "Militärnetzes"

In vielen Dokumentationen des Internets wird die Geschichte des ARPANets mit einer gleichzeitig stattgefundenen Entwicklung verwechselt: Im Jahre 1964 entwickelte Paul Baran von der Firma RAND Corporation [ http://www.rand.org/ ] für die US Air Force eine neuartige Netzwerkstruktur, das sogenannte Dezentrale Netzwerk.

In diesem Netzwerk sollten einzelne Rechner mit mehreren Verbindungen gleichzeitig an anderen Rechnern angeschlossen werden, was ein maschendrahtähnliches Gebilde ergab. Diese Netzwerkstruktur sollte anhand eines paketorientierten Übertragungsprotokolls eine effizientere Datenübertragung ermöglichen. Ausserdem (und dies war der interessanteste Punkt für die Air Force) war ein solches Netzwerk gegenüber äusseren Störungen, z.B. Zerstörung einzelner Rechner durch Atomschläge, weit unempfindlicher, da einzelne defekte Datenleitungen nicht unbedingt einen kompletten Zusammenbruch des Netzes zur Folge hatten.

Geplant war, die Rechner der Air Force mit solch einem Dezentralen Netzwerk zu verbinden, um einen Betrieb auch bei grösseren Ausfällen des Netzes aufrecht zu erhalten. Das Vorhaben wurde jedoch nie begonnen, da das US-

Page 57: ITKnowHow

Verteidigungsministerium auf eine einheitliche Lösung für die gesamten US-Streitkräfte bestand. Die Idee des Dezentralen Netzwerkes und der paketorientierten Datenübermittlung floss jedoch in ein anderes Projekt ein: Das ARPANet. Das ARPANet

Da die ARPA zur damaligen Zeit ein relativ knappes Budget hatte, machte man sich vor der Anschaffung neuer Grossrechner Gedanken, da man nicht jeder Forschungseinrichtung einen Grossrechner spendieren konnte. 1966 wurde die Idee geboren, die ARPA-eigenen Rechner zu vernetzen und somit einzelne Grossrechneranlagen kostengünstig allen angeschlossenen Rechnern zugänglich zu machen.

Diese geniale Idee wurde bis Ende 1969 mit dem ARPANet realisiert, dass zunächst vier Forschungseinrichtungen in Los Angeles (University of California), Menlo Park (Stanford Research Institute), Santa Barbara (University of California) und Salt Lake City (University of Utah) über gemietete Telefonstandleitungen miteinander verband.

In allen vier teilnehmenden Forschungseinrichtungen standen vier verschiedene und zueinander völlig inkompatible Systemplattformen, so dass ein neuartiger Weg zum Vernetzen gegangen wurde: Man schloss jeden Rechner an einen sogenannten IMP ("Interface Message Processor") an, der als Zwischenglied zwischen Netzwerk und Rechner diente. Die IMP waren wiederum mit mindestens zwei anderen IMP innerhalb des ARPANets verbunden. Die gemieteten Telefonleitungen hatten eine Bandbreite von 50 kbps. 1970 kamen die Havard University und das Massachusetts Institute for Technology in Boston dazu, 1971 bildeten schon fast vierzig Einrichtungen das ARPANet.

Das grundlegende Übertragungsprotokoll im ARPANet war das NTP ("Network Transfer Protocol"), dass eine paketorientierte Übertragung vornahm. Eine Datei wird beim Absender in viele kleine Päckchen zerlegt. Jedes Päckchen enthielt unter anderem Absender- und Ziel-Adresse und wurde einzeln von IMP zu IMP übertragen, die Route wurde je nach aktueller Leitungstopologie von jedem IMP autark bestimmt.

Die ersten beiden Dienste im ARPANet waren Telnet und FTP ("File Transfer Protocol"). Mit Telnet wurde es ermöglicht, einen anderen Rechner per Netzverbindung zu steuern und mit ihm zu arbeiten. FTP wurde zur Datenübertragung jeglicher Art genutzt. Mit diesen beiden Protokollen war zwar das bequeme Arbeiten mit entfernten Rechnern möglich, jedoch nicht mit anderen Wissenschaftlern. Es fehlte eine interaktive Kommunikationsplattform, die mit der Erfindung der eMail ("Electronic Mailing") 1971 schlagartig erschlossen wurde. Innerhalb weniger Monate schoss das Datenaufkommen der versendeten eMails in immense Höhen, Mailinglisten ermöglichten die Bildung von Benutzergruppen.

Ab Mitte 1968 trafen sich regelmässig Mitarbeiter der damals vier teilnehmenden Computerzentren, um ihre Aktivitäten zu besprechen und zu koordinieren. Diese Gruppe nannte sich NWG ("Network Working Group") und zeichnete für viele Projekte und Dienste des ARPANets verantwortlich. Die NWG war auch Begründer der RFC-Reihe ("Request For Comments"), mit der technologische Fragen und Spezifikationen festgelegt und der Internet-Gemeinschaft präsentiert wurden. Noch heute tragen alle RFC in der ersten Zeile die Kennung "Network Working Group".

Page 58: ITKnowHow

Schon nach wenigen Jahren zeigte sich, dass das bisherige Übertragungsprotokoll NTP den Anforderungen nicht mehr gewachsen war. Gerade die Integration von verschiedensten Netztechnologien war nahezu unmöglich, weshalb Anfang der siebziger Jahre verstärkt nach einer neuen Übertragungstechnik geforscht wurde, die ebenfalls paketorientiert arbeiten sollte. Dazu wurde 1973 von der IPTO das "Internet Program" ins Leben gerufen, das ein einheitliches Übertragungsprotokoll entwickeln sollte, damit verschiedenste Netze unter einem einheitlichen Protokoll arbeiten und miteinander verbunden werden konnten.

Das Ergebnis war TCP ("Transmission Control Protocol"), das für die fehlerfreie Paketübertragung sorgte, indem der Versand jedes Pakets überwacht wurde. Zu Beginn war TCP auch für die Adressierung im Netz zuständig, erst 1980 wurde für die Adressierung ersatzweise das leistungsfähigere IP ("Internet Protocol") eingeführt. Das Netz der Wissenschaft

Ende der siebziger Jahre entstand das Problem, dass nur die wenigsten Akademien für Computerwissenschaften an das ARPANet angeschlossen waren, da nur Akademien einen Anschluss bekamen, die auch Forschung für die ARPA betrieben.

Aus diesem Grund trafen sich im Mai 1979 Vertreter von sieben grossen Universitäten, um über die Einrichtung eines eigenen Datennetzes zu diskutieren. Als Ergebnis wurde von der staatlichen NSF ("National Science Foundation") das CSNet ("Computer Sciences Network") gestartet, das allen Universitäten mit computerwissenschaftlichen Akademien offenstand.

Im Laufe der Zeit wuchs auch das Interesse von Wissenschaftlern aus anderen Fachbereichen, so dass 1984 das CSNet zum TCP/IP-basierten NSFNet umgewandelt wurde, zu dem alle US-Universitäten und deren Wissenschaftler Zugang hatten. Eine Besonderheit des NSFNets war, dass es auch Ressourcen des ARPANets mitbenutzte. Dafür durften Teilnehmer des ARPANets auch die Rechner im NSFNet benutzen. Das Ende des ARPANets

Schon 1974 versuchte die ARPA, das ARPANet in private Hände abzugeben, da die organisatorischen und finanziellen Möglichkeiten langsam aber stetig der ARPA über den Kopf wuchsen. Auch machte sich das US-Verteidigungsministerium über die Offenheit des ARPANets Sorgen, da auch militärische Anlagen im ARPANet zugänglich waren.

Diese Sorge wuchs, als auch das NSFNet Zugriff auf das ARPANet hatte. Deshalb trennte man 1983 das ARPANet in zwei Teilnetze: Das erste Netz behielt den Namen ARPANet und das zweite wurde das MILNet, dass alle militärischen Einrichtungen verband und den gesamten militärischen Datenverkehr übernahm.

Da die angeschlossenen Netze immer weiter wuchsen und das NSFNet immer mehr Funktionen des ARPANets übernahm, beschloss die ARPA 1990, das inzwischen äusserst organisations-, pflege- und kostenintensive ARPANet-Projekt einzustellen. Das ARPANet hörte auf zu existieren, jedoch war die Philosophie und die Technik des ARPANets fest im Internet verankert.

Page 59: ITKnowHow

Dienste, Dienste, Dienste

Die darauffolgenden Jahre waren geprägt von der Entwicklungsfreudigkeit der Wissenschaftler und engagierten Nutzer, die das Internet nutzten. Insbesonders der eMail-Verkehr nahm immer mehr zu und ermöglichte eine weltweite Zusammenarbeit von Arbeitsgruppen.

Ein Schattendasein führte in den ersten Jahren nach seiner Erfindung z.B. das IRC ("Internet Relay Chat"). Mit IRC konnte man nahezu in Echtzeit Texte zwischen mehreren Personen austauschen, die alle an einem IRC-Server-Netz angebunden waren. Dank fehlender Öffentlichkeit betrieben nur wenige Universitäten IRC-Server, dementsprechend klein waren die Benutzerzahlen.

Ein weiterer, wichtiger Schritt zum universellen Kommunikationsnetz war die Entwickung des Dienstes Gopher: Gopher ermöglichte es, reine Textdateien hierarchisch auf einem Server anzulegen und herunterzuladen. Doch erst ein anderer Dienst eröffnete das Internet für die breite Öffentlichkeit: Das WWW. Das Internet bekommt Farbe

Genau diesen Gedanken hatte der Brite Tim Berners-Lee, damals Informatiker am "CERN", dem Institut für Teilchenphysik in Genf, als er im März 1989 einen neuartiges Hypertextsystem für das hauseigene Intranet vorschlägt: Das World Wide Web bietet eine gut durchdachte Bedienoberfläche, die mit speziellen Programmen, den Browsern angezeigt werden kann.

Besonders hervorstechend sind die Fähigkeiten des WWW, Text, Grafik, Töne und Videos zu multimedialen Präsentationen zu verbinden. Eine weitere Neuerung stellen die Hyperlinks dar, mit denen aus jedem WWW-Dokument zu einer anderen Ressource im Internet verwiesen werden kann. Erstmals ist es möglich, ohne grösseres Fachwissen einen Dienst zu bedienen und eigene Informationen aufzubereiten und im Internet zu veröffentlichen. Die breite Öffentlichkeit kommt

Gerade durch den neuen "Medienstar" World Wide Web erregt das Internet in der Öffentlichkeit ungeahnte Aufmerksamkeit. Der Boom beginnt ab März 1991, 5 Monate nach Einführung des World Wide Webs, als Fachmagazine und Tageszeitungen immer regelmässiger über das Internet und insbesondere das WWW berichten.

In rasend schnellem Tempo schiessen Online-Dienste und ISP ("Internet Service Provider") aus dem Boden, die den Markt entdeckt haben, preisgünstig einen Zugang zum Internet zu verkaufen, während die Werbewirtschaft das World Wide Web als ideale Werbeplattform entdeckt. Das "Web" breitet sich immer mehr aus und entwickelt sich zum am weitesten verbreiteten Dienst im Internet und überholt im Laufe des Jahres 1996 das Datenaufkommen aller FTP-Verbindungen.

Page 60: ITKnowHow

Doch die Entwicklung geht weiter: Besonderes Augenmerk wird dem NC, dem "Netzcomputer" geschenkt, der kein eigenständiger Computer mehr ist und seine Software direkt aus dem Internet bezieht. Auch ein vorrangiges Ziel ist die Telefonie und das Telefaxen über das Internet, dass ebenfalls den endgültigen Durchbruch des Internets bescheren könnte. Immense Kosteneinsparungen wären hier das Ergebnis, da keine teuren Fernverbindungen mehr zum Telefonieren aufgebaut werden müssten, sondern die bestehende Infrastruktur des Internets genutzt werden kann. Auch die vernetzte Waschmaschine muss kein unsinniger Traum bleiben, denn auf die Weise könnte z.B. die Betriebssoftware vollautomatisch immer auf dem aktuellsten Stand gehalten werden.

Das Internet ist auf dem besten Wege, immer unentbehrlicher für das tägliche Leben zu werden.

Page 61: ITKnowHow

Die Zukunft des Internets

An dieser Stelle sei es mir gestattet, einige "philosophisch" anmutende Gedanken zur Zukunft des Internets abzulassen. Nicht dass Sie am Ende der Meinung sind, dass Internet "sei nur eine Modeerscheinung", wie ein Unternehmensberater einmal selbstsicher verlautbaren liess... Wie soll's denn weitergehen?

Nein, eine vorübergehende Modeerscheinung von Computerfreaks bleibt das Internet ganz bestimmt nicht. Ganz im Gegenteil, das Internet ist auf dem besten Wege, immer tiefer in unser normales Leben einzudringen.

Schon heute gibt es keinen Fernsehsender und keine überregionale Zeitung mehr, die nicht im Internet vertreten ist. Immer mehr regionale Anbieter gesellen sich ins Internet. Vor 100 Jahren waren Kontinente noch Wochen entfernt, moderne Transportmittel verkürzten diese Zeit auf Tage und Stunden, das Internet verkürzt diese Zeit auf wenige Sekunden. Der Informationsaustausch wird sich in den nächsten Jahren vervielfachen, insbesonders auch durch firmeninterne Kommunikation über das Internet. Informationsfülle en masse

Vielleicht könnte schon in wenigen Jahren der Traum der Menschheit in Erfüllung gehen, dass alles Wissen der Menschheit praktisch auf Knopfdruck von jedem Internet-Zugang der Welt abrufbar ist. Viele Regierungen und Forschungseinrichtungen arbeiten mit Hochdruck daran, Bibliotheken zu digitalisieren und online verfügbar zu machen.

Eine Schattenseite dieser Informationsflut ist die schnelle Vergänglichkeit von Information im Internet. Während ein gedrucktes Buch einen unvergänglichen Schnappschuss einer Informationsmenge enthält, können online verfügbare Medien regelrecht "leben" und sich immer wieder weiterentwickeln. Dies birgt die Gefahr, dass falsche, veraltete oder vermeintlich uninteressant gewordene Information überschrieben wird und nachfolgenden Generationen nicht mehr zur Verfügung steht. Schon heute warnen viele Wissenschaftler davor, dass die ersten Jahrzehnte des Informationszeitalters durch fehlende Dokumentation glänzen werden und womöglich ein wichtiges Kapitel der Menschheitsgeschichte in den Geschichtsbüchern fehlen könnte. Schneller, grösser, weiter!

Das Internet ist in seiner Struktur noch zu klein und langsam, um modernen Anwendungen, wie z.B. qualitativ gute Video- und Audioübertragungen in Echtzeit nachzukommen. Um diese und zukünftige Anwendungen zu ermöglichen, ist eine weit höhere Bandbreite notwendig, die gleichzeitig effizienter genutzt werden muss.

Page 62: ITKnowHow

Ein Meilenstein zu diesem Ziel ist durch die Einführung eines neuen TCP/IP-Protokolls vorgelegt, das zum einen die Header der IP-Päckchen verkleinert und allgemein die IP-Päckchen "intelligenter" macht: Beispielsweise können Übertragungsrouten vorbestimmt oder bestimmte IP-Päckchen mit höherer Priorität behandelt werden.

Auch in Sachen Übertragungskapazitäten wird sich in den nächsten Jahren einiges tun: Dank Glasfasertechnik werden Gigabit-Standleitungen die Kontinente verbinden und auch die Forschungen auf dem Gebiet der Terabit-Übertragungen laufen auf vollen Touren. Schon jetzt ist absehbar, dass solche Kapazitäten unbedingt notwendig sind, will man nicht schon in wenigen Jahren in gigantischen Daten-Staus versinken. Immer mehr Interaktivität

Spöttisch wird heute (noch) über die vernetzte Waschmaschine gewitzelt, obwohl dies nicht mehr lange Utopie sein muss und handfeste Vorteile hat: Ein Hersteller von Waschmaschinen kann dann z.B. neue Waschprogramme vollautomatisch in Ihre Waschmaschine einspielen und so das Gerät auf dem neuesten Stand halten. Genauso würde das für Videorecorder einen Durchbruch bringen, die z.B. die aktuelle Programmübersicht online erhalten könnten und kinderleicht zu programmieren wären. Selbst eine Fernsteuerung oder Ferndiagnose bei Störungsfällen wäre denkbar.

Schon jetzt kristallisieren sich äusserst interessante Anwendungsgebiete für die Steuerung und Pflege von Maschinen über das Internet heraus, so dass mittelfristig über das Internet auch immer mehr diagnostische und supporttechnische Aufgaben übertragen werden. Getrennte Wege

Getrennte Wege gehen in den USA schon Wissenschaft und Kommerz: Die US-amerikanische Regierung, Universitäten und namhafte Sponsoren betreiben einen TCP/IP-basierten "Super-Highway" nur für Bildungseinrichtungen und Forschungsinstitute, auf dem ungestört neue Technologien für und um das Internet, aber auch für andere wissenschaftliche Zwecke getestet werden können.

Das Internet2 [ http://www.internet2.edu/ ] entstand auf die Weise ganz nach der Tradition des ideelen Vorläufers ARPANet und wird, ebenfalls wie beim historische Vorbild, auch ausländischen Einrichtungen angeboten. Das WWW: Bunter, lauter, dynamischer

Auch im Bereich des World Wide Webs sind noch längst nicht alle technischen Möglichkeiten ausgereizt. Sehr viele Erwartungen werden hierbei auf HTML und seinen Nachfolger XML ("EXtended Markup Language") gelegt, das noch einige überwindbare Kinderkrankheiten hat. Reine HTML-Seiten sind viel zu statisch, um vollkommene Interaktivität zu ermöglichen. Zwar gibt es schon heute interaktive und multimediale Elemente, jedoch ist dazu in der Regel immenser Programmier- und Rechenaufwand nötig.

Page 63: ITKnowHow

Mit XML wird die Programmierung von WWW-Seiten grundsätzlich nicht einfacher, jedoch ist eine einheitlichere Standardisierung als bei HTML möglich. Dies bedeutet auch, dass XML deutlich empfindlicher gegenüber fehlenden oder falschen Befehlen ist und, ähnlich wie die "Mutter aller Auszeichnungssprachen" SGML, sehr strenge Typisierungsregeln hat. HTML bleibt jedoch auch in Zukunft eine Auszeichnungssprache, die von den meisten Browsern verstanden und als ein wichtiger Wegbereiter in die moderne Informationsgesellschaft in die Geschichte eingehen wird.

Ein anderes, grosses Entwicklungsfeld sind sichere Online-Zahlungssysteme. Erst wenn über das Internet nicht nur bestellt, sondern mit einem einheitlichen Zahlungssystem auch gleich gefahrlos und sicher bezahlt werden kann, wird sich das Online-Shopping, das sogenannte eCommerce, gegenüber herkömmlichen Vertriebswegen durchsetzen können. Dann wird jedoch wahrscheinlich auch ein Teil aller bisher freien Angebote (z.B. Datenbanken, Bibliotheken, Bildersammlungen) kostenpflichtig werden.

Page 64: ITKnowHow

Philosophie Die Gesellschaft braucht Informationskultur

Der Informationskanal, der in den Häusern der Bürgerinnen und Bürger endet, eröffnet viele neue, positive Möglichkeiten. Die Menschen der Welt werden zu einer "Global Community", zu einer Weltgesellschaft zusammenwachsen. Die Organisation des täglichen Lebens wird durch Serviceangebote aus der Mediensteckdose bequemer werden, die Auswahl des Unterhaltungsprogrammes individueller. Im Zusammenleben aller Menschen wird intelligenter Einsatz der neuen Technologien bei der Lösung aktueller Aufgaben und Probleme wie beispielsweise der Steuerung der Informationsflut, der Reduzierung der Luftverschmutzung, der Müllvermeidung und -sortierung oder der Sicherung von Produktionsanlagen helfen.

Die Verfügbarkeit von Information wird in der Informationsgesellschaft zu einer Grundfrage der Demokratie, denn vorhandenes Wissen gehört zu den wertvollsten Gütern eines Volkes. Es ist deshalb eine gesellschaftliche Aufgabe der Bibliotheken und der Dokumentation, ihre Kollektion für das Volk zu erschliessen und kostengünstig zur Verfügung zu stellen. Eine funktionierende Infrastruktur, die den Zugang zur Information für alle Menschen im Staat gleichberechtigt möglich und bezahlbar macht, ist unverzichtbar. Qualitätssicherungsmassnahmen für Informationsinhalte

Bei der Organisation des Wissens spielen bisher Verlage eine entscheidende Rolle. Sie selektieren Information, beschäftigen sich mit der Präsentation, dem Bekanntmachen und Verbreiten der Information. Was von Verlagen publiziert wird, durchläuft in der Redaktion einen Qualitätskontrollprozess. Die verlegte Information sollte nach den geltenden Regeln geprüft, original, integer, authentisch und überall identisch sein.

Unsere Rechtsordnung schützt Kreativität und Originalität von Publikationen als geistiges Eigentum. Für die dauerhafte Festlegung von Meinungen, Entscheidungen, Ergebnissen, Methoden, Verfahren, Diagnosen, Standards, Gesetzen usw. wird deshalb eine formelle Dokumentation gebraucht. Für sie setzt man immer noch sehr häufig Papier ein. Neue Datenträger wie digitale Tonbänder (DAT), CD-ROM oder das elektronische Notizbuch mit Kommunikationsfähigkeiten (Palm- oder Handhelds/PDAs) stellen derzeit meist nur ein ergänzendes Medium dar, das die alten Inhalte neu zugänglich macht.

Aussagen, die im Druck publiziert werden, werden durch die Publikation zum "public record", zur einer öffentlich dokumentierten, unveränderbaren Meinungs- oder Erkenntnisäusserung, die damit der gesamten Bevölkerung aktuell und später in Bibliotheken, Patentauslegestellen, Dokumentationszentren usw. zur Verfügung steht.

Bereits heute sind viele der Dokumente, die in Datennetze eingespielt werden, ungeprüft. Überdies können die Schriftstücke im Netz relativ leicht manipuliert, die ursprünglichen Aussagen verändert werden. Auch ohne Korrektur der Autorenzeile. Jede elektronisch verbreitete Information im Netz oder auf wiederbeschreibbaren

Page 65: ITKnowHow

Medien ist manipulierbar. Fragen der Integrität, Authentizität und Verifikation sind ungelöst. Für die Verwendbarkeit von Information sind jedoch Datensicherheit und Dokumentation von entscheidender Bedeutung.

Ein wesentlicher Aspekt der Informationskultur ist deshalb die Schaffung von Qualitätsstandards für das elektronische Publizieren. Neue Kriterien müssen definiert werden für die Prüfung von Qualität, Integrität, Originalität und Zuverlässigkeit der im Netz verbreiteten Informationen, ohne dass dabei Grundrechte von Demokratie und Meinungsfreiheit verletzt werden. Mit Informationskultur die Chancen nutzen

Es soll hier kein falscher Eindruck entstehen: Die Informationsgesellschaft mit all ihren Chancen wird von den Mitgliedern des Gesprächskreises Informatik durchaus begrüsst. Doch aus den internationalen Medienangeboten, aus dem neuen System der globalen Kommunikation, ergeben sich eine Menge ethischer und sozialer Fragen. Unsere Gesellschaft muss sie rechtzeitig bewältigen, will sie die Chancen gewinnbringend zur wirtschaftlichen und kulturellen Weiterentwicklung nutzen. Es gilt, gesellschaftliche Erschütterungen, wie sie früher bedeutende technische Erfindungen begleiteten, (etwa des Webstuhls, der Dampfmaschine oder des Elektromotors), zu vermeiden.

Rechtzeitig und umfassend müssen deshalb Antworten für folgende Fragen erarbeitet werden:

• Welche gesellschaftlichen Konsequenzen sind aus der Tatsache zu erwarten, dass derzeit nicht alle Bürgerinnen und Bürger (sowohl von der verfügbaren Technik, wie von ihrem Bildungsstand her) den gleichen Zugang zur Information haben? Wie kann allen ein gleichberechtigter Zugang zur Information gesichert werden?

• Fördert der multikulturelle Kommunikationsraum Europa/Welt die Verständigung oder verstärkt er Sprach- und Kulturbarrieren? Wie kann sich die Bevölkerung darauf vorbereiten?

• Fördert die moderne Informations- und Kommunikationstechnik nicht auch die soziale Isolierung des Individuums? Telespiele und Telekommunikation weisen auf entsprechende Tendenzen im Freizeitbereich sowie Teleworking im Arbeitsleben.

• Lähmt erhöhtes Medienangebot die Kreativität, fördert es die geistige und emotionale Verflachung bis hin zur Verrohung? Vermehrt es die Kriminalität ursächlich, wie das am Rande von Strafprozessen heute im Bezug auf das Fernseh-Angebot bereits diskutiert wird?

• Gefährdet die überwiegende Kommunikation in Bildern und Symbolen die Fähigkeit, sich durch Sprache vernünftig auszudrücken?

• Wie will man mit der Suggestivwirkung von Bildern und Sprache umgehen?

• Soll jeder Informationen anbieten dürfen?

• Wer verantwortet die Inhalte?

Page 66: ITKnowHow

• Wie verhindert man, dass Menschen durch gezielte Desinformation über Medien manipuliert werden?

• Müssen wir uns vom bestehenden Copyright, dem Schutz des geistigen Eigentums, verabschieden, weil es unkontrollierbar wird?

Kontrollgremien und ethische Leitlinien schaffen

Politisch und volkswirtschaftlich verantwortungsbewusst Handeln heisst, sich den Fragen zu stellen und Antworten zu erarbeiten.

Ein wichtiger Schritt wäre die Einrichtung eines Kontrollorgans "Informationsrat", vergleichbar dem Rundfunkrat.

Als Schul- und Studienfach sollte Informationsethik auf den verantwortungsbewussten Umgang mit neuen Medien vorbereiten und die Grundlage für eine Selbstkontrolle der Datennetze legen (die Netze werden derzeit schon für pornographische Bilder, für Kriegsspiele und politisch extreme Literatur missbraucht). Der Ethik der Informationsgesellschaft muss ein kontinuierlicher Dialog zwischen Wissenschaft, Politik, Bürgerinnen und Bürgern gewidmet werden. Die Bevölkerung muss durch aufklärende Information (auf herkömmlichen Wegen) und Ausbildung in die Lage versetzt werden, sich aktiv am gesellschaftlichen Diskurs über die Gestaltung der Informationsgesellschaft beteiligen zu können. Ethische Leitlinien müssen entstehen.

In die Forschung zu den neuen Informations- und Kommunikationstechniken sollte schnellstmöglich eine Wirkungsforschung eingebunden werden. Ebenfalls von Anfang an in der Entwicklung berücksichtigt werden müssten ökologische Aspekte. Die Grenzen der Informationsverarbeitung, die Mathematik und Physik als Basis für die Informations- und Kommunikationstechnologien nutzen, sind absehbar. In der nächsten Entwicklungsgeneration wird die Biologie neue Möglichkeiten bringen.

Page 67: ITKnowHow

Recht Schreiben auch Sie einen Beitrag in unser Forum: Welche Links sind erlaubt? Was ist Recht im Internet?

Weitere Informationen:

• Deutsches Informations- und Kommunikationsdienstegesetz

• Juristisches für Internet-Praktiker

• IT Rechtsprobleme

• Selfhtml - Recht und Links? Selfhtml kämpft gegen den Abmahnwahn!

• Freedom for Links

Page 68: ITKnowHow

Revolution Ist die Digitale Revolution in Wirklichkeit nur eine virtuelle Revolution?

Die Digitale Revolution ist zur Zeit in aller Munde, und kaum einer weiss, wovon er eigentlich spricht, wenn er das Zauberwort in den Mund nimmt. In Amerika wird die Digitale Revolution - oder das, was man gerade darunter zu verstehen wünscht - viel und als Allheilmittel für alle gesellschaftlichen Übel gepriesen, in Europa dagegen wird sie geschmäht, und wenn man sie überhaupt für einen Wandel verantwortlich machen will, dann natürlich für einen ins Negative. Schaut man sich amerikanische Web-Sites an, bekommt man leicht den Eindruck, dort die Hohepriesterschaft einer neuen Religion zu sehen, deren Mysterium Digital Revolution heisst, blickt man dagegen ins europäische Netz, fährt einem der eiskalte Hauch des zweifelnden Protestantismus ins Gesicht: Gutenberg , das sei noch eine Revolution gewesen, meint z.B. Christoph Räthke, aber Gates? Gates sei reines Blendwerk.

Die Digitale Revolution, an der die Geister sich so scheiden, ist in den Pamphleten und Diskussionen schlecht umrissen. Wie bei den meisten Religionsstreitigkeiten, konzentriert sich das Gros der Eiferer auf kleine Punkte. Sie sehen, sozusagen, vor lauter Gefechtfeuer die Revolution nicht.

Beliebt ist, die Digitale Revolution mit dem Internet gleichzusetzen und die Wirksamkeit je nach Konfession entweder daran zu messen, inwieweit Wort und Schrift als Medium verdrängt werden, oder inwieweit eine weltumfassende, allseligmachende Demokratie entsteht. Vergleichbar ist so ein Ansatz vielleicht mit der Reformation: Auch zu Zeiten Luthers hatte die abendländische Religion weiterreichende Ansprüche als den Verkauf von Ablassbriefen. Das Internet

Die Digitale Revolution beschränkt sich nicht auf das Internet, den Desktop-Computer oder die Dominanz einer nordwestamerikanischen Softwarefirma auf dem Jahrmarkt der Betriebssysteme. Vielmehr schliesst sie nahezu alle Lebensbereiche ein, in denen elektrische Geräte zum Einsatz kommen: Vom Toaster über den Bankautomaten bis zum Überschallflugzeug. Wie alle Revolutionen beginnt auch die Digitale bei ganz banalen Dingen. Dass der Küchentoaster, der zum Frühstück das Brot goldgelb röstet, von einem digitalen Timer gesteuert wird, findet eigentlich niemand revolutionär. Toast gab's schon immer, und mit ein bisschen Erfahrung entlockte man auch Grossmutters Vorkriegsmodell ausgezeichnete Resultate. Ähnlich ist es mit dem Auto: Auch ohne die Vielzahl von Steuereinheiten, die Einspritzung, ABS, Innentemperatur und Airbags kontrollieren, kam man im analogen Zeitalter von A nach B - und das, wenn man Grossvaters Käfer mit dem eigenen Opel Astra vergleicht, oft mit erheblich weniger Komplikationen.

Überhaupt ist an dem, was wir tun, wenig revolutionär - und war es nie. Etwa seitdem unsere entfernten Vorfahren den zweibeinigen Gang entwickelten, hat sich das, was wir tun, nicht entscheidend verändert: wir essen, verdauen, schlafen, kommunizieren und bewegen uns. Nur wie wir das alles tun, hat sich so sehr verändert, dass Lucy oder

Page 69: ITKnowHow

auch Ötzi es kaum wiedererkennen würden. Diese Veränderung, das Wie, ist es, was die Revolutionen ausmacht, nicht etwa das Was. Auch vor der Erfindung des Buchdrucks durch Gutenberg wurden Bücher zu Tausenden kopiert und gelesen; jeder gebildete Mitteleuropäer kannte zu dieser Zeit Homer, Horaz, das Neue Testament und Augustinus. Gutenberg hat lediglich das Produktionsverfahren vereinfacht (und auch noch lange nach Gutenberg haben nicht mehr Leute lesen gelernt). Ebenso war es mit der Dampfmaschine: auch vorher gab es industrielle Produktion und Transportation. Der Dampfdruck hat nur den Produktionsmechanismus entscheidend verändert.

Ähnlich ist es mit der Digitalen Revolution. Auch sie wird uns nicht auf höhere Bewusstseinsstufen bringen oder die Basis für ein optimales Gesellschaftssystem sein. Trotzdem verändert sie radikal, wie wir die Dinge tun, die wir tun. Das fängt an beim idealgebräunten Toast, geht über das vom Schreibtisch vollzogene Bankgeschäft und endet noch lange nicht bei der im PC entwickelten Boeing. Einfluss auf den Menschen

Die Digitale Revolution wird die Welt mindestens so verändern, wie Buchdruck und Dampfmaschine es getan haben. Allerdings darf man diese Veränderungen nicht auf dem falschen Gebiet erwarten: Wer denkt, die Digitalisierung würde die Demokratisierung (oder Totalisierung) vorantreiben, die Schrift ausrotten (oder ihr zu einem neuen Höhepunkt verhelfen) oder eine neue Welle der Aufklärung (oder Gegenaufklärung) auslösen, der wird wahrscheinlich enttäuscht sein. Natürlich werden digitale Medien in all diesen Prozessen, die in der Zukunft zu erwarten sind, mitwirken, aber auslösen werden sie sie nicht.

Trotzdem wird die Digitale Revolution tief in viele menschliche Prozesse eingreifen und tut es ja schon: seit Entwicklung der digitalen Nachrichtenübermittlung haben sich nicht nur die Nachrichten, sondern mit ihnen die gesellschaftliche Auffassung von politischen Prozessen sehr verändert. Das Resultat ist ein weitverbreiteter Skeptizismus und Zynismus (Man erinnere sich nur an die Tagesschau der 70er Jahre, wo jedes Wort und Bild als reines Gold der Wahrheit aufgefasst wurde). Nahezu jeglicher wissenschaftlicher Fortschritt der letzten 30 Jahre ist direkt oder indirekt mit digitalen Computern verbunden, die Gen-Tomate ebenso wie die Fortschritte in der Quantentheorie, AZT genauso wie das Human Genome Project. Schon heute, ganz am Anfang der Digitalen Revolution, sind viele Wirtschaftszweige völlig von Computern abhängig. Die meisten gab es zwar schon vor der Digitalisierung, aber durch Computer hat sich die Art, wie Geschäfte gemacht werden, so sehr verändert, dass sie ohne digitale Unterstützung gar nicht mehr denkbar sind. Die Revolution steht erst am Anfang!

Paradigmatisch für die Digitale Revolution ist schliesslich der Siegeszug des Internets. Vor fünf Jahren hatte es etwa 20 Millionen geschätzte - zu einem grossen Teil akademische - Benutzer. Heute sind es ein Vielfaches. Das allein ist keine Revolution, und wer meint, jetzt schon vor dem Ergebnis der Internet-Revolution zu stehen, befindet sich wahrscheinlich in einer ähnlichen Situation wie ein Jakobiner, der 1789 meinte, die Französische Revolution sei vollendet, ohne dass er Napoleon antizipierte oder gar die Demokratien des 20. Jahrhunderts vorhergesehen hätte.

Page 70: ITKnowHow

Obwohl die endgültigen Veränderungen, die ein globales Computernetzwerk, wie das Internet, bewirken kann, noch gar nicht abzusehen sind, sind wir doch schon Zeugen von echten Neuerungen, die man nicht unterschätzen darf: Das Internet hat in den wenigen Jahren seiner Existenz schon mehr literarische Genres hervorgebracht als das ganze 20. Jahrhundert zuvor. Email, Usenet-messages, IRC und Homepages sind völlig neuartige und äusserst lebendige Formen, in denen Text und Text&Bild auf ganz neue Weise komponiert werden. Briefe gab es zwar schon vorher, keine Frage, aber wer von den Lesern schreibt eine Email denn so, wie er einen Brief schreiben würde? Wer hat vor dem Internet eine Darstellungsform gebraucht, die der Homepage ähnlich wäre? Und wer hat überhaupt so viele Nachrichten ausgetauscht, wie er es heute tut, bevor er online ging? Diese Veränderungen im Wie sind bereits eine Revolution für sich, und nur ein kleiner Teil der grossen Digitalen Revolution. Wohin führt uns die Revolution?

Alle Veränderungen, die die Digitale Revolution mit sich bringen wird und schon gebracht hat, hier aufzuzählen, wäre unmöglich und absurd. Es ist auch nicht nötig, abzuwägen, ob die Revolution denn eine gute oder eine böse sei - die Revolution stellt uns Fragen, die mit den Kategorien der Religion nicht zu beantworten sind. Die Digitalisierung vieler Prozesse ist einem Werkzeug vergleichbar: Zwar war die Erfindung des Hammers der Menschheit ein Segen, da er das Bauen erleichterte. Aber nicht nur ersetzte der Hammer viele Bauarbeiter an einer bestimmten Stelle des Produktionsprozesses, er konnte auch als gefährliche Waffe dienen. Gut oder böse? Das ist vielleicht eine anthropologische Frage. Wer sie sich wirklich in Bezug auf digitale Instrumente stellen möchte, sollte sie vielleicht ausweiten und auf den Menschen selbst beziehen.

Auch Gretchens ursprüngliche Frage beantwortet man vielleicht am besten mit den Worten Fausts: "Lass das, mein Kind! Du fühlst, ich bin dir gut." Wer da ein anderes Gefühl hat, der denke an dieser Stelle doch bitte an Gretchens Ende und lasse die Zweifel.

Page 71: ITKnowHow

Internet o Architektur des Internets o Contentmanagement (s.h. IT-Grundlagen) o Das Portal o Dienste o eBusiness und eCommerce o Internet Organisation o Standards im Internet o Suchmaschinen o W3C Standards o Webserver

Page 72: ITKnowHow

Architektur des Internets Eigenschaften des Internets

Die Vorstellung eines umfassenden Dienstes ist wichtig, aber diese allein kann nicht alle Ideen erfassen, die eine Forschergruppe für ein einheitliches Internet im Kopf hat, weil viele Ausführungen eines umfassenden Dienstes möglich sind. In diesem Ansatz soll die darunterliegende Internetarchitektur vor dem Benutzer verborgen werden. Und zwar deshalb, weil nicht von den Benutzern oder Anwendungsprogrammen verlangt werden soll, dass sie die Details der Hardwareverbindungen verstehen müssen, um das Internet benutzen zu können. Ausserdem wird keine bestimmte Netzwerkverbindungstopologie gefordert. Insbesondere soll das Anbinden eines neuen Netzwerks an das Internet nicht das Verbinden mit einen zentralen Knotenpunkt oder gar das Hinzufügen direkter physikalischer Verbindungen zwischen dem neuen Netzwerk und allen bestehenden Netzwerken erfordern. Es soll möglich sein, Daten durch Netzwerke zu senden, auch wenn diese nicht unmittelbar mit dem Quell- oder Zielrechner verbunden sind. Jeder Rechner im Internet soll eine einheitliche Kennung besitzen (die man sich als Name oder Adresse vorstellen kann).

Diese Vorstellung eines einheitlichen Internets enthält überdies die Idee der Netzwerkunabhängigkeit der Benutzerschnittstelle. Das erfordert, dass der Befehlssatz, der verwendet wird, um Kommunikation herzustellen oder Daten zu übertragen, unabhängig von der darunterliegenden Netzwerktechnologie und der des Zielrechners ist. Sicherlich sollte ein Benutzer nicht die Netzwerkverbindungstopologie verstehen müssen, um Anwendungsprogramme für die Kommunikation zu schreiben. Internetarchitektur

Rechner können zu individuellen Netzwerken verbunden werden. Wie aber werden Netzwerke zu einem Internetwork (Internet) verbunden? Zunächst einmal müssen zwei Netzwerke physikalisch durch einen Rechner, der an beiden hängt, verbunden sein. Eine physikalische Anbindung allein liefert jedoch nicht die Verbindung, die sich die Entwickler vorgestellt haben, da eine solche Verbindung nicht garantiert, dass die Rechner mit anderen zusammenarbeiten, die zu kommunizieren wünschen. Um ein funktionierendes Internet zu erhalten, werden Rechner benötigt, die Pakete von einem Netzwerk zum anderen transportieren. Rechner, die auf diese Weise mit zwei Netzwerken verbunden sind und Pakete von einem zum anderen verschicken, werden Internet-Gateways oder Internet-Router genannt.

Es soll nun ein Beispiel betrachtet werden, das aus zwei physikalischen Netzwerken besteht wie in Bild 1 dargestellt. Im Bild ist der Router R sowohl mit Netzwerk 1 als auch mit Netzwerk 2 verbunden. Damit R als Router handeln kann, muss dieser Pakete in Netzwerk 1 erfassen, die für Rechner in Netzwerk 2 bestimmt sind und diese übertragen. Genauso muss R Pakete in Netzwerk 2 erfassen, die ins Netzwerk 1 sollen, und übertragen.

Page 73: ITKnowHow

Abbildung: Zwei physikalische Netzwerke, die durch einen Router (IP Gateway), verbunden sind.

Im Bild werden die Wolken verwendet, um physikalische Netzwerke zu kennzeichnen, da die exakte Hardware unwichtig ist. Jedes Netzwerk kann ein LAN oder ein WAN sein und an jedes können viele Endsysteme oder nur wenige angeschlossen sein. Verbindung durch Router

Sobald Internetverbindungen komplexer werden, müssen Router die Topologie des Internets kennen, die sich hinter den Netzwerken verbirgt, mit denen sie verbunden sind. Als Beispiel dient Bild 2, das vier Netzwerke zeigt, die durch zwei Router verbunden sind.

Abbildung: Vier Netzwerke, die durch drei Router miteinander verbunden sind.

In diesem Beispiel muss Router R1 alle Pakete von Netzwerk 1 zu Netzwerk 2 übertragen, die für Rechner in Netzwerk 2, Netzwerk 3 oder Netzwerk 4 bestimmt sind. Bei einem grossen Internet, das aus vielen Netzwerken besteht, wird die Aufgabe des Routers, zu entscheiden, wohin Pakete gesendet werden, komplexer.

Die Idee eines Routers erscheint einfach, aber sie ist wichtig, da sie eine Möglichkeit bietet, Netzwerke und nicht nur einzelne Rechner miteinander zu verbinden. Genau dies ist das Grundprinzip der Verbindung, das überall im Internet Anwendung findet:

In einem TCP/IP Internet stellen als Router (oder Gateways) bezeichnete Rechner alle Verbindungen zwischen den physikalischen Netzwerken zur Verfügung.

Man könnte annehmen, dass Router, die wissen müssen, wie sie Pakete an ihren Bestimmungsort schicken, grosse Rechner mit ausreichend primärem und sekundärem Speicher sind, der Informationen über jeden Rechner im Internet enthält, an das sie angeschlossen sind. Router, die in TCP/IP Internets verwendet werden, sind jedoch üblicherweise kleine Rechner. Sie verfügen über kleinen oder gar keinen Plattenspeicher und beschränkten Hauptspeicher. Dies ist möglich, weil folgender "Trick" benutzt wird:

Page 74: ITKnowHow

Router verwenden das Zielnetzwerk und nicht den Zielrechner beim Routen eines Pakets.

Wenn das Routing netzwerkbasiert erfolgt, verhält sich die Informationsmenge, die ein Router speichern muss, proportional zur Anzahl der Netzwerke im Internet und nicht zur der der Rechner. Die Sicht des Benutzers

TCP/IP wurde entworfen, um eine umfassende Verbindung zwischen Rechnern herzustellen, unabhängig von den jeweiligen Netzwerken, an die sie angeschlossen sind. Auf diese Weise wird für den Anwender das Internet als einzelnes, virtuelles Netzwerk dargestellt, an das alle Rechner angebunden sind, unabhängig von ihren tatsächlichen physikalischen Verbindungen. Bild 3a stellt dar, wie das Ansehen als ein Internet statt als einzelne Netzwerke die Details vereinfacht und es für den Anwender leichter macht, sich von der Kommunikation eine Vorstellung zu machen. Zusätzlich zu den Routern, die physikalische Netzwerke miteinander verbinden, benötigt man Software auf jedem Endsystem, die es Anwendungsprogrammen ermöglicht, das Internet zu benutzen, als sei es ein einziges reales physikalisches Netzwerk.

Page 75: ITKnowHow

Abbildung: (a) Die Sicht des Benutzers auf ein TCP/IP Internet, in dem jeder Rechner an ein einziges grosses

Netzwerk angeschlossen zu sein scheint, und (b) die Struktur von physikalischen Netzwerken und Routern, die die Verbindungen herstellen.

Der Vorteil, Verbindung auf Netzwerkebene herzustellen, wird nun deutlich. Weil Anwendungsprogramme, die via Internet kommunizieren nicht die Details der darunterliegenden Verbindungen kennen müssen, können sie ohne Veränderung auf jedem Rechner benutzt werden. Weil die Details der physikalischen Netzwerkverbindungen eines jeden Rechners in der Internetsoftware versteckt sind, muss nur diese Software verändert werden, wenn neue physikalische Verbindungen hinzukommen oder alte verschwinden. Tatsächlich ist es sogar möglich, die internen Strukturen des Internets durch Verändern der physikalischen Verbindungen zu optimieren, ohne Anwendungsprogramme neu zu kompilieren.

Ein weiterer Vorteil der Kommunikation auf Netzwerkebene ist von geringerer Bedeutung. Die Anwender müssen nicht verstehen oder sich daran erinnern, wie

Page 76: ITKnowHow

Netzwerke miteinander verbunden sind oder welchen Datenverkehr sie bewältigen. Es können Anwendungsprogramme geschrieben werden, die unabhängig von der darunterliegenden physikalischen Verbindung miteinander kommunizieren. Tatsächlich ist es den Netzwerkmanagern möglich, einzelne Komponenten der darunterliegenden Netzwerkarchitektur zu wechseln, ohne die Anwendungssoftware auf den meisten Rechnern, die ans Internet angeschlossen sind, zu verändern (selbstverständlich muss die Netzwerksoftware rekonfiguriert werden, wenn ein Rechner an ein neues Netzwerk angeschlossen wird).

Wie Bild 3b zeigt, stellen Router nicht zwischen allen Netzwerkpaaren direkte Verbindungen her. Es kann notwendig sein, dass Daten, die von einem Rechner zu einem anderen geschickt werden, verschiedene dazwischenliegende Netzwerke passieren. Dazu ist es nötig, dass jedes Netz sich damit einverstanden erklärt, Datentransitverkehr abzuwickeln im Austausch zu dem Recht Daten überall ins Internet zu senden. Typische Anwender werden vom zusätzlichen Datenverkehr auf ihrem lokalen Netzwerk nicht beeinflusst und bemerken diesen nicht. Gleichbehandlung von Netzwerken

Ein TCP/IP Internet kann aus einer Vielzahl von Netzwerktechnologien zusammengebaut sein. In diesem Entwurf wird das Internet als eine Vereinigung von zusammenarbeitenden, miteinander verbundenen Netzwerken beschrieben. Dazu ist es wichtig, ein grundlegendes Konzept zu verstehen: Aus Sicht des Internets zählt jedes Kommunikationssystem, das in der Lage ist, Pakete zu transportieren, als einzelnes Netzwerk, unabhängig von Verzögerung, Durchsatz, maximaler Paketgrösse oder geographischem Ausmass. Insbesondere verwendet Bild 3b die gleiche kleine Wolke, um alle physikalischen Netzwerke darzustellen, weil TCP/IP diese gleich behandelt trotz ihrer Unterschiede. Der Punkt ist:

Die TCP/IP Internetprotokolle behandeln alle Netzwerke gleich. Ein local area network wie z.B. ein Ethernet, ein wide area network wie das ANSNET backbone und eine Direktverbindung zwischen zwei Rechnern zählen jeweils als ein Netzwerk.

Jemand, für den die Internetarchitektur ungewohnt bzw. neu ist, mag es möglicherweise als schwierig empfinden, eine solch vereinfachende Sicht von Netzwerken zu akzeptieren. Im wesentlichen definiert TCP/IP eine Abstraktion von "Netzwerk", die die Details physikalischer Netzwerke versteckt. Eine solche Abstraktion trägt dazu dabei, TCP/IP äusserst mächtig zu machen. Zusammenfassung

Ein Internet ist mehr als eine Anhäufung von Netzwerken, die durch Rechner miteinander verbunden sind. Internetworking bedeutet, dass die miteinander verbundenen Systeme Konventionen berücksichtigen, die es jedem Rechner erlauben, mit jedem anderen zu kommunizieren. Insbesondere erlaubt ein Internet zwei Rechnern miteinander zu kommunizieren, auch wenn der Kommunikationspfad zwischen ihnen ein Netzwerk durchläuft, an das keiner von beiden direkt angeschlossen ist. Eine solche Zusammenarbeit ist nur möglich, wenn die Rechner eindeutige Kennungen und Befehle verwenden, um Daten an ihren Bestimmungsort zu schicken.

Page 77: ITKnowHow

In einem Internet werden die Verbindungen zwischen Netzwerken durch Rechner hergestellt, die IP Router oder IP Gateways genannt werden und die an zwei oder mehr Netzwerke angeschlossen sind. Ein Router befördert Pakete zwischen Netzwerken, indem er diese aus einem Netzwerk empfängt und in ein anderes sendet.

Page 78: ITKnowHow

Das Portal.

Das Portal ist eine Einstiegsseite und erster Anlaufpunkt, über den der Zugang zu weiteren Websites erfolgt. Informationen und Dienstleistungen werden einem offenen oder geschlossenen Userkreis zugänglich gemacht. Das vertikale Portal ist ein Internetangebot, das sich an eine klar umrissene Zielgruppe wendet. Sie konzentriert sich auf das Thema und geht eher in die Tiefe als in die Breite. Vertikale Portale sind vor allem im B2B-Bereich wichtig. Im Gegensatz dazu richtet sich ein horizontales Portal an eine sehr breite Nutzerschicht mit allgemeinen Interessen. Ein Business-Portal ist ein auf eine Branche spezialisiertes vertikales Portal, welches ausschliesslich geschäftlichen Zwecken dient, wie etwa ein Internetangebot für die Holz verarbeitende Industrie, über das man zu den einzelnen Anbietern oder zu einem digitalen Marktplatz kommt. Typen von Webseiten

• Suchmaschinen - google.com

• Meta-Suchmaschinen - profusion.com

• Internet Verzeichnisse - yahoo.de

• Portale - t-online.de

• Firmensites

• private Homepages

• Community-Sites - community.ican.at

• News-Sites - news.ch

• Filesharing - gnutella.wego.com

• E-Business

• E-Commerce

• E-Government

• E-Procurement

• Auktionen - ricardo.de

• Co-Shopping - letsbuyit.com

• Internet Banking

• Online Brokering

• Shopping-Mall

Page 79: ITKnowHow

• Infomediäre / Agents - ask.com Techniken bei Webseiten

• Collaborative Filtering

• Personalisierung

• Profile Filertering

• Profiling

• Prosuming

• Crosslinking

• Cross-Selling

• One-to-One Marketing

• Permission Marketing

• Interruption Marketing

Page 80: ITKnowHow

Dienste World Wide Web (WWW)

Das World Wide Web (WWW) ist der Senkrechtstarter unter den Internet-Diensten und enhält u.a eine gewaltige Sammlung an Texten, Bildern oder Sounds. Die einzelnen Dateien sind auf Millionen von Web-Servern verteilt und über sogenannte Links miteinander verbunden, der Anwender kann diese Daten mit einem Browser abrufen. Trotz der Bezeichnung Web ist das WWW kein eigenständiges Netz wie das Internet, sondern es benutzt das Internet zur Übertragung der Daten.

Im WWW gibt es einen eigenen Übertragungsstandard, der die Kommunikation zwischen Browser (Client) und Anbieter (Server) regelt, dies ist das "Hypertext Transfer Protocol" (HTTP). Übertragen werden Dateien, die in "Hypertext Markup Language" (HTML) geschrieben sind. HTML ist eine einfache Sprache mit Struktur- und Funktionselementen, die unter anderem die Formatierung von Text, Einbindung von Grafiken oder Verlinkung mit anderen HTML-Dokumenten erlaubt. Jede auf einem WWW-Server gespeicherte Datei hat eine weltweit eindeutige Adresse, URL genannt (Unified Resource Locator).

URLs bestehen im Wesentlichen aus 3 Teilen und geben an, wie und von wo Daten aus dem Internet angefordert werden. Der erste Teil gibt das Übertragungsprotokoll an (zB. "http://"), der zweite Teil die Adresse des Servers (zB. itmanager.info) und der dritte Teil die Datei, die angefordert werden soll (zB. index.htm im Verzeichnis internet). Die komplette Adresse wäre in diesem Fall http://itmanager.info/internet/index.htm

Mit den Browsern kann auch auf andere Internet-Dienste zugegriffen werden, in solchen Fällen wäre dann der erste Teil der jeweiligen Adresse (URL) "ftp://" für den Internet-Dienst FTP, "gopher://" für Gopher usw. E-Mail (Elektronische Post)

Die elektonische Post (E-Mail, Electronic Mail) gehört neben dem World Wide Web zu den meistgenutzten und populärsten Diensten im Internet. Der Umgang mit E-Mail ist einfach, unkompliziert und sehr effizient.

Vergleichbar ist dieser Dienst mit einem Fax oder der normalen Post. Ein elektronisch verfasster Brief kann über das Internet direkt an einen anderen Netz-Teilnehmer geschickt werden, innerhalb von Minuten landet die verschickte E-Mail im Postfach des Empfängers, egal ob dieser in Europa oder in den USA ist.

Um eine E-Mail zu schreiben, muss man sich im Wesentlichen um folgende 3 Bestandteile kümmern:

• Empfängeradresse

• Betreff (Subject)

• den eigentlichen Inhalt (Body)

Page 81: ITKnowHow

Die E-Mail-Adressen sind sehr einfach aufgebaut und bestehen meistens aus einem Namen gefolgt vom Zeichen @ ("at" oder Klammeraffe) und dem Namen der Domäne. Ein Beispiel wäre [email protected]. Eine solche E-Mail-Adresse ist weltweit eindeutig.

Im Betreff wird schlagwortartig auf den Inhalt hingewiesen, der Body enthält den eigentlichen Inhalt der Mail. Weiters besteht die Möglichkeit, beliebige Arten von Dateien an eine Mail anzuhängen (Attachments) und zu verschicken. Usenet / Newsgroups

Die Newsgroups sind die öffentlich zugänglichen Diskussionsforen im Internet, die sogenannten "schwarzen Bretter". Unter zigtausenden von Newsgroups zu allen möglichen Themen kann jeder seine Favoriten abonnieren, als stiller Teilnehmer mitlesen oder selbst an Diskussionen teilnehmen. Als Übertragungsprotokoll hat sich im Usenet das "Network News Transfer Protokoll" (NNTP) durchgesetzt.

Beispiele von Newsgruppen sind de.comm.internet.misc für Beiträge rund um das Internet oder de.rec.fotografie für Foto-Interessierte. Das "de" am Anfang bedeutet, dass es sich um eine deutschsprachige Newsgroup handelt. Je nach Thema gibt es in deutschsprachigen Newsgroups täglich zwischen wenigen bis zu ein paar hundert neue Beiträge, die von vielen tausenden von Teilnehmern gelesen werden können.

Für die Teilnahme an den Newsgroups benötigt man eine eigene Software, die allgemein unter dem Namen Newsreader bekannt ist. FTP (File Transfer Protocol)

FTP gehört zu den ältesten Internet-Diensten, für die Übertragung wird das File Transfer Protocol verwendet. Es ist möglich, Dateien per FTP aus dem Internet downzuloaden oder auch ins Internet zu kopieren, zum Beispiel alle Dateien eines Web-Angebotes.

Normalerweise können die heutigen Web-Browser auf FTP-Server zugreifen und auch Programme downloaden, es gibt aber auch eigene FTP-Programme, die auch für den Upload von Dateien ins Internet notwendig sind. TelNet

TelNet setzt sich aus den beiden Wörtern Telecommunication und Network zusammen und ist einer der ältesten Internet-Dienste. TelNet bietet die Möglichkeit, auf unterster Ebene mit anderen Computern zu kommunizieren. Klassische Einsatzbeispiele von TelNet sind das Abfragen von Datenbanken oder das Ausführen lassen von Rechenoperationen auf fremden Grossrechnern. Für die Benutzung des TelNet ist ein eigener TelNet-Client notwendig. Heute ist der Bereich Telebanking ein typisches Beispiel, wo auch der private Internet-User über TelNet einen zentralen Host bedienen kann.

Page 82: ITKnowHow

Internet Relay Chat (IRC)

IRC ist ein Internet-Dienst, der es ermöglicht, per Tastatur gleichzeitig mit mehreren Netzteilnehmern zu kommunizieren. Es hat sich der Name Chat (Plaudern) eingebürgert.

Chat-Teilnehmer müssen sich bei einem IRC-Server einloggen, der dann die Tastatureingaben jedes einzelnen sofort an die anderen Chat-Teilnehmer weiterleitet.

Die Benutzung des IRC erfolgt mit eigenen Programmen, alternativ dazu gibt es die Java-Applets für den Chat, die das Chatten auch mit einem Browser ermöglichen. Gopher

Gopher ist ein ähnliches Informationssystem wie das World Wide Web, sozusagen der Vorläufer des WWW. Normale Text-Dateien sind hierarchisch abgelegt, ähnlich wie beim Dateimanager von Windows. Durch einfaches Anklicken können diese Text-Dateien angesehen werden. Im Gegensatz zum World Wide Web gibt es bei Gopher keinerlei Formatierungen und keine multimedialen Fähigkeiten. Wais

Wais (Wide Area Information Service) ist ein junger Internet-Dienst, ein System zur Volltextsuche in Dokumenten und Datenbanken. Kombinationen von Suchbegriffen sind erlaubt, wodurch die Treffsicherheit erhöht wird. Archie

Archie ist ein Suchdienst, um nach Dateien auf öffentlichen FTP-Servern zu suchen. Auf eigenen Archie-Servern werden in umfangreichen Datenbanken die Inhalte der FTP-Server verwaltet. Inzwischen ist Archie veraltet, die Indexierung von FTP-Servern wurde mittlerweile von Suchmaschinen im World Wide Web übernommen.

Page 83: ITKnowHow

eBusiness und eCommerce

Der Überbegriff für eCommerce, eGovernment, eProcurement, eLogistik usw. ist eBusiness.

eBusiness umfasst alle Teile von Geschäftsprozessen einer Unternehmensorganisation, die über Datennetze (z.B. WorldWideWeb-WWW) zwischen zentralen Unternehmenssystemen und Partnern (z.B. Kunden, Mitarbeitern, Händlern und Lieferanten) abgewickelt werden. Alle diese Prozesse werden intensiv mit den neuen Technologien (z.B. Internet) abgewickelt, inklusive aller Dienstleistungen, die es offline, sprich ohne elektronische Systeme, gar nicht gibt.

Wenn dabei die Zahlung auch elektronisch erfolgt, spricht man von eCommerce, und wenn die Transaktionen mobil (z.B. WAP-Handy) durchgeführt werden, dann mCommerce oder beim Internet über den Fernsehapparat von tCommerce.

Die eBusiness Branche unterscheidet generell zwischen

• Business-to-Business Transaktionen (B2B)

• Business-to-Consumer Transaktionen (B2C)

• Consumer-to-Consumer Transaktionen (C2C)

• Administration-to-Business Transaktionen (A2B)

• Administration-to-Consumer Transaktionen (A2C)

• Administration-to-Administration Transaktionen (A2A) Business-to-Business (B2B)

B2B deckt sämtliche Transaktionen zwischen zwei oder mehreren Geschäftspartnern ab. Diese Transaktionen basieren häufig auf einem Extranet, also zugangsgeschützen Netzen im Internet. Dieser Bereich macht derzeit den Hauptanteil von eBusiness aus, da sich hier vorallem durch die elektronischen Kommunikations- und Datenverarbeitungsmöglichkeiten die grössten Einsparungspotentiale ergeben. Handelsketten, Zuliefer- und Produktionsbetriebe, setzen schon heute auf vorhandene Standardanwendungen (z.B. EDI - Electronic Data Interchange). In dieser Kategorie kann kein betriebswirtschaftlich denkender Betrieb an eBusiness vorübergehen. Business-to-Consumer (B2C)

B2C bezieht sich auf die Beziehung zwischen Händler und Privatkunden (auch eRetailing genannt). Diese Geschäfte werden meist über das offene Internet abgewickelt. Diese Kategorie erlebt durch das WWW einen grossen Aufschwung. Online Shops und Shopping Malls sind ein beliebtes Thema in den Medien und entstehen in allen möglichen Sparten und Erdteilen. Aber erst mit Web-TV,

Page 84: ITKnowHow

Screenphones und anderen Frontend Anwendungen in den Haushalten oder Kiosken werden hier in den nächsten Jahren betriebswirtschaftliche Erfolge zu verzeichnen sein.

Mehr Erfolg haben Marketinginformationen und PR-Aktivitäten, wie Shareholder Informationen, Beschwerdemanagement und -analyse, welche die Kommunikation Unternehmen Kunden fördern und damit Loyalität sowie Kundenzufriedenheit verbessern. Natürlich hat sich aufgrund der administrativen Kostensituation im Finanzbereich online banking auch in dieser Kategorie immer mehr durchgesetzt. Consumer-to-Consumer (C2C)

C2C umfasst alle Transaktionen zwischen Konsumenten. Der Konsument verkauft an andere Konsumenten - in Printmedien wie dem Bazar etwas ganz alltägliches, welches in Zukunft durch das Internet (WWW, E-Mail und Newsgroups) eine neue Dimension bekommt. Administration

Auch bei den Ministerien gibt es den Versuch die Formularflut zwischen öffentlichen Einrichtungen und Unternehmen elektronisch abzuwickeln. Diese Transaktionen fallen in den Bereich Administration-to-Business (A2C). Administration-to-Consumer (A2C) ist das 24-Stunden-Amt für den Bürger und wenn die Behörden untereinander elektronisch kommunizieren oder Daten austauschen, ist das Administration-to-Administration (A2A). Diese drei Transaktionsformen nennt man auch eGovernment und führen zu einer Erhöhung der Leistungsfähigkeit und Kostenoptimierung in der Verwaltung - der Wunschtraum jedes Politikers und Steuerzahlers. Kategorien

eBusiness in Portalen kann grob in folgende Kategorien eingeteilt werden:

• Horizontale Portale bieten Verzeichnisse von Unternehmen nach Branchen bzw. Produktgruppen. Diese Kataloge sind auf Vollständigkeit orientiert.

• Vertikale Portale sind branchen-orientiert. Alle relevanten Informationen für eine bestimmte Community (Anbieter und Nachfrager) sind auf einer Plattform vereinigt.

eProcurement

Die elektronische Organisation von Beschaffungsvorgängen automatisiert den gesamten Einkaufsprozess in einem Unternehmen oder der öffentlichen Verwaltung. Die Vorteile sind offensichtlich:

• Die Einkaufsabteilung kann sich auf den strategischen Einkauf konzentrieren. Sie wählt die Lieferanten aus und verhandelt die Konditionen.

Page 85: ITKnowHow

• Der operative Einkaufsvorgang wird dorthin verlagert wo der Bedarf entsteht, nämlich zum Mitarbeiter. Spontaneinkäufe bei falschen Lieferanten werden durch elektronische, zentral gesteuerte Produktkataloge vermieden.

• Durch die hochgradige Standardisierung bei einer elektronischen Beschaffung kann der administrative Aufwand im Unternehmen stark reduziert werden und die Beschaffungszeiten verkürzen sich.

• Durch die unmittelbare Publikation von Bedarf und Ausschreibungen im Internet reduzieren sich die Suchkosten und die Zeit bis zum Einlagen von Angeboten. Der erweiterte Kreis an potentiellen Anbietern oder der virtuelle Zusammenschluss von Einkaufsgemeinschaften (NetMarkets) ermöglicht günstigere Angebote.

Page 86: ITKnowHow

Internet Organisation Was sind IP-Adressen?

Domainnamen wie www.itmanager.info sind nichts anderes als Gedächtnishilfen für den Menschen am Computer -- die Computer selbst benutzen zur Kommunikation IP-Adressen: Codes, die derzeit aus vier Zahlen zwischen 0 und 255 bestehen. Erst ein DNS-Server verwandelt die vom Menschen eingetippte Zeichenfolge www.itmanager.info in die IP-Adresse 192.168.34.65. IP bedeutet dabei Internet Protocol.

Mittels einer IP-Adresse lässt sich ein bestimmter Nutzer aber nicht zweifelsfrei identifizieren, da oftmals IP-Adressen dynamisch vergeben werden: Beispielsweise kann ein Zugangsprovider über eine ganze Reihe von IP-Adressen verfügen und einem Nutzer die jeweils nächste freie IP-Adresse zeitweilig zuweisen. Auf der anderen Seite führt ein Domainname oftmals zu einer Reihe von Servern mit jeweils eigenen IP-Adressen. Was für Domain-Arten gibt es?

Eine Webadresse wie www.itmanager.info lässt sich in drei Abschnitte unterteilen, die von hinten nach vorne gelesen werden. .ch steht für die Schweiz und ist einer von über 240 Ländercodes. Solche Domainnamen werden als country-code Top-Level-Domains bezeichnet, kurz ccTLD. Für die Einrichtung des Domainnamens icannchannel.de ist nicht ICANN, sondern die Vergabestelle des jeweiligen Landes zuständig (für Deutschland: DE-NIC). Über die Einrichtung von www.itmanager.info, mail.itmanager.info oder irgendwas.itmanager.info entscheidet schliesslich der Domaininhaber selbst.

Ausser den Ländercode-Domainnamen gibt es generische Top-Level-Domains, die mit gTLD abgekürzt werden. .com ist die am häufigsten verwendete gTLD, dazu kommen .net und .org. Ursprünglich sollten .net-Domains im Zusammenhang mit dem Netzwerkbetrieb und .org-Domains für Organisationen verwendet werden. Weitere gTLDs sind .edu (Bildungseinrichtungen), .gov (US-Regierung), .mil (US-Militär) und .int (internationale Organisationen). Was sind Rootserver?

Die Zuordnung einer IP-Adresse (wie 192.168.34.65) zu einem Domainnamen (wie itmanager.info) erfolgt über so genannte DNS-Server. Solche DNS-Server sind auf der ganzen Welt verteilt, und zumeist kennt der DNS-Server z.B. des eigenen Zugangsprovider bereits die IP-Adresse der gewünschten Domain.

Wenn der DNS-Server die Domain nicht zuordnen kann (oder die Zuordnung bereits so alt="" ist, dass sie nicht mehr verlässlich ist), schickt er die Anfrage weiter an einen höheren DNS-Server. An oberster Stelle des Domain Name Systems stehen dreizehn Rechner: die Rootserver, jeweils mit einem Buchstaben gekennzeichnet. An oberster

Page 87: ITKnowHow

Stelle steht der Rootserver A, auf dessen Daten die Angaben aller anderen Rootserver beruhen -- das "Herz des Internets". Was ist ICANN?

Die Abkürzung steht für Internet Corporation for Assigned Names and Numbers. ICANN ist eine private Internet-Organisation mit Sitz in Marina del Rey, Kalifornien, die bestimmte zentrale Koordinierungsaufgaben im Internet übernimmt. Es geht dabei um folgende Bereiche:

• IP-Adressen: ICANN koordiniert das IP-Adressensystem, und ist die oberste Instanz, die IP-Adressenblöcke vergibt. Die Blöcke werden an die regionalen IP-Registries vergeben, die sie dann weiter verteilen.

• Domainnamen-System: ICANN koordiniert das Domainnamen-System (DNS) und ist insbesondere die Instanz, die über die Einrichtung von Top-Level-Domains entscheidet.

• Internet-Protokolle: ICANN koordiniert die Zuweisung von Parametern mit Internet-Bezug und ist z.B. für die Vergabe von IP-Port-Nummern zuständig.

• Rootserver System: In diesem Punkt hat ICANN eine deutlich geringere Rolle als in den anderen Bereichen. ICANN überwacht zwar den Betrieb des Rootserver-Systems, bislang scheint die US-Regierung jedoch nicht bereit zu sein, die letzte Aufsicht darüber völlig abzugeben.

Ist ICANN die Welt-Internetregierung?

ICANN hat weder die Kompetenzen noch den Etat oder das Personal, eine Welt-Internetregierung zu stellen. Über viele Aspekte des Internets wird an anderer Stelle beraten und entschieden, z.B. bei G-8 und WTO (e-Commerce) oder bei IETF und W3C (Standards). Dennoch ist ICANN derzeit das Gremium im Internet, auf das sich viele Akteure -- von Regierungen über Unternehmen bis zu Bürgerrechtlern -- konzentrieren. ICANNs technische Entscheidungen können starke politische und wirtschaftliche Auswirkungen haben.

In Ermangelung eines besseren Begriffes wird bei ICANN Channel daher vorwiegend der Begriff Internet-Verwaltung verwendet. Das sollte jedoch nicht über die Bedeutung von ICANN hinwegtäuschen: Das Domainnamen-System ist zu einem Rückgrat des Internets geworden, und ICANN ist dabei die Stelle, an der die Spielregeln aufgestellt werden. Wie ist ICANN aufgebaut? ICANN besteht hauptsächlich aus einem Direktorium samt Präsident und drei Unterorganisationen. Das ICANN-Direktorium besteht aus neunzehn Mitgliedern:

• je drei werden von den drei Fachorganisationen (ASO, DNSO und PSO) gewählt,

Page 88: ITKnowHow

• neun werden von den Internetnutzern gewählt, die sich als ICANN-At-Large-Mitglieder registriert haben,

• dazu kommt ein von den anderen Direktoren gewählter Präsident, der dann ebenfalls dem Direktorium angehört.

Die Unterorganisationen sind jeweils für bestimmte Aufgabenbereiche zuständig:

• Die Address Supporting Organization (ASO) ist für IP-Adressen zuständig. Die Mitglieder des ASO-Gremiums Address Council werden von den drei regionalen IP-Registries (ARIN, RIPE NCC und APNIC) gestellt.

• Die Domain Name Supporting Organization (DNSO) ist für das Domainnamen-System zuständig. Die Mitglieder des Names Council werden von sieben Fachgruppen gewählt. In diesen Fachgruppen sind jeweils Interessenvertreter einer Richtung versammelt:

o Registrare (die das Eintragen von Domainnamen anbieten)

o gTLD-Registries (die das Register über die eingetragenen Domains führen; derzeit gibt es nur eine gTLD-Registry)

o ccTLD-Registries (für jede Ländercode-Top-Level-Domain)

o kommerzielle Internetnutzer

o nicht-kommerzielle Domainnamenbesitzer (wie z.B. Organisationen, Universitäten)

o Internet Service Provider und Connectivity Provider

o Vertreter von Urheberrechtsinteressen

• Die Protocol Supporting Organization (PSO) ist für technische Parameter zuständig. Der zugehörige Protocol Council setzt sich aus vier Organisationen zusammen, die im Internet-Bereich Standards setzen:

o World Wide Web Consortium (W3C)

o Internet Engineering Task Force (IETF)

o International Telecommunications Union (ITU)

o European Telecommunications Standards Institute (ETSI) Welche Rolle spielen Regierungen bei ICANN?

ICANN ist keine internationale Organisation, die von Staaten gebildet wurde, sondern eine private Organisation nach kalifornischem Recht. Es gibt jedoch ein Gremium, an dem Regierungsvertreter aller Staaten teilnehmen können: Das Governmental Advisory Committee (GAC) . Es handelt sich dabei jedoch um ein beratendes Komitee, dessen Beschlüsse für das ICANN-Direktorium rechtlich nicht bindend sind. Bislang gab es allerdings auch keinen ernsthaften Konflikt zwischen GAC und dem Direktorium.

Page 89: ITKnowHow

Darüber hinaus hat die US-Regierung weiterhin die letzte Aufsicht über den Rootserver A. Was ist die At-Large-Wahl?

Ein Teil der Direktoriumsmitglieder wird durch die ICANN-At-Large-Mitglieder gewählt. ICANN-At-Large-Mitglied kann jeder werden, der über eine E-Mail-Adresse und eine Postadresse verfügt.

Die Anmeldung erfolgte über die ICANN-At-Large-Website. Es wurde dann eine Mitgliedsnummer und ein Passwort an die E-Mail-Adresse geschickt. Die PIN-Nummer wurde per Post an die angegebene Adresse versandt. Die Mitgliedschaft wurde aktiviert, wenn alle drei Angaben (Mitgliedsnummer, Passwort und PIN-Nummer) auf der ICANN-At-Large-Website eingegeben werden.

Gewählt wurde ebenfalls über das Internet: Von den neun At-Large-Direktoren wurden fünf im Oktober 2000 von den Mitgliedern gewählt, die sich bis zum 31.7.2000 angemeldet hatten. Die Abstimmung erfolgte dabei nach Weltregionen: Je ein Direktor wurde gewählt von den At-Large-Mitglieder in den Regionen

• Europa

• Asien/Australien/Pazifik

• Lateinamerika/Karibik

• Afrika

• Nordamerika Was war vor ICANN?

ICANNs Aufgaben wurden vorher durch oder im Auftrag von US-Regierungsbehörden erledigt. Die meisten Aufgaben hat ICANN von der IANA, der Internet Assigned Numbers Authority übernommen, hinter der hauptsächlich ein Internet-Pionier, Jon Postel stand. Postel gehörte zu den Erfindern des Domainnamen-Systems.

Seit 1992 ist die Firma Network Solutions Inc. im Auftrag der US-Wissenschaftsbehörde NSF für den Betrieb der Domain-Datenbank für .com, .net, .org und .edu zuständig. 1995 wurde das Abkommen zwischen US-Regierung und Network Solutions geändert, dass die Firma jährliche Gebühren nehmen durfte. Vom Internet-Boom (vor allem durch das World Wide Web) profitierte Network Solutions enorm.

Jon Postels IANA unternahm 1996/97 einen Versuch, zusammen mit Internet-Verbänden und internationalen Organisationen eine Domainverwaltung aufzubauen, die neue Top-Level-Domains einrichten sollte. Es wurden zwar ein Abkommen unterzeichnet und sieben neue Top-Level-Domains ausgesucht, Network Solutions weigerte sich jedoch, die neuen gTLDs in die Rootserver einzutragen.

Die US-Regierung gab Network Solutions vorerst recht und legte nacheinander zwei Entwürfe zur künftigen Domainverwaltung vor. Der erste Entwurf (das Grünbuch vom Januar 1998) sah vor, dass das Domainnamen-System klar unter US-amerikanischer

Page 90: ITKnowHow

Führung bleiben sollte. Nach heftiger Kritik wurde im Mai 1998 das Weissbuch zur Internetverwaltung vorgelegt, das stärkere internationale Beteiligung vorsah. ICANN ist auf Grundlage dieses Weissbuches gegründet worden.

Page 91: ITKnowHow

Standards im Internet TCP/IP-Protokoll

TCP/IP ist der kleinste gemeinsame Nenner des gesamten Datenverkehrs im Internet. Erst durch dieses Protokoll wurde historisch gesehen aus einem begrenzten Netz ein Netz der Netze. Egal, ob Sie WWW-Seiten aufrufen, E-Mails versenden, mit FTP Dateien downloaden oder mit Telnet auf einem entfernten Rechner arbeiten: stets werden die Daten auf gleiche Weise adressiert und transportiert. TCP bedeutet Transmission Control Protocol (Protokoll für Übertragungskontrolle), IP bedeutet Internet Protocol.

Wenn Sie eine E-Mail verschicken oder eine HTML-Datei im WWW aufrufen, werden die Daten bei der Übertragung im Netz in kleine Pakete zerstückelt. Jedes Paket enthält eine Angabe dazu, an welche Adresse es geschickt werden soll, und das wievielte Paket innerhalb der Sendung es ist.

Die Adressierung besorgt das IP. Dazu gibt es ein Adressierungsschema, die sogenannten IP-Adressen.

Dass die Datenpakete auch wirklich beim Empfänger ankommen, und zwar in der richtigen Reihenfolge, dafür sorgt das TCP. Das TCP verwendet Sequenznummern für die einzelnen Pakete einer Sendung. Erst wenn alle Pakete einer Sendung vollständig beim Empfänger angekommen sind, gilt die Übertragung der Daten als abgeschlossen.

Jeder Rechner, der am Internet teilnimmt, ist mit einer IP-Adresse im Netz angemeldet. Rechner, die ans Internet angeschlossen sind, werden als Hosts oder Hostrechner bezeichnet. Wenn Sie also mit Ihrem PC im WWW surfen oder neue E-Mails abholen, sind Sie mit einer IP-Adresse im Internet angemeldet. Ihr Zugangs-Provider, über dessen Hostrechner Sie sich einwählen, kann feste IP-Adressen für Sie einrichten. Grosse Zugangs-Provider, etwa Online-Dienste wie CompuServe oder AOL, vergeben auch personenunabhängig dynamische IP-Adressen für jede Internet-Einwahl. Damit ein Rechner am Internet teilnehmen kann, muss er über eine Software verfügen, die das TCP/IP-Protokoll unterstützt. Unter MS Windows ist das beispielsweise die Datei winsock.dll im Windows-Verzeichnis. IP-Adressierung

Eine typische IP-Adresse sieht in Dezimalschreibweise so aus: 149.174.211.5 - vier Zahlen also, getrennt durch Punkte. Die Punkte haben die Aufgabe, über- und untergeordnete Netze anzusprechen. So wie zu einer Telefonnummer im weltweiten Telefonnetz eine Landeskennzahl, eine Ortsnetzkennzahl, eine Teilnehmerrufnummer und manchmal auch noch eine Durchwahlnummer gehört, gibt es auch im Internet eine Vorwahl - die Netzwerknummer, und eine Durchwahl - die Hostnummer.

Der erste Teil einer IP-Adresse ist die Netzwerknummer, der zweite Teil die Hostnummer. Wo die Grenze zwischen Netzwerknummer und Hostnummer liegt, bestimmt ein Klassifizierungsschema für Netztypen. Die folgende Tabelle verdeutlicht dieses Schema. In den Spalten für die IP-Adressierung und einem typischen Beispiel ist

Page 92: ITKnowHow

die Netzwerknummer (der Vorwahlteil) fett dargestellt. Der Rest der IP-Adresse ist die Hostnummer eines Rechners innerhalb dieses Netzes.

Netztyp IP-Adressierung Typische IP-Adresse

Klasse-A-Netz xxx.xxx.xxx.xxx 103.234.123.87 Klasse-B-Netz xxx.xxx.xxx.xxx 151.170.102.15 Klasse-C-Netz xxx.xxx.xxx.xxx 196.23.155.113

Die oberste Hierarchiestufe bilden die sogenannten Klasse-A-Netze. Nur die erste Zahl einer IP-Adresse ist darin die Netzwerknummer, alle anderen Zahlen sind Hostnummern innerhalb des Netzwerks. Bei Netzwerknummern solcher Netze sind Zahlen zwischen 1 und 126 möglich, d.h. es kann weltweit nur 126 Klasse-A-Netze geben. Eine IP-Adresse, die zu einem Klasse-A-Netz gehört, ist also daran erkennbar, dass die erste Zahl zwischen 1 und 126 liegt. Das amerikanische Militärnetz ist beispielsweise so ein Klasse-A-Netz. Innerhalb eines Klasse-A-Netzes kann der entsprechende Netzbetreiber die zweite, dritte und vierte Zahl der einzelnen IP-Adressen seiner Netzteilnehmer frei vergeben. Da alle drei Zahlen Werte von 0 bis 255 haben können, kann ein Klasse-A-Netzbetreiber also bis zu 16,7 Millionen IP-Adressen an Host-Rechner innerhalb seines Netzes vergeben.

Die zweithöchste Hierarchiestufe sind die Klasse-B-Netze. Die Netzwerknummer solcher Netze erstreckt sich über die beiden ersten Zahlen der IP-Adresse. Bei der ersten Zahl können Klasse-B-Netze Werte zwischen 128 und 192 haben. Eine IP-Adresse, die zu einem Klasse-B-Netz gehört, ist also daran erkennbar, dass die erste Zahl zwischen 128 und 192 liegt. Bei der zweiten sind Zahl Werte zwischen 0 und 255 erlaubt. Dadurch sind etwa 16.000 solcher Netze möglich. Da die Zahlen drei und vier in solchen Netzen ebenfalls Werte zwischen 0 und 255 haben dürfen, können an jedem Klasse-B-Netz bis zu ca. 65.000 Hostrechner angeschlossen werden. Klasse-B-Netze werden vor allem an grosse Firmen, Universitäten und Online-Dienste vergeben.

Die unterste Hierarchie stellen die Klasse-C-Netze dar. Die erste Zahl einer IP-Adresse eines Klasse-C-Netzes liegt zwischen 192 und 223. Die Zahlen zwei und drei gehören ebenfalls noch zur Netzwerknummer. Über zwei Millionen solcher Netze sind dadurch adressierbar. Vor allem an kleine und mittlere Unternehmen mit direkter Internet-Verbindung, auch an kleinere Internet-Provider, werden solche Adressen vergeben. Da nur noch eine Zahl mit Werten zwischen 0 und 255 übrig bleibt, können in einem C-Netz maximal 255 Host-Rechner angeschlossen werden.

Ob dieses Adressierungs-Schema den Anforderungen der Zukunft noch gerecht wird, bezweifeln manche. Es gibt bereits Ideen zu einer Neustrukturierung der Adressierung von Netzen und Hostrechnern. Client-Server-Technologie

Für die einzelnen Internet-Dienste wie World Wide Web, Gopher, E-Mail, FTP usw. muss auf einem Hostrechner, der anderen Rechnern diese Dienste anbieten will, eine entsprechende Server-Software laufen. Ein Hostrechner kann einen Internet-Dienst nur

Page 93: ITKnowHow

anbieten, wenn eine entsprechende Server-Software auf dem Rechner aktiv ist, und wenn der Rechner "online" ist.

Server sind Programme, die permanent darauf warten, dass eine Anfrage eintrifft, die ihren Dienst betreffen. So wartet etwa ein WWW-Server darauf, dass Anfragen eintreffen, die WWW-Seiten auf dem Server-Rechner abrufen wollen.

Clients sind dagegen Software-Programme, die typischerweise Daten von Servern anfordern. Ihr WWW-Browser ist beispielsweise ein Client. Wenn Sie etwa auf einen Verweis klicken, der zu einer HTTP-Adresse führt, startet der Browser, also der WWW-Client, eine Anfrage an den entsprechenden Server auf dem entfernten Hostrechner. Der Server wertet die Anfrage aus und sendet die gewünschten Daten. Um die Kommunikation zwischen Clients und Servern zu regeln, gibt es entsprechende Protokolle. Client-Server-Kommunikation im WWW etwa regelt das HTTP-Protokoll. Ein solches Protokoll läuft oberhalb des TCP/IP-Protokolls ab.

Dass ein Client Daten anfordert und ein Server die Daten sendet, ist der Normalfall. Es gibt jedoch auch "Ausnahmen". So kann ein Client nicht nur Daten anfordern, sondern auch Daten an einen Server schicken: zum Beispiel, wenn Sie per FTP eine Datei auf den Server-Rechner hochladen, wenn Sie eine E-Mail versenden oder im WWW ein Formular ausfüllen und abschicken. Bei diesen Fällen redet man auch von Client-Push ("Client drängt dem Server Daten auf").

Ein anderer Ausnahmefall ist es, wenn der Server zuerst aktiv wird und dem Client etwas ohne dessen Anforderung zuschickt. Das nennt man Server-Push ("Server drängt dem Client Daten auf"). Neue Technologien wollen diesen Ausnahmefall zu einer Regel erheben: die sogenannten Push-Technologien. Diese Technologien sollen ermöglichen, dass ein Client regelmässig Daten empfangen kann, ohne diese eigens anzufordern. Dadurch sind Broadcasting-Dienste wie aktuelle Nachrichten usw. realisierbar. Netscape und Microsoft Internet Explorer (beide ab Version 4.0) haben entsprechende Schnittstellen, um solche Dienste in Anspruch zu nehmen. DNS - Domain Name Service

Computer können mit Zahlen besser umgehen, Menschen in der Regel besser mit Namen. Deshalb hat man ein System ersonnen, das die numerischen IP-Adressen für die Endanwender in anschauliche Namensadressen übersetzt.

Dazu hat man ein System geschaffen, das ähnlich wie bei den IP-Adressen hierarchisch aufgebaut ist. Eine Namensadresse in diesem System gehört zu einer Top-Level-Domain und innerhalb dieser zu einer Sub-Level-Domain. Jede Sub-Level-Domain kann nochmals untergeordnete Domains enthalten, muss es aber nicht. Die einzelnen Teile solcher Namensadressen sind wie bei IP-Adressen durch Punkte voneinander getrennt. Eine solche Namensadresse ist beispielsweise itmanager.info.

Top-Level-Domains stehen in einem Domain-Namen an letzter Stelle. Es handelt sich um einigermassen sprechende Abkürzungen. Die Abkürzungen, die solche Top-Level-Domains bezeichnen, sind entweder Landeskennungen oder Typenkennungen. Beispiele sind: de = Deutschland at = Österreich ch = Schweiz

Page 94: ITKnowHow

it = Italien my = Malaysia com = Kommerziell orientierter Namensinhaber org = Organisation net = Allgemeines Netz edu = amerikanische Hochschulen gov = amerikanische Behörden mil = amerikanische Militäreinrichtungen

Jede dieser Top-Level-Domains stellt einen Verwaltungsbereich dar, für die es auch eine "Verwaltungsbehörde" gibt, die für die Namensvergabe von Sub-Level-Domains innerhalb ihres Verwaltungsbereichs zuständig ist. Wenn Sie beispielsweise einen Domain-Namen wie MeineFirma.de beantragen wollen, muss der Antrag an das DE-NIC (Deutsches Network Information Center) gestellt werden. Kommerzielle Provider erledigen das für Sie, wenn Sie dort einen entsprechenden Service in Anspruch nehmen. Ihren Wunschnamen erhalten Sie aber nur, wenn die Namensadresse noch nicht anderweitig vergeben wurde. Schlaufüchse sind daher auf die Idee gekommen, Namen grosser Firmen, die noch keine eigene Domain beantragt haben, für sich zu reservieren, um sie dann, wenn auch die grosse Firma die Zeichen der Zeit erkennt, teuer an diese weiterzuverkaufen. Mittlerweile sind solchen Machenschaften Riegel vorgeschoben. Dennoch kommt es immer wieder zu Rechtsstreitereien wegen attraktiven Domain-Namen. Wenn etwa zwei zufällig gleichnamige Firmen, die sonst nichts miteinander zu tun haben, den gleichen Domain-Namen reservieren lassen wollen, kann nur eine der Firmen den Zuschlag erhalten. Um Streitigkeiten dieser Art zu reduzieren, gibt es mittlerweile auch neue Top-Level-Endungen.

Inhaber von zweiteiligen Domain-Namen können nochmals Sub-Level-Domains vergeben. So gibt es beispielsweise eine Domain namens seite.net. Die Betreiber dieser Domain haben nochmals Sub-Domains vergeben, wodurch Domain-Adressen wie java.seite.net oder javascript.seite.net entstanden. Routing und Gateways

Im Internet als dem Netz der Netze ist es zunächst nur innerhalb des eigenen Sub-Netzes möglich, Daten direkt von einer IP-Adresse zu einer anderen zu schicken. In allen anderen Fällen, wenn die Daten an eine andere Netzwerknummer geschickt werden sollen, treten Rechner auf den Plan, die den Verkehr zwischen den Netzen regeln. Solche Rechner werden als Gateways bezeichnet. Diese Rechner leiten Daten von Hostrechnern aus dem eigenen Sub-Netz an Gateways in anderen Sub-Netzen weiter und ankommende Daten von Gateways anderer Sub-Netze an die darin adressierten Host-Rechner im eigenen Sub-Netz. Ohne Gateways gäbe es gar kein Internet.

Das Weiterleiten der Daten zwischen Sub-Netzen wird als Routing bezeichnet. Die Beschreibung der möglichen Routen vom eigenen Netzwerk zu anderen Netzwerken sind in Routing-Tabellen auf den Gateway-Rechnern festgehalten.

Zu den Aufgaben eines Gateways gehört auch, eine Alternativ-Route zu finden, wenn die übliche Route nicht funktioniert, etwa, weil bei der entsprechenden Leitung eine Störung oder ein Datenstau aufgetreten ist. Gateways senden sich ständig Testpakete

Page 95: ITKnowHow

zu, um das Funktionieren der Verbindung zu testen und für Datentransfers "verkehrsarme" Wege zu finden.

Wenn also im Internet ein Datentransfer stattfindet, ist keinesfalls von vorneherein klar, welchen Weg die Daten nehmen. Sogar einzelne Pakete einer einzigen Sendung können völlig unterschiedliche Wege nehmen. Wenn Sie beispielsweise von Deutschland aus eine WWW-Seite aufrufen, die auf einem Rechner in den USA liegt, kann es sein, dass die Hälfte der Seite über den Atlantik kommt und die andere über den Pazifik, bevor Ihr WWW-Browser sie anzeigen kann. Weder Sie noch Ihr Browser bekommen davon etwas mit. Selbstorganisation im Internet

In Anbetracht der Teilnehmerzahl im Internet ist der Verwaltungsaufwand im Netz vergleichsweise klein. Die meisten Endanwender wissen nicht einmal, dass es solche Verwaltungsstellen überhaupt gibt.

Eine gesetzgeberische Institution, wie es sie etwa innerhalb des Verfassungsbereichs eines Staates gibt, gibt es im Internet als weltweitem Verbund nicht. Viele Bereiche im Internet beruhen faktisch auf Selbstorganisation. Bei Diensten wie E-Mail gilt beispielsweise das stille Abkommen, dass jeder beteiligte Gateway alle Mails weiterleitet, auch wenn weder Sender noch Empfänger dem eigenen Sub-Netz angehören. Die Kosten trägt zwar der Netzbetreiber, aber da alle ein Interesse am weltweiten Funktionieren des Netzes haben, ist jeder bereit, die anfallenden Mehrkosten zu tragen.

Die Funktionsfähigkeit des Internet basiert also auf der Bereitschaft der Beteiligten, keine Pfennigfuchserei zu betreiben! Grosszügigkeit hat das Internet geschaffen, und Kleingeisterei ist der grösste Feind der Internet-Idee.

Das Usenet, also der grösste Teil der Newsgroups, organisiert sich sogar vollständig selbst, weshalb leidenschaftliche Anhänger dieses System gerne als real existierendes Beispiel für Herrschaftsfreiheit anführen. Die "Verwaltung" findet im Usenet in speziellen Newsgroups statt (solchen, die mit news. beginnen). Dort können beispielsweise Vorschläge für neue Gruppen eingebracht werden, und in Abstimmungen wird darüber entschieden, ob eine Gruppe eingerichtet oder abgeschafft wird.

Offizielle Anlaufstellen gibt es für die Vergabe von Netzwerkadressen und für Namensadressen (DNS). Für die Vergabe von IP-Adressen innerhalb eines Netzwerks ist der jeweilige Netzbetreiber verantwortlich. Dazu kommen Organisationen, die sich um Standards innerhalb des Internets kümmern.

Die Kosten für die Datenübertragungen im Internet tragen die Betreiber der Sub-Netze. Diese Kosten pflanzen sich nach unten fort zu Providern innerhalb der Sub-Netze bis hin zu Endanwendern, die über Provider Zugang zum Internet haben oder Internet-Services wie eigene WWW-Seiten nutzen.

Die folgende Liste enthält einige Verweise zu den wichtigsten internationalen und nationalen Organisationen im Internet: Hier der Link zu Organisationen !!! Vor allem jene Organisationen, die sich um die technische Weiterentwicklung im Internet kümmern, werden zunehmend von grossen Software-Firmen wie Microsoft,

Page 96: ITKnowHow

Netscape oder Sun bestürmt, da diese Firmen ein Interesse daran haben, ihren Software-Produkten und hauseigenen Standards bei Server-Technologien, Programmiersprachen usw. zum Status weltweiter Internet-Standards zu verhelfen. Ob und wie weit es gelingt, im Internet angesichts des entstehenden Milliardenmarkts neue, firmenunabhängige Standards durchzusetzen, die so erfolgreich werden wie HTML oder HTTP, muss die Zukunft zeigen

Page 97: ITKnowHow

Suchmaschinen

Typischerweise kann man eine Suchmaschine in mehrere Komponenten und Datenstrukturen aufteilen: Der URL Server, ein oder mehrere Crawler, der Parser und der Store Server bilden die Webcrawler-Komponente der Suchmaschine. Diese durchläuft das Internet, indiziert alle gefundenen Seiten und bereitet diese in den Datenstrukturen Lexicon, Hit Lists und Repository vor. In diesen Datenstrukturen kann der Benutzer dann mittels des Searchers seine Suchanfragen stellen.

Abbildung: Aufbau der Suchmaschine Google

Dieses Schema ist eine Idealisierung: In der Praxis haben Suchmaschinen oft noch zusätzliche Komponenten, welche ihre besonderen Features verwirklichen, oder haben aus technischen Gründen ihre Datenstrukturen anders organisiert. Im allgemeinen jedoch lässt sich eine Suchmaschine auf diese Kernkomponenten abbilden. URL Server

Der URL Server verwaltet die URLs, welche noch aus dem Internet geholt, indiziert und verarbeitet werden müssen. Er gibt diese weiter an die Crawler, sobald diese neue Kapazitäten frei haben.

Da man im allgemeinen Fall nicht davon ausgehen kann, das gesamte Internet indizieren zu können (ausser man möchte nur einen Teil erfassen, z.B. alle Seiten eines bestimmten Servers), ist es wichtig zu entscheiden, in welcher Reihenfolge die URLs abgearbeitet werden sollen. Diese Entscheidung wird im URL Server getroffen und wird später in dieser Arbeit genauer beschrieben.

Page 98: ITKnowHow

Unabhängig von der Reihenfolge besteht hierbei aber das Problem, dass nur Seiten erfasst werden können, auf die auch Links existieren. Isolierte Seiten oder Teilgraphen des WWW, auf die keine Kante führt, werden auf diesem Wege nicht gefunden. Aus diesem Grund bieten die meisten Suchmaschinen an, URLs manuell dem URL Server zu übergeben, z.B. durch die Möglichkeit der Anmeldung von Seiten. Crawler

Der Crawler ist die Komponente einer Suchmaschine, die dafür zuständig ist, eine gegeben URL aus dem Internet zu holen. Zuerst wandelt er mit Hilfe des Domain Name Service (DNS) die URL in eine IP-Adresse um. Dann versucht er, zu dem entsprechenden Server mittels HTTP eine Verbindung zu öffnen. War der Verbindungsaufbau erfolgreich, verlangt er vom Server über das GET-Kommando die entsprechende Seite und wartet dann auf dessen Erhalt. War die Übertragung erfolgreich, übergibt er die geholte Seite dem Parser.

Da bei dieser Prozedur lange Latenzzeiten entstehen, bearbeitet der Crawler immer mehrere URLs gleichzeitig. So kann beim Transfer einer Seite von einem Server zum Crawler schon die Verbindung zu einem weiteren Server aufgebaut oder der DNS befragt werden und so die Effizienz gesteigert werden. In der Tat ist es bei grossen Suchmaschinen, die einen möglichst umfassenden Index erzeugen wollen, sinnvoll, gleichzeitig mehrere Crawler auf verschiedenen Systemen laufen zu lassen. In wird berichtet, dass ein Crawler typischerweise 300 Verbindungen gleichzeitig offen hat und das Gesamtsystem in Spitzenzeiten mit 4 Crawlern etwa 100 Seiten pro Sekunde erfasst.

Problematisch bei dieser Komponente ist die enorme Netzlast, welche besonders beim Crawlersystem und bei den Zielservern entsteht. Während das Crawlersystem naturgemäss mit hohen Bandbreiten ausgestattet ist, kann des Durchlaufen komplexer Seitenstrukturen auf einem Server diesen durchaus für einige Zeit lahmlegen. Auch ist mit Reaktionen der betroffenen Betreiber zu rechnen, die nicht immer wissen, was ein Crawler ist. In wird beschrieben, wie täglich dutzende Emails und Telefonanrufe eingingen, die ihre Freude über das anscheinende Interesse an ihren Seiten ausdrücken wollten oder verhindern wollten, dass bestimmte Seiten ihres Servers indiziert werden. Für letzteres Problem existiert das Robots Exclusion Protocol, welches aber nicht allen Betreibern bekannt ist.

Und schliesslich muss sich der Designer eines Crawlers mit dem Umgang mit temporären Problemen beschäftigen. So kann der Versuch, eine bestimmte URL zu holen, zu einer bestimmten Zeit fehlschlagen, da Teile des Netzes überlastet sind. Hier muss sich der Crawler entscheiden, ob der die URL zurückstellt und es zu einem späteren Zeitpunkt noch einmal versucht und wenn ja, wie oft er dies macht. Parser

Nachdem eine Seite aus dem Internet geholt wurde, muss sie vom Parser zur Analyse vorbereitet werden. Alle WWW-Seiten sind in der Hypertext Markup Language (HTML) geschrieben und der Parser erstellt nun aus jeder Seite einen Ableitungsbaum. Diesen übergibt er dann dem Repository zur Verarbeitung.

Page 99: ITKnowHow

Der Parser kann sehr komplex werden, da im Internet eine Vielzahl von HTML-Versionen existieren zusammen mit mehreren Dialekten (so haben Netscape und Microsoft eigene, nicht dem Standard entsprechende Schlüsselwörter der Sprache hinzugefügt und durch ihre Browser populär gemacht), welche alle korrekt interpretiert werden müssen. Hinzu kommt, dass eine erstaunlich grosse Zahl von Seiten Fehler enthalten. So finden sich Tippfehler in HTML-Schlüsselwörtern oder es werden geöffnete Blöcke nicht geschlossen. All dies fällt im Browser nicht auf, da diese WWW-Seiten so gut darstellen wie sie können und alles nicht erkannte einfach weglassen. Dem Designer eines Parsers fällt also die Aufgabe zu, diesen möglichst fehlertolerant zu gestalten. Store Server

Die Aufgabe des Store Servers ist es, aus den vom Parser erhaltenen Ableitungsbäumen die für die Suchmaschine wichtigen Informationen zu extrahieren.

Zum einen sind dies Links auf andere Seiten, die dem URL Server übergeben werden. An dieser Stelle ist es möglich eine Auswahl zu treffen, welche URLs überhaupt geholt werden sollen. Soll beispielsweise eine lokale Suchmaschine für alle Seiten von IT-Intelligence erstellt werden, so kann ein Filter eingebaut werden, der nur URLs an den URL Server übergibt, welche mit "../../" anfangen. Dadurch werden alle Links, welche auf Seiten anderer Server führen, übergangen.

Bei der Auswahl der URLs muss besonderen Wert darauf gelegt werden, dass keine dynamisch generierten Seiten angefordert werden. Es wäre fatal für die Suchmaschine, wenn sie sich in der Anfragemaske einer anderen Suchmaschine oder in dynamisch generierten Seiten eines Online-Spiels verfangen würde. Dies kann oft daran erkannt werden, dass die URL Elemente des Common Gateway Interface (CGI) enthält.

Im Text der geholten WWW-Seite wird dann nach neuen Wörtern gesucht und bei Bedarf das Lexicon erweitert. Zu jedem Wort der Seite wird in den Hit Lists vermerkt, wie oft es in dieser Seite vorkommt, und schliesslich wird ein Teil der Seite im Repository abgespeichert. Lexicon

Im Lexicon sind alle Wörter gespeichert, die im Netz angetroffen wurden und nach denen der Benutzer suchen kann, ausgenommen die Wörter, die einem Satz keinen Inhalt beisteuern (Artikel, und, oder usw.). Jedes Wort enthält einen Zeiger auf die entsprechende Hit List.

Da auf diese Datenstruktur beim Suchen sehr oft zugegriffen werden muss, ist ein Designziel, eine möglichst effiziente Datenstruktur zu verwenden, die möglichst komplett in den Hauptspeicher passt. Für schnellen Zugriff bietet sich eine Hashtabelle an, und die Betreiber der Suchmaschine Google berichten, dass ihr Lexicon etwa 14 Millionen Wörter umfasst und in den Speicher eines Rechners mit 256MB Uauptspeicher passt.

Page 100: ITKnowHow

Hit Lists

Die Hit Lists enthalten zu jedem Wort des Lexicons eine Menge von Zeigern auf die Seiten im Repository, in denen es vorkommt. So kann bei einer Suchanfrage zu einer gegebenen Menge von Suchwörtern schnell die entsprechende Ergebnismenge an URLs berechnet werden.

Hier können auch noch andere Informationen abgespeichert werden, z.B. wie oft das Wort im entsprechenden Dokument vorkommt, ob es in einer Überschrift oder im Titel steht, in welcher Schriftart es gesetzt ist usw. Dies kann bei der Berechnung der Relevanz helfen, ohne zeitaufwendig auf die gespeicherten Daten im Repository zurückgreifen zu müssen (wenn diese Daten überhaupt dort gespeichert wurden). Repository

Im Repository werden die Informationen aller indizierten Seiten gespeichert, welche zur Ausgabe der Ergebnisse oder, wenn die Informationen in den Hit Lists nicht ausreichen, zur Suche benötigt werden. Manche Suchmaschinen speichern nur den Titel, andere die ersten 20 Zeilen und mittlerweile geht man immer mehr dazu über, die gesamte Seite zu speichern.

Werden grosse Teile der Seiten gespeichert (im Extremfall Volltext), ist es nötig die Daten zu komprimieren. Eine wichtige Designentscheidung dabei ist die Abwägung zwischen Qualität und Geschwindigkeit der Kompression. In den seltensten Fällen kann die beste Kompression gewählt werden, da dies für die Mange an anfallenden Daten einfach zu langsam wäre und auch das Suchen zu lange dauerte. Searcher

Der Searcher ist der Teil der Suchmaschine, den der Anwender zu Gesicht bekommt. Er ist ein Webserver, welcher das Frontend für die Datenbank darstellt und bietet auf der Startseite die Anfragemaske. Die Suchanfragen werden meist über CGI an den Searcher übermittelt, selten auch mittels Java.

Hat der Searcher die Suchanfrage erhalten, erstellt er mit Hilfe des Lexicons und der Hit Lists die Ergebnismenge, welche mit Hilfe eines Ranking-Algorithmus sortiert wird. Dabei bekommen im einfachsten Fall die Seiten das höchste Ranking, welche die meisten Suchwörter am häufigsten enthalten; Verbesserungen für Ranking-Algorithmen, werden später in dieser Arbeit vorgestellt.

Die Links auf die als relevant eingestuften Seiten werden zur besseren Übersicht des Anwenders dann mit Informationen aus dem Repository angereichert.

Page 101: ITKnowHow

W3C Standards HTML - Hypertext Markup Language

Das Internet-Protokoll HTTP (Hypertext Transfer Protocol), das oberhalb des TCP/IP-Protokolls (der "Socket-Verbindung") aufsetzt, und die einheitliche, hypertextfähige Dokumentauszeichnungssprache HTML (Hypertext Markup Language) sind die beiden Säulen des Internets. Weder das HTTP-Protokoll noch die HTML-Sprache sind bis heute sonderlich ausgereift. Das HTTP-Protokoll hat Sicherheitslücken und unterstützt im Gegensatz etwa zum Xanadu-System keine Möglichkeit eines Tantiemensystems für Informationsbereitsteller. HTML verdankt seine Weiterentwicklungen, aber auch seine Probleme bei der Festsetzung eines verbindlichen Standards dem Machtkampf zwischen den führenden Browser-Anbietern Microsoft und Netscape - und dem geringen Leistungsumfang, den die Initiatoren des W3-Konsortiums der Sprache zunächst mit auf den Weg gegeben haben.

Text zu Text Verbindung als schematische Darstellung, Theodor Holm Nelson, 1965

Page 102: ITKnowHow

Modell von verlinkten Textfenstern, Xanadu Projekt, 1972

Hypertext im Internet ist strikt nach Authoring und Browsing getrennt. Die Abschirmung erfolgt durch das Client-Server-Modell des Internet. Anbieter von HTML-Dateien können die Dateien auf Internet-Server-Rechnern ablegen, die das HTTP-Protokoll unterstützen. Der Anwender benötigt neben der Software für die Internet-Verbindung einen Browser, um im Internet zur Verfügung stehende HTML-Seiten aufzurufen. HTML-Dateien oder HTML-generierende Programme, die auf Server-Rechnern abgelegt sind, können dort von keinem Anwender geändert werden. Jedoch kann der Anwender übertragene Dateien auf seinem Client-Rechner ablegen, manipulieren und an anderer Stelle wieder ins Internet hochladen. Dies ist vielen Anbietern ein Dorn im Auge, hat aber mit dazu beigetragen, dass sich HTML so stark verbreiten konnte und so vielen Menschen zugänglich wurde.

Das Internet ist kein Hypertext, sondern eine weltweite und öffentliche Plattform für Hypertext-Projekte mit der Möglichkeit, auch direkt aufeinander zu verweisen. In welchem Umfang das Internet in Zukunft jedoch echten Hypertext bieten wird, hängt stark davon ab, wie weit sich das Bewusstsein von Informationsanbietern entwickelt, dass sie sich in einem Netz befinden und nicht in einer wahllosen Internet-Adressenlandschaft.

Weitere Informationen:

• HTML 4.01, W3C, 24.12.1999

• HTML-Dateien selbst erstellen (Selfhtml)

• Das XANADU-Projekt

Page 103: ITKnowHow

XHTML - XML-based Hypertext Markup Language

XHTML ist eine Erweiterung von HTML 4.01. Gemäss W3C wird in Zukunft nur noch XHTML weiterentwickelt - HTML nicht mehr. Dokumenttypen von XHTML sind XML basierend und letztlich bestimmt, um in Verbindung mit XML-basierenden Benutzeragenten zu arbeiten. Ein XHTML-Dokument muss wohlgeformt und gültig sein, sprich eine saubere Struktur haben. Das erleichtert dem Browser das Parsen und Darstellen der Seite und erleichert auch die Übertragung auf andere Geräte (Handys, PDA usw.).

XHTML 1.0 ist der erste Dokumenttyp der XHTML Familie. Es ist eine Reformulierung der drei HTML Dokumenttypen als Anwendungen von XML. Es ist beabsichtigt, dass er als Sprache für Inhalte verwendet wird, die sowohl XML-konform sind und, wenn einige einfache Richtlinien befolgt werden, in HTML konformen Benutzeragenten funktionieren. Entwickler, die die Inhalte ihrer Seiten auf XHTML 1.0 umstellen, werden die folgenden Vorteile feststellen:

• XHTML Dokumente sind XML konform. Als solche können sie ohne weiteres mit Standard-XML-Werkzeugen betrachtet, bearbeitet und validiert werden.

• XHTML Dokumente können so geschrieben werden, dass sie genauso gut oder besser in bestehenden HTML 4 Benutzeragenten funktionieren wie in neuen, XHTML 1.0 konformen Benutzeragenten.

• XHTML Dokumente können Anwendungen nutzen (z.B. Skripte oder Applets) die entweder vom HTML Dokumentobjektmodell oder vom XML Dokumentobjektmodell (DOM) abhängig sind.

• Sowie sich die XHTML Familie weiterentwickelt, werden XHTML 1.0 konforme Dokumente eher zusammen mit und innerhalb verschiedener XHTML Umgebungen arbeiten können.

Die XHTML Familie ist der nächste Schritt in der Weiterentwicklung des Internets. Indem Inhaltsentwickler heute auf XHTML umsteigen, können sie in die XML-Welt mit allen dazugehörigen Vorteilen einsteigen, während sie sich auf die Abwärts- wie auch die zukünftige Kompatibilität ihrer Inhalte verlassen können.

Weitere Informationen:

• XHTML 1.0, W3C, 26.01.2000

• XHTML 1.0 in Deutsch

CSS Cascading Style Sheets

Style-Sheets sind eine unmittelbare Ergänzung zu HTML. Es handelt sich dabei um eine Sprache zur Definition von Formateigenschaften einzelner HTML-Befehle. Mit Hilfe von Style-Sheets können Sie beispielsweise bestimmen, dass Überschriften 1. Ordnung eine Schriftgrösse von 18 Punkt haben, in der Schriftart Helvetica, aber nicht fett

Page 104: ITKnowHow

erscheinen, und mit einem Abstand von 1,75 Zentimeter zum darauffolgenden Absatz versehen werden. Angaben dieser Art sind mit herkömmlichem HTML nicht möglich.

Das ist aber nur der Anfang. Style-Sheets bieten noch viel mehr Möglichkeiten. So können Sie beliebige Bereiche einer HTML-Datei mit einer eigenen Hintergrundfarbe, einem eigenen Hintergrundbild (Wallpaper) oder mit diversen Rahmen versehen. Sie können beliebige Elemente, sei es eine Grafik, ein Textabsatz, eine Tabelle oder ein Bereich aus mehreren solcher Elemente, pixelgenau im Anzeigefenster des WWW-Browsers positionieren. Für Drucklayouts stehen Befehle zur Definition eines Seitenlayouts bereit. Für die akustische Wiedergabe von HTML-Dateien gibt es ein ganzes Arsenal an Befehlen, um künstliche Sprachausgabesysteme feinzusteuern. Spezielle Filter schliesslich, die derzeit allerdings noch rein Microsoft-spezifisch sind, erlauben Grafik-Effekte bei normalen Texten, die aus Grafikprogrammen wie PhotoShop bekannt sind.

Ein weiteres wichtiges Leistungsmerkmal von Style-Sheets ist es, dass Sie Definitionen zentral angeben können. So können Sie beispielsweise im Kopf einer HTML-Datei zentrale Definitionen zum Aussehen einer Tabellenzelle notieren. Alle Tabellenzellen der entsprechenden HTML-Datei erhalten dann die Formateigenschaften, die einmal zentral definiert sind. Das spart Kodierarbeit und macht die HTML-Dateien kleiner. Sie können Ihre Style-Sheet-Definitionen sogar in separaten Dateien notieren. Solche Style-Sheet-Dateien können Sie in beliebig vielen HTML-Dateien referenzieren. Auf diese Weise können Sie für grosse Projekte einheitliche Layouts entwerfen. Mit ein paar kleinen Änderungen in einer zentralen Style-Sheet-Datei können Sie dann für hunderte von HTML-Dateien ein anderes Layout bewirken.

Style-Sheets unterstützen also erstens die professionelle Gestaltung beim Web-Design, und zweitens helfen sie beim Corporate Design für grosse Projekte oder für firmenspezifsche Layouts.

Weitere Informationen:

• CSS Übersicht, W3C

• CSS 2.0, W3C, 12.05.1998

• Introduction to CSS, Dave Ragett

• Einführung in CSS (Deutsch), Bernhard Friedrich SGML - Standard Generalized Markup Language

Ungefähr in den 60er-Jahren, als die durch den Computer unterstützte Textverarbeitung noch in den Kinderschuhen steckte, kam zum ersten mal der Gedanke auf, die Formatierung eines Textes von ihrem Inhalt zu trennen. In dieser Zeit unterstützte die Graphic Communications Association of America diesen Gedanken, indem Seminare und Arbeitstagungen zu diesem Thema ins Leben gerufen wurden. Auf diese Initiative ist das Konzept von GenCode zurückzuführen. Hierbei handelt es sich um ein allgemeines Codier-Schema für die grafikverarbeitende Industrie.

1969 entwickelten Charles Goldfarb, Edward Musher und Raymond Lorie für IBM GML (Generalized Markup Language - vielleicht kam ja GML auch von den Anfangsbuchstaben ihrer Nachnamen?). In den 70er-Jahren ging die

Page 105: ITKnowHow

Internationalisierung und die Standardisierung vornehmlich von den Vereinigten Staaten aus. SGML wurde eine Sprache, mit der man jedes Dokument in jeder Sprache darstellen konnte.

In den 80er-Jahren entstand mit Desktop-Publishing die Möglichkeit, das Aussehen eines Dokuments grundlegend zu manipulieren. Diese Desktop-Publishing Werkzeuge haben sich in den letzten Jahren in ihrer Leistungsfähigkeit sehr stark weiterentwickelt. Allerdings trat damit auch die Schwierigkeit der Standards auf. Die Möglichkeit der Weiterverarbeitung älterer Dokumente war auf nicht viel mehr als die Lebensdauer der Formatierungs-Codierung oder auch der Rechnergattung beschränkt. Immer mehr wuchs der Wunsch, den Dokumentenaustausch zwischen Rechnern zu normen, die Formatierung rechnerunabhängig zu machen, so dass ein aktuelles Dokumentenarchiv auch noch in zehn Jahren seine Gültigkeit hat.

Genormt wurde SGML erst 1986 unter einem Open System Interchange (OSI) Standard von der International Standards Organisation (ISO) unter der Referenznummer ISO 8879:1986 und von der International Electrotechnical Commission (IEC).

Der ISO Standard definiert SGML als eine Sprache für Dokumentenrepräsentation, welche Markup formalisiert und von System- und Verarbeitungsabhängigkeiten löst. SGML erlaubt den Austausch von grossen und komplexen Datenmengen und vereinfacht den Zugriff auf sie. Zusätzlich zu den Möglichkeiten des deskriptiven Markups benutzen SGML-Systeme ein Dokumentenmodell, welches die Überprüfung der Gültigkeit eines Textelements in einem bestimmten Kontext erlaubt. Weiterhin enthält SGML Techniken, welche den Benutzer folgende Dinge erlauben:

• Zusammenbindung von Dateien, zur Erstellung eines zusammenhängenden Dokuments,

• Einbindung von Illustrationen und Tabellen in Textdateien,

• Erzeugen von mehreren Versionen eines Dokuments in einer einzigen Datei,

• Hinzufügen von Kommentaren in die Datei,

• Kreuzreferenzen und weitere.

Bei SGML handelt es sich nicht um eine vordefinierte Menge von Tags zum Markieren von Textpassagen, wie das vielleicht bei zu sehen ist. ist ein Satzsystem, bei dem das Aussehen des Dokumentes im ausgedruckten Zustand im Vordergrund steht. Dazu benutzt u.a. bestimmte Zeichen (geschweifte Klammern...), welche natürlich unterschiedlich interpretiert werden können, wenn das Dokument von dem einen auf den anderen Rechner übertragen wird. SGML löst sich von diesen Sonderzeichen-Abhängigkeiten. Ausserdem beschreibt SGML nicht das Aussehen des Textes, sondern erlaubt die Beschreibung seiner strukturellen Komposition.

Weitere Informationen:

• SGML Geschichte, Charles F. Goldfarb

• Einführung in SGML, Oliver Corff

Page 106: ITKnowHow

XML - Extensible Markup Language

Der Begriff Extensible Markup Language (XML) beschreibt die neueste Entwicklung des W3C's. Unter XML versteht man eine Metasprache wie SGML. Man kann also mit XML eigene Dokumenttypen definieren.. Im Jahre 1996 wurde ein erster Vorschlag zu dieser neuen Sprache vorgestellt und 1998 wurde dann der erste Standard für XML vom W3C erstellt (XML 1.0 - Specification). XML kann auch als Kompromiss zwischen der Komplexität von SGML und der begrenzten Gestaltungsmöglichkeiten von HTML bezeichnet werden.

In dem Begriff "Extensible" wird schon angedeutet worum es bei dieser Sprache hauptsächlich gehen soll: Erweiterbarkeit. Die Grenze von HTML besteht darin, dass nicht beliebige viele Elemente verwendet werden dürfen. In HTML beschränken sich die zu verwendenden Elemente auf genau die Anzahl von Elementen, die in der DTD für HTML definiert worden sind, d.h. schon von vornherein vorgesehen wurden. Mit XML wird dem Anwender jetzt die Möglichkeit eingeräumt sich neben der Beschreibung eigener Dokumente auch seine eigenen Elemente zu definieren.

Das W3C verfolgte mit der Entwicklung von XML vor allem folgende Zielsetzungen, welche sie in der Syntaxbeschreibung von XML benannt haben:

• XML sollte im Internet einfach nutzbar sein.

• XML sollte ein breites Spektrum von Anwendungen unterstützen.

• XML sollte zu SGML kompatibel sein.

• Es sollte einfach sein Programme zu schreiben, welche XML - Dokumente verarbeiten.

• Die Anzahl optionaler Merkmale in XML sollte minimal, im Idealfall 0 betragen.

• Jedes XML - Dokument sollte für den Menschen lesbar und angemessen verständlich sein.

• Der XML - Entwurf sollte zügig abgefasst werden.

• Der Entwurf von XML sollte formal und präzise sein.

• XML - Dokumente sollten leicht erstellbar sein.

• Die Knappheit von XML - Markup sollte jedoch von minimaler Bedeutung sein.

Ein weiterer Vorteil von XML ist, dass die Dokumente Meta-Daten enthalten. Meta-Daten geben dem Browser Informationen über die Art des Textes, den sie enthalten. Dem Browser wird damit ermöglicht das Dokument gezielt nach Personen abzusuchen oder beispielsweise auch nach einer Altersangabe. Diese Daten sind jedoch nur dann nutzbar, wenn Inhalt und Form getrennt gespeichert werden. Über diesen Vorteil verfügte schon SGML. Leider hat er sich für HTML nicht halten können, da dort Inhalt und Format inzwischen stark vermengt sind, durch die zusätzlichen Gestaltungsmöglichkeiten, die in HTML Eingang gefunden haben.

Auch die Unabhängigkeit vom Ausgabemedium ist wie schon in SGML jetzt auch wieder in XML vertreten. Ein Dokument kann auf Papier, auf dem Bildschirm dargestellt werden oder man kann es sich vorlesen lassen. Das W3C hat für die lautliche

Page 107: ITKnowHow

Darstellung von Dokumenten als Teilmenge der Cascading Style Sheets die Aural Style Sheets entwickelt. Mit Hilfe dieses Werkzeugs können dann Eigenschaften wie Lautstärke, Sprechpausen und Sprechgeschwindigkeit festgelegt werden.

Weitere Informationen:

• XML Übersicht, W3C

• XML 1.0 (Zweite Ausgabe), W3C, 06.10.2000

• XML 1.0, Deutsch, Übersetzung: Henning Behme und Stefan Mintert

• Einführung in XML, Manuela Abu Musameh SMIL - Synchronized Multimedia Integration Language

SMIL ist eine Sprache zur Integration unabhängiger Multimediaobjekte in eine zeitabhängige Multimediapräsentation. SMIL wird vor allem zur Erstellung von Multimediapräsentation verwendet, die mit Hilfe der Streamingtechnologie über das Internet "gesendet" werden.

SMIL ist HTML sehr ähnlich. Mit HTML ist es möglich, das Layout einer HTML-Seite exakt zu gestalten, Objekte unterschiedlicher Formate zu integrieren, und sowohl statische als auch dynamische Präsentationen zu erzeugen. Auch SMIL bietet diese Funktionalität, allerdings bezogen auf jede Art von Multimediaobjekt. Im Vergleich zu HTML bietet SMIL die Möglichkeit, Audio- und Videoobjekte zu integrieren, sowie die zeitliche Präsentation von Objekten genau zu steuern.

Ein HTML-Dokument wird vom Web-Server mit dem Hypertexttransferprotokoll (http) zum Client übertragen. Das übertragene HTML-Dokument wird dabei schrittweise auf dem Bildschirm sichtbar, ohne dass der zeitliche Ablauf der Übertragung oder der Präsentation der einzelnen Objekte kontrolliert werden kann. Dies ist bei traditionellen HTML-Seiten, die aus Texten und Bildern bestehen, auch gar nicht erforderlich. Texte und Bilder einer HTML-Seite erscheinen nach ihrer vollständigen Übertragung auf dem Bildschirm. Ihre Präsentation ist an keinen festen zeitlichen Ablauf gebunden.

Dies ist bei multimedialen Präsentationen anders. Text, Ton und statische oder laufende Bilder werden in einer vorher genau definierten zeitlichen Folge präsentiert. Bei einem Film ist es ist wichtig, dass der Ton zusammen mit dem entsprechenden Bild wahrgenommen werden kann, usw.. Um dies zu erreichen, müssen Multimediaobjekte kontinuierlich und nach einem klar definierten zeitlichen Schema übertragen werden. Die genaue zeitliche Steuerung und Kontrolle der Übertragung ist für eine Multimediapräsentation also eine entscheidende Determinante. Um dieses Problem zu lösen, wurde SMIL entwickelt. Über die zeitliche Steuerung und Konrtolle der Übetragung und des Ablaufs eine Multimediapräsentation hinaus, kann SMIL auch zur Kontrolle des Layouts der Präsentation verwendet werden. Vereinfacht ausgedrückt: SMIL dient der Positionierung, Synchronisation und Präsentation von Multimediaobjekten.

SMIL-Präsentationen können auf einer CD oder Platte eines PCs abgelegt sein und bei Bedarf abgerufen werden. Die Nutzung von SMIL ist also nicht an das Internet gebunden. Die Stärke von SMIL liegt aber eindeutig bei Multimediapräsentationen im Internet. Mit SMIL kann definiert werden, wann, wie, was, von wo und wohin übertragen

Page 108: ITKnowHow

wird. Im Zusammenspiel mit einem RealServer kann das Realtimestandardprotokoll (rtsp) benutzen werden. Dies bedeutet, dass das SMIL-Dokument sequentiell abgearbeitet und die dazugehörenden Multimediaobjekte kontinuierlich übertragen werden. Der Player, der die übertragenen Informationen auf dem Bildschirm sichtbar macht, regelt zudem den Übertragungsvorgang. Dies hat den entscheidenden Vorteil, dass eine Präsentation parallel zum Ladevorgang kontinuierlich betrachtet werden kann. Der RealServer erzeugt nach dem Realtimestreamingprotokoll einen kontinuierlichen Datenstrom, der von dem Realplayer auf der Nutzerseite kontinuierlich sichtbar und/oder hörbar gemacht wird.

Wie bereits betont, ist SMIL eng mit der Streamingtechnologie verbunden. Bevor SMIL entwickelt wurde, diente die Streamingtechnologie lediglich zur kontinuierlichen Übertragung von Audio- und Videoclips. Internet-Radiosender und später Internet-Fernsehsender bedienten sich dieser Technologie, um ihre Programme in Teilen oder vollständig über das Internet weltweit zu übertragen. Als nächstes nutzten Webmaster die Möglichkeit, Audio- und Videoinformationen als Teil ihrer Webpräsentation anzubieten. Mit SMIL wurde ein neues Kapitel in der Geschichte der Streamingtechnologie aufgeschlagen. Während früher ein Audio- oder Videoclip nach dem anderen abgespielt wurde, wurde es mit SMIL möglich, die Streamingtechnologie für eine integrierte Multimediapräsentation über das Internet zu nutzen. Clips können in HTML-Seiten integriert werden. Und nicht nur Audio- und Videoinformationen sondern auch Texte und Bilder lassen sich mit SMIL zu einer einheitlichen Präsentation zusammenfassen. Durch die Verwendung von Links, kann der Nutzer selbst bestimmen, was er wann sehen möchte. Damit ist der Weg offen, die interaktiven Möglichkeiten des World Wide Web und die des Internet-Rundfunks zu verbinden. Mit SMIL wird interaktiver Rundfunk möglich.

Doch nicht nur die Interaktivität macht die Nutzung von SMIL so interessant für Rundfunkanbieter. Mit SMIL kann ein Programmangebot entwickelt werden, das der Nutzer nach seinen Wünschen abrufen und gestalten kann. Kurz gesagt: Mit SMIL kann jeder sein eigener Programmdirektor werden.

SMIL ist nicht die einzige Technologie, mit deren Hilfe Multimediapräsentationen erstellt werden können. SMIL besitzt allerdings gegenüber anderen Multimediatechniken erhebliche Vorteile:

• Die Streamingtechnologie kann viele unterschiedliche Datei-Formate übertragen; mit SMIL können die unterschiedlichen Formate zu einer einheitlichen Präsentation zusammengefasst werden.

• Die in einer Präsentation benutzten Multimediaobjekte müssen physikalisch nicht auf einem einzigen Server liegen; mit SMIL können Multimediaobjekte, die auf räumlich verteilten Servern abgelegt sind, zu einer einheitlichen Präsentation zusammengefasst werden.

• SMIL unterstützt Multilingualität; um beispielsweise ein Video in unterschiedlichen Sprachversionen übertragen zu können, produziert man eine Videodatei ohne Tonspur; nachträglich erstellt man Audiodateien mit den unterschiedlichen Sprachversionen; in einem SMIL-Dokument werden Video- und Audiodateien so miteinander verbunden, dass ein Nutzer automatisch die gewünschte Sprachversion des Videos erhält.

Page 109: ITKnowHow

• SMIL unterstützt unterschiedliche Bandbreiten; auf diese Weise ist es möglich, die Übertragung ein- und derselben Version einer Multimediapräsentation an die Bandbreite des Nutzers anzupassen.

• SMIL-Präsentationen können so gestaltet werden, dass sie sich automatisch an die Gegebenheiten des Browsers oder Players des Nutzers anpassen.

• SMIL bietet eine einfache Möglichkeit die Präsentationsdauer jedes einzelnen Multimediaobjekts zu kontrollieren.

• SMIL bietet viele Möglichkeiten das Layout einer Multimediapräsentation zu gestalten.

Weitere Informationen:

• Synchronized Multimedia Übersicht, W3C

• SMIL 2.0, W3C, 07.08.2001

• Technische Einführung in SMIL, Dirk Wüstenhagen

• SMIL Grundlagen, Wolfgang von Keitz

Page 110: ITKnowHow

Webserver

Nützliche Links:

• Apache und MySQL unter Windows aufsetzen

• Webserver Statistiken

• Allgemeine Info zum Webserver

Page 111: ITKnowHow

Projekt-management

o Analyse und Design o Datenmodellierung o Evaluation_Pflichtenheft o Informationssystem o Konzepte o Problemlösung o Relationales Datenbankmodell ERD o System Engineering • Hilfsmittel Methoden

! Brainstorming ! Brainwriting oder Methode 635 ! Delphi ! Die morphologische Methode ! Inverses Brainstorming ! Synektik

Page 112: ITKnowHow

Analyse und Design

Analyse bedeutet die systematische Untersuchung eines Systems hinsichtlich aller Komponenten und der Beziehungen zwischen diesen Komponenten. Dabei stehen Fragen im Vordergrund wie: Was ist die Aufgabe des Systems? Welches sind seine Hauptfunktionen? Was gehört alles dazu? Was nicht mehr? Wie funktioniert es heute? Wie muss es in Zukunft angelegt sein? Welchen Anforderungen muss es genügen? usw.

Unter Design verstehen wir im allgemeinen einen zeichnerischen oder plastischen Entwurf, angefangen bei einer Skizze bis hin zu einem kompletten Konzept oder Modell. Das Design für ein Informationssystem beinhaltet, unter anderem, das Festlegen der Verarbeitungsformen (z.B. Online), die Gestaltung der Mensch-Computer-Schnittstelle (Bildschirmmasken, Listen-Layouts, Dialogabläufe) und das Bestimmen der benötigten Transaktionen. Prinzipien

• Top-Down-Prinzip

o schrittweise Einengung des Betrachtungsfeldes

o fortschreitende Detaillierung

o vom Abstrakten zum Konkreten

• Bottom-Up-Prinzip

o Systemteile in ein übergeordnetes System integrieren

o fortlaufend Abstraktionsstufen definieren (Zusammenfassung, Gruppierung)

• Prinzip der minimalen Modelle

o 80 : 20-Regel

o nach einfachen Lösungen suchen, komplex wird es von alleine

• Prinzip der Strukturierung

o die Darstellung von Funktionen und deren Beschreibungen sollen nach den Regeln der Strukturierung erfolgen

• Prinzip der Verständlichkeit

o mit Grafiken Modelle, Systeme darstellen

o den der Stufe des Entwicklungsprozesses und der Branche oder Firma angepassten Wortschatz verwenden

o das Konzept, die Modelle müssen konsistent und jederzeit überprüfbar sein

Page 113: ITKnowHow

o Vollständigkeit und doch Redundanzfreiheit

o projektphasengerechter Detaillierungsgrad

o verständliche Grafiken (kein Chaos, kein Spinnennetz)

• Prinzip der Informations-Kapselung

o Kenntnis nur, wenn nötig (Verwendung über Schnittstellen)

o minimale Abhängigkeiten (min. Kopplung)

o maximale Zusammengehörigkeit (max. Kohäsion)

• Prinzip der Neutralität

o striktes Trennen von Was und Wie (nicht sofort an Bit und Byte bzw. eine spezielle Implementierung denken, sondern das Essentielle finden und entwerfen)

o bis zum Physischen Design sollen die Entwürfe und Modelle betriebsorganisatorisch und implementierungstechnisch möglichst neutral sein

• Prinzip der Anwendung mehrerer Sichten Aufgrund der hohen Komplexität der heutigen Systeme genügt es nicht mehr, ein System nur aus der Daten-orientierten Sicht zu analysieren und modellieren. So ist das System immer wieder aus der Sicht von

o Daten

o Funktionen und

o Zeit (Ereignisse)

in dieser Reihenfolge zu betrachten. Dadurch werden laufend Lücken und Inkonsistenzen aufgezeigt und bereinigt.

Das Meta-Modell

Das Meta-Modell dient der Konstruktionslehre. Es soll aufzeigen, welche Komponenten für die Analyse und das Design relevant sind und wie diese zueinander in Beziehung stehen. Dadurch wird, unter anderem, die Qualität des Entwurfes erhöht (Vollständigkeit, Konsistenz) und die Kommunikation zwischen Beteiligten vereinfacht.

Das Meta-Modell für die Analyse wird für die Beschreibung des Geschäftssystems aus Aufgaben, Gegenständen und Abläufen verwendet. Das Meta-Modell für das Design leitet aus dem Ergebnis der Analyse, dem Geschäftssystem, eine technische Lösung ab, die das Geschäftssystem unterstützen soll. Eine solche technische Lösung besteht aus den Komponenten logische Transaktion (in sich abgeschlossene Verarbeitunseinheit), Menu (GUI) und Applikation.

Page 114: ITKnowHow

Datenmodellierung

Die Vorgehensweise bei der Datenmodellierung ist vergleichbar mit dem Verfassen eines Aufsatzes. Man erarbeitet zunächst ein Konzept und überträgt dieses dann in "Reinschrift". So wird bei der Datenmodellierung zunächst der für das Unternehmen relevante Realitätsausschnitt abstrahiert dargestellt und zwar unabhängig von den Anwendungsprogrammen oder Datenbanksystemen. Gegenstand des Konzepts sind die Objekte mit ihren Eigenschaften und die Beziehungen zwischen den Objekten.

Wichtig sind dabei die grundlegenden Beziehungen zwischen den Objekten der Realität und die Stellung bzw. Bedeutung des einzelnen Objektes innerhalb der Gesamtheit aller Objekte. Die Realität wird simplifiziert, idealisiert, formalisiert und dadurch systematisiert. Um die Semantik in leicht verständlicher Weise darzustellen, bedient man sich grafischer Hilfsmittel wie z. B. des Entity-Relation-Modells von CHEN (allg. Bezeichnung: Semantische Modelle). Charakteristisch für solche Modelle ist, dass sie nur dann verändert werden müssen, wenn sich der relevante Realitätsausschnitt ändert.

Dieses allgemeine Modell kann dann im nächsten Schritt in jedes beliebige logische Datenbankmodell umgesetzt werden (hierarchisches, netzwerkförmiges oder relationales Datenbankmodell). I. d. R. wird heute das relationale Datenbankmodell verwendet, da dieses die logische und physische Datenunabhängigkeit gewährleistet.

Im dritten und letzten Schritt geht es darum, das logische Datenbankmodell in das physische / interne Modell umzusetzen. Erst hier wird die physische Organisation der Datenbank wichtig wie z.B. der Speichermedien, Speicherplätze und Zugriffsformen.

Zusammenfassend lässt sich die Vorgehensweise folgendermassen formulieren:

1. Darstellung des konzeptuellen (semantischen) Datenmodells. Bevorzugt wird die grafische Darstellung mithilfe des Entity Relationship-Modells (ERM).

2. Umsetzung des konzeptuellen Datenmodells in ein logisches Datenbankmodell abhängig von der Art des Datenbank-Modells. Je nach verwendetem Datenbankverwaltungssystem kommen dafür zur Zeit fast ausschliesslich

o das hierarchische Modell

o das Netzwerkmodell oder

o dasRelationenmodell in Betracht.

3. Umsetzung des logischen Datenbankmodells in ein physisches / internes Modell

Konzeptionelles Datenmodell

Page 115: ITKnowHow

Wenn wir ein Unternehmen der realen Welt betrachten, so müssen wir, je nachdem, was wir untersuchen wollen, von vielen konkreten Dingen abstrahieren und uns ein geeignetes Modell von diesem Unternehmen machen.

Das konzeptionelle Datenmodell gibt ein datenorientiertes Abbild der Realität wieder (es gibt auch ablauf- und funktionenorientierte Abbilder). In diesen werden die interessierenden Objekte mit ihren Eigenschaften sowie den zwischen ihnen bestehenden Beziehungen erfasst. Entities (Objekte)

Die einzelnen realen Objekte werden als Entities bezeichnet. Solche Entities können z. B. sein: einzelne Personen, Orte, Gegenstände, Begriffe, Ereignisse oder beliebige andere reale oder abstrakte Dinge, die aus Aufgabensicht von Interesse sind. Ein Beispiel wären solche Entities: "Projektleiter Häberle", "Mitarbeiter Müller", "Projekt Copy1" usw. Klassen/Entity-Typen (Objekttypen)

Um die Komplexität des realen Unternehmens im Modell zu reduzieren, wird nach strukturellen Ähnlichkeiten gesucht: Aufgrund gewisser Ähnlichkeitskriterien, die den Entities zukommen, werden Klassen von Entities gebildet, wie z. B., um bei dem Teilbereich eines Industrieunternehmens zu bleiben:

• alle Projekte (eines Unternehmens): Projekttyp

• alle Projektleiter (eines Unternehmens): Projektleitertyp

• alle Mitarbeiter (eines Unternehmens): Mitarbeitertyp

Ein "Projektleitertyp" ist in dem unten erstellten ERM nicht enthalten. Hieraus wird ersichtlich, dass es bei der Modellierung in dieser Phase stark auf den Ausschnitt der jeweilig betrachteten Aufgabe ankommt. Verschiedene Sichtweisen sind in dieser Phase möglich und auch gewollt.

oder:

• alle Produkte: Produkttyp

• alle Abteilungen: Abteilungstyp

• alle Angestellten: Angestelltertyp

Ein "Angestelltertyp" ist in dem unten erstellten ERM ebenfalls nicht enthalten., man kann sich den "Angestellten" aber als Spezialisierung von Mitarbeitertyp vorstellen.

Um von einzelnen Entity-Typen zu übergeordneten Entity-Typen zu gelangen, sind vor allem zwei Vorgehensweisen wichtig:

• Generalisierung

Page 116: ITKnowHow

Einzelne Entity-Typen werden zu einem (#1) Typ verallgemeinert, bspw. alle einzelnen Mitarbeiter zum Mitarbeitertyp

• Spezialisierung

Bereits zusammengefasste Entity-Typen werden wieder detailliert, um Informationen zu den verschiedenen Typen i.S. der Ziele der Datenorganisation (s.o) besser zur Verfügung stellen zu können. So könnte bspw. der Entity-Typ "Mitarbeiter" in "Projektleitertyp" und "Projektmitarbeitertyp" spezialisiert werden.

Der Grad der Spezialisierung bzw. Generalisierung stellt eine wichtige Modellierungsentscheidung des Analysten dar. Sie richtig zu treffen, erfordert neben Erfahrung sehr weitgehende Kenntnis des Fachproblems sowie der Anwendungsprogramme und des Datenbanksystems selbst. Sie sehen, dass die Vorgehensweise bei der Datenmodellierung keine einfache lineare Abfolge von Aktivitäten ohne Rückkoppelung darstellt. In bildlichen Darstellungen werden Entity-Typen durch ein Rechteck dargestellt: "Projekt", "Mitarbeiter" oder "Produkt" sind beispielsweise solche Entity-Typen. Attribute (Eigenschaften)

Informationen über Entities bestehen zum einen aus den Ausprägungen (Werte) der Eigenschaften der Entity. Die Ausprägungen machen Entities unterscheidbar und im Sinn der betriebswirtschaftlichen Aufgabe verwendbar. Realweltobjekte haben im Prinzip unendlich viele Eigenschaften. Bei der Datenmodellierung müssen die betriebswirtschaftlich relevanten herausgefunden werden, dies ist in der Praxis oft sehr zeitaufwendig und auch nur inkrementell zu bewältigen. Projekte können bspw. durch ihre Projektnummer, ihren Namen, ihre Beschreibung usw. inhaltlich beschrieben werden.

In der ERM-Darstellung werden die Attribute mit Kreisen an die zugehörigen Entity- oder Beziehungs-Typen angehängt:

Beispiel sind die Attribute "Name", "Adresse", "Gehalt" des Entity-Typs Mitarbeiter oder auch die Attribute "Proj#" und "Beschreibung" des Entity-Typs "Projekt".

Abbildung: Entity-Typ Mitarbeiter mit Attributen

Domäne (Wertebereich)

Page 117: ITKnowHow

Jedes Attribut kann Werte aus einem definierten Wertebereich (Domäne) annehmen, etwa für ein konkretes Produkt:

• Produktnummer = 0027 (z. B. aus 0000 - 9999),

• Name = Copy1 (z. B. genau fünf beliebige Zeichen),

• Beschreibung = Farbkopierer. (z. B. bis zu 255 beliebige Zeichen)

Wir ersehen aus diesen Beispielen bereits eine charakteristische Eigenschaft der Klassenbildung: Jedem Entity-Typ kann man eine Kombination von Attributen, jedem Entity dieses Typs eine entsprechende Kombination von Attributwerten zuordnen. Die Modellbildung muss so geschehen, dass diese Attributkombinationen das zugehörige Entity eindeutig identifizieren und aufgabengerecht beschreiben.

Als Wertebereich denkbar wären z.B. 0000..9999 für PE#, oder 00..99 für PROJ#. Beziehungen

Zwischen Entities gibt es bestimmte Beziehungen, z. B. zwischen bestimmten Projektleitern und Projekten:

• Projektleiter Häberle leitet Projekt 27

• Projektleiter Fischer arbeitet in Abteilung 2 Beziehungstypen (Relationen)

Analog zu den Entities werden gleichartige Beziehungen zu Beziehungstypen zusammengefasst, zum Beispiel zwischen Produkten und Projekten (allgemein):

LEITEN: Projektleiter leiten bestimmte Projekte. In bildlichen Darstellungen stellen wir Beziehungen durch eine Raute dar, mit welcher die beteiligten Entity-Typen mit Strichen verbunden sind.

Abbildung: Beispiel für die Darstellung einer Relation (Beziehung)

Beziehungen können ebenso wie Entity-Typen Attribute besitzen (entsprechende konkrete Beziehungen zwischen Entities besitzen entsprechende Attributwerte), so

ARBEITET FÜR: Mitarbeiter arbeiten in bestimmten Funktionen in einem Projekt mit.

Page 118: ITKnowHow

Abbildung: Beispiel für die Darstellung eines Attributs einer Relation

Beziehungstypen zwischen Mengen

Im Rahmen des ERM können 1:1-, 1:n- sowie m:n- Beziehungen (Komplexitäten) zwischen je zwei Entity-Typen dargestellt werden:

• Bei einer 1:1-Beziehung wird jedem Element der ersten Menge genau ein Element der zweiten Menge zugeordnet und umgekehrt.

• Bei einer 1:n-Beziehung werden jedem Element der ersten Menge n Elemente der zweiten Menge zugeordnet, jedem Element der zweiten Menge aber genau ein Element der ersten Menge, bspw. ist jeder der (vielen, also n) Mitarbeiter immer genau einer (also 1) Abteilung zugeordnet.

• Bei einer n:m-Beziehung werden einem Element der ersten Menge mehrere Elemente der zweiten Menge zugeordnet und umgekehrt, bspw. arbeiten mehrere Mitarbeiter an einem Produkt, jeder Mitarbeiter arbeitet an mehreren Produkten.

Die Komplexität des Beziehungstyps wird an die Kanten des ERM eingetragen. Festlegung der Schlüsselattribute

Ein (#1) Attribut oder eine (#1) Attributkombination dient zur Identifikation jeder Entity. Diese Attribute werden als Schlüsselattribute des Entity-Typs bezeichnet. Im Beispiel sind die Personalnummer PE# und die Projektnummer PROJ# Schlüsselattribute. Beide Attribute sind eigentlich künstlich erzeugt, ihnen entsprechen keine beobachtbaren Eigenschaften von Entities wie der Name, die Adresse, das Geburtsdatum, der Projektname oder ähnliche. Sie werden bewusst erzeugt und ausschliesslich zur Identifikation benötigt. Liegen beobachtbare Merkmale vor, die eine Identifikation erlauben, können diese als Schlüsselattribute verwandt werden. Schlüsselattribute werden zur Kennzeichnung unterstrichen.

Beziehungen werden meist durch das Zusammenfügen der Schlüsselwerte der betreffenden Entity-Typen identifiziert - hier also die LEITEN-Beziehungen durch

Page 119: ITKnowHow

Angabe der Personal- und Projektnummer. Sie können auch ein eigenes Schlüsselattribut bekommen. Wozu das Ganze?

Entity- und Beziehungstypen dienen dazu, statische Strukturen im Unternehmen zu beschreiben. Zeitlich veränderlich ist hingegen die Menge der konkret vorhandenen Entities und Beziehungen zwischen diesen Entities.

Das Unternehmen ist in Wahrheit natürlich viel komplexer als im Beispiel. Zum Beispiel müsste man noch die Entity-Typen Lager, Kunde, Bestellung, Auftrag usw. und die damit verbundenen Beziehungen einbeziehen. Aus Gründen der Übersichtlichkeit sind diese Entities und Beziehungen jedoch in dem Beispiel weggelassen, das geht in der Praxis natürlich nicht. Es wird eine unternehmensweite konzeptuelle Datenmodellierung angestrebt, die in einem (#1) Unternehmensdatenmodell ihr Ergebnis findet. Dies ist mit derart vielen praktischen und theoretischen Schwierigkeiten verbunden, dass vielfach schon ein abteilungsweites Datenmodell einen echten Fortschritt mit sich bringt.

• Es nützt wenig, allein die Daten einheitlich zu modellieren. Die Prozesse und Funktionen sind genauso wichtig.

• Der Aufwand zur Erstellung eines Unternehmensdatenmodells ist enorm gross. Das in dem betriebswirtschaftlich bedeutsamen Produkt R/3 implementierte Datenmodell hat beispielsweise allein mehrere Millionen Euro gekostet. Eine Wirtschaftlichkeitsbetrachtung ist immer vorzunehmen. (Faustregel: "Die ersten 80% kosten soviel Geld und Zeit wie die letzten 20%)

• Die Unternehmensdaten sind unterschiedlich zeitstabil. Ein Unternehmensdatenmodell sollte vor allem diejenigen Entity-Typen und Beziehungen abbilden, die sich nicht oder nur sehr selten ändern.

Setzen wir nun die einzelnen Ergebnisse des ersten Schrittes der Datenmodellierung zusammen, erhalten wir ein konzeptionelles Datenmodell. Wir stellen es - da es so üblich, übersichtlich und leicht verständlich ist - in einem ERM dar. ERM bedeutet: Entity-Relationship-Modell, also ein (graphisches) Modell der Objekte und ihrer Beziehungen:

Page 120: ITKnowHow

Abbildung: Beispiel für ein Entity-Relationship-Modell (ERM)

Das ERM ist der Input für den nächsten Schritt, die Erstellung des logischen Datenbankmodells. Da später Modellierungsfehler gar nicht mehr erkannt werden oder nur noch mit sehr viel Aufwand korrigiert werden können, sollten Sie der ersten Phase stets die allergrösste Sorgfalt entgegenbringen. Dies gilt analog für alle Aufgaben, die mit der Erstellung von Informationssystemen zu tun haben.

Page 121: ITKnowHow

Evaluation

Im Bereich der in den Unternehmen eingesetzten Applikationen kann generell ein Trend in Richtung Standardisierung festgestellt werden. Vorbei sind die Zeiten, wo jedes noch so kleine Unternehmen das Gefühl hatte, es könne sich seine "eigene" Software bauen und erziele daraus einen Wettbewerbsvorteil. Zuerst wird daher eine Evaluation durchgeführt, dann eine Applikation entwickelt. Erst wenn diese Evaluation zeigt, dass kein gängiges Paket einen akzeptablen Nutzen erbringt, sollte eine Eigenentwicklung ins Auge gefasst werden.

Abbildung: Ablauf einer Evaluation

Projektorganisation

Bei der Evaluation von Standard-Software ist auf eine ausgewogene Projektorganisation zu achten. Das Projekt wird sinnvollerweise von einem zukünftigen Benutzer geleitet. Das Projektteam sollte sich aus folgenden Personen zusammensetzen:

• Projektleiter (Benutzer mit Weisungsbefugnissen z.B. Abteilungsleiter)

• Betriebsorganisator

Page 122: ITKnowHow

• Benutzervertreter

• Wirtschaftsinformatiker (Vertreter der internen Informatik)

• Berater (mit genauen Markt- und Produktekenntnissen)

Es muss darauf geachtet werden, dass das Projektteam nicht zu gross ist. Das Projektteam sollen nicht mehr als 5 Personen umfassen, andernfalls wird der interne Reibungsverlust zu hoch und behindert das Vorhaben mehr, als es zu fördern.

Die hauseigene Informatik sollte nicht zu stark vertreten sein, weil dann die Software eher auf ihren informatikmässigen Nutzen hin untersucht als daraufhin, dem Benutzer die Arbeit zu erleichtern. Bei der Auswahl des Beraters ist darauf zu achten, einen möglichst "neutralen" Berater zu bestimmen, da sonst Interessenkonflikte unvermeidbar sind. Pflichtenheft Das Pflichtenheft nimmt eine zentrale Rolle in der ganzen Evaluation ein. Oft wird direkt mit dem Erstellen desselben beonnen, was methodisch betrachtet natürlich nicht zu vertreten ist. Nach der Vorbereitungsphase besteht nun die wesentliche Aufgabe des Projektteams in der Erstellung des Pflichtenhefts. Der Inhalt umfasst folgende Punkte:

• Ausgangslage

o Charakteristik des Unternehmens

o Organisation des Unternehmens

o Organisation der Informatik

o Anstoss für die Beschaffung

o Projektorganisation

• IST-Zustand

o Geschäftsfunktionen

o Daten

! Datenmodell (ERD)

! Datenkatalog

! Datenbeschreibung

o Datenflüsse

! Datenfluss nach DIN 66001

! Datenfluss nach De Marco

! Stellenorientierter EDV-Datenfluss

! ...

Page 123: ITKnowHow

o Systemplattform

o übrige technische Hilfsmittel

o Wertung

• Ziele

o Kostenreduktion

! Rationalisierung beim Personal

! Abbau von Fix-Kosten, verursacht durch das alte System

! ...

o Effizienzsteigerung

! bessere Auslastung der Ressourcen (Personen, Computer)

! Steigerung der Flexibilität

! ...

o Ertragsverbesserung

o Verbesserung der Qualität

! Erhöhung der Auskunftsbereitschaft

! einfachere, ergonomischere Darstellung der Informationen

! grössere Aktualität der Informationen

! ...

o ...

• Anforderungen

o Software-Qualität

! Ergonomie

! Effizienz

! Zuverlässigkeit

! Wartbarkeit

! Portabilität

! Sicherheit (Datenschutz)

o Funktionsumfang

! Soll-Zustand Geschäftsfunktionen

! Soll-Zustand Datenflüsse, Prozesse, Abläufe, Ereignisse

o Datenumfang (ERD)

Page 124: ITKnowHow

o Anforderungen an die Systemplattform

o Schnittstellen

! Beschreibung

! Quelle oder Ziel

! Datenelemente / Attribute

! Medium

! Periodizität

! Anzahl Records, Tupels usw.

! Ereignis (Auslöser)

o anbieterbezogene Anforderungen

• Mengengerüst

o Menge der Daten

o Häufigkeit der Funktionen

! Anzahl Fakturen pro Tag/Monat/Jahr (Durchschnitts und Spitzenwerte)

! Anzahl Projekteröffnungen pro Tag/Monat/Jahr

! Anzahl Mandatseröffnungen pro Tag/Monat/Jahr

! Anzahl Projektrepporte pro Tag/Monat/Jahr

! ... Fragen zur Erstellung des Pflichtenheftes Position des Unternehmens

• Wie lange existiert die Firma bereits ?

• Wie sind die Eigentumsverhältnisse ?

• Mit welchen Partnern arbeitet die Firma zusammen ?

• Welche mittel- bis langfristigen Strategien verfolgt die Firma ?

• Wie stark soll die Firma wachsen / restrukturieren ?

• Welche finanziellen Möglichkeiten hat die Firma ?

• Soll die Anwendung auch dezentralisiert (Filialen) werden können ?

• Wie viele Benutzer sollen heute mit dem System arbeiten ?

Page 125: ITKnowHow

• Wie viele Benutzer sollen es morgen sein (Zugriffs- und Verarbeitungsgeschwindigkeit) ?

• Gibt es verschiedene Lösungen (für Einsteiger, mittlere und grössere Anwendungen = Upgrade) ?

Informatik

• Wurde bisher überhaupt eine Informatiklösung verwendet ?

• Warum soll sie abgelöst werden ?

• Welches waren die Schwachstellen ?

• Wer betreute die bisherige Lösung ?

• Wie soll sie in die neue Lösung integriert werden ?

• Wer ist zuständig für die Formulierung einer IT-Strategie ?

• Ist ein Strategiepapier vorhanden ?

• Besteht eine Vierjahres-Planung ?

• Existiert ein Informatikkonzept ?

• Wer ist für dessen Durchsetzung zuständig ?

• Welche anderen Applikationen sind betroffen ?

• Wer sind die entsprechenden Verantwortlichen ?

• Welche anderen Applikationen sind von der zu evaluierenden in hohem Masse abhängig ?

• Welche Plattformmöglichkeiten stehen zur Verfügung ?

• Existieren Standards, die berücksichtigt werden müssen ?

• Welche technischen Restriktionen bestehen ?

• Existiert ein Ergonomie-Standard ?

Anbieter

• Wie lange gibt es den Hersteller schon ?

• Wie lange ist der Händler auf dem Markt ?

• Wie viele Installationen gibt es in der Umgebung / weltweit ?

• Gibt es eine lokale Vertretung ?

• Wird Schulung angeboten ?

• Welche Garantien werden übernommen ?

Page 126: ITKnowHow

• Wie ist der Support organisiert (kostenpflichtig / dauer) ?

o Hotline Telefon

o Support via Website

o Support-Vertrag

• Wie gut ist die Beratung und der Support ?

• Gibt es regelmässige Updates (kostenpflichtig) ?

o Fehlerkorrekturen und Änderungen, Anpassungen und Neuerungen

o Service-Vertrag

• Wie wird der Anbieter an der Börse beurteilt (falls kotiert) ?

• Gibt es Referenz-Listen ?

• Wie alt="" ist die Software ? (zu alte wie auch zu neue Produkte können in gewissen Fällen kritisch sein)

• Welche Technologien werden eingesetzt und unterstützt ?

• Wie sind die Zahlungsbedingungen ? Bewertung

Die meisten Evaluationen werden mittels Nutzwertanalyse bewertet. Dazu benötigt es einen Kriterienkatalog der Anforderungen (meist hierarchisch Gegliedert).

Page 127: ITKnowHow

Abbildung: Beispiel einer Nutzwertanalyse

Interner Entscheid Als Unterstützung für den Internen Entscheid sollte zusammenfassend ein solches Formular den Entscheidungsträgern (z.B. der Geschäftsleitung) vorgelegt werden:

Page 128: ITKnowHow

Abbildung: Beispiel eines Variantenvergleichs

Page 129: ITKnowHow

Informationssystem-Management ISM

Die Informationstechnologie übt auf die Wettbewerbsfähigkeit von Unternehmen einen starken Einfluss aus. Viele Unternehmen leben vom 4. Produktionsfaktor, der Information. In der Volkswirtschaftslehre werden üblicherweise die drei Produktionsfaktoren Kapital, Boden und Arbeit unterschieden. Die Betriebswirtschaftslehre bezeichnet alle Elemente, die im betrieblichen Leistungserstellungsprozess miteinander kombiniert werden, als Produktionsfaktoren. Der Erfolg solcher Unternehmen hängt weitgehend vom Nutzungs- und Durchdringungsgrad der gegenwärtigen informationstechnologischen Möglichkeiten ab. Die rechtzeitige Bereitstellung sowie die Möglichkeit der schnellen und flexiblen (individuellen) Auswertungen sind zum kritischen Faktor für den Unternehmenserfolg geworden.

Die Potentiale der Ressource "Information und Informationstechnologie" zu erkennen und diese in unternehmerische Lösungen umzusetzen, bildet im weitesten Sinne den Verantwortungsbereich des Informationssystem-Managements. Ziele des ISM

• Informationen hinsichtlich Ort und Zeitpunkt bereitzustellen und dessen Form in geeigneter Weise zu gewährleisten.

• Einsatz der Informationsverarbeitung zur Steuerung der Vorgänge in der Wirtschaft.

• Einbindung der Informationsverarbeitung in die Unternehmensführung.

• Unterstützung der strategischen Erfolgspositionen (SEP) der Unternehmung.

Allgemein gilt:

• die richtige Information (aktuell, vollständig, fehlerfrei, in verständlicher Form)

• zum richtigen Zeitpunkt (kurze Durchlaufzeit, schnelle Reaktionszeit, hohe Zuverlässigkeit)

• am richtigen Ort (Verfügbarkeit der Information an jedem Ort)

• mit geringen Kosten (Kosten für die Informations- und Kommunikationsverarbeitung optimieren)

Page 130: ITKnowHow

Aufgaben des ISM

• Architekturplanung

Die Architektur legt die grobe Struktur der Organisation, der Geschäftsfunktionen, der Daten, der Applikationen und der Datenbanken fest.

• Integration

Integration erfordert das Erkennen von Synergiepotentialen zwischen organisatorisch getrennten Bereichen.

• Einbindung in die Unternehmensführung

Das Informationssystem ist Teil des Unternehmenskonzepts. Es muss die Bedürfnisse des Geschäfts erfüllen, und das Geschäft muss sich bis zu einem gewissen Grad nach den Möglichkeiten des Informationssystems richten.

• Einbindung des Fachbereichs

Das Informationssystem-Management muss den Fachbereich dazu bringen, sich mit den Möglichkeiten der Informationstechnik zu beschäftigen, und ihm helfen, sein Infromationssystem zu gestalten. Dies erfolgt im ISM durch die Partizipation in Ausschüssen, Dezentralisierung der IS-Entwicklung und in der Übernahme der Verantwortung für die Fachlösung/Organisation und für Kosten/Nutzen.

• Dezentralisierung

Die Systementwicklung ist so weit zu dezentralisieren, dass Informationssystem-Entwicklung und -Anwendung möglichst nahe zusammenrücken, aber dennoch arbeitsfähige Entwicklungseinheiten bleiben, das heisst, es soll soviel wie möglich dezentralisiert und soviel wie nötig zentralisiert werden.

• Verbindung von Organisation und Informationssystem

Funktionen, Daten, Organisation (Stellen) sowie Hardware sind vier Seiten desselben Gegenstands, des Informationssystems, und demzufolge gemeinsam zu betrachten.

• Projektportfolio-Management

Ein grosses Unternehmen muss ein Projektportfolio führen, das die Projekte nach unternehmerischen Kriterien ordnet sowie Projekte und Ressourcen aufeinander abstimmt. Es muss den Entscheidungsprozess, der zum Projektportfolio führt, allen Beteiligten transparent machen.

• Änderungsmanagement

Das Informationssystem-Management muss den Einsatz der Ressourcen, die für die Wartung (Maintenance) eingesetzt werden, so steuern, dass eine möglichst grosse Kosten- / Nutzenoptimalität besteht.

• Umsetzung

Das Informationssystem-Management muss die Umsetzung der Pläne kontrollieren.

Page 131: ITKnowHow

Ebenen des ISM

Ebenen Funktionen Dokumente

IS-Konzept • Planung des IS-Konzepts

• Verabschiedung des IS-Konzepts

• Umsetzung des IS-Konzepts

• Kontrolle des IS-Konzepts

• IS-Konzept

• Zielsetzung

• Standards

• Methoden

IS-Architektur • Planung von

Integrationsbereichen

• Verabschiedung des Integrationsbereichs

• Umsetzung des Integrationsbereichs

• Kontrolle von Integrationsbereichen

• Planung der IS-Architektur

• Verabschiedung der IS-Architektur

• Umsetzung der IS-Architektur

• Kontrolle der IS-Architektur

• IS-Integrationsbereich

• globale Geschäftsfunktionen

• Abgrenzung des Integrationsbereichs

• Statusbericht zum Integrationsbereich

• IS-Architektur

• Organisation

• Aufbauorganisation

• Ablauforganisation

• Geschäftsfunktionen

• Geschäftsfunktionen-Katalog

• Applikationen

• Daten/logische Datenbanken

• Geschäftsobjekt-Katalog

• Entitätstypen-Katalog

• konzeptionelles Datenmodell

• logische Datenbanken

• Kommunikation / Verteilung

• Datenfluss

• Zugriff von Applikationen auf DBs

• Statusbericht zur IS-Architektur

IS-Projektportfolio • Entwicklung von IS-Anträgen

• Bewerten der IS-Anträge

• IS-Antrag

• Machbarkeitsstudie

Page 132: ITKnowHow

• Ausarbeitung der Machbarkeitsstudie

• IS-Entwicklungsplanung

• IS-Entwicklungskontrolle

• Unternehmerische Rangfolge der Projekte

• Betriebliche Reihenfolge der Projekte

• IS-Entwicklungsplanung

• Statusbericht zur Umsetzung des IS-Entwicklungsplans

IS-Projekt • Vorstudie / Initialisierung

• Konzepte

• Realisierung

• Systemtest

• Einführung

• Projektführungsdokumente

• Dokumente der Systementwicklung

IS-Betreuung • Änderungsmanagement

• IS-Schulung

• IS-Monitoring

• Benutzersupport

• Änderungsplan

• Schulungsangebot

• Applikationsübersicht

• Übersicht der Transaktionen einer Applikation

• Übersicht der Transaktionen pro Benutzer

Komponenten eines Informationssystems Daten

Die Daten (Informationen) beschreiben die Zustände und Zustandsgrössen von Vorgängen in einem System. Für ein bestimmtes Unternehmen weisen die Daten charakteristische Eigenschaften und Strukturen auf. Wenn es gelingt, diese möglichst exakt in ein Modell (Datenmodell) umzusetzen, dann stellen die Daten die mit Abstand wichtigste Komponente in bezug auf Qualität und Lebensdauer in einem Informationssystem dar.

Die Datenstrukturierung ist die Grundlage für eine erfolgreiche Gestaltung betrieblicher Informationssysteme. Mit zunehmender Zahl von Anwendungen und voneinander isolierter Datenbanken (keine Vernetzung oder Verbindung) steigt die Anzahl der Daten, die in den unterschiedlichen Datenbanken-Managementsystremen mehrfach gespeichert sind. Um die Datenkonsistenz zu gewährleisten, müssen diese Systeme miteinander abgeglichen werden.

Die Erstellung eines Unternehmens-Datenmodells bildet eine vorrangige Aufgabe bei der Gestaltung von Informationssystemn. Für die Erstellung eines Datenmodells ist die fundierte Kenntnis der betrieblichen Funktionen Voraussetzung.

Page 133: ITKnowHow

Funktionen

Das primäre Ziel der Funktionsmodellierung ist die Optimierung der Wertschöpfungsketten. Die zu stellende Frage lautet: "Wie gestalten wir diese Wertschöpfungskette, um eine bestimmte Leistung mit minimalen Kosten zu erstellen?". Als sekundäres Ziel kann die Optimierung des Informatikeinsatzes angesehen werden.

Mit Hilfe der Analyse der Wertschöpfungsketten können jene Bereiche der IS-Architektur ermittelt werden, deren Integration besonders lohnenswert ist. Redundante Wertschöpfungsketten können lokalisiert und optimiert werden. Die Wertschöpfungsketten sind die Basis für:

• schnellere, automatische Auslösung von Folgetätigkeiten

• bessere (vollständige, rechtzeitige) Informationsversorgung

• bessere Abstimmung in Planungsphasen (Bedarf, Kapazität usw.)

• direkte Rückkopplung von Ergebnissen

• Parallelisierung von bisher sequentiell angeordneten Arbeiten

• ganzheitliche (unternehmensweite) Betrachtung, Ausbildung

• unternehmensweite Abstimmung, Optimierung

Organisatorische Einheiten

Die Aufbauorganisation legt die relative dauerhafte Beziehungsstruktur fest, indem dem Aufgabenträger Funktionen in einen formalen Beziehungsgefüge zugewiesen werden. Die Ablauforganisation legt die relative dauerhafte Prozessstruktur fest, indem die Aktivitäten der Aufgabenträger in ihrer prozessorientierten Abfolge festgelegt werden.

Die organisatorischen Einheiten sind die Instanzen, die mit EDV-Funktionen Daten verändern.

Aus einer stren systemtheoretischen Sicht sind die organisatorischen Einheiten sowie deren Beziehungen untereinander von den Daten und den Funktionen abhängig und können deshalb noch weniger als die Funktionen unabhängig voneinander modelliert werden. Die Bildung und die Strukturierung von organisatorischen Einheiten hängt, neben den systemtheoretischen, sehr stark von betriebswirtschaftlichen und organisatorischen Überlegungen ab.

• Welche Stellen sind welcher organisatorischen Einheit zugeordnet?

• Welche Personen arbeiten an welchen Stellen?

• Welche Aufgaben werden durch welche Personen wo wahrgenommen?

• Wer benötigt an welchem Ort welche Informationen zu welchem Zeitpunkt?

• Wer hat auf welche Informationen mit welchen Funktionen Zugriff?

Page 134: ITKnowHow

Hardware (technische Geräte)

Die sukzessive Integration ist das primäre Ziel der Hardware- und Kommunikationsarchitektur. Diese angestrebte Integration erhöht die Zugriffsmöglichkeit auf die unternehmensweit verteilten Informationen sowie Applikationen.

Werden die technischen Geräte (Grossrechner, Arbeitsplatzrechner, PDA, Drucker usw.) miteinander gekoppelt, so dass zwischen ihnen Daten ausgetauscht werden können, wird dies als Rechnernetz oder Kommunikationsnetz bezeichnet. In den meisten Unternehmen sind heute auf allen Ebenen unterschiedliche Rechnersysteme, Rechnerarchitekturen sowie Kommunikationsnetze installiert.

Um die geforderte Daten- und Anwendungsintegration zwischen den verschiedenen Hardwareplattformen zur Unterstützung der Wertschöpfungskette zu erreichen, ist nicht nur eine Hardware-Integration, sondern auch die Verbindung von Betriebssystemen, Datenbanksystemen bis zum Ineinandergreifen der Anwendungen erforderlich. Mit der zunehmenden Vernetzung der Hardware und der Verbreitung komplexer Kommunikationssysteme rückt ein Problem immer stärker in den Mittelpunkt: das Management unternehmensweiter Kommunikationssysteme. Ein unternehmensweites Kommunikationssystem ist heute so komplex, dass dafür eine Architektur (die IS-Architektur) unabdingbar ist. Sie beschreibt auf konzeptioneller Ebene den Aufbau der gesamten Kommunikationsinfrastruktur eines Unternehmens.

Page 135: ITKnowHow

Konzepte

Was ist aber überhaupt ein Projekt?

Die DIN 69901 definiert es als "ein Vorhaben, das im wesentlichen durch die Einmaligkeit der Bedingungen in ihrer Gesamtheit gekennzeichnet ist, wie z.B. Zielvorgabe, zeitliche/finanzielle/personelle Begrenzung, Abgrenzung gegenüber anderen Vorhaben, projektspezifische Organisation".

Den Begriff Projektmanagement definiert dieselbe Norm als "ein Führungskonzept zur zielorientierten Durchführung von Vorhaben. Projektmanagement ist die Gesamtheit der Führungsaufgabe (Zielsetzung, Planung, Steuerung, Überwachung) und des Führungsaufbaus (Projektorganisation) sowie der Führungstechniken (Führungsstil) und Führungsmittel (Methoden)". Führungskonzepte

• Phasenmodelle

o V-Modell (Deutschland)

o Hermes (Schweiz)

o Merise (Frankreich)

o SSADM (England)

o ...

• Iteratives Vorgehen (Wiederholungen)

o Wasserfall Modell

o Schleifen Modell

o ...

• Evolutionäres oder inkrementelles Vorgehen (Stete Weiterentwicklung)

o Sprialen Modell

o Prototyping

o ...

• Objektorientierte Modelle

o actiF

o ...

Page 136: ITKnowHow

Warum Vorgehensmodelle?

• Eine definierte und standardisierte Vorgehensweise machen Projekte planbar.

• Die Kommunikation innerhalb des Projektes und zu Aussenstehenden wird verbessert.

• Die Weitergabe von Wissen über erfolgreiche Projekte erfordern Vergleichbarkeit.

• Die Werkzeuge können wiederverwendet werden (Automatisierungsmöglichkeit). Phasenmodelle

Das Phasenmodell drückt den zeitlichen Projektablauf in einzelnen Phasen aus und beeinflusst damit die Projekteffizient. Projekte der Anwendungsentwicklung können z.B. wie folgt gegliedert werden:

• Planungsphase

• Definitionsphase

• Enwurfsphase

• Realisationsphase

• Implementierungsphase

• Abnahme- und Einführungsphase

Jede Phase ist durch einen Phasenabschluss gekennzeichnet, der als ein Meilenstein definiert sein sollte. Das Phasenergebnis ist vom Lenkungsausschuss abzunehmen. Mit der Abnahme des Ergebnisses erfolgt die Freigabe der nächsten Phase. Iterative Modelle

Viele iterative Modelle haben das Phasenkonzept als Grundlage. Mit Sicht auf die Qualität können einzelne Phasen wiederholt werden um ein besseres Ergebnis davon zu tragen. Evolutionäre oder inkrementelle Modelle

Evolutionäre Modelle unterscheiden sich gänzlich von den Phasenmodellen. Beim Prototyping wird ein funktionsfähiger Prototyp welcher aber noch unvollständig und fehlerbehaftet erstellt. Anschliessend wird dieser Prototyp in einem evolutionären Prozess verbessert. Bei anderen Modellen wie das Spiralen Konzept werden Kosten und Zeit in den Projektmanagement-Prozess miteinbezogen. Die verfeinerte

Page 137: ITKnowHow

Vorgehensweise und die Sicht auf die Kosten mach diese Methode besonders effizient bei sehr grossen und risikobehafteten Projekten.

Hermes HERMES ist ein Projektführungssystem, das auf Informatikprojekte in heterogenen und dezentralen Umgebungen zugeschnitten ist. Als offener Standard zur Führung und Abwicklung von Informatikprojekten ist HERMES seit 1975 in- und ausserhalb der Bundesverwaltung im Einsatz. 1995 erschien die letzte überarbeitete Auflage des HERMES-Handbuchs. Eine Neuauflage des Handbuches wird vorbereitet.

Page 138: ITKnowHow

Problemlösung Das Problem

Unter einem Problem kann man die Differenz zwischen der IST-Situation und der SOLL-Vorstellung verstehen. Um Probleme einer Lösung zuführen zu können, müssen eine Reihe von Faktoren wirkungsvoll zusammenspielen. Die untenstehende Abbildung soll zum Ausdruck bringen, dass die Methodik nur eine von mehreren Komponenten ist und alleine nicht imstande ist, Probleme wirkungsvoll zu lösen - ebensowenig, wie die anderen dies alleine für sich beanspruchen dürfen. Mit der Systementwicklung wird versucht, ihr Zusammenspiel zu organisieren und damit die Voraussetzungen für gute und kreative Lösungen zu schaffen.

Abbildung: Einflüsse auf den Problemlösungsprozess

Problemlösungszyklus

Die Problemlösungszyklen werden in jeder Lebensphase angewendet. Die Vorgehensschritte werden jeweils in zwei Teilschritte unterteilt:

• Zielsuche

o Situationsanalyse

o Zielformulierung

• Lösungssuche

o Konzeptsynthese

o Konzeptanalyse

• Auswahl

o Beurteilung

o Entscheidung

Page 139: ITKnowHow

Zielsuche

Die Situationsanalyse dient dazu, der Projektgruppe bzw. dem Planer das Problem verständlicher zu machen. Es werden vier charakteristische Betrachtungsweisen angewendet:

• Die systemorientierte Betrachtung zur Strukturierung des Problemfeldes.

• Die ursachenorientierte oder diagnostische Betrachtung zur Beschreibung von unbefriedigenden Situationen.

• Die lösungsorientierte (therapeutische) Betrachtung, die den Blick auf Lösungs- und Gestaltungsmöglichkeiten richten soll. Sie wird durch den Leitgedanken "Denken in Varianten" unterstützt.

• Die zukunftsorientierte Betrachtung, die den Blick von der Gegenwart in die Zukunft richten soll und sich so auch mit Potentiellen Entwicklungsrichtungen auseinandersetzen soll. Die Leitgedanken "Einbezug der zeitlichen Veränderung" und "Denken in Varianten" begleiten diesen Planungsschritt.

Lösungssuche

In der Konzeptsynthese werden auf systematische Art alle prinzipiell möglichen Systemkonzepte und Lösungsideen erarbeitet. Der Detaillierungsgrad muss ausreichend sein, um die Varianten gegenüberzustellen und später zu bewerten. In der Konzeptanalyse werden folgende Aspekte überprüft:

• Werden die zwingend vorgeschriebenen Ziele eingehalten?

• Sind die einzelnen Konzeptentwürfe vollständig?

• Fehlen noch wesentliche Teile in den Konzeptentwürfen?

• Entsprechen Wirkungsweise und das Verhalten des Systems den Erwartungen? Auswahl

Die Bewertungskriterien werden aus den Zielen und aus der Lösungssuche erarbeitet. Kann keine "beste Lösung" ermittelt werden, muss der Detaillierungsgrad verfeinert werden. Können die ursprünglich gesteckten Ziele nicht erreicht werden gibt es drei Möglichkeiten des weiteren Vorgehens:

• Die Ziele für das neue System werden zurückgeschraubt.

• Die Systemgestaltung wird abgebrochen.

• Die Grenzen des Problemfeldes werden so verändert, dass das Problem bewältigt werden kann.

Page 140: ITKnowHow

Relationales Datenbankmodell ERD

Das Wissen im Zusammenhang der Datenmodellierung ist für die Praxis von grosser Bedeutung. Nach Konstruktion des konzeptionellen Datenmodells wird dieses Datenmodell in die Schreibweise eines bestimmten logischen Datenmodells überführt. Auch ein logisches Datenmodell beschreibt die Entity-Typen und ihre Beziehungen untereinander. Die Beschreibung richtet sich aber bereits an den Eigenschaften konkreter Datenbanksysteme aus. Aufbau und Beschreibung

Das relationale Datenbankmodell verwendet zweidimensionale Tabellen (oder alternativ eine auf der Relationenalgebra beruhende mathematisch-formale Schreibweise) zur Darstellung des Realitätsausschnittes. Alle Gegenstände der Diskurswelt können durch zweidimensionale Tabellen anschaulich und vollständig beschrieben werden. Der theoretisch-mathematische Hintergrund ist sehr anspruchsvoll und begründet die Leistungsfähigkeit des Modelles.

Beim relationalen Datenbankmodell sind einige Begriffe wichtig, die durch nachstehende Abbildung erläutert werden:

Abbildung: Beispiel für ein relationales Datenbankmodell in Tabellenform

• Entity ist ein Objekt im ERM, das im Relationenmodell als Zeile mit all seinen Eigenschaften umgesetzt wird (entspricht Tupel).

• Tupel sind die einzelnen Zeilen in der Tabelle, also die konkreten Objekte (entspricht Entity).

• Entity-Typ ist die Relation, also die gesamte Tabelle.

• Attribute

sind die Spaltenüberschriften in der Tabelle. Das unterstrichene Attribut ist das Schlüsselattribut. In der Abbildung oben ist das Schlüsselattribut die Pers-Nr. Es

Page 141: ITKnowHow

ist nicht unterstrichen, weil ACCESS eine Unterstreichung der Schlüsselattribute in der vorgestellten Ansicht nicht vornimmt. Eigentlich ist das nur eine Kleinigkeit, sie kann dennoch verdeutlichen, dass Software aus betriebswirtschaftlicher Sicht i.P. immer verbesserungsfähig ist.

• Wertebereich ist der zulässige Variableninhalt, also die Domänen der einzelnen Attribute.

• Attributwert ist der Inhalt einer Zelle innerhalb der Tabelle.

Das komplette logische Datenbankmodell (entspricht dem konzeptionellen Schema) einer relationalen Datenbank lässt sich dann für das einleitende Beispiel vereinfacht und doch vollständig so angeben:

• Mitarbeiter (Pers-Nr, AbtlNr, Name, Adresse)

• Produkt (Produkt-Nr, Name)

• Projekt (Proj-Nr, Projektbeschreibung)

• Produziert (Pers-Nr, Produkt-Nr, Zeit Pro Stück)

• Arbeitet Für (Pers-Nr, Proj-Nr, Funktion)

• ...

allgemein:

• NameDerRelation (Schlüsselattribut, Attribut, Attribut, ...)

Die Schlüsselattribute sind unterstrichen. Die Fremdschlüssel sind kursiv gesetzt. Die kursive Notation ist nicht allgemein verbreitet, sie dient Ihnen nur zur Orientierung im Datenbankmodell.

Abbildung: Grafische Form des logischen Datenbankmodells

Vereinfacht lässt sich sagen, dass beim Relationenmodell

• alle Daten in zweidimensionalen Tabellen (Relationen)

• mit einer festen Anzahl von Spalten (Attributen)

Page 142: ITKnowHow

• und einer beliebigen Anzahl von Zeilen (Tupeln)

dargestellt werden. Benutzung

Die Benutzung von Datenbanken, die im relationalen Datenbankmodell erstellt wurden, erfolgt mit Sprachen, die speziell für diesen Zweck entwickelt wurden. Diese Sprachen nennt man deskriptiv, da mit ihrer Hilfe beschrieben werden kann, was getan werden soll. Das erscheint Ihnen vielleicht selbstverständlich, ist es aber nicht. Die heute nach wie vor vorherrschenden Sprachen im Bereich der EDV sind prozedural, das heisst, Sie müssen genau angeben, wie etwas getan werden soll. Das ist natürlich viel umständlicher.

Die Existenz dieser deskriptiven Sprachen in Verbindung mit der darunterliegenden mathematischen Fundierung erlauben jede nur denkbare Abfrage relativ einfach zu formulieren. Im Grundstudium stellen wir Ihnen als Beispiel für eine solche Sprache SQL (structured query language) vor. SQL ist die wichtigste Sprache für das relationale Datenbankmodell.

Beispielhafte Abfrage mit SQL:

SELECT * FROM MITARBEITER WHERE ABTLNR = 11

Diese Abfrage versucht, aus der Relation (Tabelle) MITARBEITER diejenigen Tupel (Entities) herauszulesen, bei denen die Abteilungsnummer "11" ist. Dabei sollen ALLE Attribute der Relation zurückgegeben werden. Als Ergebnis resultiert:

Pers-Nr Abt-Nr Name Adresse

2 11 Meier Dorfplatz

3 11 Huber Im Gärtli 7

SQL-Abfragen können jedoch schnell komplex werden, wie das nachfolgende Beispiel Ihnen zeigt.

Ein Sachbearbeiter erhält den Auftrag, ein Organigramm der Unternehmung zu erstellen. Es soll sämtliche Mitarbeiter (Name, Adresse) mit den zugeordneten Abteilungen enthalten. Die Informationen sind in der Datenbank in verschiedenen Relationen enthalten, die daher gemeinsam ausgewertet werden müssen. Die Abfrage lautet: SELECT DISTINCTROW Mitarbeiter.Name, Mitarbeiter.Adresse, Abteilung.Name FROM Abteilung INNER JOIN Mitarbeiter ON Abteilung.[Abt-Nr] = Mitarbeiter.AbtlNr ORDER BY Mitarbeiter.Name;

Diverse Datenbank-Tools bieten die Möglichkeit, eine solche Abfrage auch interaktiv zusammenzustellen:

Page 143: ITKnowHow

Abbildung: Auswahlabfrage Organigrammdaten, graphische Darstellung mit Access

Diese Abfrage tut nichts anderes, als für jeden Mitarbeiter die Abteilung zu ermitteln, und Mitarbeitername sortiert mit Adresse und den Abteilungsnamen auszugeben. Als Ergebnis resultiert:

Name Adresse Abteilung

Amstutz Städtlistrasse 253 Produktion

Christen Seestrasse 104 Finanz

Huber Im Gärtli 7 IT

Meier Dorfplatz IT

Müller Hauptstrasse 5 Verkauf

Zumbühl Gassenweg 11 Finanz

Vielleicht haben Sie bemerkt, dass als Ergebnis der Abfrage bei einem relationalen Modell immer eine Relation entsteht. Diese Relation kann dann genau wie alle anderen bereits bestehenden Relationen weiter benutzt werden, etwa als Basis einer neuen Abfrage. Das relationale Datenbankmodell ist insofern geschlossen: Es entstehen immer Tabellen.

Mit SQL können Sie bei relationalen Datenbanken alles machen! Sie können:

• Abfragen absetzen (SELECT),

Page 144: ITKnowHow

• Tabellen verbinden (JOIN) oder erzeugen (CREATE TABLE),

• Werte in eine Relation einfügen (INSERT INTO) oder löschen (DELETE FROM)

• ...

und alle diese Operationen beliebig schachteln. Beurteilung

Die wichtigsten Vorteile des relationalen Datenbankmodells:

• keine festen Zugriffspfade

• Zugriff im allgemeinen über jede Tabelle und jedes Attribut möglich

• nur Schlüsselredundanz

• enorme Flexibilität

Als Nachteil muss dabei erkauft werden:

• hohe Anforderungen an die Hardware

• sehr hoher Verwaltungsaufwand für komplexe Operationen, vor allem beim dynamischen Zusammenfügen von Tabellen

• In der Praxis zum Teil horrende Antwortzeiten im ad-hoc-Betrieb

Wie überall bei der EDV stellt also auch hier eine Technologie nie die Lösung für alle Anforderungen aus betriebswirtschaftlicher Sicht dar. Es wurden daher erhebliche Anstrengungen unternommen, leistungsfähigere Datenbankmodelle zu entwickeln und als Produkte auf den Markt zu bringen.

Page 145: ITKnowHow

System Engineering

Systems Engineering (SE) ist eine, auf bestimmten Denkmodellen und Grundprinzipien beruhende Wegleitung zur zweckmässigen und zielgerichteten Gestaltung, Beschaffung und Realisierung komplexer Systeme.

SE als methodische Komponente bei der Problemlösung:

SE ist in den Bereich Methodik einzuordnen. Zur Problemlösung braucht es das Zusammenspiel von Fachwissen, Situationskenntnisse, Methodik, Psychologie und Planung.

Ein Problem ist die Diskrepanz (Differenz) zwischen der IST-Situation und der SOLL-Vorstellung. Systems Engineering basiert auf einer Reihe von Postulaten und Arbeitshypothesen, die kurz wie folgt umschrieben werden können:

• Das Systemkonzept dient dazu komplexe Sachverhalte zu strukturieren mit unterschiedlichen Betrachtungsaspekten und Detailierungsgraden

• Die Abgrenzung eines Problemes soll die Überforderung aller Ressourcen verhindern.

• Der Prozess der Systemgestaltung ist in klar abgegrenzte Arbeitsphasen zu unterteilen.

• Eine exiplizite Zielformulierung soll alle nachfolgenden Tätigkeiten fokussieren.

• Alle Teile eines Systems müssen auf die Bedürfnisse und Erfordernisse des Ganzen abgestimmt werden.

• Durch untersuchen möglicher Lösungsvarianten soll die Systemeffizienz gesteigert werden, wobei das Variantenspektrum laufend auf die Erfolgversprechenden einzuengen ist.

• Es soll eine bewusste Kompetenztrennung zwischen Lösungssuche und Lösungsauswahl angestrebt werden.

• Eine angemessene Projektorganisation ist ebenso wichtig, wie die konzeptionelle Systemgestaltung.

• Die Zuteilung von Teilaufgaben soll aus den Bedürfnissen des zu lösenden Problems abgeleitet werden.

Komponenten der Systementwicklung:

• Systemdenken

• Vorgehensmodell

• Problemlösungsprozess

Page 146: ITKnowHow

• Systemgestaltung

• Projektmanagement Das System

Unter einem System soll eine Gesamtheit von Elementen verstanden werden, die miteinander durch Beziehungen verbunden sind.

Abbildung: System mit den Grundbegriffen des Systemdenkens

Im Systemdenken spielen Modelle eine grosse Rolle. Ein Modell dient dazu, die Realität abzubilden. Man unterscheidet zwischen Erklärungsmodellen (beschreibt einen Ist-Zustand) und Gestaltungsmodellen (beschreibt einen Soll-Zustand).

Offene Dynamische Systeme stehen in Beziehung mit ihrer Umwelt und die Beziehungen unterliegen ständigen Veränderungen. Es gibt offene und geschlossene Systeme, wobei dies eine reine Definitionssache ist. Hierarchischer Aufbau von Systemen

Es auch möglich ein Element als System aufzufassen, wenn es sich als zweckmässig und notwendig erweist und wenn es gelingt, dieses wiederum in Elemente zu unterteilen. Ein solches System wird relativ zum vorher betrachteten System als

Page 147: ITKnowHow

Subsystem bezeichnet. Die hierarchische Gliederung in Untersysteme und die Gliederung in Teilsysteme schliessen sich nicht aus, sondern ergänzen sich.

Abbildung: Stufenweise Auflösung eines Systems in Untersysteme

Umwelt und Systemabgrenzung

Die Nahtstelle zwischen dem System und er Umwelt nennt man Systemgrenze. Systemgrenzen sind praktisch nie gegeben, sondern müssen festgelegt werden. Dadurch soll die Komplexität reduziert werden. Man spricht von geschlossenen und offenen Systemen, das heisst Systeme, die durch Randelemente im Kontakt mit Umweltelementen aus der Umwelt stehen. Dynamische Systembetrachtung

• Art und Intensität der Beziehung zwischen System und Umwelt können sich ändern.

• Art und Intensität der Beziehungen in einem System können sich ändern.

• Die Eigenschaft von Elementen können sich ändern.

• Die Struktur kann sich ändern.

Page 148: ITKnowHow

Ablaufdiagramme können bei der Betrachtung von dynamischen Systemen sehr hilfreich sein. Die Bedeutung des Systemansatzes für die Planung

• Ganzheitliches Denken

• Der Systemansatz ermöglicht eine Erweiterung des Betrachtungshorizontes, so dass die Gefahr des Kurierens an Symptomen geringer wird.

• Reduktion der Komplexität

• Durch stufenweises Auflösen des Systems in Unter- und Übersysteme wird die Komplexität verringert. Untersysteme können vorerst als Black-Box definiert werden um später strukturiert zu werden.

• Zwang zur Konkretisierung

• Basis zur Quantifizierung

• Basis für Analogieschlüsse

• Basis für eine optimale zwischenmenschliche Kommunikation Vorgehensmodelle

• Top-Down

• Variantenbildung

• Lebensphasen

• Problemlösungszyklus

Generelles Vorgehensmodell

• Schrittweises Einengen des Betrachtungsfeldes nach dem Top-Down-Prinzip: Abgrenzen des Systems und definieren der relevanten Umweltelemente und deren Beziehungen zum System (Randelemente)

• Sich Überblick über mögliche Lösungswege durch Variantenbildung verschaffen. Durch Wirkungs und strukturbezogene Betrachtungsweisen sollen die Varianten beurteilt und auch ausgewählt werden; Reduktion der Variantenvielfalt.

• Teiletappen bilden und deren Lebensphasen bestimmen: Entwicklung : Vorstudie, Hauptstudie, Detailstudie Realisierung : Systembau und Systemeinführung Nutzung : Systemnutzung, Anstoss zur Neu- oder Umgestaltung oder Ausserdienststellung

Page 149: ITKnowHow

Vorstudie:

• System als Ganzes betrachten

• Umwelt und Systemgrenzen definieren

• Klärungsprozess bezüglich Zielsetzung und Lösungsmöglichkeiten (Rahmenkonzept)

Hauptstudie:

• Funktionstüchtigkeit, Zweckmässigkeit und Wirtschaftlichkeit beurteilen.

• Gesamtkonzept für Investitionsentscheidung und zur Definition von Teilprojekte erstellen.

Detailstudie:

• Das Betrachtungsfeld wird radikal auf Teilprojekte eingeengt.

• Lösungskonzepte für Unter- und Teilsysteme werden konkretisiert.

Bis hierher sollen die Kenntnisse über ein System laufend erweitert werden. Die Innovations-Phase sollte bis zu diesem Zeitpunkt abgeschlossen werden. Der Systembau sollte idealerweise auf Lösungselementen basieren, deren Charakteristik man kennt oder bis zu diesem Zeitpunkt beschafft hat.

Konzeptentscheid

• Entscheid über den einmaligen Investitionsaufwand in bezug auf Entwicklung, Realisierung und Projektmanagement.

• Definition des Betriebsaufwandes über die Nutzungsdauer in Bezug auf Personal- und Sach-Aufwand.

Die Nutzenseite enthält folgende zwei Komponenten:

1. Der Betriebsnutzen

2. Der Planungsnutzen im Sinne eines Know-How-Transfers, der auch erwartet werden kann, wenn auf die Realisierung verzichtet wird.

Page 150: ITKnowHow

Systembau

Allgemein ausgedrückt versteht man darunter die Herstellung eines Systems. Behandelte Objekte sind die Teil- und Untersysteme, die einführungsreif gemacht werden.

Systemeinführung

Die Übergabe an den/die Benutzer. Es ist denkbar, dass auch Teil- oder Untersysteme eingeführt werden, währenddessen andere sich noch in der Phase der Detailstudie befinden.

Systembenützung

Diese Phase kann sehr erkenntnisreich sein in Bezug auf Betriebserfahrung für Neugestaltung analoger Systeme. Eine Erfolgskontrolle bezüglich Zielerreichung, effektive Wirkungsweise des Systems usw.

Um- oder Neugestaltung oder Ausserdienststellung

Umgestaltung grösseren Ausmasses muss erneut geplant werden. Kleinere Änderungen können während der Benützungsphase durchgeführt werden. Neugestaltung bedingt meistens die Ausserdienststellung eines bestehenden System. Der Vorgang der Ablösung sollte ebenfalls Gegenstand planerischer Überlegungen sein.

Dynamik der Gesamtkonzeption

Unvorhergesehene Entwicklungen können eine Anpassung des Gesamtkonzeptes erzwingen:

• veränderte Ertragslage

• Änderungen in des Absatz- , Beschaffungs oder Personalmärkten,

• verbesserte technologische Möglichkeiten

• unerwartete Schwierigkeiten mit der bestehenden Technologie

• gesetzliche Vorschriften.

Auch eine mittlerweile bessere Einsicht in die Problemzusammenhänge und Lösungsmöglichkeiten kann eine Anpassung der Gesamtkonzeption herbeiführen.

Page 151: ITKnowHow

Problemlösungszyklus

In dieser Mikrostrategie können folgende Subprozesse definiert werden

• Zielsuche

• Lösungssuche

• Auswahl

Die Zielsuche schliesst eine System-, Ursachen-, Lösung- und zeit-orientierte Situationsanalyse mit ein, nebst der Zielformulierung, die lösungsneutral, vollständig, präzise und verständlich und realistisch sein sollte.

Die Lösungssuche umfasst die Synthese und die Konzeptanalyse. Die Synthese versteht sich als kreativ-Phase und die Konzeptanalyse als Kontrolle über die Vollständigkeit der Muss-Ziele und die Funktionstüchtigkeit der Entwürfe.

Die Auswahl umfasst die Bewertung von Varianten und Entscheidung für eine Variante.

Dieser Problemlösungszyklus wiederholt sich laufend und zwar nicht ausschliesslich sequentiell sondern zum Teil auch parallel über die Lebensphasen: Vorstudie bis und mit Detailstudie! Folgender Zusammenhang kann aufgezeigt werden:

Situationsanalyse Zielformulierung Analyse / Synthese Bewertung Entscheidung

Vorstudie Sehr wichtig ! Sehr wichtig ! Sehr wichtig ! Wichtig ! Wichtig !

Hauptstudie Weniger wichtig Weniger wichtig Sehr wichtig ! Sehr wichtig ! Sehr wichtig !

Detailstudie eher unwichtig eher unwichtig Sehr wichtig ! Wichtig ! Wichtig !

Page 152: ITKnowHow

Hilfsmittel und Methoden Brainstorming

Brainstorming heisst so viel wie, die Anwendung von "the brain to storm a problem", oder auf deutsch: "das Gehirn anwenden, um ein Problem zu stürmen". Es ist eine der bekanntesten Einfallstechniken, zur systematischen, kollektiven Ideenfindung. Die Brainstorming-Technik wurde 1939 von Alex F. Osborn in Amerika entwickelt und dank ihrer Erfolge in den fünfziger Jahren auch in Europa bekannt.

Brainstorming ist ein Verfahren, bei dem mit Hilfe einer Gruppe Ideen zur Lösung eines Problems gesammelt und anschliessend ausgewertet werden. Dabei ist es wichtig, folgende Regeln einzuhalten: Regel 1

Keine Kritik! Die Kritik und Auswertung der Ideen muss bis nach der Brainstorming-Sitzung hinausgezögert werden. Man kann nicht zur gleichen Zeit einfallsreich und kritisch sein. Jedes Gruppenmitglied sagt, was ihm gerade einfällt. Kritik, Wertung und Urteil müssen zunächst ausgeschalten bleiben, sie hemmen spontane kreative Äusserungen. Regel 2

Einfälle spontan und ohne Hemmungen äussern. Alle Teilnehmer sollen frei und ungehemmt ihre Gedanken und Kombinationen hervorbringen. Je verrückter die Idee, desto besser. Jeder geäusserte Gedanke kann die anderen Gruppenmitglieder zu neuen Ideen anregen. Regel 3

Quantität vor Qualität. Je grösser die Zahl der Ideen, um so grösser die Chance für mögliche Kombinationen, um so höher die Wahrscheinlichkeit, dass sich dabei viele brauchbare, gute Lösungen oder sogar die "Idee des Jahrhunderts" befinden. Regel 4

Ideen kombinieren. Bestehende Ideen sind zu verbessern, weiter zu entwickeln. Die Gruppenmitglieder sollen also nicht nur eigene Ideen vortragen, sondern auch die Einfälle der andern in noch bessere, andere Ideen umwandeln und kombinieren.

Page 153: ITKnowHow

Organisation

• Ein Diskussionsleiter bereitet die Sitzung vor, d.h. er formuliert das Problem zu Beginn der Sitzung genau. Er gibt die vier Grundregeln bekannt und sorgt dafür, dass sie eingehalten werden. Durch eigene Ideen bringt er den Gedankenfluss in Fahrt und überbrückt auftretende Flauten.

• Die Gruppe sollte aus ca. 4 bis 10 Teilnehmern bestehen.

• Die Dauer der Brainstorming-Sitzung kann zwischen 15 bis 30 Minuten betragen.

• Die vorgebrachten Ideen werden möglichst für alle gut sichtbar notiert (z.B. Wandtafel).

• Nach der Brainstorming-Sitzung werden alle vorgebrachten Ideen geordnet (z.B. nach Ideen, welche sofort verwirklicht werden können, Ideen, die langfristig verwirklicht werden können und unbrauchbare Ideen). Meistens drängt es sich auf, die genannten Vorschläge zu modifizieren.

• Eventuell drängt sich ein zweites Brainstorming über ein Detailproblem auf.

• Eine Liste der besten (oder aller) Vorschläge wird der Entscheidungsinstanz unterbreitet.

Um Vorschläge zu modifizieren können folgende Fragen dienen: • Anders Verwenden - Wie kann man es anders verwenden? Welchem Gebrauch

wird es zugänglich, wenn es modifiziert ist? ...

• Adaptieren - Was ist so ähnlich? Welche Parallelen lassen sich ziehen? Was kann ich kopieren? ...

• Modifizieren - Kann man Bedeutung, Farbe, Bewegung, Klang, Geruch, Form, Grösse verändern bzw. hinzufügen? Was lässt sich noch verändern? ...

• Magnifizieren - Was kann man addieren? Mehr Zeit? Grössere Häufigkeit? Stärker? Höher? Länger? Dicker? Verdoppeln? Multiplizieren? ...

• Minifizieren - Was kann man wegnehmen? Kleiner? Kondensierter? Tiefer? Kürzer? Heller? Aufspalten? ...

• Substituieren - Durch was kann man ersetzen? Kann man anderes Material verwenden? Kann man den Prozess anders gestalten? Andere Kraftquelle? Anderen Platz, andere Stellung? ...

• Rearrangieren - Kann man Komponenten austauschen? Andere Reihenfolge? Kann man Ursache und Folge transponieren? ...

• Umkehrung - Lässt sich positiv und negativ transponieren? Wie ist es mit dem Gegenteil? Kann man es rückwärts bewegen? Kann man die Rollen vertauschen? ...

• Kombinieren - Kann man Einheiten kombinieren? Kann man Absichten kombinieren? ...

Page 154: ITKnowHow

Hilfsmittel und Methoden Brainwriting oder Methode 635

Diese Methode kann als schriftliches, individuelles Brainstorming bezeichnet werden. Die Teilnehmer versuchen, die jeweils auf einem Lösungsblatt bereits formulierte Idee weiterzuentwickeln und miteinander zu kombinieren. Zu diesem Zweck werden ein oder mehrere unabhängig voneinander arbeitende 6er-Teams gebildet, die möglichst auch räumlich getrennt arbeiten.

Zur Durchführung gelten folgende Regeln:

• Es wird zuerst eine klare Problemdefinition erarbeitet.

• Innert drei bis fünf Minuten schreibt jeder drei mögliche Lösungen auf.

• Die Blätter werden dem Partner zur rechten Seit weitergegeben. Innert drei bis fünf Minuten werden wiederum - ausgehend von den bereits entwickelten Lösungen - drei Lösungen skizziert.

• Nach fünfmaliger Weitergabe werden die Lösungen analog dem Brainstorming ausgewertet.

Durch diese Übung stehen uns 6 x 6 x 3 also 108 Ideen zur Verfügung, welche wir bewerten und diskutieren können.

Page 155: ITKnowHow

Hilfsmittel und Methoden Delphi-Methode

Die von RAND-Corporation und O. Helmer entwickelte Delphi-Methode ist eine Informationsgewinnungs-Methode durch strukturierte Gruppenbefragung. Die Delphi-Methode wird wie folgt gestaltet:

Eine Gruppe von Fachleuten wird mittels eines Fragebogens gebeten, zu einem Problem Stellung zu nehmen und Lösungsansätze aufzuzeigen. (Zeitliche Limite z.B. zwei bis drei Wochen). Die so erhaltenen Lösungsansätze werden zusammengetragen zu einer Ideenliste. Diese Liste der gesammelten Ideen wird den Fachleuten wiederum unterbreitet um daraus innerhalb einer festgesetzten Frist neue Ideen oder Vorschläge, Ergänzungen oder Erweiterungen zu entwickeln.

Die bestehende Ideenliste wird mit den neuen Ideen ergänzt und wiederum den Experten zurückgegeben. Dieser Prozess wiederholt sich bis die Ideen oder Lösungen zufriedenstellend sind.

Page 156: ITKnowHow

Hilfsmittel und Methoden Die morphologische Methode

Die Morphologie geht auf den Schweizer Forscher F. Zwicky zurück. Mit dieser Methode soll durch das systematische Zusammenstellen aller logisch denkbaren Möglichkeiten über einen bestimmten Bereich in Form einer Tabelle das unvollständige, eingefahrene, fixierte Denken vermieden werden.

Hauptinstrument der Morphologie ist der morphologische Kasten.

Regeln für das Arbeiten mit dem morphologischen Kasten

• Genaue Umschreibung und zweckmässige Verallgemeinerung des zu lösenden Problems.

• Durch Analyse wird es in Teilprobleme (Parameter) zerlegt. Die Teilprobleme sollten voneinander unabhängig und vollzählig sein.

• Zu den einzelnen Teilproblemen werden nun Lösungsvarianten (Ausprägungen) gesucht. Je nach Teilproblem kann die Zahl der Varianten unterschiedlich sein. Die Varianten selber können qualitativer oder quantitativer Natur sein. Zur Auffindung von Varianten bieten sich die kreativen Methoden an.

• Durch Kombinationen von Lösungsvarianten der Teilprobleme werden nun Varianten für die Lösung des Gesamtproblems entwickelt.

• Schliesslich werden die entwickelten Varanten bewertet.

Vereinfachtes Beispiel zur Entwicklung einer Zimmerlampe

Page 157: ITKnowHow

Hilfsmittel und Methoden Inverses Brainstorming

Bekanntlich ist der Mensch oft in der negativen Kritik bzw. im "Niederreissen" kreativer als in der positiven Kritik. Diesen Umstand macht man sich beim inversen Brainstroming zunutze, indem man die Problemstellung ins Negative umkehrt.

Anstatt beispielsweise zu fragen "Wie gewinnen wir mehr Kunden für den Artikel XY", fragen wir "Was müssen wir machen, damit der Artikel XY überhaupt nicht mehr gekauft wird?" Aus den produzierten Antworten lassen sich häufig Ideen bzw. Problemlösungen gewinnen.

Page 158: ITKnowHow

Hilfsmittel und Methoden Synektik

Synektik ist aus dem Griechischen übernommen und bedeutet soviel wie Zusammenfügen verschiedener, scheinbar nicht zusammengehörender Elemente. Bei dieser Merhode geht es darum, den unbewusst ablaufenden schöpferischen Prozess bewusst zu beeinflussen und zu steuern. Die Mitglieder einer "Synektik-Gruppe" sollen möglichst aus verschiedenen Disziplinen kommen.

Zunächst muss auch bei dieser Methode das anstehende Problem analysiert und erklärt werden. Nach anschliessender mündlicher Diskussion folgt der weitere Arbeitsablauf in zwei wichtigen Phasen:

Die erste Phase besteht in der systematischen Verfremdung des Problems. Diese sogenannte Analogiebildung erfolgt mehrmals. Die nächste Phase ist dann die Auswertung der Analogien zur Problemlösung.

Insgesamt handelt es sich bei dieser Methode zweifellos um eine der schwierigsten, welche grosse Anforderungen an die Teilnehmer stellt. Diese Methode ist dann empfehlenswert, wenn es um die Suche nach neuen technischen Problemlösungen geht.

Page 159: ITKnowHow

Beispiel

Page 160: ITKnowHow
Page 161: ITKnowHow

Sicherheit

o Computerviren o Datenschutz o Denial of Service o Firewall o Kryptographie o Risikoanalyse

Page 162: ITKnowHow

Computerviren

Die Gefahren von Computerviren sind nun schon seit längerem bekannt, haben aber bisher eher untergeordnete Bedeutung gehabt, da die Verbreitung nur per Datenträger möglich war. Das Internet stellt jedoch eine ungeahnte Gefahrenquelle dar, in der sich ein Computervirus innerhalb kürzester Zeit weltweit verbreiten kann. Was ist ein Computervirus?

Ein Computervirus ist ein Programm, das auf einem Rechner Schabernack, aber auch Schäden an Soft- und Hardware anrichten kann. Die Bezeichnung "Virus" gibt an, dass es sich dabei um ein Programm handelt, dass sich in einem infizierten System an andere Programme hängt oder in Bootsektoren ablegt und auf die Weise sich selbst weiter verbreitet.

Inzwischen ist es so, dass es auf allen Systemplattformen Computerviren gibt, die mehr oder weniger schädlich sind. Mit Abstand die meisten Viren und Virenabarten sind für die Windows-Plattform geschrieben, Ende 1998 waren hier über 20.000 verschiedene Viren bekannt, Tendenz stark steigend. Welche Arten von Computerviren gibt es?

Es gibt insgesamt fünf Hauptgruppen von Computerviren, die sich in ihren Übertragungsarten grundlegend unterscheiden:

Boot-Viren

Boot-Viren nutzen als Übertragungsmedium die Bootsektoren von Datenträgern. Sobald ein Computer auf einen Datenträger zugreift, wird zunächst der Bootsektor gelesen und dadurch der Virus in den Speicher geladen.

Programmviren

Programmviren nutzen den "klassischen" Weg über ausführbare Programme, an die sie sich anhängen. Werden diese Programme gestartet, wird auch der Programmvirus aktiviert.

Hybridviren

Hybridviren stellen die Mischform zwischen Boot- und Programmviren dar. Meist kommen Sie als Programmviren daher und installieren sich nach dem Aufruf der

Page 163: ITKnowHow

entsprechenden Datei als Boot-Virus in einen Bootsektor, von dort aus können sie bei jedem Datenträgerzugriff geladen werden.

Makroviren

Makroviren nutzen die teilweise sehr umfangreichen Makrosprachen von hochentwickelten Anwendungsprogrammen, z.B. einer Textverarbeitung. Im Gegensatz zu allen anderen Virenarten können Makroviren aber auch andere Betriebssysteme in Mitleidenschaft ziehen, wenn für diese die Anwendung mit der entsprechenden Makrosprache ebenfalls implementiert ist.

Trojanische Pferde

Trojanische Pferde sind genau genommen keine Computerviren, da sie sich nicht von allein reproduzieren und verbreiten. Ihre Aufgabe besteht darin, geheime Funktionen auf einen Computer zu installieren. Dies wiederum wird mit einem augenscheinlich harmlosen Programm vorgenommen.

Wie hoch ist die Virengefahr im Netz?

Das Gefahrenpotential in Sachen Computerviren im Internet darf weder unter-, noch überschätzt werden. Jede ausführbare Datei, die Sie aus dem Internet herunterladen, kann virenverseucht sein! Insbesondere raubkopierte (sog. Warez) und gehackte Software (sog. Crackz) bergen eine sehr hohe Gefahr einer Virenverseuchung, zum anderen auch deshalb, weil meist keiner so recht sagen kann, von wo die Software kommt und wie sie gehackt wurde.

Eine sehr hohe Gefahr geht durch Trojanische Pferde aus: Bestimmte Programmpakete (als besonders gefährlich haben sich auf der Windows-Systemplattform die Programme Back Orifice und NetBus herausgestellt) installieren auf einem Wirtsrechner ein kleines Serverprogramm, das durch ein Clientprogramm aktiviert werden kann, wenn der Wirt online ist. Trifft nun ein solcher Client auf einen Rechner, der das Serverprogramm installiert hat, kann er beliebige Manipulationen an dem Rechner vornehmen, bis hin zum Ausspähen aller Tastatureingaben und Herunterfahren des Rechners.

Eine andere, hohe Gefahr geht durch Scriptsprachen wie zum Beispiel Visual Basic auf der Windows-Plattform aus. Scripte in Visual Basic, der "Haussprache" von Microsoft, werden unter neueren Windows-Versionen wie normal ausführbare Programme behandelt. Dazu bedient sich Windows dem sogenannten "Windows Scripting Host", ein Interpreter für Visual Basic. Fatalerweise lassen sich jedoch solche Scripte von älteren Versionen der Microsoft-Mailprogramme Outlook und Outlook Express ohne Nachfrage mit einem einfachem Klick aus Mail-Anhängen starten. Dies eröffnet destruktiven Programmen Tür und Tor, da der Windows Scripting Host vollen Systemzugriff hat, selbst auf so hochsensiblen Bereiche wie die Registrierungsdatenbank. Dieses krasse

Page 164: ITKnowHow

Sicherheitsloch zu Nutze machte das Virus "ILOVEYOU", das sich im April 2000 in Windeseile weltweit verbreitete. Wie kann man sich schützen?

Es gibt einige Vorsichtsmassnahmen, die gerade in kleineren Netzwerken oder in Firmen getroffen werden sollten, um die Virengefahr auszuschalten oder zumindest kleinzuhalten:

Aktuelles Antiviren-Programm!

Sie sollten sich unbedingt ein aktuelles Antiviren-Programm zulegen, wenn Sie Dateien aus dem Internet herunterladen möchten und diese dann natürlich nach dem Herunterladen damit durchchecken. Vertrauen ist zwar gut, Kontrolle ist jedoch besser.

Keine unbekannten Programme starten!

Seien Sie bei unbekannten Programmen, ausführbaren Dateien und fremden Datenträgern immer misstrauisch! Überprüfen Sie solche unbekannten Dateien unbedingt mit einem Antiviren-Proramm, bevor Sie sie benutzen.

Keine sensiblen Daten!

Begrenzen Sie von vorneherein, welche Rechner einen Internetzugang haben sollen und welche nicht. Es ist immer sicherer, wenn ein Rechner, auf dem z.B. eine Lohnbuchhaltung läuft, keinen Zugang ins Internet hat und damit schon physikalisch vor Fremdzugriffen geschützt ist.

Page 165: ITKnowHow

Datenschutz

Datenschutz und Datensicherheit thematisiert die sich aus den Bedingungen elektronischer Datenverarbeitung für den Schutz und die Sicherheit von Rechts- und Wirtschaftsgütern ergebenden Probleme und Lösungen: Des Schutzes und der Sicherheit bedürfen nicht nur personenbezogene Daten, sondern auch andere schützenswerte Daten wie beispielsweise Betriebs- und Geschäfts- oder Amtsgeheimnisse. Sichergestellt sein muss auch die Beweissicherheit von Daten in Anwendungen, Systemen und Betriebsabläufen.

Schutz und Sicherheit von Daten wird von den unterschiedlichen Interessen der an ihrer Verarbeitung Beteiligten bzw. der von ihr Betroffenen beeinflusst. Dabei fällt dem Datenschutz der rechtliche und der Datensicherheit der technische Aspekt der Problemlösung zu. Schutz von Kommunikationsdaten

Mit der Entwicklung neuer Informations- und Kommunikationstechniken und entsprechender Anwendungen für die geschäftliche, amtliche und private Kommunikation gewinnen der Schutz und die Sicherheit der Kommunikation, ihrer Umstände und Inhalte an Bedeutung. Darunter fallen beispielsweise neben dem Schutz der Vertraulichkeit, der Integrität und der Authentizität, Anonymität oder Pseudonymität auch weitere berechtigte Interessen der Teilnehmer, die durch entsprechende technische Verfahren zu gewährleisten sind. Themenfelder sind hier beispielsweise die Integration von Sicherheitsdiensten in Kommunikationsprotokollen und - anwendungen sowie die Entwicklung datenschutzgerechter und sicherer Anwendungen der Telekommunikation und neuer elektronischer Medien in geschlossenen ebenso wie in offenen Netzen. Recht und Technik, Technik und Recht

Datenschutz und Datensicherheit beschäftigt sich mit dem (Spannungs)Verhältnis von technischer Entwicklung und normativen Vorgaben aus Recht, Standardisierung und Ethik. Dabei geht es um die Frage, auf welche Weise die von Anwendern und Nutzern, Politik und Gesellschaft formulierten Anforderungen, Bedürfnisse und Erwartungshaltungen in technische Gestaltungen sozial-, menschen- oder verfassungsverträglich umgesetzt werden können. Gegenstand von Datenschutz und Datensicherheit sind auch die Auswirkungen technischer Entwicklungen auf das die Gesellschaftsordnung prägende Recht oder die in ihr herrschenden Wertvorstellungen. Mensch und Technik

Die Entwicklung und der Einsatz insbesondere sicherheitstechnischer Systeme prägt immer tiefgreifender unsere Umwelt- und Lebensbedingungen. Daher spielen im Zusammenhang mit Fragen der Beherrschbarkeit und Kontrollierbarkeit technischer

Page 166: ITKnowHow

Systeme die Gestaltung von Benutzerschnittstellen und Akzeptanzprobleme von Sicherheitstechniken eine immer wichtigere Rolle. Ein weiterer Schwerpunkt sind in diesem Zusammenhang Risikountersuchungen technischer Systeme nach dem Stand von Wissenschaft und Technik. Nationale und internationale Regulierung

Mit der Entwicklung der europäischen Integration (Europäische Gemeinschaft, Europarat) und der Globalisierung des Welthandels (WHO, OECD) sind Datenschutz und Datensicherheit nicht mehr nur nationale Fragen. Datenschutz und Datensicherheit wird die internationale, insbesondere die europäische Entwicklung von Datenschutz und Datensicherheit darstellen und über ihre Bedeutung für die geschäftliche und private Datenverarbeitung berichten. Verfügbarkeit, Integrität, Vertraulichkeit, Authentizität

Die Bedrohung der Verfügbarkeit betrifft Daten, Programme, Hardware und alle sonstigen für die Verarbeitung notwendigen Mittel. Es ist daher alles Notwendige zu unternehmen, um zu verhindern, dass

• Daten verschwinden oder nicht zugreifbar sind, wenn sie gebraucht werden,

• Programme nicht funktionsbereit sind, wenn sie aufgerufen werden sollen,

• Hardware und sonstige notwendigen Mittel nicht funktionsfähig oder gar verschwunden ist, wenn sie für die Verarbeitung benötigt wird.

Generell geht es also darum, dass die gewünschten Funktionen eines Systems zur Verfügung stehen, wenn man sie braucht.

Die Bedrohung der Integrität (Verlässlichkeit) betrifft ebenfalls Daten, Programme, Hardware und alle sonstigen für die Verarbeitung notwendigen Mittel. Es ist daher alles Notwendige zu unternehmen, um zu verhindern, dass

• Daten verfälscht werden und falsche Daten verarbeitet werden,

• Programme verfälscht werden, so dass sie (insbesondere unbemerkt) fehlerhafte Ergebnisse erzeugen oder Funktionen ausführen, die nicht erwünscht sind,

• Hardware und sonstige notwendigen Mittel verfälscht werden, so dass sie gewünschte Funktionen unterlassen oder fehlerhaft ausführen oder unerwünschte Funktionen ausführen.

Die Bedrohung der Vertraulichkeit betrifft vor allem Daten. Es ist daher alles Notwendige zu unternehmen, um zu verhindern, dass Daten in unbefugte Hände geraten sollen. Allerdings gibt es Umstände, unter denen auch Programme und Systemkonfigurationen Unbefugten gegenüber vertraulich zu behandeln sind.

Die Bedrohung der Authentizität (Verbindlichkeit) betrifft vor allem Daten, insbesondere Dokumente und Urkunden, die elektronisch übertragen werden. Es ist daher alles Notwendige zu unternehmen, um zu verhindern, dass zu der richtigen Herkunft solcher Daten Zweifel bestehen können und die Urheber dieser Daten korrekt

Page 167: ITKnowHow

authentifiziert werden können. Allerdings kann es in bestimmten Anwendungszusammenhängen auch wichtig sein, dass die Authentizität von Programmen und von Hardware und anderen erforderlichen Mittel garantiert werden muss (z.B. im elektronischen Zahlungsverkehr). Technisch-organisatorischer Datenschutz

Unter technisch-organisatorischem Datenschutz versteht man alle technischen und organisatorischen Massnahmen zur Sicherstellung der informationellen Selbstbestimmung und der Ordnungsmässigkeit bei der Verarbeitung personenbezogener Daten.

Die informationelle Selbstbestimmung der Betroffenen ist auch verletzt, wenn Unbefugte sich der Daten der Betroffenen bemächtigen können, denn die Unbefugten haben weder die Einwilligung der Betroffenen, noch gibt ihnen ein Gesetz das Recht, die Daten zu verarbeiten.

Es ist daher die gesetzliche Pflicht des Datenverarbeiters, die Daten davor zu schützen, dass sie Unbefugten in die Hände fallen. Das gilt für die Speicherung in informationstechnischen Systemen oder auf Papier ebenso wie bei der Datenfernübertragung oder auf dem Postwege. Es gilt ebenso für den täglichen Umgang mit den Daten.

Die Anforderungen der sog. 10 Gebote können mit der geeigneten Kombination von Grundtechniken organisatorischer, baulicher und informationstechnischer Art erfüllt werden:

Voraussetzung für guten technisch-organisatorischen Datenschutz ist die Schaffung verbindlicher organisatorischer Regelungen. Arbeitsabläufe sind verbindlich festzulegen, Zuständigkeiten und Befugnisse sind zuzuordnen, der Umgang mit der Informationstechnik und vor allem mit den vorhandenen technischen Sicherheitseinrichtungen ist vorzugeben. Wie sollen Befugte und Unbefugte im Zweifelsfall unterschieden werden, wie soll fehlerhaftes Handeln oder gar vorsätzliche Sabotage von korrektem Vorgehen unterschieden werden, wenn es keine verbindlichen Unterscheidungsmerkmale gibt?

Eine weitere Grundtechnik organisatorischer Art ist die Dokumentation. Eine Dokumentation beschreibt den Sollzustand eines Systems, d.h. den vorgesehenen Zustand. Sie erlaubt den Vergleich mit den tatsächlichen Gegebenheiten, ermöglicht daher erst die Revision - aber nur, wenn sie sorgfältig geführt, vollständig und aktuell ist und von fachkundigen Dritten in angemessener Zeit verstanden werden kann. Wie soll ein Verantwortlicher, ein Revisor, ein Rechnungsprüfer, ein Datenschutz- bzw. Sicherheitsbeauftragter Abweichungen vom Soll feststellen können, wenn er nicht eindeutig weiss, was denn das Soll ist? Wie kann ein Programmierer ohne Dokumentation ein (vielleicht sogar ein von ihm geschriebenes) Programm modifizieren, ohne möglicherweise im Programm Chaos anzurichten?

Viele Massnahmen werden mit simpler, aber wirksamer physischer Abschottung umgesetzt, durch geeignete bauliche Massnahmen, um den Zutritt Unbefugter zu verhindern, oder durch wirksam verschlossene Behältnisse für Computer, andere Hardwarekomponenten, Datenträger oder Listen.

Page 168: ITKnowHow

Um festzustellen, ob jemand etwas darf oder nicht, bedarf es seiner Identifikation und vor allem seiner Authentifikation. Mit der Authentifikation soll festgestellt werden, ob jemand denn der ist, als der er sich ausgibt. Dies kann bei der Zugangskontrolle ein Pförtner oder Wachmann auf traditionelle Art machen, bedeutsamer ist jedoch die maschinelle Authentifikation. Sie findet an der Schnittstelle statt, an ein informationstechnisches System durch einen menschlichen Benutzer oder ein anderes informationstechnisches System zur Durchführung einer sicherheitsrelevanten Aufgabe aufgefordert wird. Das leistungserbringende System versucht mit der Authentifikationsprozedur festzustellen, wer der menschliche Benutzer oder was das andere informationstechnische System ist, damit entschieden werden kann, ob es die angeforderte Leistung erbringen darf oder nicht.

Für die maschinelle Authentifikation an der Mensch-Maschine-Schnittstelle, z.B. zur Prüfung, ob jemand zur Nutzung eines informationstechnischen Systems berechtigt ist, ist nach wie vor die Passwortprüfung und/oder der maschinenlesbare Ausweis verbreitete Methoden. Mit sog. biometrischen Verfahren, die individuelle körperliche Eigenschaften des Benutzers zur Prüfung heranziehen, z.B. Augenhintergrund, Finger- oder Handabdruck, Spracherkennung oder Unterschriftsprüfung, wird experimentiert, praktische Bedeutung haben sie bisher kaum erlangt.

Für die maschinelle Authentifikation an der Maschine-Maschine-Schnittstelle, z.B. zwischen Chipkarte und Chipkartenlesesystem, sind komplexe kryptographische Verfahren erforderlich, z.B. Challenge-Response-Verfahren.

Eine weitere wichtige Grundtechnik für den technisch-organisatorischen Datenschutz ist die Protokollierung. Mit der Aufzeichnung signifikanter Ereignisse in einem informationstechnischen System lassen sich die Ist-Zustände von Systemkomponenten und sicherheitsrelevante Prozesse, z.B. Zugriffe auf und Änderungen von schutzbedürftigen Daten, Aufrufe von Programmen, Datenübermittlungen usw. rückwirkend nachvollziehen.

Die kryptographische Verschlüsselung von Daten dient in diesem Zusammenhang u.a. dazu, die Interpretation und damit die missbräuchliche Nutzung der Daten zu verhindern. Dies ist vor allem dort wichtig, wo man den unbefugten Zugang an die Daten nicht wirkungsvoll genug verhindern kann, z. B. bei der Übertragung über ungeschützte Kommunikationssysteme oder der Speicherung von Daten in mobilen informationstechnischen Systemen.

Der Zielsetzungen des technisch-organisatorischen Datenschutzes beschränken sich aber nicht nur auf die Sicherstellung der informationstechnischen Sicherheit bei personenbezogenen Daten: Es sind auch die technischen und organisatorischen Massnahmen zu treffen, die erforderlich sind, um die Ausführung der übrigen datenschutzrechtlichen Vorschriften zu gewährleisten.

Beispiele: Massnahmen, um

• die datenschutzgerechte Löschung von Daten zu ermöglichen,

• die datenschutzgerechte Sperrung von Daten zu ermöglichen,

• Daten berichtigen zu können,

• Auskunftsbegehren datenschutzgerecht befriedigen zu können.

Page 169: ITKnowHow

Mit anderen Worten: Es müssen die technischen und organisatorischen Massnahmen ergriffen werden, die erforderlich sind, um die Ansprüche aus den Rechten, die die Betroffenen nach den Datenschutzgesetzen wahrnehmen können, auch effizient und korrekt erfüllen zu können. Datensicherung

Datensicherung ist der Sammelbegriff für alle Massnahmen zur Sicherstellung der informationstechnischen Sicherheit und damit auch des technisch-organisatorischen Datenschutzes. Allerdings erstrecken sich Massnahmen der Datensicherung auch auf nicht personenbezogene Daten.

Im engeren Sinne wird Datensicherung als Sammelbegriff für die Massnahmen verstanden, die der Absicherung der Verfügbarkeit der Daten und Programme dienen. Dazu werden Daten und Programme auf andere Datenträger kopiert (Back up) und meist auch ausgelagert. Falls also Daten oder Programme im Laufe der Verarbeitung verloren gegangen sind oder fehlerhaft wurden, können sie mit Hilfe der Kopien rekonstruiert werden. Datensicherheit

Datensicherheit ist das angestrebte Ergebnis der Massnahmen zur Datensicherung, bei personenbezogenen Daten also der Massnahmen des technisch-organisatorischen Datenschutzes.

Weitere Informationen:

• Richtlinie des Europäischen Parlaments zum Schutz natürlicher Personen bei der Verarbeitung personenbezogener Daten und zum freien Datenverkehr

Page 170: ITKnowHow

Denial of Service-Attacks

Eine der grössten Gefahren im Internet stellen sogenannte "Denial of Service-Attacks" dar: Bei diesen Attacken werden Rechner im Internet zu Absturz gebracht, die dann vorübergehend anderen Nutzern nicht zur Verfügung stehen (deshalb auch "Denial of Service", übersetzt soviel etwa wie "Verweigerung des Dienstes"). Eines haben fast alle Attacken gemein: Sie nutzen die Löcher von schlampig programmierten TCP/IP-Portierungen und schlecht administrierten Netzwerken aus. Mail-Bombing

Einer der ältesten Denial of Service-Attacks ist das inzwischen "klassische" Mail-Bombing. Hierzu wird ein Empfänger mit einer Vielzahl von gleichlautenden eMails regelrecht bombadiert, so dass das nächste Herunterladen der vorhandenen eMails zur Qual werden dürfte. Die Ausführung erzeugt aber noch ein anderes Opfer:

Eine Mailbombe besteht im Prinzip aus einer einzigen eMail, die an einen SMTP-Mailserver zur Ausführung geschickt wird. Diese eMail hat jedoch die Besonderheit, dass sie die eMail-Adresse des Opfers gleich mehrmals als BCC-Empfänger enthält. Der ausführende Mailserver hat bei entsprechend hoher Angabe von BCC-Empfängern ebenfalls entsprechend genug zu tun, diese eMails zu generieren und zu versenden.

Eine sehr unangenehme Variante des Mail-Bombings ist die Anmeldung eines Opfers bei Unmengen von Mailinglisten. Das Opfer muss sich nämlich nach so einer Attacke mühsam aus allen angemeldeten Listen manuell wieder austragen. Broadcast Storms

Broadcast Storms gehören ebenfalls schon zur älteren Generation von Denial of Service-Attacks. Sie richten besonders viel Schaden in lokalen Netzwerken an, in denen jeder Rechner als Gateway fungiert und die Netzwerktopologie nur mangelhaft gewartet wird.

An jeden Rechner wird bei einer Broadcast Storm-Attacke ein Strom an IP-Paketen geschickt, die allesamt an nichtexistierende Ziele adressiert sind. Wird dieser Datenstrom für mehrere Rechner innerhalb dieses Netzwerkes aufrechterhalten, ist das gesamte Netzwerk recht bald ziemlich lahmgelegt, da die Rechner die falsch adressierten Daten über die Gateways immer wieder in andere Subnetze verschieben.

Um die Problematik von Broadcast Storms zu vermeiden, ist eine ausgeklügelte und sorgfältige Planung des Netzwerks notwendig, um das "Hängenbleiben" von umherirrenden IP-Paketen von vorneherein zu verhindern bzw. in kürzester Zeit zu eliminieren. Heutzutage erleben Broadcast Storms leider wieder eine Renaissance, da immer mehr lokale Netzwerke an das Internet angebunden werden und dabei immer weniger auf die Sicherheit geachtet wird.

Page 171: ITKnowHow

Smurf

Smurf-Attacken gehören zur Gruppe der Broadcast Storms, arbeiten aber auf eine etwas andere Weise:

Bei einem Smurf Angriff sendet der Angreifer extrem viele ICMP-Pakete (z.B. Ping-Anfragen) an die Broadcast-Adresse eines Netzwerks, so dass dieses Paket an jeden Rechner innerhalb des Netzwerks weitergeleitet wird. Der Angreifer tarnt sich jedoch nicht mit seiner eigenen oder einer nicht-existenten Adresse, sondern mit der Adresse des eigentlichen Opfers. Nun passiert folgendes:

Die ICMP-Anfragen werden nun um die Anzahl der Rechner im Netzwerk vervielfacht; das Netzwerk dient quasi als Sprungbrett. Ist das Netz korrekt konfiguriert, versanden die ICMP-Antworten am Router des Netzwerks und werden nicht zur Adresse des Opfers gesendet. Ist das Netz jedoch fehlkonfiguriert, werden die multiplizierten ICMP-Antworten an das Opfer weitergeleitet.Dadurch koennen Angreifer mit geringer Leitungskapazitaet (Modem, ISDN) Opfer mit breitbandigen Anschluessen nahezu lahmlegen. Die ICMP-Antworten belegen die gesamte Leitungskapazität und normale Datenkommunikation wird unterbunden. Sehr häufig brechen auch die Server unter diesem Ansturm zusammen und müssen von ihren Administratoren vorübergehend vom Netz genommen werden.

Die Angreifer selbst sind nur sehr schwer zu identifizieren, da sie sich als das Opfer tarnen. Die einzige sichere Abwehr ist, die Administratoren der als Sprungbrett dienenden Netzwerke über ihr Sicherheitsloch zu informieren und zu überzeugen, ihre Netze korrekt zu konfigurieren, um das Nach-Aussen-Leiten von Broadcastpings (ICMP) zu unterbinden. Distributed Denial-of-Service-Attacks (DDoS)

Diese Art von Denial-of-Service-Attacken sind genau genommen keine eigenen Attackeverfahren, sondern beziehen sich auf den Angriffsweg. Im Gegensatz zu einer einfachen Denial-of-Service-Attacke werden Distributed Denial-of-Service-Attacken nicht nur über einen Angriffsrechner gefahren, sondern gleichzeitig im Verbund mit mehreren Rechnern.

Zu diesem Zweck plaziert ein Angreifer ein sogenanntes Trojanisches Pferd auf verschiedenen Rechnern im Internet, vornehmlich auf Rechner, die per Standleitung und besonders breitbandig angebunden sind. Diese Plazierung kann auch schon Monate vor eigentlichen Angriffen erfolgen. Wird nun ein Angriff auf ein bestimmtes Opfer gestartet, erfolgen die Angriffe über die Rechner, auf denen das Trojanische Pferd installiert ist, gleichzeitig und erzeugen in der Gesamtheit ein enormes Angriffsvolumen.

Die Bekämpfung von Distributed Denial-of-Service-Attacken ist extrem schwierig. Bei einem akuten Angriff kann der Administrator des angegriffenen Rechners lediglich die Datenflut von angreifenden Servern filtern, zum Beispiel über eine Firewall, um so wenigstens die Server zu schützen. Das Netz bleibt jedoch im Regelfalle trotzdem nicht erreichbar, da die Anbindung selbst überlastet bleibt.

Page 172: ITKnowHow

Einzig praktikable Lösung bleibt auch hier nur die nachträgliche Informierung aller Administratoren, von deren Rechnern ein Angriff im Verbund erfolgte. Out of Band-Packets ("Nukes") Nahezu schon legendäre Denial of Service-Attacks sind die sogenannten "Nukes". Hierzu werden spezielle IP-Pakete, die ein besonderes Merkmal haben, an einen Rechner geschickt. Entsprechend ungesicherte Betriebssysteme (ungepatchte Versionen von Windows und Linux) quittieren den Empfang solcher Pakete mit dem völligen Systemstillstand. Inzwischen existieren für (fast) alle betroffenen Betriebssysteme geeignete Patches, die diesen Fehler eliminieren.

Out of Band-Packets bestehen aus einem speziellen UDP-Paket, dass gewöhnlich an den Port 139 (NetBIOS-Port) gesendet wird, da dieser standardmässig bei vielen Computern geöffnet ist. Prinzipiell funktioniert es aber auch mit allen anderen Ports, die für Datenempfang standardmässig geöffnet sind. Die Wirkungsweise liegt nun darin, dass ein entsprechend ungesichertes Betriebssystem mit Out of Band-Informationen nichts anfangen kann und in einer "panikartigen" Reaktion im ungünstigsten Fall die aktuelle Sitzung mit einem Systemabsturz beendet.

Eines der populärsten Opfer von Nukes war 1997 die Computersendung "netNite", damals noch im ZDF. Zur laufenden Sendung bot man einen Chat mit den Redakteuren über einen IRC-Server an, der allerdings auf einem ungepachten Windows NT-Server installiert war. Dieser wiederum war Ziel von Nukes einiger Nutzer, so dass im Laufe der Sendung der Chatserver mehrmals neugestartet und schliesslich gänzlich abgeschaltet werden musste. Alle Zuschauer waren unfreiwillig Zeugen dieser Aktion, da ein Screenshot des Chatfensters permanent im Fernsehbild eingeblendet war. TCP Syn Flooding ("Land Attacks")

Diese Attacke nutzt ein Feature von TCP aus: Bevor eine Verbindung zwischen zwei Rechnern aufgebaut wird, sendet der Absender spezielle IP-Pakete an den Empfänger, um eine Verbindung anzukündigen (sogenannte "SYN"-Pakete). Der Empfänger sendet dann ein Antwort-Paket zurück an den Absender und erwartet von ihm ein sogenanntes "ACK"-Paket ("ACK" = "Acknowledgement" = Empfangsbestätigung).

Führt nun ein Absender eine TCP Syn Flooding-Attacke aus, sendet er nicht, wie vom Empfänger erwartet, ein ACK-Paket aus, sondern bombadiert den Empfänger weiterhin mit SYN-Paketen. Der Empfänger quittiert wacker alle diese SYN-Pakete. Hier tritt nun der Fehler bei entsprechend fehlerhaften TCP-Implementierungen auf, die bei einem weiteren SYN-Paket nicht nur für das gerade empfangene SYN-Paket eine ACK-Anforderung verschicken, sondern auch für alle bisher empfangenen. Auf die Weise erzeugt der Empfänger-Rechner recht schnell eine hohe Datenflut und ist für die Zeit komplett ausgelastet.

Page 173: ITKnowHow

Large Packet-Attacks ("Ping of Death")

Ein weiterer, besonders hinterhältiger Veteran der Denial of Service-Attacks sind die "Large Packet-Attacks", unter Insidern "Ping of Death" genannt (obwohl die Attacke nichts mit dem eigentlichen Ping-Programm zu tun hat).

Die Wirkungsweise von Large Packet-Attacks ist zugleich einfach und fatal: Das IP-Protokoll verpackt alle Daten beim Absender in 64 kB grosse Päckchen. Diese werden jedoch protokollintern vor der Übertragung in kleinere Päckchen zerlegt, um sie einfacher übertragen zu können (fragmentieren). Beim Empfängerrechner werden diese einzelnen Päckchen wieder zusammengefügt (reassemblieren), allerdings erst, wenn alle Einzelteile vorliegen. Ist das ankommende Paket am Ende grösser als 64 kB, läuft ein interner Speicherpuffer über und bringt im ungünstigsten Fall den Rechner zum Absturz. Ping Flooding

Das Ping Flooding gehört zu Denial of Service-Attacks, die keine Sicherheitslöcher ausnutzen. Pings werden benutzt, um die Erreichbarkeit von anderen Hosts im Netz zu prüfen. Ein "angepingter" Host quittiert hierzu einen Ping mit einer echoartigen Antwort, einem sogenannten "Pong".

Beim Ping Flooding wird ein Host jedoch mit unzähligen Ping-Anfragen bombadiert, die der Host dann natürlich alle bearbeitet (falls keine entsprechenden Mechanismen die Abarbeitung von rasch wiederholenden Ping-Anfragen verhindert) und entsprechend das eigene System und die Netzverbindung auslastet.

Ping Flooding ist einer der Denial of Service-Attacken, die richtig teuer werden können: Wird eine Netzverbindung eines Hostes nämlich nach dem erzeugten Datenaufkommen abgerechnet, können teilweise horrende Summen entstehen. Ping-AT-Attacks

Eine besonders heimtückische Attacke betrifft eine Vielzahl von Modems. Zum besseren Verständnis hierzu jedoch kurz etwas Geschichtliches:

Der amerikanische Modemhersteller Hayes [ http://www.hayes.com/ ], Pionier in der Modemtechnologie, hat Ende der 70er Jahre eine einheitliche, zeilenorientierte und offene Befehlsprache für Modems entwickelt, die sogenannten AT-Befehle. Anhand dieser AT-Befehle ist es möglich, jedes Modem anzusprechen, in welches diese Sprache implementiert ist. Inzwischen ist in allen modernen Modems die AT-Befehlssprache implementiert, so dass Modems von Betriebssystemen und Programmen meist universell angesprochen werden können.

Es ist wichtig zu verstehen, dass ein Modem offline prinzipiell im Kommandomodus läuft, also über AT-Befehle ansprechbar ist. Wird eine Verbindung aufgebaut, geht das Modem in den Übertragungsmodus über und ist in der Zeit nicht über AT-Befehle ansprechbar, es sei denn, man übergibt dem Modem drei Escape-Zeichen (im Fachjargon mit "+++" gekennzeichnet), die das Modem als Befehl zum Umschalten in den Kommandomodus interpretiert. Aus Sicherheitsgründen muss zwischen diesem

Page 174: ITKnowHow

Umschaltkommando in den Kommandomodus und dem ersten AT-Befehl mindestens eine Pause von 1 Sekunde vorhanden sein.

Leider verzichten einige Modemhersteller aus patentrechtlichen Gründen auf diese Pause, so dass bei diesen Modellen der Umschaltbefehl in den Kommandomodus und ein kompletter AT-Befehl direkt hintereinander ohne Zeitverzug eingegeben werden können. Dadurch ist nun folgendes möglich:

Ein Absender schickt an einen Empfänger über das Internet ein spezielles Ping-Paket, das z.B. die Sequenz "+++ATH0" (Umschalten in den Kommandomodus und Beenden der Verbindung) enthält. Laut Ping-Protokoll antwortet der Rechner des Empfängers auf die Ping-Anfrage mit der Spiegelung des Paketes. Kennt das Modem nun keine Pause zwischen dem Umschalten in den Kommandomodus und dem ersten AT-Befehl, wird es den Paketinhalt des Antwort-Pings als abzuarbeitende Sequenz interpretieren und die Verbindung beenden.

Page 175: ITKnowHow

Firewall

Als Firewall wird heute jedes System bezeichnet, welches den Datenverkehr zwischen zwei Netzwerken kontrolliert. Im einfachsten Fall ist dies ein Router. Ein Firewallsystem kann auch aus mehreren zusammenarbeitenden Komponenten, z. B. zwei Routern und einem Rechner, bestehen. Heutige Firewall-Rechner besitzen meistens zwei oder drei Netzwerkanschlüsse, und lassen sich je nach Anforderung in verschiedene Topologien einbinden.

Ein Firewall kanalisiert die Kommunikation, indem alle Daten von und nach aussen über dieses System laufen müssen. Die Kanalisierung erhöht zudem die Chancen, einen Einbruchversuch anhand ausführlicher Protokoll-Dateien zu erkennen, da der Eindringling erst den Firewall passieren muss.

Mit einem Firewall lässt sich die Wahrscheinlichkeit erheblich verringern, dass Angreifer von aussen in inneren Systeme und Netze eindringen können. Zudem kann das System interne Benutzer davon abhalten, sicherheitsrelevante Informationen, wie unverschlüsselte Passwörter oder vertrauliche Daten, nach aussen geben.

Ein Firewall kann aus einer einzelnen Maschine oder aus einer mehrstufigen Anordnung bestehen. Eine mehrstufige Anordnung ist vor allem dann sinnvoll, wenn man bestimmte Dienste der Öffentlichkeit zur Verfügung stellen will, etwa einen Internet- oder ftp-Server. Die entsprechenden Hosts können dann in einem Zwischennetz isoliert werden.

Die Kontrolle des Datenverkehrs kann auf verschiedenen Ebenen erfolgen. Für die Kontrolle der Ebenen 1 bis 4 des ISO-Modells kann ein Router ausreichend sein, für die höheren Ebenen ist ein Rechner notwendig. Der Router kann mit Access-Listen versehen werden. Diese Access-Listen erlauben die Kontrolle des Datentransfers auf Netzwerkebene, d.h. dass eine Kontrolle des Dateninhalts und auf Applikationsebene nicht möglich ist. Jedes Datenpaket wird für sich betrachtet, unabhängig von anderen Paketen. Der Router kann nicht erkennen, ob ein bestimmtes Paket zu einem Datenpaket gehört, welches schon vorher vermittelt wurde.

Zur Umgehung dieses Problems versucht man, den Firewall-Rechner so auszulegen, dass der Rechner mitverfolgt, welche Pakete schon geschickt wurden. Jegliche Kommunikation wird nach sogenannten Protokollen abgewickelt. Sind die Regeln solch eines Protokolls dem Firewall-Rechner bekannt, kann er verfolgen, ob die Pakete der im Protokoll vorgegeben Reihenfolge und Richtung entsprechen. Dieses Verfahren wird als 'statefull inspection' bezeichnet. Eine Kontrolle des Dateninhalts kann mit diesem Verfahren immer noch nicht stattfinden.

Ein 'application-level' Firewall erlaubt die Inhalts-Kontrolle. Bei diesem Firewall-Typ muss für jedes durch den Firewall vermitteltet Protokoll ein spezielles Programm, ein sog. Proxy, vorhanden sein. Der Proxy vermittelt zwischen den beiden Seiten des Firewalls. Das Proxy-Programm verhält sich genau so wie das Originalprogramm des jeweiligen Protokolls, z.B. wie ein FTP-Server. Mit einem Proxy ist es möglich, auf allen Ebenen der Kommunikation den Datenstrom zu Filtern und zu Beeinflussen.

Die heutigen Firewall-Produkte sind meist eine Kombination der obigen Techniken. Je nach nach Produkt sind die einzelnen Funktionen unterschiedlich stark ausgeprägt.

Page 176: ITKnowHow

Firewallsysteme sind für einen vollautomatischen Betrieb ausgelegt. Allerdings mag dies täuschen, da je nach Firewall-Typ u.U. Statistiken, Logdaten, Alarme usw. generiert werden. Diese Botschaften benötigen einen Adressaten, einen kompetenten und verantwortlichen Menschen, der die Nachrichten des Firewalls bewertet und entsprechend handelt. Zur Definition dieser Aktionen ist zusammen mit, oder besser noch vor der Installation des Firewalls festzulegen, was der Firewall wie schützen soll. Es ist festzulegen, was in bestimmten Situationen zu tun ist, und wer dies tut. Der Betrieb eines Firewallsystems kann mehr Personalresourcen fordern als der Betrieb eines LAN-Servers. Architektur mit Dualhomed-Host

Eine Architektur mit Dualhomed-Host wird um einen Host herum aufgebaut, der über mindestens zwei Netzwerkschnittstellen verfügt. Ein solcher Host ist als Router zwischen den Netzen einsetzbar, die an die Schnittstellen angeschlossen sind. Er kann dann IP-Pakete von Netz zu Netz routen. Für diese Firewall-Architektur muss diese Routingfunktion jedoch deaktiviert werden. IP-Pakete werden somit nicht direkt von dem einen Netz (dem Internet) in das andere Netz (das interne, geschützte Netz) geroutet. Systeme innerhalb der Firewall und Systeme ausserhalb (im Internet) können jeweils mit dem Dualhomed-Host, aber nicht direkt miteinander kommunizieren. Der IP-Verkehr zwischen ihnen wird vollständig blockiert. Die Netzarchitektur für eine Firewall mit Dualhomed-Host ist denkbar einfach: der Dualhomed-Host sitzt in der Mitte, wobei er mit dem Internet und dem internen Netz verbunden ist.

Abbildung: Netz mit Dualhomed-Host

Ein Dualhomed-Host kann Dienste nur anbieten, indem er entsprechende Proxies (Stellvertreter) oder Gateways einsetzt. Es ist jedoch auch möglich, direkte Nutzerzugriffe zu gestatten (Sicherheitsrisiko).

Page 177: ITKnowHow

Architektur mit überwachtem Host

Die "screened host architecture" bietet Dienste von einem Rechner an, der nur an das interne Netz direkt angeschlossen ist, wobei ein getrennter Router verwendet wird. Der Bastion-Host befindet sich im inneren Netz. Auf diesem Router verhindern Paketfilter das Umgehen des Bastion-Host.

Abbildung: Screened host architecture

Die Paketfilterung auf dem Sicherheitsrouter muss so konfiguriert werden, dass der Bastion-Host das einzige System im internen Netz darstellt, zu dem Rechner aus dem Internet Verbindungen aufbauen können (das einzige "nach aussen sichtbare" System). Zusätzlich sind nur gewisse Dienste zugelassen. Alle externen Systeme, die auf interne Systeme zugreifen wollen, und auch alle internen Systeme, die externe Dienste wahrnehmen wollen, müssen sich mit diesem Rechner verbinden. Daraus ergibt sich ein besonderes Schutzbedürfnis für diesen Bastion-Host. Der Vorteil bei dieser Konstruktion ist die Tatsache, dass ein Router leichter zu verteidigen ist. Dies liegt u. a. daran, dass auf ihm keine Dienste angeboten werden. Nachteilig wirkt sich aus, dass bei einer eventuellen Erstürmung des Bastion-Host das interne Netz vollkommen schutzlos ist. Architektur mit überwachtem Teilnetz

Die "screened subnet architecture" erweitert die Architektur mit überwachtem Host um eine Art Pufferzone, die als Grenznetz das interne Netz vom Internet isoliert. Diese Isolierzone wird auch "Demilitarisierte Zone" (DMZ) genannt.

Page 178: ITKnowHow

Abbildung: Netz mit DMZ

Bastion-Hosts sind von ihrer Art her die gefährdetsten Rechner in einer Firewallkonstruktion. Auch wenn sie in der Regel mit allen Mitteln geschützt sind, werden sie doch am häufigsten angegriffen. Die Ursache liegt darin, dass ein Bastion-Host als einziges System Kontakt zur Aussenwelt unterhält. Firewall-Software

Zur Software-Konfiguration eines Firewall existieren zwei Grundstrategien:

• 'Es ist alles erlaubt, was nicht verboten ist'

Dieser Ansatz schliesst die Nutzung bestimmter Dienste (z. B. tftp, nfs) generell aus. Er ist benutzerfreundlich, da neue Dienste automatisch erlaubt sind, aber auch gefährlich, da der Administrator das Verhalten der Nutzer ständig beobachten und rechtzeitig Gegenmassnahmen treffen muss.

• 'Es ist alles verboten, was nicht erlaubt ist'

Diese Strategie könnte von den Nutzern als hinderlich angesehen werden, da diese neue Dienste erst umständlich beantragen müssen. Sie schützt aber auch vor Sicherheitslücken im Betriebssystem und in Anwendungsprogrammen, da sie den Zugriff auf unbekannte Ports unterbindet.

Es gibt drei Arten von Firewall-Softwareebenen:

Page 179: ITKnowHow

• Paketfilter überprüfen die Quell- und Zieladresse (IP-Adresse und TCP/UDP-Port) eines Pakets und entscheiden, ob es passieren darf oder nicht. Der Vorteil besteht in der Transparenz für den Anwender. Diese Transparenz ist aber zugleich von Nachteil: Paketfilter können nicht zwischen Nutzern und deren Rechten unterscheiden. Paketfilter sind im allgemeinen auf Routern angesiedelt und werden heute von den meisten Herstellern mitgeliefert. Intelligente Paketfilter analysieren zusätzlich den Inhalt der Pakete und erkennen auch die Zulässigkeit von Verbindungen, die einfache Paketfilter nicht erlauben würden (z. B. Datenverbindung bei ftp).

• Circuit Level Gateways sind mit Paketfiltern vergleichbar, arbeiten jedoch auf einer anderen Ebene des Protokollstacks. Verbindungen durch solch ein Gateway erscheinen einer entfernten Maschine, als bestünden sie mit dem Firewall-Host. Somit lassen sich Infomationen über geschützte Netzwerke verbergen.

• Application Gateways, auch 'Proxy' (Stellvertreter) genannt, stellen ein anderes Firewall-Konzept dar. Hierbei wird auf dem Firewall-Host für jede zulässige Anwendung ein eigenes Gateway-Programm installiert. Der Client muss sich dabei oftmals gegenüber dem Proxy-Programm authentifizieren. Dieser Proxy führt dann alle Aktionen im LAN stellvertretend für den Client aus. Damit lassen sich zum einen benutzerspezifische Zugangsprofile (welche Zeiten, welche Dienste, welche Rechner) erstellen, zum anderen kann man die Festlegung der zulässigen Verbindungen anwendungsbezogen vornehmen. Die daraus resultierenden separaten kleinen Regelsätze bleiben besser überschaubar als der komplexe Regelsatz eines Paketfilters. Application Gateways sind typische Vertreter der 'Verboten-was-nicht-erlaubt'-Strategie und als die sicherste, aber auch aufwendigste Lösung einzuschätzen.

Da beim Proxy alle Zugriffe nach aussen über eine Instanz laufen, kann man den Proxy gleichzeitig als Cache (Pufferspeicher) benutzen. Der Proxy speichert alle erhaltenen Internet-Seiten zwischen, so dass er bei einem erneuten Zugriff darauf - egal, ob vom selben oder einem anderen Anwender - keine Verbindung nach aussen aufbauen muss.

Der Einsatz von Firewalls bietet sich auch innerhalb einer Organisation an, um Bereiche unterschiedlicher Sensitivität von einander abzugrenzen. Firewalls bieten jedoch niemals hundertprozentige Sicherheit! Sie schützen nicht vor dem Fehlverhalten eines authorisierten Anwenders und können, etwa durch eine zusätzliche Modem-Verbindung, umgangen werden.

Ein Firewall nach dem heutigen Stand der Technik kann nur gegen bereits bekannte Angriffs-Methoden schützen. Er kann möglichst viele Ereignisse protokollieren, um im Fall des Falles den Vorgang möglichst lückenlos rekonstruieren zu können. Nur, was soll man protokollieren? Die Datenmengen können pro Tag auf hunderte von Megabytes anwachsen. Wer wertet dies aus, und sucht darin die Nadel im Heuhaufen?

Neueste Ansätze beruhen darauf, dass man ein Firewallsystem durch ein zusätzliches System ergänzt, welches den Verkehr auf dem Netzwerk überwacht. Dieses System ist vom Firewall völlig unabhängig, und es greift nicht aktiv in den Datenverkehr des Netzes ein. Dieses System hat die Aufgabe eines unparteiischen 'Flugschreibers' (der Name 'Network Flight Recorder' wurde von Marcus Ranum, dem Entwickler des TIS Firewall Toolkit, geprägt). Dieses System kann den Bedürfnissen entsprechend programmiert werden. Mit Hilfe dieses Systems kann man zwar einen Einbruch in das Netz nicht aktiv unterbinden, man kann ihn aber leichter erkennen und verfolgen. Das

Page 180: ITKnowHow

System kann, genauso wie ein Firewall, Alarme bei suspekten Ereignissen auslösen, z. B. wenn plötzlich DNS-Anfragen von einem System beantwortet werden, welches kein DNS-Server ist (DNS-Spoofing). Firewall-Management

Werden in einem Unternehmen mehrere Firewalls betrieben, so ergeben sich zusätzliche Komplikationen beim Management der Systeme. Mehrere Firewalls sind notwendig bei räumlicher Trennung mehrerer Niederlassungen mit eigenen Internetzugängen oder bei geschäftsprozessbedingte Kopplung zu den Netzen verschiedener Partnerfirmen (Extranet). Die Konfiguration eines Firewallsystem ist immer einmalig auf den jeweiligen Standort und die Netzwerktopologie zugeschnitten. Es gibt keine Firewall-Konfiguration 'von der Stange'.

In den wenigsten Fällen ist es möglich, einen Firewall direkt an der Konsole des Rechners zu managen. Selten wird der Firewallrechner am Schreibtisch des Administrators stehen. Manche Firewalls erlauben ein remote Management nur über dedizierte Leitungen (seriell, eigenes LAN). Die Kenntnis der internen Konfiguration oder das Mithören der Passwörter beim remote login über das interne LAN erleichtern einen Einbruch-Versuch. Daher muss beim direkten Login in den Firewall-Rechner immer eine verschlüsselte Verbindungen benutzt werden. Liefert der Hersteller keine ausreichenden Tools zum Remote-Management von Firewallsystemen, so kann man durch den den Einsatz von frei verfügbaren Tools die Situation wesentlich verbessern. Programme wie Secure Shell (ssh, fü remote login), PGP (zum Signieren von Konfigurationsdateien) und rsync (zum Datentransfer und Datei-Synchronisation über ssh) bilden schon eine sehr gute Basis. Hat man viele Systeme zu betreuen, mag die Installation eines eigenen Firewall-Management-Rechners vorteilhaft sein. Dieser zentrale Management-Rechner kann dann die Meldungen aller Firewalls auswerten und archivieren, und kann seinerseits einen abgesicherten Internet-Server bereitstellen (Apache-SSL), über den Management-Funktionen zentral für mehrere Firewallsysteme und Statusabfragen abgewickelt werden können. Internet-Server Sicherheit

Grundsätzlich kann ein Internet-Server vor oder hinter (extern oder intern) einem Firewall angeordnet werden. In beiden Fällen ist der Rechner des Internet-Servers so gut wie möglich abzusichern. Auch die Position hinter dem Firewall (aus der Sicht des Internet) schützt nicht gegen Angriffe über das HTTP-Protokoll, z.B. CGI-Attacken.

Die Position des Internet-Servers wird von mehreren Faktoren bestimmt. Dies sind zum einen funktionelle Faktoren, wie z.B. der Zugriff auf firmeninterne Datenbanken oder Platformabhängikeiten der Web-Anwendung. Andere Faktoren sind die erwartete Serverlast (bestimmt die Belastung des Firewalls bei interner Serverposition) und die Schutzwürdigkeit der auf dem Server zugänglichen Daten. Ebenso wichtig ist der leichte aber sichere Zugriff des Webmaster zu seinen Daten auf dem Server.

Eine mögliche Konfiguration eines Internet-Server besteht darin, dass der Haupt-Server mit den statischen Daten ausserhalb des Firewalls steht, also aus dem Internet voll zugänglich ist. Über einen vorgeschalteten Router kann man den Zugriff für bestimmte Ports frei schalten. Der Internet-Server wird so konfiguriert, dass Anfragen an

Page 181: ITKnowHow

bestimmte URLs von diesem über den Firewall an einen internen Internet-Server weitergeleitet werden (Proxy-Funktion). Dieser interne Server generiert hauptsächlich dynamische HTML-Seiten, z. B. aus Abfragen einer internen Datenbank.

Eine andere Variante besteht darin, ausserhalb des Firewalls einen Cache-Server aufzustellen, der die HTML-Anfragen an den eigentlichen, innerhalb des Firewalls stehenden, Internet-Server weiterleitet. Diese Konfiguration hat den Vorteil, dass sich der ausserhalb stehende Cache dem Internet als Internet-Server präsentiert. Auf dem Firewall muss nur die Verbindung zwischen dem Cache und dem internen Internet-Server freigeschaltet werden, der interne Server tritt niemals direkt mit einem der Clients am Internet in Kontakt.

Page 182: ITKnowHow

Kryptographie Fragen der Sicherheit

In elektronischen Medien wird "Sicherheit" anhand von vier Kriterien bewertet:

• Authentizität Sicherstellung, dass eine Information auch wirklich von dem Absender stammt, der ausgibt, der Absender zu sein.

• Vertraulichkeit Sicherstellung, dass eine Information nur von demjenigen gelesen werden kann, für den sie bestimmt ist.

• Integrität Sicherstellung, dass eine Information auf ihrem Transportweg nicht verändert wird.

• Verbindlichkeit Sicherstellung, dass eine Information vertrauenswürdig ist. Diese vier Kriterien müssen erfüllt sein, wenn eine optimale Datensicherheit gewährleistet sein soll. Für jedes Kriterium gibt es eigene Lösungsmöglichkeiten, die Kunst liegt aber darin, mit einem Verschlüsselungssystem möglichst alle vier Kriterien gleichzeitig zu erfüllen.

Moderne Verschlüsselungssysteme basieren auf dem Key-Verfahren, d.h. es wird ein einheitliches Programm zur Ver- und Entschlüsselung verwendet, das zum Ver- und Entschlüsseln einen Schlüssel benötigt. Dieser Schlüssel beeinflusst aktiv den Verschlüsselungsalgorithmus des Programms und erzeugt eine verschlüsselte Datei.

Ein Schlüssel besteht aus einer Abfolge von Bits. Während die ersten Generationen von Verschlüsselungsmechanismen mit Schlüsselgrössen von 40 bis 56 Bits arbeiteten, arbeiten heutige Mechanismen in der Regel mit 128 Bits, PGP beispielsweise sogar mit Schlüssel von bis zu 2.048 Bits. Zum Vergleich: In Frankreich benötigten 1997 120 zusammengeschaltete Computer einen Monat, um einen Schlüssel zu knacken, der eine Länge von lediglich 40 Bit aufwies.

Bei den Verschlüsselungsverfahren gibt es zwei Grundverfahren: Symmetrische und Asymmetrische Verschlüsselungsverfahren Symmetrische Verschlüsselungsverfahren

In symmetrischen Verschlüsselungsverfahren existiert ein Schlüssel, der gleichzeitig beim Absender zum Ver- und beim Empfänger zum Entschlüsseln einer Nachricht verwendet wird.

Symmetrische Verschlüsselungsalgorithmen sind sehr schnell und auch sehr sicher, wenn z.B. ein Schlüssel nur für den Datenaustausch zwischen zwei Personen erfolgen soll und der Schlüssel über Medien weitergegeben wird, die frei von mitlesenden Dritten sind (z.B. direkte Schlüsselübergabe per Diskettenaustausch).

Page 183: ITKnowHow

Schwierigkeiten beginnen, wenn der Schlüssel nicht so ohne weiteres persönlich an den Empfänger übergeben werden kann. Kommt ein Unbefugter in den Besitz des Schlüssels, kann er zum einen alle Nachrichten entschlüsseln, die mit diesem Schlüssel codiert wurden und zum anderen auch eigene Nachrichten mit diesem Schlüssel codieren und sich selbst als Absender herausgeben.

Das bekannteste symmetrische Verschlüsselungsverfahren ist der DES ("Data Encryption Standard"), der in den 70er Jahren von IBM entwickelt wurde und mit einer Schlüssellänge von 56 Bit arbeitet. Asymmetrische Verschlüsselungsverfahren

In asymmetrischen Verschlüsselungsverfahren existieren zwei verschiedene, gleichlange Schlüssel, die mathematisch miteinander zusammenhängen, der Private-Key und der Public-Key:

Der Private-Key verbleibt grundsätzlich beim Eigentümer des Schlüssels und wird ausschliesslich zum Entschlüsseln von verschlüsselten Nachrichten verwendet, die mit dem zusammengehörenden Public-Key verschlüsselt wurden.

Der Public-Key ist der öffentliche Schlüssel des Schlüsselpaares, den der Eigentümer des Schlüssels zunächst an einen Absender übergeben muss, damit dieser seine Nachrichten an den Eigentümer mit ihm verschlüsseln kann.

Asymmetrische Verschlüsselungsverfahren arbeiten deutlich langsamer als symmetrische, sind jedoch auch in Mehrnutzerumgebungen (z.B. Netzwerke oder das Internet) sicher, da der Schlüssel zur Entschlüsselung immer beim Eigentümer verbleiben kann und er niemandem bekannt sein muss, um an den Eigentümer verschlüsselte Nachrichten zu senden.

Allerdings sind auch asymmetrische Verschlüsselungsverfahren verwundbar.

Ronald Rivest, Adi Shamir und Leonard Adleman entwickelten 1978 das RSA-Verfahren, das eines der bekanntesten Public-Key-Verfahren ist. Die Schlüssel werden nach einem definierten Verfahren selber hergestellt. Danach werden die Schlüssel zum Chiffrieren veröffentlicht, diejenigen zum Dechiffrieren aber von jedem Teilnehmer geheimgehalten. Beispiel des RSA-Verfahrens: Man wählt zwei Primzahlen p=47 und q=59. Das Produkt ist n=2773. Man bestimmt eine Zahl e, die zum Produkt x = (p-1) * (q-1) = 2668 teilerfremd ist. Dies könnte in unserem Beispiel e=17 sein. Nun ist eine Zahl d so zu bestimmen, dass e * d ein Vielfaches von x vermindert um 1 ergibt. Mathematiker schreiben: (e * d) mod x = 1. In unserem Beispiel ist z.B. d=157. Die Verschlüsselung geschieht durch die Formel Z' = Z hoch e mod n. Die Entschlüsselung geschieht durch die Formel Z = Z' hoch d mod n.

Der öffentliche Schlüssel besteht also aus den Zahlen n und e, der geheime Schlüssel ist d.

Page 184: ITKnowHow

Hybride Verschlüsselungsverfahren

Aufgrund der Langsamkeit des asymmetrischen und die Verwundbarkeit des symmetrischen Verfahrens, ist man dazu übergegangen, in Verschlüsselungssysteme beide Verfahren zu kombinieren.

Prinzipiell wird in hybriden Verschlüsselungsverfahren die zu verschlüsselnde Datei zunächst mit einem symmetrischen Verschlüsselungsverfahren bearbeitet und der dazu verwendete Schlüssel mit einem asymmetrischen Verschlüsselungsverfahren nachbearbeitet. Auf die Weise ist die verschlüsselte Datei genauso sicher, wie bei einem herkömmlichen symmetrischen oder asymmetrischen Verfahren.

Das berühmteste und gängigste Produkt dieser Kategorie ist PGP von Philip Zimmermann. PGP steht für "Pretty Good Privacy" ("Recht gute Privatsphäre") und bietet Schlüssellängen von bis zu 3.072 Bit. eMails, die mit solchen Schlüsseln PGP-verschlüsselt werden, sind auch auf absehbare Zeit selbst für Grossrechner nicht unbefugt entschlüsselbar. "Vertrauenswürdige" Zertifikate

Auch mit modernen Verschlüsselungsverfahren ist ein Punkt ohne zusätzliche Massnahmen nicht kontrollierbar, die Verbindlichkeit. Deshalb muss ein Zertifikat zuerst als "vertrauenswürdig" gelten, wenn damit wirklich sicher kommuniziert werden soll.

Am sichersten ist diese Vertrauenswürdigkeit zu bewerkstelligen, wenn der Empfänger dem Absender seinen Public-Key persönlich überreicht. Dies ist jedoch z.B. bei Online-Shops so nicht realisierbar. Deshalb gibt es sogenannte Certificate Authorities, kurz CA genannt, die genau so eine Zertifizierung vornehmen. Sie überprüfen in mehreren Abstufungen die Identität des Absenders und unterschreiben als Nachweis den Public-Key des Besitzers mit ihrem eigenen Private-Key und garantieren die Identität auf der Basis der bestellten Vertrauenswürdigkeit in Form von verschiedenen Zertifikatsklassen.

Wichtig hierbei ist: Der Unterschied von Zertifikatsklassen liegt nicht in der eigentlichen, technischen Sicherheit der Zertifikate, sondern in der Vertrauenswürdigkeit. Vergleichbar ist das am besten mit einem Büchereiausweis, einem Führerschein und einem Personalausweis:

Der Büchereiausweis genügt, um sich in einer Bücherei soweit zu identifizieren, um Bücher auszuleihen. Der Büchereiausweis wird aber bei einer Verkehrskontrolle nicht ausreichen, um sich dort zu identifizieren, genauso wie der Führerschein in einer Zollstelle nicht reicht, sich dort zu identifizieren. Der Personalausweis geniesst also hier die höchste Vertrauenswürdigkeit, auch wenn alle drei Ausweise genauso personalisiert und fälschungssicher sein sollten.

Genauso ist es auch mit den Zertifikatsklassen: In der untersten Zertifikatsklasse wird der Absender nur anhand der eMail-Adresse identifiziert, d.h. der Absender schickt seinen Public-Key an eine CA. Diese verschlüsselt eine nach dem Zufallsprinzip erzeugte Zahl mit dem Public-Key und schickt sie an die eMail-Adresse des Absenders. Ist der angegebene Absender auch wirklich der Besitzer des Schlüsselrings, kann er

Page 185: ITKnowHow

(und nur er) die verschlüsselte Zahl anhand seines Private-Keys entschlüsseln und diese Zahl digital unterschrieben wieder an die CA schicken.

Die höheren Zertifikatsklassen sehen persönliche Identifizierungen vor. Das einfachste Verfahren ist hier die Identifikation per Einschreiben, bei dem die CA nach Empfang des Public-Keys dem Absender einen Brief per Einschreiben-Rückschein zuschickt und er diesen annehmen und beim Postboten quittieren muss.

Ein anderes, noch vertrauenswürdigeres Verfahren ist das sogenannte Post-Ident-Verfahren, bei dem der Absender seine Identität persönlich von einem Postbeamten auf einem vorgedruckten Formular der CA feststellen lassen und der Postbeamte dieses Formular an die CA zurückschicken muss.

Wird ein Zertifikat von einer CA als vertrauenswürdig eingestuft, wird es mit dem Private-Key der CA unterschrieben. Jede CA hat hier für jede ihrer Zertifikatsklassen eigene Schlüsselringe, so dass schon anhand der Signatur die Zertifikatsklasse, und damit die Vertrauenswürdigkeit, ersichtlich ist. Der Absender kann dann seinen so zertifizierten Public-Key in seinen Schlüsselring aufnehmen. Jeder, der nun mit dem Besitzer eines solch zertifizierten Schlüssels kommunizieren möchte, kann anhand der CA-Zertifizierung und der entsprechend vergebenen Zertifikatsklasse die Vertrauenswürdigkeit nachprüfen.

Zur weiteren Sicherheit sind alle Zertifizierungen zeitlich befristet und müssen regelmässig wiederholt werden. Zusätzlich werden alle unterschriebenen Zertifikate auf den Seiten der CA veröffentlicht und im Internet bereitgehalten. Die Vertrauenswürdigkeit einer CA wird anhand von gesetzlichen Grundlagen und stichprobenartigen Überprüfungen gesichert. Crypt-Verfahren für Websites

Besitzer einer Website können sich bei einer Zertifizierungsstelle ein Site-Zertifikat ausstellen lassen, das in die Serversoftware integriert wird und geschützte Verbindungen für auswählbare Webseiten innerhalb der Site (also innerhalb eines Hostnames, z.B. "www.itmanager.info") ermöglicht. Entsprechend ausgerüstete Browser können dann diese gesicherten Seiten genauso nutzen wie normale Webseiten. Diese Technologie namens SSL ("Secure Sockets Layer") wurde von Netscape entwickelt.

Das Verschlüsselungsprinzip ist dabei ebenfalls eine Mischung aus symmetrischer und asymmetrischer Verschlüsselung: Beim Zugriff auf eine geschützte Seite wird zunächst der Public-Key der Website zum Client übertragen. Der Client erzeugt dann eine Zahl nach dem Zufallsprinzip, die als Schlüssel für eine symmetrische Verschlüsselung genutzt wird. Dieser Schlüssel wird dann vom Client mit dem Public-Key der Website verschlüsselt und an den Server übertragen, so dass beide Seiten für die Sitzung den gleichen symmetrischen Schlüssel haben und sicher kommunizieren können.

Darüberhinaus gibt es im SSL-Verfahren noch eine zusätzliche Möglichkeit der Client-seitigen Authentifizierung, zum Beispiel anwendbar für Server, zu denen nur bestimmte Rechner einen Zugang haben sollen: Hier muss auch der Client ein Zertifikat besitzen und dieses mit dem Server austauschen. Der Server hat dabei die Möglichkeit, eine sichere Verbindung zu verweigern, wenn das Zertifikat des Clients nicht akzeptiert wird.

Page 186: ITKnowHow

Ein Problem mit SSL ist ein grundsätzliches, politisches Problem mit allen Verschlüsselungsprogrammen, die in den USA geschrieben werden: Die USA definieren Verschlüsselungssoftware als "Munition", so dass sie besonders strengen Ausfuhrbestimmungen unterliegen. Dies bedeutet in vielen Bereichen eine deutliche Einschränkung der Sicherheit von verschlüsseltem Material. Z.B. ist bei SSL aufgrund der Ausfuhrbeschränkungen bei amerikanischen Browsern nur eine Verschlüsselung mit 40 Bit langen Schlüsseln möglich; eine Schlüssellänge, die bei entsprechender Rechenleistung durchaus als knackbar gilt. Rechtliche Situation für Verschlüsselungssysteme

Ohne Zweifel sind verschlüsselte Dateien nicht ohne weiteres von Unbefugten zu entschlüsseln. So kann zwar mit grösstmöglicher Sicherheit sensible Information über öffentlich zugängliche Medien übertragen werden, allerdings kann (und wird) dies auch von kriminellen Subjekten genutzt werden, um, für Aussenstehende unerkannt, Information verschlüsselt zu übertragen und zu verbreiten.

In diese Gesetzeslücke wollen viele Regierungen mehr oder weniger stark regulierende Systeme einsetzen. Dies reicht von völligem Verbot von Verschlüsselungssystemen (z.B. in Russland oder Frankreich) bis hin zu geforderten Hinterlegungen von Private-Keys bei staatlichen Behörden, um bei Verdachtsmomenten anhand der hinterlegten Schlüssel verdächtige Informationen entschlüsseln zu können.

Der Kreativität in Sachen Eingrenzung freier Verschlüsselung durch staatliche Organisationen sind anscheinend keine (vernüftigen) Grenzen gesetzt. Beispielsweise verbietet die US-amerikanische Regierung die Ausfuhr von Verschlüsselungsprogrammen ab einem bestimmten Verschlüsselungsgrad. Dieses Ausfuhrverbot bezieht sich jedoch nur auf Ausfuhren in digitaler Form; PGP ist ein solches Programm, das in digitaler Form nicht aus den USA exportiert werden darf, weshalb die Programmierer den Programmcode kurzerhand ausgedruckt und legal in Buchform exportiert haben. Im Ausland wurden die Quellcodes wieder eingescannt und in digitale Form zurückgespielt, weshalb es von PGP jetzt zwei identische Versionen gibt: PGP (US-Version) und PGPi (identische, internationale Version).

Ebenfalls mehr oder weniger ungeklärt sind die anzuwendenden Massnahmen, wenn Verschlüsselungssoftware zwangsläufig ausser Landes gerät, z.B. auf dem Laptop eines US-Amerikaners, der beispielsweise auf Dienstreise in Russland ist, wo eigentlich das Anwenden von Verschlüsselungssoftware jeglicher Art verboten ist.

Page 187: ITKnowHow

Risikoanalyse

Die Sicherheit der Informations- und Kommunikationssysteme hat in der letzten Zeit zunehmend Schlagzeilen gemacht. Spektakuläre Fälle der Computerkriminalität mit bedrohlichem Schadenausmass tauchen auf; die Zahl der betroffenen Organisationen und Privatpersonen ist kaum zu schätzen.

Die Anzahl der Risiken durch den Einsatz von IT-Systemen hat drastisch zugenommen. Einige der Gründe dafür sind

• die Einführung von IT-Systemen in allen wichtigen Tätigkeitsbereichen

• stark ansteigende Zahl der Datenverbindungen

• die Übertragung der Daten über das Internet

Inzwischen ist die Verletzlichkeit der heutigen Informationsgesellschaft zu einem immer wichtigeren Problem geworden. Die steigende Abhängigkeit aller gesellschaftlichen Bereiche von Informationssystemen kann zu immer grösseren Schäden führen. Dazu zählen R isiken durch neugierige Hacker, Einbrüche durch Kriminelle, Hardwareausfälle und Programm- sowie Bedienungsfehler. Viele vitale Funktionen des täglichen Lebens, wie z.B. der Zahlungsverkehr, die Speicherung und Verwaltung von medizinischen Daten und die Logistik des Handels, bauen auf die IT-Technologie. Störungen und Angriffe können sich in vielen Anwendungssystemen und in sehr vielen Bereichen zugleich auswirken. Hinzu kommt, dass manuelle Reservesysteme meist als veraltet ausrangiert worden sind.

Folgeschäden bei Störungen und Ausfällen beschränken sich nicht unbedingt nur auf die betroffene Einzelorganisation und deren Produktionssysteme, sondern können auch die Kooperation mit Geschäfts- und Kommunikationspartnern beeinflussen. Für das Top-Management sind die zukünftigen Aussichten besonders problematisch: der Leitungsebene fehlen nach wie vor wirkungsvolle Mittel zur Bewältigung der Risiken durch die wachsende Abhängigkeit der Geschäftsaktivitäten von IT-Systemen.

Page 188: ITKnowHow

Abbildung: Der Informationskrieg

Gefahrenanalyse - Ziele und Auswirkungen

Bei der Gefahrenanalyse versucht man unter anderem folgende Fragen zu beantworten:

• Was oder wer stellt potentielle Gefahren dar?

• die Menschen oder die Umgebung?

• Brandfälle, Unfälle?

• Kriminelle, Nachrichtendienste?

• Wie können sich die potentiellen Risiken verwirklichen?

• Was ist die einfachste Methode, Schäden zu verursachen?

• Warum?

• Was macht uns zu einem attraktiven Ziel für Eindringlinge?

• Mit welchen Ressourcen?

• Wieviel Geld, Zeit und Know-How steht dem potentiellen Angreifer zur Verfügung?

• Welche Konsequenzen kann ein erfolgreicher Angriff haben?

• wirtschaftliche Schäden, Imageverlust, Kundenabwanderung

• Wie gross ist die Eintrittswahrscheinlichkeit eines Angriffs?

Page 189: ITKnowHow

Das Ziel der Gefahrenanalyse ist, die einzelnen Risiken möglichst umfassend zu quantifizieren und ihre Eintrittswahrscheinlichkeit sowie ihr Schadenspotential zu ermitteln. Anhand dieser Einstufung kann dann die Realisierung des Sicherheitsplans zur Beseitigung der Risiken, die untragbar sind und mit einer hohen Wahrscheinlichkeit auftreten, angestrebt werden. Als Ergebnis der Gefahrenanalyse können Massnahmen eingeleitet werden, die zu einer verbesserten Sicherheit führen und auch wirtschaftlich sinnvoll sind.

Gefahrenanalysen bieten dem Management ein wichtiges Instrument der Entscheidungsfindung, denn sie

• bieten Methoden zur Vermittlung eines umfassenden Überblicks über die IT-Sicherheit im System

• stellen eine systematische Methode zur extensiven Erfassung potentieller Bedrohungen dar

• liefern Resultate als Entscheidungsbasis für IT-Risikobewertung und Investitionsplanung

• ermöglichen Analysen, wo einerseits die vom Top-Management gestellten Anforderungen an IT-Sicherheit und andererseits die Einschätzung der bestehenden Sicherheitsmechanismen bzw. Anfälligkeiten vom IT-Management kombiniert werden können

Ist eine Gefahrenanalyse erfolgreich, so ergibt diese als Resultat

• ausreichende Informationen zur technischen Realisierung der Sicherheitspläne sowie eine Basis für die Auswahl von geeigneten Schutzmassnahmen

• detaillierte Begründungen für die Akzeptierung bzw. Ablehnung einzelner Sicherheitsmechanismen

Methodik

Für die Durchführung einer IT-Risikobewertung bietet sich eine Vielzahl von Verfahren an. Im folgenden werden das Konzept und die wichtigsten Elemente der Risikobewertung im Überblick dargestellt.

Unter IT-Risikobewertung versteht man hier ein methodisches Vorgehen zur Risikobewältigung mittels folgender Einzelschritte:

• Erkennung der einzelnen Gefahren

• Abschätzung der Folgeschäden

• Definierung der Sicherheitsziele

• Auswahl der Schutz- und Abwehrmassnahmen Risikobewältigung

Page 190: ITKnowHow

• Erfassung der Art und des Umfangs von unerwünschten Ereignissen

• Ableitung des akzeptablen Risikogrades

• Reduzierung der bestehenden Risiken auf ein akzeptables Niveau

• Risikobewertung

• Abschätzung der Folgeschäden durch unerwünschte Ereignisse

• Lieferung der Resultate der Risikoabschätzung und Risikoanalyse

• Risikoanalyse

• Methodische und systematische Erforschung zur Gesamtdarstellung der unerwünschten Ereignisse

• Verfahren

• Systematisches Vorgehen zur Erreichung eines bestimmten Zieles

• Instrument

• Mittel oder Geräte zur Ausführung bestimmter Arbeiten oder Aufgaben Allgemein

Die Bewertung der IT-bezogenen Risiken wird in zwei grundsätzliche Methoden unterteilt: in die qualitativen und quantitativen Methoden.

Bei qualitativen Methoden werden unerwünschte Ereignisse und deren Folgen anhand diskreter (voneinander getrennter) Parameter abgeschätzt. Bei dieser Methode werden die Parameter verbal definiert.

Bei quantitativen Methoden werden genaue numerische Werte für die Analyse der Ereignisse und Entitäten eingesetzt. Das Rechenverfahren beruht auf der mathematischen Statistik bzw. der Wahrscheinlichkeitsberechnungen. Die einzelnen Risiken werden anhand numerischer Werte, wie z.B. verschiedener Wahrscheinlichkeitsmasse oder Prozentzahlen, bewertet.

Ein grosser Vorteil der quantitativen Bewertung liegt in der Genauigkeit der ermittelten Resultate, was eine Quantifizierung der Risiken zur Kenntnis der Risikostruktur ermöglicht. Als problematisch bei quantitativen Methoden hat sich die Überprüfung der Richtigkeit der Ausgangsdaten erwiesen. Zuverlässige statistische Daten sind kaum vorhanden, und die Gewinnung bewährter Statistikdaten ist mit hohem Arbeits- und Zeitaufwand verbunden. Aus diesem Grund basieren die Ausgangsdaten häufig auf den eigenen Einschätzungen des Analysierenden. Beispiel für quantitative Methoden: die Courtney-Risikoanalyse. Checklisten

Am einfachsten ist wahrscheinlich die Abschätzung der potentiellen IT-Risiken durch Verwendung der sog. Checklisten. Bei diesem Verfahren wird auf bestimmte, unter

Page 191: ITKnowHow

mehrere Themen gruppierte Fragen geantwortet, die sich auf die IT-Sicherheit des Evaluierungsgegenstandes beziehen. Die Fragen sind meist nach vorgegebenen Antwortmöglichkeiten wie 'ja' oder 'nein' zu beantworten.

Die Checklisten dienen zwar der Entdeckung der Fehler sowie der der mangelnden Sicherungen, erweisen sich aber als verhältnismässig unwirksam für die Erkennung neuer Bedrohungen. Mangelhafte oder für den jeweiligen Evaluierungsgegenstand ungeeignete Listen können zu der falschen Vermutung führen, das System sei jetzt gründlich auf seine Sicherheit analysiert und dazu noch ausreichend vor Bedrohungen geschützt. Szenarienanalyse

In der Szenarienanalyse wird die zukünftige Entwicklung der Bedrohungen anhand von Szenarien untersucht. Szenarien sind sprachlich ausgedrückte, angenommene Kombinationen von unerwünschten Gegebenheiten, Ereignissen und Vorgängen, welche das IT-System in seiner Entwicklung beeinflussen.

Durch die Auswahl einzelner Szenarien soll ein Überblick über die möglichen Bedrohungen, Angriffsmethoden und verursachten Schäden erarbeitet werden. Anschliessend werden die entdeckten IT-Sicherheitslücken ermittelt.

Als Nachteil des Verfahrens ist der hohe Arbeits- und Zeitaufwand für den Entwurf der unterschiedlichen Szenarien zu nennen. Dieses Verfahren ist nicht flächendeckend in allen Systemen einzusetzen, in Einzelfällen liefert diese Methode jedoch detaillierte Informationen über den Sicherheitszustand des Systems. Baseline-Methode

Die Baseline-Methode ist eine von der Forschungsanstalt SRI International entwickelte Methode zur Abschätzung der Risiken und Gefährdungen von Informationssystemen. Das Baseline-Konzept stützt sich auf die Einhaltung des Grundsatzes 'standard of due care'. Dieses Konzept fördert die Sicherung der kritischen IT-Systeme mit denselben Sicherheitsmassnahmen, die auch die anderen vergleichbaren Organisationen in einer ähnlichen Situation einleiten würden. Die in dieser Methode verwendeten, allgemein anerkannten Grundsätze werden "Baseline Controls" genannt.

Das Baseline-Konzept besteht aus folgenden Teilen:

• Erkennung des Schutzgegenstandes

• Erkennung der existierenden Sicherungen

• Auswahl der Basiskontrollen zur Beseitigung der üblichsten Bedrohungen

• Realisierung der Kontrollen

• Erkennung besonderer Bedrohungen

• Analyse und Bewertung der Bedrohungen und Risiken

• Auswahl der Zusatzkontrollen

Page 192: ITKnowHow

• Realisierung der Zusatzkontrollen

• Follow-Ups zur regelmässigen Überprüfung der IT-Sicherheit Courtney-Methode

Die Courtney-Methode zur Analyse und Bewertung der Risiken wurde von dem IBM-Mitarbeiter Robert Courtney Jr. in den 70er Jahren entwickelt. Diese Methode ist inzwischen von den amerikanischen Bundesbehörden als offizieller Standard für Risikoanalysen übernommen worden. Ausserdem liegt sie fast jeder Risikoanalyse-Software zugrunde.

Bei dieser Methode werden bezüglich der unerwünschten Ereignisse zwei Faktoren gemessen: die zu erwartende Häufigkeit des Eintritts und das beim Ereigniseintritt zu erwartende finanzielle Schadenausmass. Das Risiko kann als Produkt der beiden Werte angegeben werden; es entspricht dann dem statistischen Erwartungswert des Schadens.

Sind die Faktoren quantifizierbar, so ergibt die Multiplikation einen genauen numerischen Wert (das finanzielle Ausmass des zu erwarteten Schadens). Auf der Basis dieser Zahlen können Prioritätssetzungen sowie Nutzen/Kosten-Berechnungen bei der Planung der Sicherheitsmassnahmen vorgenommen werden.

Einer der Nachteile der Courtney-Analyse ist die Mangel an zuverlässigen statistischen Ausgangsdaten. Die Ausgangsdaten sind daher meistens reine Eigenschätzungen durch die Analysierenden. Gefahrenquellen

• Höhere Gewalt

o Personalausfall

o Blitz

o Feuer

o Wasser

o Kabelbrand

o Temperatur und Luftfeuchtigkeit

o Staub, Verschmutzung

o Starke Magnetfelder

• Organisatorische Mängel

o Unzureichendes Sicherheitsmanagement (z.B. Rechteverwaltung, Mitarbeiterwechsel)

o Fehlende oder unzureichende Regelungen

Page 193: ITKnowHow

o Unzureichende Kenntnis über Regelungen

o Unzureichende Kontrolle der IT-Sicherheitsmassnahmen (z.B. Zutrittskontrolle, Zugriffskontrolle)

o Fehlende oder unzureichende Wartung

• Menschliche Fehlhandlungen

o Fehlverhalten (z.B. Ausführen unsicherer Anwendungen)

o Fahrlässigkeit (z.B. Nennung von Passwörtern an Unbefugte)

o Nichtbeachtung von IT-Sicherheitsmassnahmen

• Technisches Versagen

o Stromausfall

o Spannungsschwankungen

o Defekte Systeme (z.B. Datenträger)

o Unsichere kryptographische Algorithmen

• Vorsätzliche Handlungen

o Manipulation/Zerstörung von Hardware

o Manipulation an Daten oder Software

o Diebstahl

o Abhören

o Unbefugtes Eindringen in ein System (Hacking)

o Computer-Viren

o Unberechtigtes Kopieren von Daten

o Missbrauch von Rechten

Page 194: ITKnowHow

Software

o Betriebssysteme o Datenbanken o Programmierung o Software Eigenschaft

Page 195: ITKnowHow

Betriebssysteme Betriebssysteme sind Programme eines digitalen Rechensystems, die zusammen mit den Eigenschaften der Rechenanlage die Grundlage der möglichen Betriebsarten des digitalen Rechensystems bilden und insbesondere die Abwicklung von Programmen steuern und überwachen.

Das Betriebssystem eines Rechners hängt eng mit der Hardware zusammen, das heisst es ist auf die konkrete Rechnerstruktur beziehungsweise Rechnerarchitektur abgestimmt. Das Betriebssystem wird in der Regel mit der Hardware des Computers mitgeliefert. Dies gilt vor allem für die Grossrechner, bei denen die Hersteller auch das Betriebssystem entwickeln und anbieten. Bekannte Grossrechner-Betriebssysteme sind ausschliesslich proprietäre Systeme, das heisst sie werden speziell für die eigene Hardware entwickelt. Beispiele dafür sind die Systeme der DV-Unternehmen IBM mit VSE, MVS und VM; Siemens Nixdorf mit BS2000 usw. Im mittleren Bereich, Mini- und Abteilungsrechnersysteme, steht das offene Betriebssystem UNIX mit seinen Varianten im Mittelpunkt. Prozessverwaltung

Ein Prozess kann im Laufe seiner Abarbeitung 3 Zustände annehmen:

• aktiv (running)- der Prozess wird vom Prozessor bearbeitet

• blockiert (suspended) - der Prozess wartet auf ein Betriebsmittel

• bereit (ready) - der Prozess ist bereit, vom Prozessor ausgeführt zu werden (rechenwillig), er wartet nur noch auf das Betriebsmittel "Prozessor"

Beim Zeitscheibenbetrieb kann ein Prozess vom Zustand "aktiv" direkt in den Zustand "bereit" wechseln. Jeder Prozess ist in der Prozesstabelle aufgeführt. Hier finden sich sämtliche Informationen, die zur Abarbeitung notwendig sind (Befehlszähler, Registerinhalte, usw.).

Die Aufgaben der Prozessverwaltung sind:

• Aufbau und Verwaltung einer Warteschlange (Queue) der bereiten Prozesse

• Zuteilung der Betriebsmittel (wie z.B. Speicherplatz, Peripheriegeräte, Dienstprogramme) an den aktiven Prozess

• Unterbrechungsbehandlung (interrupt handling).

Die Bestimmung der Prozessreihenfolge durch die Einordnung in die Warteschlange der bereiten Prozesse und die Zuteilung und Freigabe der Betriebsmittel übernimmt der Scheduler. Anlässe zu einer Neubestimmung der Prozessreihenfolge sind Unterbrechungen, die aus dem Prozess selber resultieren können oder von aussen verursacht werden, wie der Ablauf einer Zeitscheibe.

Page 196: ITKnowHow

Es werden drei Strategien beschrieben, die Prozessreihenfolge festzulegen:

• sequentiell (FIFO, round robin-Methode)

Man belässt einen aktiven Prozess aktiv, wenn der Anlass für die Unterbrechung nicht von ihm herrührt, oder er seinen aktiven Zustand nicht aufgeben muss. Das heisst der aktive Prozess entscheidet, ob er die Kontrolle abgibt (MS-Windows 3.1 verfährt nach dieser Strategie). Ist es notwendig, einen neuen Prozess auszuwählen, so wird der am längsten wartende Prozess aufgegriffen, dessen Betriebsmittelanforderungen erfüllt werden können. Der Vorteil des geringen Verwaltungsaufwandes wird mit einer schlechten Ausnutzung und Verteilung der Betriebsmittel bezahlt.

• prioritätengesteuert

Die Abarbeitungsreihenfolge wird durch die Priorität festgelegt. Sie kann vom Auftraggeber vorgegeben werden, sich aus den angeforderten Betriebsmitteln ergeben (z.B. niedrige Priorität bei hohem Rechenzeitbedarf) oder sich mit der Verweildauer im System ändern. Ein aktiver Prozess bleibt nur dann aktiv, wenn kein bereiter Prozess mit höherer Priorität wartet. Dies könnte zum Beispiel ein Prozess sein, dessen Ein/Ausgabe-Anforderung inzwischen erfüllt worden ist. Der von einem Prozess mit höherer Priorität verdrängte und in den Zustand "bereit" versetzte Prozess benötigt als Betriebsmittel nur noch den Prozessor (verdrängendes Multitasking).

• shortest job first

Wenn ein Prozess beendet ist, kommt der Prozess als nächstes an die Reihe, der die wenigste Rechenzeit benötigt. Dieses Verfahren ist natürlich nur sinnvoll, wenn man die benötigte CPU-Zeit vorher kennt. Es minimiert die durchschnittliche Verweilzeit der Tasks im System.

Speicherverwaltung

Die Speicherverwaltung verwaltet den zur Verfügung stehenden Hauptspeicher und ordnet ihn den zu verarbeitenden Tasks zu. Grundsätzlich sind 2 verschiedene Techniken zu unterscheiden:

Bei der realen Speicherverwaltung wird nur der physikalisch vorhandene Hauptspeicher benutzt. Eventuell werden komplette Programme vom Hintergrundspeicher ein- beziehungsweise auf diesen ausgelagert, um die Anzahl der bereiten Prozesse zu erhöhen. Dieser Vorgang wird als Swapping bezeichnet. Die Programme können jedoch nicht grösser als der zur Verfügung stehende Hauptspeicher sein. Die virtuelle Speicherverwaltung dehnt den Adressraum über den realen Speicher hinaus aus, indem zusätzlicher Speicherraum auf Hintergrundspeicher zur Verfügung gestellt wird. Unter Ausnutzung der Lokalitätseigenschaft von Programmen wird nur der momentan benötigte Anteil an Code und Daten, die sogenannte Arbeitsmenge (working set), im Speicher gehalten. Der Transfer zwischen Haupt- und Hintergrundspeicher (Paging) geschieht unsichtbar für den Benutzer durch das Betriebssystem.

Page 197: ITKnowHow

Reale Speicherverwaltung bei MS-DOS

Die virtuelle Speicherverwaltung bietet eine bessere Ausnutzung von Hauptspeicher und Prozessor. Weiterhin können die Programme sehr viel grösser sein als der physikalische Speicher. Ihre Grösse ist nur durch den logischen Adressraum begrenzt. In Kauf genommen werden diese Vorteile durch einen höheren Verwaltungsaufwand (overhead) und eine etwas längere Verweilzeit der Programme. Es muss bedacht werden, dass der direkte Zugriff auf den Hauptspeicher etwa 1000 bis 10000 mal schneller erfolgt als der Zugriff auf den Hintergrundspeicher; in der Regel ist dies ein Magnetplattenspeicher (Festplatte). Dateiverwaltung

Letztlich sind alle in einem Datenverarbeitungssystem zu verarbeitenden Informationen, auch die Programme, Daten. Die Verwaltung der Daten und ihre Abbildung auf Hintergrundspeicher ist Aufgabe des Betriebssystems. Hierzu werden Daten zu grösseren Einheiten, Dateien, zusammengefasst. Es erleichtert die Arbeit erheblich, wenn der Begriff der Datei so gefasst ist, dass er die Behandlung aller Daten unabhängig vom Speichermedium ermöglicht. Dies ist zum Beispiel unter dem Betriebssystem UNIX der Fall. Hier ist eine Datei eine Sequenz von Bytes, unabhängig vom Medium und ohne eine vorgegebene logische Struktur. Selbst Peripheriegeräte werden als Dateien angesprochen. Zum Beispiel ist der Drucker innerhalb des Betriebssystems die Datei "/dev/lp". Man gibt dann auf dem Drucker aus, indem man in die Datei /dev/lp schreibt.

Eine für den Benutzer wesentliche Vereinfachung stellt eine hierarchische Dateiorganisation dar. Dateien lassen sich als Blätter eines umgedrehten Baumes ansehen. Sie lassen sich ausgehend von der Wurzel über die einzelnen Knoten des Baumes (Verzeichnisse, Directories) erreichen. Durch Angabe eines Knotens lassen sich ganze Gruppen von Dateien als Teilbäume manipulieren (kopieren, löschen).

Page 198: ITKnowHow

Spooling

Spool ist die Abkürzung für "simultaneous peripheral operations online". Aufträge für das Datenverarbeitungssystem, sowie Ein/Ausgaben von bzw. für Peripheriegeräte werden auf schnellen Systemkomponenten zwischengepuffert und von dort aus eingelesen bzw. ausgegeben. Auch wenn ein Prozess schon beendet ist, wird die von ihm erzeugte Ausgabe erst später von dem entsprechenden Systemprogramm auf das langsamere Peripheriegerät übertragen

Das Betriebssystem unterstützt Spooling, weil im allgemeinen nicht genügend Peripheriegeräte wie beispielsweise Schnelldrucker zur Verfügung stehen, um die von den aktiven Prozessen angeforderten Ein/Ausgaben zu befriedigen. Weiterhin darf die erhebliche Diskrepanz zwischen der Geschwindigkeit des Prozessors und der der Peripheriegeräte nicht zu einer schlechten Betriebsmittelauslastung führen.

Das Betriebssystem legt auf Hintergrundspeichern sogenannte Spool-Bereiche an, in denen die Eingaben und Ausgaben zwischengespeichert werden. Die dadurch simulierten Geräte werden als virtuelle Geräte bezeichnet (z.B. virtueller Drucker). Das Betriebssystem sorgt für die Abbildung der virtuellen Geräte auf die physikalisch vorhandenen.

Vielfach ist es sinnvoll, vor der endgültigen Ein/Ausgabe Manipulationen an den gespoolten Objekten zuzulassen, um beispielsweise nicht benötigte Druckausgaben zu löschen oder Änderungen an der Abarbeitungsreihenfolge vorzunehmen. Neben Operatoreingaben kann das Betriebssystem hierbei sogar generelle Strategien verfolgen, wie die Bevorzugung kleinerer Ausdrucke vor grösseren. Betriebsmittelabrechnung

Das Betriebssystem muss über seine eigenen und die Aktivitäten der Benutzer Buch führen. Die Informationen werden in einem Logfile (Account-File) gesammelt. Dieser Funktionsbereich des Betriebssystems wird auch als Accounting bezeichnet. Messzeitpunkte sind zumindest Prozessanfang und -ende. Bei manchen Betriebssystemen erstrecken sie sich auch auf Auftrags(Job)anfang und -ende, sowie auf den Beginn und das Ende eines Dialogs. Gemessen wird die Inanspruchnahme bestimmter Betriebsmittel, insbesondere des Prozessors (CPU-Zeit), aber auch des Haupt und Hintergrundspeichers oder des Busses. Es gibt 3 Anwendungen, die auf den Abrechnungsinformationen basieren:

• Tuning

Unter Tuning versteht man die Abstimmung der Leistung einzelner Systemkomponenten im Hinblick auf einen optimalen Durchsatz des Gesamtsystems. Um Engpässe aufzudecken, werden Informationen über die Auslastung der Betriebsmittel (z.B. Plattenkanäle) über bestimmte Zeiträume hinweg benötigt. Hierzu werden die Daten des Account-Files ausgewertet. Stellt man bei einzelnen Komponenten sehr hohe Auslastungen fest, während andere nichts zu tun haben (man sagt, dass sie sich im Zustand "idle" befinden), kann eine Vergrösserung der kritischen Komponenten (z.B. des Hauptspeichers) oder

Page 199: ITKnowHow

die Installation weiterer Bauteile (z.B. Kanäle) zu einer besseren Gesamtauslastung führen.

Tuning ist auch möglich, wenn die Belastung einzelner Betriebsmittel zeitpunktbezogen direkt an der Konsole angezeigt wird. Durch die Einstellung von Systemparametern (z.B. Grösse der minimalen Arbeitsmenge eines Prozesses, die im realen Hauptspeicher vorhanden sein muss, oder die maximale Anzahl bereiter Prozesse) können vielfach auf der Softwareebene schon Engpässe behoben werden.

• Kontingentierung

Die Beschränkung der Nutzung einzelner Betriebsmittel kann aus 2 Gründen notwendig sein. Entweder ist der Bedarf nach einem Betriebsmittel höher als die verfügbare Kapazität (z.B. Prozessorzeit) oder die Nutzung eines Betriebsmittels zieht den Verbrauch von Materialien nach sich (z.B. Drucker). In beiden Fällen muss über den Verbrauch der einzelnen Benutzer Buch geführt werden. Für eine auftragsbezogene Kontingentierung (z.B. maximale Hauptspeicherbelegung) sind die Informationen im Logfile ausreichend. Dagegen sind für eine zeitraumbezogene Kontingentierung die entsprechenden Werte aufzuaddieren (z.B. permanente Hintergrundspeicherbelegung).

Die Kontingentüberprüfung kann offline, das heisst zu bestimmten Zeitpunkten, oder online während der Lebensdauer des Prozesses erfolgen. Bei einer Überschreitung können sanfte (soft) Massnahmen, beispielsweise Nachrichten und Hinweise, gegeben oder harte Konsequenzen, beispielsweise Sperrung des Betriebsmittels oder Sperrung der Benutzerkennung, eingeleitet werden. Kontingente können benutzer- oder gruppenweise vergeben werden.

• Abrechnung

Eine Abrechnung über die Inanspruchnahme der Betriebsmittel kann benutzer- oder kostenstellenorientiert erfolgen, wobei die Loginformationen für einzelne Benutzerkennungen oder -gruppen durch Auswerteprogramme über bestimmte Zeiträume hinweg zusammengefasst werden müssen. Durch Gewichtungsfaktoren lassen sich die Betriebsmittelverbräuche für Benutzer oder Kostenstellen in einer Formel zusammenfassen und in Geldeinheiten ausdrücken. Kommandosprache

Die Kommandosprache ermöglicht dem Benutzer und dem Betreiber des DV-Systems die Kommunikation mit dem Betriebssystem. Durch sie wird der Ablauf eines Auftrags festgelegt oder ein Dialog gesteuert.

Über die Kommandosprache teilt der Benutzer dem Betriebssystem mit, welche Betriebsmittel er benötigt (z.B. Prozessorzeit, Peripheriegeräte, Übersetzer, Dateien, Sytemfunktionen, etc.), wie und wofür er sie einzusetzen gedenkt.

Es gibt Kommandos für Jobbeginn, Jobende, Dialogbeginn (login), Dialogende (logout), Programm-Startkommandos, mit denen ablauffähige Programme, wie z.B. Übersetzer, Benutzer- oder Dienstprogramme gestartet werden, Kommandos zur Dateiverwaltung, Kommandos für die Kommunikation mit anderen Benutzern, Kommandos, mit denen man sich über die Systemnutzung und vieles andere mehr informieren kann,

Page 200: ITKnowHow

Kommandos für die Nutzung von Peripheriegeräten und Kommandos, um auf Fehlersituationen zu reagieren, um nur eine Auswahl zu nennen. Die Kommandoausführung kann vielfach mittels Parameter, die als Argumente beim Aufruf übergeben werden, gesteuert werden.

Neben der Kommandosprache für den Benutzer ist eine Sprache für den Systemadministrator (Systemgenerierung, Benutzerverwaltung usw.) und die Maschinenbedienung (Verwalten der Auftragswarteschlangen, Peripheriebedienung, Anpassen der Systemparameter, Datensicherung usw.) erforderlich. Wünschenswert ist eine für alle Anwendungsbereiche einheitliche Sprache. Ein kleiner Überblick von Betriebssystemen:

• Windows

o Windows 95/98/Me

o Windows NT

o Windows 2000

o Windows XP (Whistler)

• Unix

o Caldera OpenLinux

o Corel Linux

o Debian

o eIT Easy Linux

o Icepack Linux

o Lanthan Linux

o Mandrake

o Red Hat Linux Deluxe

o Suse Linux

o Turbo Linux Workstation

• MacOS

• BeOS

• OS/2

• MS-DOS

• AIX

• IRIX

• UXP/V

Page 201: ITKnowHow

Datenbanken

Eine Datenbank umfasst eine thematisch abgegrenzte Menge von Daten.

• Texte

• Zahlen

• Tabellen

• Bilder

• ... DBS = DB + DBMS

Ein Datenbanksystem (data base system, DBS) ist ein System zur Beschreibung, Speicherung und Wiedergewinnung von Datenmengen, die von mehreren Anwendungsprogrammen genutzt werden können.

Es setzt sich zusammen aus der Datenbank (oft data base genannt), also der Menge der Daten und einer Software, dem Datenbankverwaltungssystem (data base management system, DBMS), das die Schnittstelle zum Benutzer darstellt.

Die Datenbank enthält sowohl die reinen Nutzdaten als auch Meta-Daten (meta-data), die zur Verwaltung des gesamten Systems nötig sind.

Abbildung: Aufbau eines Datenbanksystems

Aus den Notwendigkeiten der Datenhaltung ergeben sich allgemeine Anforderungen an ein Datenbank Management System (DBMS):

• Grosse Datenbestände ( > 107 Datensätze) verwalten

• Beliebige Verknüpfung nach inhaltlichen Gesichtspunkten

• Redundanzfreiheit

• Datenkonsistenz

Page 202: ITKnowHow

• Zentrale Datenhaltung

• Gleichzeitige Benutzung durch viele Anwender (z. B. Flugbuchung)

• Trennung von DB-Anwender und DB-Administratoren

Die Realisation solcher Anforderungen hat ein Ergebnis mit völlig neuer Qualität zur Folge. Es gibt zu Datenbanken kein materielles Äquivalent (z. B. Sammlung von vielen Karteikästen); das heisst das Modell selbst wird zu einem Objektsystem. Der Datenbestand hat eine potentiell unendliche Lebensdauer. Daraus folgt, dass Techniken erforderlich sind, die vor Verlust und Verfälschung der Daten schützen. Sicht auf das Datenmodell

Im Gegensatz zu prozeduralen Dateiverwaltungsprogrammen, die im allgemeinen Daten nur einem Anwenderprogramm zugänglich machen und deren Algorithmen beschreiben, wie ein Datensatz zu finden ist, stehen bei einem DBS im Vordergrund:

• Datenobjekte - welche Objekte gibt es?

• Beschreibung von Daten - welche Eigenschaften haben sie? - in welcher Beziehung stehen sie zu einander?

• Operationen auf Daten - mit einer deskriptiven DB-Sprache (was will ich haben?)

Insgesamt ergeben sich damit hervorragende Möglichkeiten zur Abbildung realer Objekte, aber dennoch sind Datenmodelle - streng betrachtet - kein Ausschnitt der Realwelt, sondern die Menge der definierten Strukturmerkmale und der darauf möglichen Operationen.

Die Nähe zur objektorientierten Modellierung ist unverkennbar. Die Modellierung mit dem Entity Relationship Model (ERM) kann als ein geistiger Wegbereiter zu OOM angesehen werden. 3-Ebenen Architektur

Die allgemein beschriebenen Aufgaben und Anforderungen lassen sich besser verdeutlichen, wenn man ein geeignetes Architekturmodell für Datenbanken hat. Die Grundidee ist die Unterteilung der DBMS in Schichten aus den verschiedenen Benutzersichten und damit verbunden klare Schnittstellen zwischen den Schichten. Gängig ist das 3-Ebenen-Modell, das seinen Ursprung in der ANSI/SPARC-Architektur hat.

• Externe Ebene

o Benutzer

o Anwendungen

Page 203: ITKnowHow

o Views, Datenschutz, Sicherheit

• Konzeptuelle Ebene

o DB-Administrator

o Logischer Entwurf

o Datenmodell

• Interne Ebene

o Physische Speicherung

o Zugriffe

o Indexe

o Optimierung Datenbanktypen

Im Laufe der Zeit wurden von Softwarefirmen und wissenschaftlichen Instituten eine Vielzahl von Datenbanksystemen entwickelt, denen unterschiedliche Anforderungen und Konzepte zugrunde liegen. In diesem Kurs sollen nach ihrem Betriebskonzept sogenannte Stand-alone-Datenbanken, File-Share-Datenbanken und Client/Sever-Datenbanken unterschieden werden. Dabei liegt der Schwerpunkt des Kurses auf dem relationalen Strukturierungskonzept das als Konzept zur Datenstrukturierung eine überragende Bedeutung erlangt hat. Stand-alone-Datenbank

Sie stellt die simpelste Form einer Datenbank dar. In der Regel handelt es sich um eine lokale Datenbank, die sich weder um Mehrfachzugriffsprobleme, wie das, dass zwei Benutzer gleichzeitig versuchen denselben Datensatz zu ändern, noch um ausgefeilte Zugangsberechtigungen für unterschiedliche Programme kümmert. Sie ist lediglich dazu da von einem Benutzer über das immer gleiche Programm angesteuert zu werden. Typische Beispiele dafür sind Adresskarteien, elektronische Telefonbücher, Buchhaltungsprogramme usw. die mit dBase, Access, Filemaker, FoxPro, Paradox oder ähnlichen Programmen erstellt wurden und ihrem Benutzer auf einfache Weise einen mehr oder weniger guten elektronischen Karteikasten zur Verfügung stellen. File-Share-Datenbank

Im Gegensatz zu einer Stand-alone-Datenbank können auf eine File-Share-Datenbank innerhalb eines Netzwerkes mehreren Benutzer gleichzeitig auf denselben Datenbestand zugreifen. Innerhalb eines Netzwerkes wird der jeweilige Datenbestand "quasi als Datei" an einer Stelle allen berechtigten Nutzern zur Verfügung gestellt, die von ihren jeweiligen Workstations aus, auf diese Datenbank zugreifen können. Der Zugriff auf die Datenbank erfolgt dabei über ein spezielles "database engine" genanntes Programm-Modul, das auf der jeweiligen Workstation ausgeführt werden muss. (Die

Page 204: ITKnowHow

Datenbank liegt wohl auf dem Server, jedoch hat dieser bezüglich der Verwaltung dieser Datenbank keine eigene Intelligenz. Die gesamte Intelligenz liegt separat auf jeder einzelnen Workstation.)

Der Hauptvorteil solcher Datenbanken ist, dass damit die redundante Datenhaltung überwunden wird und Datenänderungen redundanzfrei sofort allen Benutzern zur Verfügung stehen.

Probleme gibt es allerdings dann, wenn viele simultane und vor allem ändernde Zugriffe auf dem Datenbestand erfolgen (z.B. Auftragserfassung) oder häufig umfangreiche Auswertungen erstellt werden müssen. Da bei diesem Konzept jede Anwendung die Datenbank letztlich in seinem lokalen Arbeitsspeicher ggf. Satz für Satz betrachten und auswerten muss, führt dies zu einem umfangreichen Datenverkehr. Bei konkurrierenden Zugriffen lassen sich dabei nur sehr ineffiziente Mechanismen zur Wahrung der operationalen Integrität realisieren, so dass letztlich immer recht grosse Datenbereiche solange gesperrt werden müssen, bis der lokale Client endlich zur Ruhe gekommen ist. Client/Server-Datenbank

Der Kern einer solchen Datenbank ist ein Datenbankserver (Softwaresystem), der auf einer dedizierten Maschine innerhalb eines Netzwerkes läuft. Dieser Server kapselt die gesamte Datenbank und bietet im gesamten Netzwerk seine Dienste an. Programme, für welche der Server etwas tun soll, (diese werden Clients genannt,) greifen nicht wie bei einer File-Share-Datenbank selbst auf die Daten zu, sondern wenden sich mit Ihren Wünschen lediglich an den Server, der alles für die Clients erledigt.

Die Datenverwaltung ist hier vom Zugriff konsequent getrennt. Die Clients wenden sich lediglich an die standardisierte Schnittstelle des Servers. Wo und wie der Server seine Daten verwaltet ist für die Clients transparent.

Client/Server-Datenbanken bieten viele Sicherheits-, Leistungs- und Flexibilitätsvorteile, erfordern allerdings auch die Betreuung durch einen Datenbankadministrator. Die Produkte aus diesem Bereich haben Namen wie Informix, Oracle, DB2, MS-SQL-Server, InterBase.

Page 205: ITKnowHow

Programmierung Geschichte

Seit es Computer gibt müssen diese auch programmiert werden. Bei den ersten Computern war dies nur durch Hardwareverbindungen möglich. Dazu wurden die Computer programmiert, in dem zwischen den einzelnen Verbindungen Leitungen geschlossen wurden. So bei dem allerersten Computern ENIAC und MANIAC.

Aus dieser Zeit stammt auch der erste Bug: es war eine Motte, die zwischen die Röhren eines Rechners geriet, und dadurch einen Kurschluss verursachte. Seitdem bezeichnet man Programmfehler als "Bug" : englisch für Käfer.

Natürlich war die Hardwareverdrahtung von Rechnern auf Dauer nicht nur um mühsam sondern beschränkte die Möglichkeiten der Programmierung doch sehr. nachdem man aber entdeckt hatte das man über einen Speicher Programme ablegen konnte, und damit die Rechner steuern begann das erste Richtige Programmieren von Rechnern. Zuallererst wurden die Daten in binär eingegeben. Das heisst man legte Schalter für eine Eins um, oder liess sie in Ausgang Stellung für eine 0. Natürlich war dies keine sehr elegante Methode. Auch der allein erste PC- der Altair 8800 hatte zuerst nur die Möglichkeit über mit solche Kippschalter Daten eingegebenen. Das Hexadezimalsystem und Maschinensprache

Der nächste Schritt war diesen Vorgang zu vereinfachen. Obgleich damals es noch nicht Rechners mit standardisierten Bitbreiten wie 8, 16, 32, 48 oder 64 Bit gab sondern man jeweils die Bitbreite und nach den technischen Möglichkeiten wählte bürgerte sich bald das Byte als grundlegende Einheit ein. Ein Byte kann man aber in zwei " Nibbels " à 4 Bit mit zerlegen. Damit man ein solches Nibbel in einem einzigen Wort ausdrücken konnte besann man sich auf das Hexadezimalsystem. Bei dem Hexadezimalsystem kommen zu den Grundzahlen des Zehnersystems 0 bis 9 auch noch die Buchstaben A bis F. Sie stehen für die Werte 10 bis 15. Damit kann man mit einer Stelle Werte von 0 bis 15 ausdrücken. Mit zwei Stellen ist der Wert eines Bytes anzugeben. Jede weitere vordere Stelle ist ein Multiplikator von 16. der vorherigen. So hat der Wert " 3A5F " folgenden dezimalen Wert: (3 x 4096) + (10 x 256) + (5 x 16) + 15 = 14943 im Dezimalsystem.

Mit diesem System war es nun möglich die Eingabearbeit erheblich zu vereinfachen. Denn anstatt acht Schaltern mussten nur noch zwei Zahlen eingegeben werden. Trotzdem sehr benutzerfreundlich war dies nicht, wer wusste denn schon was hinter den einzelnen Werten stand? Assembler

Die allererste Programmiersprache im heutigen Sinn war daher Assembler: ein Assembler ist nichts anderes als ein Programm welches für die Befehle, die ein Computer versteht - und deren Befehlsworte jeweils einen bestimmten Code haben -

Page 206: ITKnowHow

Worte vorsieht, die sich ein Mensch merkten kann. Assembler ist daher für jeden Prozessor spezifisch. Dies ist heute vielleicht nicht mehr so von Bedeutung, da es nur noch wenige Prozessoren gibt, die weit verbreitet sind, doch in der Frühzeit des PC's gab es sehr viele Rechner mit unterschiedlichen Prozessoren. Jeder hatte eine eigene Programmiersprache. Manchmal waren diese sogar unterschiedlich, obwohl die Prozessoren zueinander kompatibel waren.

Ein Beispiel : Die folgenden Bytes (alles in Hexadezimal)

21 00 10 11 00 20 19 22 00 30

sagen wohl niemanden etwas. Sie stehen für die folgenden Befehle des Prozessors Z80 : 21 00 10 LD HL,1000H 11 00 20 LD DE,2000H 19 ADD HL,DE 22 00 30 LD (3000H),HL Das ist schon besser verständlich, in Normalsprache heisst es folgendes :

• Lade den Wert 1000 in das Prozessorregister HL

• Lade den Wert 2000 in das Prozessorregister DE

• Addiere die beiden Register HL und DE, das Ergebnis ist danach in HL

• Speichere das Ergebnis in der Speicherstelle 3000 im Speicher ab.

Das ganze ist also eine einfach Ganzzahladdition. Sie hätten wahrscheinlich geschrieben "Ergebnis = &1000+&2000". So benötigt schon eine Addition 4 Rechenschritte, zum Trost ist aber schon ein Z80 Prozessor (obgleich schon veraltet) so schnell, das er 250.000 dieser Rechenschritte pro Sekunde ausführen kann. (H und & stehen für die Notation der hexadezimalen Zahlen in Assembler und Basic). Weiterhin bietet der Assembler an für Speicherzellen Namen zu vergeben und Adressen für Sprünge zu berechnen, so das er auch hier eine Erleichterung brachte.

Assembler hielt sich relativ lange. Denn mit Assembler konnte man das Maximum aus dem Rechner herausholen. In Zeiten, wo Speicherkapazität und Rechenleistung noch begrenzt waren war dies ein wichtiges Kriterium. Allerdings ist auch bei Assembler ein grundlegendes Problem noch nicht gelöst: das testen der Programme. Zum Testen musste man mit einem speziellen Programm das zu untersuchende Programm laden und an der Stelle wo man den Fehler vermutete Haltepunkte setzen oder schrittweise den Programmablauf verfolgen. Besonders komfortabel war dies nicht. Zudem konnten selbst dann noch Befehle den ganzen Rechner zum Absturz bringen. Ein Nachteil war weiterhin, das es nicht den Assembler gab - und auch heute noch gibt. Er ist spezifisch für jeden Prozessor. So hat ein Pentium einen anderen Befehlssatz als ein Power PC Prozessor oder ein Alpha Chip. Ja es gibt sogar kleine - aber in bestimmten Gebieten wichtige - Unterschiede in einer Familie z.b. zwischen den Prozessoren Pentium 4, Pentium III und Athlon was die Fliesskommabefehle angeht.

Page 207: ITKnowHow

Höhere Programmiersprachen

Sehr bald gab es daher die ersten höheren Programmiersprachen. Höhere Programmiersprache daher, weil es eine künstliche Sprache war, die sich nicht mehr an den Eigenheiten des verwendeten Rechners orientierte. Mitte der ab fünfziger Jahre kamen die ersten beiden höheren Programmiersprachen FORTRAN und COBOL auf den Markt. Noch waren die Computer in ihrer Leistung sehr beschränkt, so dass man diese Programmiersprache als spezialisierte Programmiersprachen bezeichnen kann. Spezialisiert daher weil man bestimmte Probleme sehr gut in FORTRAN lösen konnte, während für andere Probleme COBOL eher geeignet ist. FORTRAN eignet sich hervorragend für Berechnungen, wie sie im naturwissenschaftlichen Bereich vorkommen und wurde daher auf Computern eingesetzt die in der Forschung genutzt wurden. Bis heute hat es sich bei Supercomputern gehalten den zahlreiche Algorithmen für technische und naturwissenschaftliche Simulationen wurden zuerst in FORTRAN entwickelt. Auch heute werden Rechner wie die Cray vor allem in FORTRAN programmiert.

COBOL dagegen hatte den Schwerpunkt auf die Verarbeitung von Daten gesetzt. Damit eignete sich diese Sprache für geschäftliche Aufgaben wie die Buchhaltung oder die Verwaltungen von Bankkonten. COBOL setzte sich dank der Marktmacht von IBM's Rechnern durch, denn IBM schuf COBOL für die Lösung wirtschaftlicher Probleme auf IBM Rechnern wie dem populären System 360. Dank der Verbreitung der IBM Grossrechner ist auch heute noch 60 % aller Software in COBOL geschrieben - denn Software wird nur verbessert selten neu erfunden.

Mit den höheren Programmiersprachen kamen auch zwei unterschiedliche Konzepte zum Einsatz, die wesentlich für den Komfort beim Programmieren waren. Das allererste Konzepts war das des Compilers. Ein Compiler ist ein Programm welches einen Quelltext (eine Textdatei mit den Befehle die man ausführen lassen möchte) in einen ausführbares Maschinenprogramm übersetzt. Der Compiler untersucht das ganze Programm und erzeugt daraus den Maschinencode. Entdeckt er auch Fehler so meldet er diese den Benutzer. das Programm wird dann ausgeführt und wenn es einfachere Fehler gibt, so erhält man eine Fehlermeldung, bei grösseren Fehlern kann wiederum der ganze Computer abstürzen ohne Meldung. Das Schreiben der Programme erfolgte in einem Editor, das übersetzen dagegen durch den Compiler. Damit hantierte man immer mit mindestens zwei Programmen, es konnten durch das Hinzufügen anderer Programmteile oder das Debuggen leicht 3 oder 4 sein.

Um das Programmieren einfacher und komfortabler zu machen und die Fehlersuche zu erleichtern hatte man daher den Interpreter in den sechziger Jahren entwickelt. Man verzichtete dabei auf Geschwindigkeit und gewann Komfort. Bei einem Interpreter ist das Programm welches den Quelltext übersetzt mit dem Editor integriert. Der Quelltext wird nicht auf einmal übersetzt und ein ausführbares Programm erzeugt, sondern dies geschieht erst zur Laufzeit. Treten Fehler auf, so kann der Benutzer das Programm anhalten und diese Stelle im Editor untersuchen, wo der Fehler lag und ihn sofort beheben. Der Interpreter hat immer die volle Kontrolle über das Programm. Daher ist diese Methode bequemer. Der Nachteil ist das man wesentlich mehr Speicher benötigt (Interpreter und Programm teilen sich den Speicher) und zum zweiten, dass man einen Programmteil der 1000 mal durchlaufen wird auch 1000 mal übersetzt, während die Compiler diesen nur einmal übersetzen müssen.

Page 208: ITKnowHow

Eine zweite Anwendung des Interpreters ist war auch die Programmiersprachen maschinenunabhängig zu gestalten und nur geringe Anpassungen an unterschiedliche Computer vornehmen zu müssen. Dieses Konzept findet man bei Basic, Pascal (der ursprünglichen Version) und Java. Dazu übersetzt ein Compiler den Quelltext in einem sogenannten Zwischencode oder Pseudocode. Dieser ist einfacher als der Quelltext und enthält grundlegendere einfachere Instruktionen. Dieser Zwischencode wird dann von einem Interpreter interpretiert. Der springende Punkt ist, dass der Compiler unabhängig von dem Rechner sein kann auf welchem das Programm laufen soll. Nur der Interpreter - er hat einen einfacheren Code ausführen - muss jeweils an den Computer angepasst werden.

Abbildung: Entstehungszeit und Verwantschaft wichtiger Programmiersprachen

Die Universalsprachen

Den ersten höheren Programmiersprachen folgten bald weitere : LISP zur Bearbeitung von Listen und KI Programmierung, APL als Umsetzung der Mathematischen Operationen in eine Programmiersprache oder BASIC als Lernsprache. Sehr bald gab es richtige Stammbäume wie "xx" stammt von "yy" ab. Oftmals aber gab es nur eine Programmiersprache die Anleihen an anderen machte.

Die vielen Programmiersprachen bedeuteten aber auch : Das Problem für Aufgabe x einen Spezialisten zu finden der Programmiersprache y beherrscht und auf dem Rechner z einen Compiler für y zu haben... Kurzum : Mitte der 60 er Jahre gingen an verschiedenen Fronten die Suche nach einer universellen Programmiersprache los. Universell heisst, das sie geeignet war jedes Problem zu lösen, das bedeutete eine breite Basis von Befehlen und Datentypen. Der erste Versuch kam von IBM - PL/1 sollte die erste Universalsprache werden. IBM war damals schon marktbeherrschend und wahrscheinlich wäre das auch gelungen, wäre PL/1 für die damaligen Rechner nicht einfach zu gross und umfangreich gewesen.

Page 209: ITKnowHow

Für die meisten heutigen prozeduralen Programmiersprachen spielt aber ALGOL eine wichtige Rolle. Algol setzte sich nie breit durch, ist aber der Ahne aller heutigen prozeduralen Programmiersprachen. Der Unterschied zu FORTRAN und COBOL war der Gedanke der strukturierten Programmierung. Man sollte die Probleme lösen ohne wild im Code herumzuspringen durch die GO TO's von FORTAN BASIC und COBOL. Dies wurde gelöst durch elementare Schleifentypen und das Blockkonzept. Dieses haben alle Sprachen die nach Algol kamen übernommen.

Später kam Pascal. Pascal war eigentlich keine Sprache die als Programmiersprache für grosse Anwendungen gedacht war sondern eine Lehrsprache, aber durch die gute Lesbarkeit, die strenge Syntax die wenig Freiheiten und Fehler erlaubte wurde Sie zu einer wichtigen Sprache. Leider gab es Pascal lange Zeit nur interpretiert. Bedenkt man welchen Erfolg Pascal durch den Turbo Pascal Compiler auf dem PC hatte, so kann man sich ungefähr vorstellen wo wir heute wären wenn es einen solchen Compiler von Anfang an gegeben hätte. Pascal setzte den Gedanken der strukturierten Programmierung bei Daten fort. Es war nun möglich eigene Datentypen zu erschaffen und zusammengehörende Daten zu einem Record zusammenzufassen. Dadurch wurde das Programm erheblich besser lesbar und wartbar.

Später kam C. C hat einige Vorteile gegenüber den damals etablierten Sprachen gehabt : Der Sprachkern war klein, alles was rechnerspezifisch war wurde in Bibliotheken ausgelagert und C war schnell durch seine Maschinennähe. C war gedacht als "Superassembler" : Maschinennah, schnell und mit vielen Freiheiten (aber auch Verantwortung) für den Programmierer. Der eigentliche Siegeszug von C war aber die Verknüpfung mit Unix. In dem Masse wie Unix sich verbreitete verbreitete sich auch C.

Modula entstand aus Pascal und setzte die Strukturierung von Daten und Code weiter fort : Basis war das Modul : Eine Einheit aus Daten und Code das man als Programmierer als Black Box nutzen konnte und sich nicht um die Implementierung im Detail kümmern konnte. Modula hat sich kaum durchgesetzt denn inzwischen war die Konkurrenz schon gross. Im PC Bereich übernahm Turbo-Pascal das Konzept als Units und so gab es keinen Grund auf Modula umzusteigen und bei grösseren Rechnern dominierten schon C, FORTRAN und COBOL.

Zuletzt sollte man noch ADA erwähnen. Wenn es eine Supersprache gibt dann ist es ADA. Die Sprache ist ausserordentlich umfangreich und komplex, sie hat heute nur einen Einsatzort, den aber in fester Hand : Als Standardsprache des US Militärs und auch für Entwicklungen die auf militärischen Ursprüngen fussen (Die Flugsoftware von Ariane 5, die den Fehlstart beim ersten Flug verursachte, war in ADA geschrieben). Sie wird daher an Unis gelehrt, leider teilt die Wirtschaft diese Vorliebe für ADA nicht... Objektorientiertes Programmieren

Das objektorientierte Programmieren hebt die klassische Trennung zwischen Daten und Code auf. Ein klassisches Programm verarbeitet Daten. Wenn sich diese ändern muss man auch den Code anpassen. das macht es sehr schwierig Code von einem Programm in einem anderen wiederzuverwenden. Beim Objektorientierten Programmieren gibt es dies nicht. auf die Daten wird mit Prozeduren und Funktionen zugegriffen und Daten und Code bilden eine Einheit. Ändern sich die Daten so kann man dieselben Prozeduren aufrufen, muss jeweils nur die interne Verarbeitung ändern. Die immer gleichen Dialoge und Elemente von Windows wären ohne dies nicht möglich.

Page 210: ITKnowHow

Im Prinzip finden wir einen solchen Ansatz schon bei Modula, nur hat man dort versäumt festzulegen, das jeder Datentyp nur mit eigenen Methoden ansprechbar ist.

Als erste Programmiersprache beherrschte dies Ende der 70 er Jahre Smalltalk, die wie andere revolutionäre Erfindungen (Netzwerk, grafische Benutzeroberfläche) im XEROX Park entwickelt wurden. Ende der 80 er Jahre tauchten Objekte dann auch bei Turbo Pascal auf und C wurde zu C++ - der objektorientierten Variante. Heute ist objektorientiertes Programmieren weit verbreitet, Windows ist z.B. in C++ geschrieben. Visuelles Programmieren

Das entscheidende Grundproblem beim Programmieren ist meistens die Bedienung durch den Benutzer. Einfach gesagt : Je benutzerfreundlicher das ganze sein soll desto schwieriger wird das ganze. Viele Programme unter DOS waren sehr benutzerfreundlich, weil je mehr Freiheiten der Benutzer hatte desto mehr Fehler musste man abfangen, auf desto mehr Arbeit hatte man mit der Auswertung der Eingaben. Die ersten Windows Programmierumgebungen setzten dem die Krone auf, einige zig Befehle um alles festzulegen bevor überhaupt etwas auf dem Bildschirm erschien. Nun kamen Komponenten auf, die direkt die objektorientierte Programmierung nutzten. Eine Komponente ist ein Stück Programmcode mit Eigenintelligenz über die implementierten Funktionen kann ich auf ihn zugreifen und Daten übergeben. So kann ich mit einem Befehl einen "Öffnen" Dialog aufrufen. Sie können dann mit diesem durch die Festplatte navigieren, die Dateien nach verschiedenen Kriterien sich ansehen und zuletzt eine Datei anwählen - alles das macht diese Komponente - erst nach dem Click auf "OK" bekommt mein Code wieder eine Meldung ob sie eine Datei ausgesucht haben und wie diese heisst. Kurzum Komponenten machen das Leben sehr viel einfacher. Regelorientierte Sprachen

Eigentlich könnte das Leben doch so einfach sein. Heute programmieren die meisten Programmierer die Lösung eines Problemes bis auf Befehlsebene herunter. Das nennt man prozedurale Sprachen. Doch es gibt auch Sprachen die anders funktionieren : Regelbasierende Sprachen. Hier wird einer Sprache die Regel gegeben die dem Problem zugrunde liegt, d.h. die Abhängigkeiten die aufzulösen sind. Dies macht dann die Programmiersprache selber. Für einige Probleme - Insbesonders im Bereich der KI war dies ideal. Sprachen wie Prolog, LISP oder Natural finden sich auch in diesem Umfeld. aber es gibt keine Alternative wenn man nur mal einfache Berechnungen oder Daten verarbeiten will - das löst man mit prozeduralen Sprachen immer noch einfacher. Als weiteres waren die regelbasierenden Sprachen lange Zeit nur interpretiert, was die Geschwindigkeit stark herabsetzte. Datenbank und Anwendungssprachen

Schon immer eine Bedeutung hatten Datenbanksprachen. Mit dem Aufkommen von Datenbanksystemen brauchte man bei diesen zuerst Programmiersprachen um sie abzufragen, derartige Sprachen lehnten sich an bekannte Vorbilder an und hatten oft

Page 211: ITKnowHow

mächtige Befehle um Daten zu bearbeiten, für diesen Zweck waren sie massgeschneidert. Ein bekanntes Beispiel dafür ist die Sprache von DBase, da dieses PC Programm sehr populär war und andere auf ihm aufbauten. Aus dem Grossrechnerbereich kommt SQL das auch auf dem PC Einzug gehalten hat.

Auch andere Anwendungen haben nach und nach Sprachen implementiert, zuerst nur als Makrosprachen um Befehle wieder abspielen zu können oder die Flexibilität zu erhöhen, dann durch integrierte Pakete auch zum Datenaustausch zwischen Anwendungen. Den bisherigen Höhepunkt hat VBA erreicht Visual Basic for Applications verbindet Microsoftanwendungen untereinander - MS Office mit Outlook und Windows. So kann ein E-Mail Attachment sich auch selbstständig über Outlook weiterverbreiten, bevor es ihre Daten auf dem Rechner löscht. Generationen von Programmiersprachen 1. Generation (1GL)

• Maschinensprache

• Binäre Ziffernfolge auf Niveau des reinen Maschinencodes

• Hardwarearchitektur für die Programmierung entscheidend

• absolute Adressierung 2. Generation (2GL)

• Assemblersprache

• Symbolische Namen für Operanden und Operationen

• Makroprozessoren erlauben Programmierer aus mehreren Befehlen eine Funktion zu erstellen

• Ermöglichen optimale Ausnutzung der Hardware 3. Generation (3GL)

• Höhere, problemorientierte Sprache

• Portabilität zu anderen Systemen

• Strukturierte Programmstrukturen

• Programm besteht aus 2 Teilen:

• Deklaration von Daten

• Aktionen zur Manipulation der Daten

• Maschinenunabhängig

Page 212: ITKnowHow

• Sourcecodereduktion gegenüber Assembler um bis zu 85%

• Wichtiger Grundstock für die 3. Generation war die Entwicklung von Pascal. 4. Generation (4GL)

• Deklarative Programmiersprachen

• Deskriptive Programmierung

• Softwareunterstütze Entwicklungsumgebung

• Transaktionsorientierte Datenelemente 5. Generation (5GL)

• Objektorientierte Sprachen

• Entwicklung eigener Sprachelemente durch den Entwickler

• Programmierer entwickelt Objekte, Methoden und abgeleitete Objekte

• Funktionale und

• Logische Sprachen

Page 213: ITKnowHow

Software Eigenschaften

• Benutzerfreundlichkeit

• Flexibilität

• Funktionalität

• Kompatibilität

• Performance

• Sicherheit

• Zuverlässigkeit Benutzerfreundlichkeit

Der Benutzer erkennt intuitiv, wie er mit dem System arbeiten kann. Der Benutzer weiss immer wo er sich in seiner Aufgabe befindet, was er hier tun kann, woher er gekommen ist und wohin er weiter navigieren kann. Der Visualisierungsgrad spielt eine wichtige Rolle. Informationen und Funktionen sollten möglichst direkt ersichtlich sein. Der Benutzer soll in seiner Arbeit von der Applikation ideal unterstützt werden. Dies geschieht durch ein kontextsensitives Hilfesystem, eine klare und einheitliche Benutzerführung und selbstsprechende Fehler- und Warnmeldungen. Die Benutzerfreundlichkeit ist sehr wichtig für die Akzeptanz der Software bei den Benutzern. Die beste Applikation nützt letztendlich nichts wenn sie nicht durch ihre Anwender bedient werden kann. Flexibilität

Die Applikation sollte leicht verändert werden können. Damit wird auch die Wartbarkeit eines Produktes gewährleistet. Die Applikation sollte eine ausführliche und vollständige Dokumentation aufweisen. Die Komponenten sollten einfach gestaltet werden und strukturiert und übersichtlich gegliedert sein. Die Schnittstellen sollten klar definiert und gut dokumentiert sein. Funktionalität

Dieses Kriterum beschreibt, wieviele Funktionen, die für den Verwendungszweck vorgesehen waren, realisiert wurden. Bei der Funktionalität ist es wichtig die richtigen Funktionen umzusetzen. Riesige Systeme mit einem grossen Funktionsumfang sind oft unwirtschaftlich und an den Bedürfnissen der Benützer vorbei entwickelt worden. Zusätzliche Funktionen, die der Benutzer nicht benötigt verursachen lediglich zusätzliche Kosten und verlangsamen die Benützung des Systems. Qualität vor Quantität.

Page 214: ITKnowHow

Kompatibilität

Die Software sollte kompatibel mit anderen System agieren können. Mit Hilfe von standardisierten und offenen Schnittstellen sollte dies möglich gemacht werden. Ebenfalls sollte die Anwendung kompatibel auf verschiedenen Plattformen und Betriebssystemen übertragen werden können (Portabilität). Performance

Der Benutzer erwartet auf eine Aktion eine sofortige Reaktion des Systems. Die Performance sollte in erster Linie auf den Benutzer ausgerichtet werden. Die Schnelligkeit des Systems sollte effizient sein. Dank den neuen Entwicklungen im Hardwarebereich wird die Performance stets verbessert. Die Performance sollte also nicht unnötig optimiert werden. Sicherheit

Es sollten keine Systemdaten an unberechtigte Personen oder Fremdsysteme übermittelt werden. Die Daten müssen geschützt werden (Datensicherung). Mit einer Risikoanalyse können Gefahrenquellen gefunden und mit effektiven Schutzmassnahmen ausgeschalten werden. Zuverlässigkeit

Wenn das System zuverlässig arbeitet, ist auch das Vertrauen der Benutzer in die Applikation vorhanden. Die Funktionalität des Systems sollte bei korrektem Input den erwarteten und vereinbarten Output liefern. Auch die Stabilität (Absturzgefahr) des Systems spielt eine wichtige Rolle für die Zuverlässigkeit des Systems. Kosten

Die Kosten sind kein direkter Faktor für die Qualität der Software, sie sind aber ein wichtiger Faktor bei der Evaluation einer neuen Anwendung. Bei Software ist wichtig zu beachten, dass die Entwicklungs- oder Initialkosten sowie die Wartungs- und Lizenzkosten gerechnet werden. Ebenfalls sollte unbedingt berücksichtigt werden, wieviele Personen und Ressourcen eingesetzt werden müssen. Die Gegenüberstellung der Kosten und dem Nutzen (in Zahlen ausgedrückt) ist ein wichtiges Element für den Entscheid über den Einsatz neuer Software.

Page 215: ITKnowHow

Systeme Hardware

o Datenträger o Der Rechner o Eingabe o Mobile Devices o Prozessor

Page 216: ITKnowHow

Datenträger

Zentrale Grundlage für das sinnvolle und zweckgerichtete Speichern in jeglicher Form sind drei Prozesse, die durch die Formen der Speicherung realisiert werden müssen:

• der Aufzeichnungsvorgang (aus Daten oder Signalen wird durch Einwirken von Energie der Speicherzustand erzeugt, das Trägermaterial verändert)

• der Speicherzustand (Festhalten der Veränderung des Trägermaterials , also des Aufzeichnungsvorgangs möglichst unverändert und dauerhaft stabil)

• der Wiedergabevorgang (aus den Speicherzuständen werden die ursprünglichen Daten/Signale möglichst originalgetreu wiedergewonnen)

Aufzeichnen, Bewahren und Weitergeben sind also Kernfunktionen jedes Speicherns. Einen weiteren Aspekt stellt noch die die Übertragung des Gespeicherten dar.

Wie diese Kernfunktionen realisiert werden können, kann man wiederum aus drei verschiedenen Blickwinkeln betrachten, bei denen für diese Prozesse eingesetzten Träger der Speicherung, die Form der Speicherung und die Methoden des Wiederfindens des Gespeicherten im Mittelpunkt stehen:

• das chemisch-physikalische Prinzip (Träger der Speicherung)

• das Speicherungsverfahren (Form der Speicherung)

• das Suchverfahren (Wiederfinden des Gespeicherten) Speicherverfahren

• mechanisch

o Papierblatt, Katalogkarte

o gedrucktes Medium

o Lochstreifen

o Lochkarte

• elektro-mechanisch

o Relais

• magnetisch

o Magnetkern

o Magnetband [für Zeichen, Bilder, Töne]

o Spulen

o Kassetten

Page 217: ITKnowHow

o Magnettrommel

o Magnetplatten (-folien)

o Festplatten

o Wechselplatten

o Disketten

o Magnetkarten

o Magnetdraht

o Magnetblasen

• elektronisch

o Halbleiter

o Nur-Lesespeicher (nicht-flüchtig)

o ROM [Read Only Memory, herstellerprogrammiert]

o PROM [Programmable ROM, durch Anwender einmal programmierbar]

o EPROM [Erasable Programmable ROM, durch Anwender mehrfach lösch- und programmiebar]

o Schreib-/Lesespeicher (RAM) [Random Access Memory]

o SRAM [ Static RAM ; laufend Ruhestrom erforderlich, flüchtig]

o DRAM [ Dynamic RAM ; zyklisches Erneuern durch

o refreshing, flüchtig]

o FLASH [Beschreibbar, nicht-flüchtig]

o Supraleiter

• optisch

o CD-DA [Digital Audio-CD]

o CD-ROM [Read Only Memory]

o CD-ROM/XA [Extended Architecture, hohe Speicherdichte, max. 19 Std. Audio]

o CD-ROM mixed mode [1 Track Daten, Rest kann Audio sein]

o CD-I [Interactive, z.B. mit Filmsequenzen]

o CD-R [Recordable, einmal beschreibbar in CD-Brenner, WORM]

o Photo-CD [Entwicklung von Kodak]

o Video CD [Komprimiertes Video bis zu 74 Min.]

Page 218: ITKnowHow

o CD-RW [Rewritable, bis zu 1000 x beschreibbar, ähnlich CD-R]

o CD Extra [Multisession von Audio- und komprimierten Bilddaten]

o DVD [Digital Versatile Disk, mit hoher Datendichte]

o DVD-ROM [entspricht CD-ROM

o DVD-R [entspricht CD-R]

o DVD-RAM [entspricht CD-RW]

o Transphasor ["optischer Transistor"]

• magneto-optisch

o Aufzeichnungsvorgang: (elektromagnetischer) Curie-Effekt

o Wiedergabevorgang: (optischer) Kerr-Effekt

• biochemisch -elektrisch -organisch

o Biotechnik-Speicher

o Protein-Speicher Speicherungsformen Sequentielle Speicherung

• Sätze sind in lückenloser Reihenfolge hintereinander auf dem Datenträger abgelegt

• Kein Zusammenhang (funktionale Vorschrift) zwischen Ordnungsbegriff (Schlüssel) und physischer Satzadresse (Beginn-Adresse des Satzes), daher kein wahlfreier Zugriff möglich

• Bei der Suche eines Satzes muss jeder Satz angesprungen und ein Schlüsselwert-Vergleich zwischen momentanem Satzschlüssel und gesuchtem Schlüssel durchgeführt werden.

• Beim Einfügen von Sätzen ist eine Zwischendatei (scratch file) erforderlich (etwa ein zweites Magnetband)

Index-sequentielle Speicherung

• Zusätzlich zur Datendatei wird eine Indexdatei mit einer Indextabelle abgespeichert

• Indextabelle: Zu jedem Primärschlüsselwert wird die zugehörige physische Satzadresse vermerkt;

• Die Speicherplätze der einzelnen Sätze brauchen nicht zusammenhängend sein

Page 219: ITKnowHow

• Bei der Suche nach einem Datensatz wird nicht im originären Datenbestand gesucht, sondern der Index wird in den Hauptspeicher geladen und durchsucht.

• Bei unsortierter Reihenfolge der Schlüsselwerte ist im Durchschnitt die halbe Index-Datei zu durchsuchen

• Sortierung nach den Primärschlüsselwerten ermöglicht binäres Suchen Index-verkettete Speicherung In der Indextabelle werden bei diesem Speicherverfahren zusätzlich zu jedem Schlüsselwert vom nachfolgenden / vorhergehenden Satz entweder der Schlüsselwert oder die Position in der Indextabelle oder die physische Speicheradresse als drittes Feld (Spalte) festgehalten.

• Der 'Einstiegspunkt' (Anker) ist die Speicheradresse des ersten Indexeintrags

• Offene Kette: Letzter Eintrag ohne einen Verweis auf den Nachfolger

• Geschlossene Kette: Rückverweis vom letzten Eintrag auf den Anker (kreisförmige Verkettung)

• Analog zur Vorwärtsverkettung wäre auch eine Rückwärtsverkettung möglich, ebenso eine doppelte oder zweifache Verkettung.

Vorteile:

• Verteilung des Datenbestands über den gesamten Speicherbereich

• Neu hinzukommende Datensätze werden mit dem Verweis auf den Nachfolgersatz jeweils am Ende der Indextabelle angefügt, das heisst keine Sortierung und entsprechende Einordnung erforderlich)

• Einfache Änderung beim Einfügen und Löschen

Nachteil:

• Aufwand für den Änderungsdienst

Wiederfinden des Gespeicherten

Von der Form der Datenspeicherung hängt dann auch die Möglichkeit ab, wie auf die gespeicherten Daten wieder zugegriffen werden kann:

• seriell (starr fortlaufend) in der Reihenfolge, wie die Daten für die Speicherung angefallen sind

Page 220: ITKnowHow

• sequentiell (fortlaufend gemäss einer gegebenen Reihenfolge)

• direkt (wahlfrei, Random Access) über die Nutzung des Index

Page 221: ITKnowHow

Der Rechner

Ein beliebtes Erklärungsmodell für den Aufbau einer Datenverarbeitungsanlage (Rechner) ist die prinzipielle Darstellung des Von-Neumann-Rechners, den John von Neumann bereits kurz nach dem 2. Weltkrieg beschrieben hat.

Der von Neumann-Rechner arbeitet sequentiell, Befehl für Befehl wird abgeholt, interpretiert ausgeführt und das Resultat abgespeichert. Der von Neumann-Rechner besteht im wesentlichen aus:

• Speicherwerk - zur Abspeicherung der Programme und Daten. Der Speicher ist in Zellen eingeteilt, jede Zelle hat eine Breite von n Bit. Dabei entspricht n der Wortbreite des Computers.

• ALU (Arithmetic Logic Unit) - einem Akkumulator und mindestens einem Zusatzregister. Die ALU führt arithmetische, logische und shifting-Operationen durch

• Leitwerk (Control Unit, CU) - beinhaltet den Programmzähler (Program Counter) und einer Einheit für die Decodierung der Befehle

• I/O-Werk - für die Kommunikation mit externen Speichereinheiten

Abbildung: Prinzip des Von-Neumann-Rechners

Rechner

Nach DIN-Definition ist ein Rechner eine Einheit zur Verarbeitung von Daten, nämlich zur Durchführung mathematischer, umformender, übertragender und speichernder Operationen. Als Synonyme werden in der DIN-Norm die Benennungen Rechensystem, Rechenanlage, Datenverarbeitungssystem und Datenverarbeitungsanlage sowie Computer und Data Processing System genannt.

Page 222: ITKnowHow

Damit die Einheit "Rechner" funktionieren kann, bedarf er bestimmter Funktionseinheiten.

Abbildung: Hardwareaufbau eines Rechners

Funktionseinheiten eines Rechners

Ein Rechner besteht aus Funktionseinheiten durch die Information von aussen aufgenommen werden kann (Eingabewerk), durch die diese Information verarbeitet, also interpretiert, verändert und aufbewahrt werden kann (Processor, Leitwerk, Rechenwerk und den internen Arbeitsspeicher) steuert durch die die verarbeitete Information wieder nach aussen abgegeben werden kann (Ausgabewerk).

Hier kann das bekannte "EVA" = Eingabe, Verarbeitung, Ausgabe als Eselsbrücke dienen. Jeder der genannten Funktionseinheiten können in der Realität eine oder mehrere Baueinheiten entsprechen. Eingabewerk

Eine Eingabeeinheit ist eine Funktionseinheit eines Rechners, durch die Information von aussen aufgenommen werden kann. Die Funktionseinheit verbindet den Rechner mit verschiedenen Eingabeeinheiten wie Tastatur, Maus, Lichtgriffel, Digitalisiertablett, Pen-based Computer, Schriftenleser, Scanner, Speicher... Ausgabewerk

Eine Ausgabeeinheit ist eine Funktionseinheit eines Rechners, durch die die verarbeitete Information wieder nach aussen abgegeben werden kann. Auch sie ist das Bindeglied zwischen verschiedenen Ausgabegeräten wie Monitor, Kathodenstrahlröhre, Flüssigkristallbildschirm, Plasmabildschirm, Elektrolumineszenzbildschirm,

Page 223: ITKnowHow

Elektronenstrahlbildschirm, Drucker, Zeichendrucker, Zeilendrucker, Seitendrucker, Plotter, Speicher Prozessor

Ein Prozessor ist eine Funktionseinheit, die Leitwerk, Rechenwerk und Verbindungskomponenten umfasst. Speicher

Ein Speicher ist eine Funktionseinheit eines Rechners, Information einbringt, aufnimmt, aufbewahrt und abgibt. Dabei ist zu unterscheiden

• Interner Speicher (Zentralspeicher)

• Zentralspeicher

ist ein Speicher innerhalb der Zentraleinheit. Typische Merkmale sind der unmittelbare Zugang durch den Prozessor, die vorübergehende Speicherung und der schnelle Zugriff. Weitere gängige Benennungen für Zentralspeicher sind: Speicherwerk und interner Speicher. Der grösste interne Speicher ist der Arbeitsspeicher, der auch vielfach Hauptspeicher genannt wird. Der Arbeitsspeicher und die anderen internen Speicher arbeiten mit einem ausserordentlich schnellen Zugriff. Ihr Fassungsvermögen ist jedoch aus technischen und Kostengründen begrenzt. Sie dienen während der Programmausführung zur Speicherung und werden im allgemeinen nicht für eine dauerhafte Aufbewahrung von Information herangezogen. Diese Funktion übernehmen die externen Speicher.

• Externer Speicher

Jeder Speicher, der nicht Zentralspeicher ist, wird als externer beziehungsweise peripherer Speicher bezeichnet. Externe Speicher sind langsamer (geringere Zugriffsgeschwindigkeit), aber dafür billiger als Zentralspeicher, und sie verfügen über sehr grosse Speicherkapazitäten. Nicht unmittelbar benötigte Daten und Programme, die aus Platzgründen nicht ständig im Zentralspeicher stehen, werden extern gespeichert und können bei Bedarf mit grosser Geschwindigkeit in den internen Speicher übertragen werden. Wegen ihrer hohen Kapazität bezeichnet man sie auch als Massenspeicher (Magnetische Datenträger, Optische Datenträger, Elektronische Datenträger )

Peripherie

Eine Funktionseinheit eines Rechners, die nicht zur Zentraleinheit gehört, wird periphere Einheit genannt. Dementsprechend werden externe Speicher auch als periphere Speicher bezeichnet. Der Verkehr mit den peripheren Geräten zur Eingabe (input) und Ausgabe (output) von Programmen und Daten wird in Rechnern meist durch selbständige Funktionseinheiten gesteuert, die als Ein-Ausgabe-Prozessoren bezeichnet werden.

Page 224: ITKnowHow

Intelligente Peripherie

Durch eingebaute Prozessorchips (und Speicherchips) werden die Peripheriegeräte "intelligent". Das heisst im IT-Jargon, dass sie über Eigensteuerungsvermögen verfügen und damit im Betrieb nicht auf die ständige Fremdsteuerung durch eine Zentraleinheit angewiesen sind. Bei Bedarf werden sie vom Prozessor der Zentraleinheit "angestossen" und wickeln dann die gerätespezifischen Aufgaben weitgehend selbständig ab. Die Zentraleinheit wird damit wesentlich entlastet, und die Parallelarbeit erhöht die Gesamtleistung des Rechners.

Die Zusammenschaltung von mindestens einer Zentraleinheit mit den an diese angeschlossenen peripheren Geräten wird Konfiguration genannt.

Page 225: ITKnowHow

Eingabe- und Ausgabegeräte Eingabegeräte

Tastatur

Eine Tastatur (engl.: keyboard) ist ein Eingabegerät mit einer Vielzahl von Tasten, die auf bestimmte Weise angeordnet und mit bestimmter Bedeutung (Zeichen, Funktionen) belegt sind. Die Dateneingabe erfolgt durch die aufeinanderfolgende Betätigung der Tasten mit den Fingern.

Maus

Eine Maus (engl.: mouse) ist eine etwa mausgrosse Zusatzeinrichtung zu einem Bildschirm, deren Bewegung auf einer ebenen Fläche von der Positionsmarke auf dem Bildschirm in Richtung und Geschwindigkeit unmittelbar nachvollzogen wird. Sie verfügt über einen Auslösemechanismus (Funktionstasten), mit dem die vom Cursor gekennzeichneten Felder aktiviert werden können (durch Anklicken).

Lichtgriffel

Ein Lichtgriffel (Lichtstift; engl.: light pen) ist ein als Zusatzeinrichtung zu einer Datensichtstation dienender lichtempfindlicher Stift, mit dem von Hand auf dem Bildschirm bestimmte Punkte oder Flächen markiert und Kurven durch ihren Verlauf oder ihre Endpunkte dargestellt werden können.

Touch Screen

Ein Sensorbildschirm (engl.: touch screen), Kontaktbildschirm oder berührungsempfindlicher Bildschirm (= Synonyme) erlaubt die Auswahl von Kommandos beziehungsweise die Eingabe von sonstigen angezeigten Daten (aus einem Menü) durch Markierung der auszulösenden Aktion mit dem Finger oder einem beliebigen Stift (Zeigen auf ein Eingabefeld).

Digitalisiertablett

Ein Digitalisiertablett (Grafiktablett; Digitalisierer; Kurvenverfolger; engl.: digitizer; graphic data table) besteht aus einem elektronischen "Tablett" (Zeichenbrett) und einem

Page 226: ITKnowHow

daran gekoppelten frei beweglichen Markierer (Stift oder signalablesende Lupe), dessen Positionen auf der Zeichenfläche punktweise durch Eingabe der Koordinaten abgespeichert werden.

Notepad

Ein Notepad (engl.: note = Notiz, Aufzeichnung; pad = Unterlage, Schreibblock) oder Pen-based Computer (deutsch: stiftunterstützter Rechner) ist ein tragbarer PC (Notebook oder PDA), mit einem integrierten, berührungsempfindlichen LCD-Bildschirm. Man zeichnet oder schreibt mit einem Spezialstift auf dem Bildschirm wie auf einem gewöhnlichen Schreibblock. Die eingegebenen Daten werden in einem Bildspeicher punktweise abgelegt und unmittelbar am Bildschirm wiedergegeben, wo sie vom Benutzer korrigiert und im Dialog weiterverarbeitet werden können. Ein Handschrifterkennungsprogramm interpretiert mit dem Stift geschriebene Zahlen und Druckbuchstaben in Gross- und Kleinschreibung und setzt diese in ASCII-Zeichen auf dem Bildschirm um.

Schriftenleser

Die Schriftenleser (engl.: character reader) erkennen optisch oder magnetisch die Bedeutung einzelner, auf den Datenträgern gespeicherter Zeichen und geben diese in maschinell weiterverarbeitbarer Codierung (zum Beispiel ASCII, EBCDIC) aus. Hierzu werden vorher definierte Bereiche der Datenträger ausgewertet, in denen die Zeichen in maschinell lesbarer Form aufgezeichnet sind. Das Layout der Datenträger wird nicht miterfasst.

Scanner

Ein Scanner (engl.: scanner; Synonym: image scanner, Bildabtaster) tastet eine Vorlage zeilenweise ab und setzt selbsttätig für jeden Bildpunkt (Pixel) den entsprechenden Helligkeits- oder Farbwert sowie die Lageinformation in digitale elektrische Signale um. Die erfassten Dokumente (= Rasterbilder) lassen sich zum blossen Ansehen abspeichern (Archivierung) oder mit Zeichenerkennungs- und Bildverarbeitungssoftware im Rechner weiterverarbeiten.

Page 227: ITKnowHow

Ausgabegeräte Monitor

Ein Monitor (engl.: monitor) ist ein Ausgabegerät, das die vom Videoadapter eines Rechners (zum Beispiel einer PC-Grafikkarte) übermittelte Information anzeigt. Er besteht aus dem Bildschirm (engl.: screen; display), dem zugehörigen Gehäuse und eventuell darin eingebauten Zusatzeinrichtungen, wie beispielsweise Mikrofon und Lautsprecher. Der Monitor wird über ein Kabel an die Grafikkarte (Videoadapter) des Rechners angeschlossen.

Kathodenstrahlröhre

Die meisten Monitore verwenden als Bildschirm eine Kathodenstrahlröhre. Dabei handelt es sich um die gleiche grossvolumige, schwere Anzeigeeinheit wie bei Fernsehapparaten. Eine Kathodenstrahlröhre (engl.: cathode ray tube; abgekürzt: CRT) besteht aus einem luftleeren Glaskolben, in dessen Hals eine Kathode - ein auf Rotglut erhitzter Draht mit dünner Oxidbeschichtung - einen scharf gebündelten Elektronenstrahl auf die gegenüberliegende Anodenfläche, der Stirnfläche des Kolbens, richtet. Beim Auftreffen des Kathodenstrahls leuchtet die Phosphorbeschichtung der Anodenfläche auf, und die Bildpunkte werden durch die Glasfläche hindurch sichtbar. Bei einem Farbschirm ist der Belag aus Farbtripletts in den Grundfarben Rot, Grün und Blau aufgebaut, die von drei Elektronenstrahlen punktgenau angesteuert werden. Die Bewegung der Elektronenstrahlen verläuft zeilenweise von links nach rechts, von oben nach unten. Die Steuerung (Ablenkung) erfolgt nach einem genau festgelegten Zeitschema über die am Hals des Kolbens angebrachten Elektromagneten (Ablenkspulen). Damit der Bildschirm nicht flimmert, muss er mindestens 75 mal pro Sekunde aufgefrischt werden.

Flüssigkristallbildschirm

Ein Flüssigkristallbildschirm (engl.: liquid cristal display; LCD) verwendet zur Anzeige in Glasflächen eingeschlossene organische Substanzen, sogenannte Flüssigkristalle, deren molekulare Eigenschaften denen fester Kristalle ähneln. Bei Anlegen einer Spannung richten sich die Flüssigkristalle in Richtung des elektrischen Feldes aus und bekommen dadurch andere optische Eigenschaften (Wechsel zwischen Lichtdurchlässigkeit und Lichtundurchlässigkeit, wodurch ein angesteuerter Bildpunkt dem Betrachter hell oder dunkel/farbig erscheint).

Plasmabildschirm

Ein Plasmabildschirm (engl.: plasma display) besteht aus zwei Glasplatten, zwischen denen sich ein Mosaik aus 0,2 Millimeter kleinen gasgefüllten Zellen befindet. Ein

Page 228: ITKnowHow

elektrisches Leitungsgitter (Elektrodenarray) hält die gesamte Fläche unter Spannung, knapp unter dem Grenzwert, bei dem das Edelgasgemisch (= Plasma) zu leuchten beginnt. Durch elektrische Entladungen in den einzeln adressierbaren Zellen emittiert das Gas ultraviolette Strahlen, die die Phosphorbeschichtung der Zellen zum Leuchten anregen.

Elektrolumineszenzbildschirm

Ein Elektrolumineszenzbildschirm (engl.: electroluminescent display; abgekürzt: ELD) verwendet für die Anzeige ein Substrat (festes Material oder flexible Kunststoffolie), auf das mit fotolithografischen Methoden ganzflächig eine Folge von dünnsten Schichten mit Halbleiterschaltungen aufgebracht wurde. Die Beschichtung besteht aus Substanzen, die bei Anlegen einer ausreichenden elektrischen Spannung Licht abgeben. Die Bildpunkte werden durch Transistorschaltungen erzeugt, die in Matrixform über die aufgedampften Leiterbahnen (Elektroden) angesteuert werden.

Elektronenstrahlbildschirm

Ein Elektronenstrahlbildschirm (engl.: flat CRT display) arbeitet wie die herkömmliche Kathodenstrahlröhre mit der Vakuumfluoreszenztechnik, wobei anstelle des voluminösen Glaskolbens eine flache Glaswanne oder ein Miniröhrenfeld verwendet wird.

Zeichendrucker

Ein Zeichendrucker (engl.: character printer) druckt - wie eine Schreibmaschine - Zeichen für Zeichen und wird deshalb auch als serieller Drucker (engl.: serial printer) bezeichnet. Er arbeitet relativ langsam und eignet sich deshalb vor allem als Anschlussgerät für Arbeitsplatzrechner und unintelligente Datensichtstationen (Hard-Copy-Drucker). Durch einen Tastendruck lassen sich dann Bildschirminhalte, deren Dokumentation gewünscht wird, in Minutenschnelle auflisten.

Mechanische Drucker

Typenhebel-, Kugelkopf-, Typenrad- und Nadeldrucker sind mechanische Drucker (engl.: impact printer), bei denen die Druckfarbe durch einen Aufschlagmechanismus auf das Papier aufgebracht wird (üblicherweise Hammer, der ein Farbband gegen das Papier drückt).

Page 229: ITKnowHow

Nichtmechanische Drucker

Nichtmechanische Drucker (engl.: non-impact printer) verwenden entweder beschichtetes oder lichtempfindliches Spezialpapier, das auf elektrische, magnetische oder wärmetechnische Reize reagiert, oder es wird mit elektrostatischen, magnetografischen, Thermotransfer- oder Tintenstrahlverfahren auf Normalpapier gedruckt.

Zeilendrucker

Zeilendrucker (engl.: line printer), die auch sehr häufig als Schnelldrucker bezeichnet werden, drucken jeweils Zeile für Zeile als Ganzes und erreichen dadurch hohe Druckgeschwindigkeiten. Der Leistungsbereich dieser fast immer mechanisch arbeitenden Geräte reicht von etwa 150 bis 4.000 Zeilen pro Minute.

Seitendrucker

Seitendrucker (engl.: page printer) sind nichtmechanische Drucker (engl.: non-impact printer), die jeweils eine ganze, komplett elektronisch aufbereitete Seite nach der anderen drucken. Die meisten Seitendrucker arbeiten mit Lasertechnik und elektrofotografischem (xerografischem) Druckprinzip (Varianten: LED-Drucker, Ionendrucker).

Federplotter

Die sog. Federplotter oder Stiftplotter (engl.: pen plotter) arbeiten mechanisch mit Zeichenstiften. Entsprechend der Bauart des Bewegungssystems, mit dem der Stift auf der Zeichenfläche geführt wird, unterscheidet man im wesentlichen zwei Gruppen: Die Flachbettplotter und die Trommelplotter. Beide Gruppen haben gemeinsam, dass das Bild strichweise (entsprechend den vorgegebenen Positionen in dem x-y-Koordinatensystem der Zeichenfläche) aufgezeichnet wird; sie heissen deshalb auch Vektorplotter.

Druckerplotter

Die sogenannten Druckerplotter (engl.: printerplotter) zeichnen die Ausgabedaten mit nichtmechanischen Aufzeichnungsverfahren mit hoher Geschwindigkeit nach dem Punktrasterprinzip auf. Der Anwender hat dabei die Wahl zwischen Monochrom- und Farbelektrostaten, Thermotransfer-, Tintenstrahl- und Laserplottern.

Page 230: ITKnowHow

Mobile Devices

• Handy

• Notebook

• PDA / Handheld

• Flatpad

• Pocket PC

• Communicator

Abbildung: Flatpad

Abbildung: Pocket PC

Page 231: ITKnowHow

Prozessor

Prozessorchips (engl.: processor chip) realisieren logische Funktionen, die von untergeordneten Einheiten bis hin zu kompletten Prozessoren für Zentraleinheiten und zur Steuerung peripherer Geräte reichen.

Mikroprozessor ist ein vollständiger Prozessor, der auf einem Chip untergebracht ist, heisst Mikroprozessor. Mikroprozessoren (engl.: microprocessor) werden gewöhnlich anhand der Verarbeitungsbreite in 8-Bit-, 16-Bit-, 32-Bit- und 64-Bit-Prozessoren eingeteilt. Ein-Chip-Computer

Bei einem Ein-Chip-Computer (MCU; Abkürzung für engl.: micro computer unit) ist eine vollständige Zentraleinheit auf einem einzigen Chip integriert. Solche "Miniaturcomputer" kommen in allen möglichen Geräten, wie zum Beispiel Kameras, Stereoanlagen, Waschmaschinen, Autos, usw. zum Einsatz. Leistungskriterien Verarbeitungsbreite

Ein 8-Bit-Prozessor hat einen acht Bits breiten Datenbus (engl.: data bus), das heisst auf acht parallelen Datenleitungen können während einer (Takt-)Zeiteinheit acht Bits (= ein Byte) übertragen werden. Und ein 64-Bit-Prozessor kann bei Bedarf 64 Bits pro Takt übermitteln; das heisst der Datentransfer kann achtmal so schnell erfolgen wie bei einem 8-Bit-Prozessor. Auch die sonstigen Funktionseinheiten innerhalb des Prozessors, zum Beispiel die Einheiten zur Zwischenspeicherung der transferierten Daten, sogenannte Register (engl.: register), sind auf diese Informationsbreite abgestimmt. Die Verarbeitungsbreite ist also ein wesentliches Kriterium für das Leistungsvermögen eines Mikroprozessors. Taktzeit

Eine weitere Leistungsdeterminante eines Prozessors, neben der Verarbeitungsbreite, ist die Taktzeit (= Zykluszeit,Taktzyklus; engl.: cycle time), das heisst die immer gleich lange, zyklisch aufeinanderfolgende Zeitspanne, die für die Abarbeitung der Befehle zur Verfügung steht. Der Taktzyklus ist der Kehrwert der Taktrate und wird dementsprechend vorwiegend in Nanosekunden (ns) angegeben.

• 1 Sekunde = 1000 Millisekunden (ms)

• 1 Sekunde = 1 Million Mikrosekunden

• 1 Sekunde = 1 Milliarde Nanosekunden (ns)

Page 232: ITKnowHow

Taktfrequenz

Die Taktfrequenz (=Taktrate; engl.: clock pulse) ist eine Massgrösse für die Verarbeitungsgeschwindigkeit eines Prozessors und wird in Megahertz gemessen. Durch die Verwendung einfacher, kurzer Maschinenbefehle und parallele Verarbeitungseinheiten können die leistungsfähigsten 64-Bit-Mikroprozessoren heute drei bis vier Befehle pro Takt ausführen. Bei einer Taktrate von 200 Megahertz sind dies theoretisch 600 bis 800 Millionen Prozessorbefehle pro Sekunde (Ein-/Ausgabebefehle dauern um ein Vielfaches länger).

Die Taktfrequenz wird in Megahertz (abgekürzt: MHz; 1 MHz = 1 Million Zyklen pro Sekunde) gemessen.

Den zeitlichen Ablauf der Maschinenoperationen steuert ein Taktgeber (engl.: clock); das ist ein Pulsgenerator (mit einer bestimmten Taktfrequenz) zur Synchronisierung von Operationen.

Page 233: ITKnowHow

Tele- / Kommunikation

o Client o Das OSI o Middleware o Netzwerk o Netzwerkprotokolle o Telekommunikation Hardware

Page 234: ITKnowHow

Client/Server-Architektur

Unter der Client/Server-Architektur versteht man eine kooperative Informationsverarbeitung, bei der die Aufgaben zwischen Programmen auf verbundenen Rechnern aufgeteilt werden. In einem solchen Verbundsystem können Rechner aller Art zusammenarbeiten. Server bieten über das Netz Dienstleistungen an, Clients fordern diese bei Bedarf an.

Die Kommunikation zwischen einem Client-Programm und dem Server-Programm basiert auf Transaktionen, die vom Client generiert und dem Server zur Verarbeitung überstellt werden. Eine Transaktion ist eine Folge logisch zusammengehöriger Aktionen, beispielsweise zur Verarbeitung eines Geschäftsvorfalls. Client und Server können über ein lokales Netz verbunden sein oder sie können über grosse Entfernungen hinweg, zum Beispiel über eine Satellitenverbindung, miteinander kommunizieren. Dabei kann es sich um Systeme jeglicher Grössenordnung handeln; das Leistungsvermögen des Clients kann das des Servers also durchaus übersteigen. Grundidee der Client/Server-Architektur ist eine optimale Ausnutzung der Ressourcen der beteiligten Systeme.

Page 235: ITKnowHow

Abbildung: Zweistufige Client-Server-Architekturen

Der Server ist ein System, das für andere (Clients) Dienstleistungen erbringt. Solche Dienstleistungen können zum Beispiel Datenverwaltung, Rechnen, Drucken, Kommunikation und vieles andere sein.

Der Client nimmt die Dienstleistungen, die ein Server erbringt, in Anspruch. Solche Dienstleistungen können zum Beispiel Datenverwaltung, Rechnen, Drucken, Kommunikation und vieles andere sein.

Man spricht von einem aktiven Server, wenn von diesem sowohl die Anwendungsfunktionen als auch die Datenhaltung übernommen werden. Der Client übernimmt nur die Aufgabe der Repräsentation bzw. der Oberfläche.

Man spricht von einem passiven Server mit zentraler Datenhaltung, wenn von diesem die Datenhaltung alleine übernommen wird, und der Client nur die Aufgaben der Repräsentation bzw. der Oberfläche und der Anwendungsfunktionen übernimmt. Kümmert sich hingegegn der Client auch um einen Teil der Datenhaltung, spricht man von einem passiven Server mit dezentraler Datenhaltung.

In manchen Client/Server-Systemen können die Rollen zwischen Server und Klienten austauschbar sein, so dass man hier von einem Peer-to-Peer-System spricht (engl.: peer heisst "Gleichrangiger").

Downsizing bedeutet, dass Informationssysteme vom Grossrechner auf kostengünstigere beziehungsweise effizientere Abteilungsrechner (Minirechner) und Arbeitsplatzrechner (Personalcomputer und Workstations) ausgelagert werden. Da aber nach wie vor betriebs- oder abteilungsübergreifende Datenbestände und Anwendungen zentral gehalten werden müssen, setzt man bei grösseren Informationssystemen die sogenannte Client-Server-Architektur ein.

Page 236: ITKnowHow

Das OSI-Modell

Bei der Kommunikation zwischen zwei Rechnern müssen sich beide Rechner an ein gemeinsames Protokoll halten. Das OSI-Modell wurde als Referenzmodell für solche Netzwerkprotokolle im Jahre 1979 entwickelt. Die OSI ist ein Teil der ISO, weshalb das Modell auch ISO/OSI-Modell genannt wird.

Das OSI-Modell ist kein verbindlicher Standard, sondern eher ein Grund- bzw. Referenzmodell, das die Entwicklung und Beschreibung von Netzwerkprotokollen vereinfachen soll. Daher ist das Modell auch sehr offen formuliert. Es geht bei diesem Modell eher um die logischen Zusammenhänge als um eine konkrete Implementierung. Die einzige zur Zeit bedeutende Implementation des OSI-Standards ist IBMs SNA, das zur Vernetzung von Grossrechenanlagen benutzt wird. Warum brauchen wir ein solches Modell ?

Damit zwei Rechner kommunizierren können sind eben nicht nur zwei Rechner und ein paar Meter Kabel notwendig. Sondern es bedarf einer genauen Spezifikation, wie die Software die Daten verpacken muss, damit die Hardware sie übertragen kann. Vor allen Dingen aber damit sie auch beim richtigen Empfänger ankommen und dort auch richtig interpretiert werden können.

Diese Spezifikation nennt man Protokoll. Das OSI-Modell beschreibt diese Protokolle auf verschiedenen Ebenen. Durch die Einteilung in verschiedene Ebenen oder auch Schichten ist es Möglich verschiedene Systeme anzupassen. So wird ein Datenpaket von einem Rechner zum anderen mehrmals verändert oder sogar geteilt, ohne das der Empfänger davon Kenntnis hat, ja er merkt es normalerweise noch nicht mal. Was ist ein Schichtenmodell ?

Ein Modell hat die Aufgabe die Wirklichkeit abstrakt und möglichst allgemeingültig abzubilden. Ein Schichtenmodell zerlegt den zu beschreibenden Gegenstand in mehrere Schichten. Es besitzt einen hirarchischen Aufbau.

Die Schichtenbildung folgt dabei folgenden Prinzipien :

• Eine Schicht sollte dann definiert werden wenn ein neues Abstarktionsniveau erreicht wird.

• Jede Schicht sollte eine wohldefinierte Funktionalität aufweisen.

• Jede Schicht sollte im Hinblick auf die Definition internationaler Standards für Protokolle gewählt werden.

• Die Schichtgrenzen sollten im Hinblick auf die Definition internationaler Standards für Protokolle gewählt werden.

• Die Schichtgrenzen sollten im Hinblick auf minimalen Informationsfluss über die Schnittstellen erfolgen.

Page 237: ITKnowHow

• Die Anzahl der Schichten sollte so gross wie nötig und so klein wie möglich sein.

• Die einzelnen Schichten eines solchen Modells bauen hirarchisch auf einander auf. Jede Schicht besitzt eine Sammlung von Funktionen, zu denen Schnittstellen existieren, die den angrenzenden Schichten bekannt sind.

Schicht Sn+1 nutzt den Dienst Dn der Schicht Sn über die definierte Schnittstelle. Die Schicht Sn+1 hat dabei keine genauen Informationen über die Hintergründe der Dienstes Dn , sie kennt und benutzt lediglich die Schnittstelle.

Hier werden wie in der Objektorientierten Programmierung die Methoden des Infomation Hiding und der Data Abstraction angewandt. Der Anwender benutzt den Dienst Dn also wie eine Black Box.

Ein Schichtenmodell hat folgende Eigenschaften:

• Aufbau einer hirarchischen Struktur

• Verbergen von Details. Also verbergen der Implementation (des Wie?).

• Weitergabe der Dienste (des Was?) über definierte Schnittstellen.

Auf diese Weise lassen sich herstellerunabhängige Systeme schaffen, bei denen die einzelnen Schichten einfach ausgetauscht werden können ohne andere Schichten zu verändern. Das OSI-Schichtenmodell

Das OSI-Modell besteht aus 7 Schichten, die zur Kommunikation von Rechnern erforderlich sind. Dabei ist gewährleistet, das Anwendungen die auf der obersten Schicht aufsetzten unabhängig von Modell und Netzwerk funktionieren. Der Zugriff auf das Netzwerk ist durch alle Schichten hindurch gewährleistet.

Abbildung: Das OSI-Schichtenmodell

Die eigentliche Übertragung verläuft entlang des durchgezogene Flusses, das heisst auf der einen Seite von Schicht 7 runter zu Schicht 1 und auf der anderen Seite wieder

Page 238: ITKnowHow

hoch von Schicht 1 zu Schicht 7. Die logische Verbindung verläuft nach dem Modell entlang der gestrichelten Linien, also z.B. von einer Schicht des Senders zur selben Schicht des Empfängers.

Jede Schicht unterhält also mit ihrem "Partner" eine sogenannte Peer-to-Peer-Verbindung. Diese horizontalen Verbindungen bestehen natürlich nur virtuell.

Eine Information die von einem System zum anderen übertragen werden soll muss zuerst von der obersten Schicht durch alle darunterliegenden Schichten durchegereicht werden, bevor sie über das physiaklische Medium übertragen wird. Dabei wird die Information in jeder Schicht um Protokollinformationen erweitert, die auf dem Zielsystem von der entsprechenden Schicht wieder entfernt werden. Die Information kommt so korrekt in Schicht 7 der Gegenseite an.

Jede Schicht hängt also den Daten, die ihr von der darüberliegenden Schicht übergeben werden einen eigenen Protokoll-Overhead an und entfernt diesen wieder bei den von unten kommenden Paketen. Damit ist klar, dass nur solche Systeme miteinander kommunizieren können, wo die Schichten in der Lage sind den jeweiligen Protokoll-Overhead wie Prüfsummen und Zieladresse richtig zu interpretieren. Dieser Sachverhalt kommt bei Netzübergängen, also Schnittstellen zwischen Systemen die sich normalerweise nicht verstehen würden erst richtig zum Tragen. Ein Router z.B. ist in der Lage ein Datenpaket eines LANs so umzuwandeln, dass man es über eine ISDN-Strecke in ein anderes LAN übertragen kann.

Abbildung: Der Schichtenweg

Die Schichten

Wie sich aus der Abbildung erkennen lässt sind die drei oberen Schichten anwendungsorientiert und die unteren vier transportorientiert. Diese Unterscheidung spielt bei direkt miteinander verbundenen Systemen keine Rolle. Anders ist dies, wenn wie in der folgenden Abbildung ein oder mehrere Netzübergänge dazwischen sind.

Wie später noch klar wird sind die anwendungsorientierten Schichten in realen Implementationen meistens nicht näher definiert und ihre Realisation und Kontrolle

Page 239: ITKnowHow

obliegt der Anwendung. Die realen Implementationen der tarnsportorientierten Schichten lassen sich meist sehr gut in dem Modell darstellen.

Bei einer Netzstruktur bauen die unteren drei Schichten lediglich eine virtuelle Verbindung zum Netzknoten auf. Der Netzknoten ist für die Anpassung der Datenpakete an das jeweilige Subnetz zuständig. Dadurch wird die Verbindung für dir Schicht vier und alle oberhalb liegenden transparent. Diese Schichten unterhalten ihre virtuellen Verbindungen direkt zur Gegenstelle.

Für die anwendungsorientierten Schichten ist das darunterliegende Transportsystem immer transparent, das heisst sie unterhalten ihre Verbindungen grundsätzlich mit der Gegenstelle.

Die Definition der Transportschichten ist streng hirarchisch und restriktiv, die Anwendungsschichten hingegen arbeiten auch schon mal parallel oder werden in der Implementation zusammengefasst. Die Schichten im Einzelnen

1. Bitübertragungsschicht / Physikalische Ebene / Physikal Layer

Die physikalische Ebene ist die einzige Ebene die direkten Kontakt zum physichen Übertragungsmedium hat. Sie ist für die elektrische und mechanische Definition verantwortlich. Hier werden Signalpegel, Stecker sowie Anordnung und Anzahl der Kontakte definiert. Diese Schicht ist die einzige die unstrukturierte Bitströme sendet und empfängt.

Meistens benutzt man in dieser Schicht das Ethernet nach IEEE 802.3. Das klassische Ethernet besteht aus einem Koaxial-Kabel, dem Bus, mit dem die Rechner durch einen Transceiver verbunden sind. Eine der Bestimmungen ist z.B. dass das Kabel nicht länger als 180m sein darf. Weiter Implementationen sind Token-Ring nach IEEE 802.5 und RS232C (die serielle Schnittstelle am PC).

2. Sicherungsschicht / Datenverbindungsebene / (Data) Link Layer

Die Sicherungsschicht ist für die Fehlererkennung und -Behebung zuständig. Sie teilt den von oben kommenden Bitstrom in sogenannte Frames ein und kontrolliert den Fluss, damit die Gegenseite die Frames wieder zu einem Bitstrom zusammensetzten kann. Diese Segmentierung des Datenstromes ermöglicht eine bessere Fehlerkontrolle und -Behebung. Ausserdem verhindert die Framebildung das eine Station das Medium beliebig lange belegt.

Weiterhin hat die Sicherungsschicht die Aufgabe die Eigenarten der Hardware vor den oberen Schichten zu verbergen und für diese eine Herstellerunabhängige Schnittstelle zu schaffen. In der Regel ist diese Schicht als Kartentreiber implementiert.

Die IEE 802.3 befasst sich ebenfalls mit dieser Ebene. Genau genommen definiert die IEE 802.3 die physikalische Ebene und den medium access sublayer (MAC) desd Ethernet. Der MAC ist der untere Teil der

Page 240: ITKnowHow

Datenverbindungsebene. Der obere Teil wird durch den Logical Link Control (LLC) abgedeckt, welcher ebenso bei Token-Ring benutzt wird und in IEEE 802.2 beschrieben wird. Bei dieser Implementierung schafft also der LLC schon eine Herstellerunabhängigkeit zwischen Ethernet und Token-Ring.

3. Vermittlungsschicht / Netzwerkebene / Network Layer

Die Vermittlungsebene schafft eine Verbindung zwischen Geräten. Sie ist in einfachen Netzen, bei denen die Endgeräte direkt miteinander verbunden sind eigentlich nicht notwendig. Allerdings in komplexen und heterogenen Netzen ist diese Schicht für die Auswahl des geeigneten Transportweges verantwortlich. Sie besitzt also die Logik um die Daten über mehrere Zwischenknoten zum Endsystem zu befördern. Da diese Schicht eine Verbindung zwischen Geräten herstellt nennt man diese Verbindung Ende-zu-Ende-Verbindung zwischen Geräten, diese Geräte müssen allerdings nicht zwingend die Endgeräte sein. Die Wegewahl bezeichnet man als Routing. Dabei unterscheidet man:

o statisches Routing - Die Zwischenknoten führen eine Tabelle mit Wegen.

o dynamisches Routing - Die Zwischenknoten entscheiden auf Grund der Netzlast über den besten (schnellsten) Weg.

Ein weiterer Dienst dieser Schicht ist es Netzwerke unterschiedlicher Topologien zu einem homogenen Netzwerk zu verbinden, wie z.B. ein Ethernet Subnetz mit einem Token-Ring Subnets. Systeme dieser Art werden auch Bridges genannt.

Die so entstandenen Netzwerke bezeichnet man als Internets. Man beachte allerdings den feine Unterschied zwischen einem Internet und dem weltweiten Internet. Letzteres ist der ofizielle Name eines Internets, wenn auch des mit Sicherheit grössten.

Um die Illusion eines einzigen Netzwerks für die höheren Schichten aufrecht zu erhalten verbirgt die Vermittlungsschicht die unterschiedliche Ausstattung durch eine abstrakte Schnittstelle, die die selben Funktionen für die gesamte Hardware zur Verfügung stellen. In diese Schicht kann man aus der Protokoll-Familie TCP/IP das IP-Protokoll einordnen, dass für das statische Routing in TCP/IP-Netzen zuständig ist.

Dynamisches Routing gewährleisten auf Unix-Maschinen sogenannte Routing-Daemon-Prozesse. Diese Daemon-Prozesse verändern die statischen Tabellen auf Grund von Informationen die sie von Routing-Daemonen anderer Rechner erhalten. Hier wird in kleinen Netzwerken auf TCP/IP-Basis meist das Routing Information Protokoll (RIP) eingesetzt. Ebenfalls in diese Schicht fällt ein weiteres Protokoll der TCP/IP-Familie, das Internet Control Message Protokoll (ICMP).

4. Transportschicht / Transport Layer

Diese Schicht ist für den Auf- und Abbau von Verbindungen zwischen Prozessen Verantwortlich. Sie ist die einzige transportorientierte Schicht die immer eine direkte Verbindung zu einem Prozess auf dem Endgerät unterhält. Ihre Aufagbe ist es den darüberliegenden Schichten die zwingend notwendige unabhängigkeit von der benutzten Hardware und den eigenarten der Topologie zu gewährleisten.

Page 241: ITKnowHow

Ausserdem kontrolliert sie den Fluss der Daten um sich an die Sende- und Empfangsgeschwindigkeit der Gegenstelle anzupassen. Die Transportschicht besitzt auch einen Mechanismus zur Erkennung und Behebung von Fehlern die von der Sicherungsschicht nicht erkannt worden sind. Ob eine Verbindung über ein WAN oder ein LAN geht ist für die Transportschicht uninteressant. Da diese Schicht eine Verbindung zwischen Prozessen auf den Endgeräten herstellt. Bei dieser Verbindung spricht man auch von einer Ende-zu-Ende-Kommunikation. Die Transportschicht erkennt z.B. eine falsche Reihenfolge, Verdopplung oder Verlust von Datenpaketen.

Im Bereich TCP/IP kann man die drei Protokolle TCP, UDP und RAW in dieser Ebene ansiedeln. TCP ist ein sogennanter stream-basierter Service, d.h. die Kontrolle über die Reihenfolge der Datenpakete und die Betsätigung der Ankunft eines Datenpaketes obliegt dem Protokoll. Dieser Service lässt sich am ehesten mit einem Dateizugriff vergleichen, bei dem man sich auch nicht darum kümmern muss ob die Daten korrekt in der Steuerelektronik der Festplatte angekommen sind.

UDP ist ein Datagramm-basierter Service, bei dem die Anwendung die Kontrolle der Reihenfolge und der Bestätigung des Datenempfangs übernehmen muss. Das RAW-Protokoll wird nur für Daten auf IP-Ebene benutzt und hat im Anwendungsbereich keine Bedeutung. Bei der TCP/IP-Familie wird der richtige Prozess auf dem Empfangsgerät durch sogenannte Ports identifiziert, die auch als Sockets bezeichnet werden.

5. Kommunikationssteuerungsschicht / Steuerungsebene / Session Layer

Als unterste anwendungsorientierte Schicht nutzt sie als erstes die von unten bereitgestellten Datentransportdienste. Sie ist die letzte Ebene auf der noch mit logischen und nicht mit physikalischen Namen gearbeitet wird. Die Steuerungsebene ist für die synchronisation des Dialogs zuständig. Sie sorgt ebenfalls für eine Resynchronisation wenn der Datenstrom abbricht. Ausserdem baut sie die Verbindungen zwischen den Anwendungen auf und ab.

Die TCP/IP-Protokoll-Familie sieht für die anwendungsorientierten Schichten keine Standard-Implementation vor. Jede Anwendung muss also ihr eigenes Protokoll auf dieser und allen höheren Schichten definieren. Ein Beispiel hierfür ist SMTP. Bei diesem Protokoll werden Zeilen durch Carriage-Return und Linefeed abgeschlossen. Der Empfänger quitiert den Empfang durch eine dreistellige oktale Zahl.

6. Darstellungschicht / Anpassungsebene / Presentation Layer

Diese Schicht bietet dem Anwendungsprogramm die Schnittstelle zum Netzwerk. Während die weiter unten liegenden Schichten nur noch mit Bitströmen arbeiten, ist für diese Schicht noch die volle Syntax der Daten relevant. Sie transformiert die Daten in ein systemunabhängiges Übertragungsformat. Zu ihren Aufgaben gehören also das Formatieren, Verschlüsseln und Komprimieren der Daten. Auf der Gegenseite sorgt sie für die Wiederherstellung der Daten im dortigen plattformspezifischen Format.

Page 242: ITKnowHow

Auch für diese Schicht müssen TCP/IP-Anwendungen selbst sorgen. FTP sieht hier eine Darstellung von ASCII-Text-Dateien vor, die einen Transfer zwischen unterschiedlichen Systemen erlaubt (z.B. DOS und UNIX). Telnet definiert in dieser Schicht ein virtuelles Terminal, das maschinenunabhängige Steuerbefehle entgegennimt.

7. Anwendungsschicht / Verarbeitungsebene / Application Layer

Die Anwendungsschicht bildet die Schnittstelle zwischen der eigentlichen Anwendung und der Übertragungstechnik, sie ist Teil der Anwendungssoftware und ermöglicht eine Hard und Softwareunabhängige Programmierung der Anwendung. Sie ist gleichzeitig Ausgangs- und Zielpunkt der Daten. In dieser Schicht wird das eigentliche Ziel von OSI verwirklicht, diese Schicht stellt dem Endbenutzer die Kommunikationsdienste zur Verfügung. Die untergeordneten Schichten dieses Modell existieren nur um die Dienste der Anwendungsschicht zu ermöglichen.

Dienste der Anwendungsschicht sind z.B. Dateiübertragung und Dateiverzeichnistätigkeiten, Nachrichtenübertragungs- und -Verwaltungsdienste sowie Auftragsübertragung und remote Auftragsverwaltung.

Pro und Kontra OSI-Modell

Das Modell definiert nur das Was?, das heisst die eigentlichen Funktionen werden unabhängig von Herstellern und Protokollen. Das Modell gibt allerdings keine Garantie dafür, dass zwei Systeme kommunikationsfähig sind, es müssen auch gkleiche oder sich entsprechende Protokolle auf beiden Seiten verwendet werden. Erst dadurch sind die schon öfter erwähnten virtuellen Verbindungen möglich.

Neben dem OSI-Modell haben sich diverse andere Protokolle und Protokollfamilien, wie z.B. TCP/IP durchgesetzt, die sich nicht unbedingt an den OSI-Standard halten. Aufgrund ihrer Verbreitung und durch die Veröffentlichung der Definitionen sind sie allerdings ebenfalls herstellerunabhängig.

Das OSI-Modell ist in der Theorie entstanden und deshalb nicht sehr praxisgerecht. Die Forderungen sind oft schwer umzusetzen und Funktionen tauchen in mehreren Schichten auf. Dadurch ist eine Eindeutige Zuordnung einzelner Funktionen oft nicht möglich. Diese Probleme führen dazu, dass die Implementation meist sehr langsam wird.

Weiterhin verliert das Modell immer mehr an Aktualität. Multiprotokollumgebungen, parallel arbeitende Netzwerkkarten und intelligente Treibersoftware sind nur einige Beispiele dis sich nicht mehr in das OSI-Modell zwängen lassen. Trotzdem erleichtert das OSI-Modell immer noch das Verständnis von Zusammenhängen im Netzwerkbereich. Deshalb taucht es auch sehr oft in Zusammenhang mit Erklärungen auf, wenn auch in manchmal in abgewandelter Form.

Page 243: ITKnowHow

Middleware

Die Trennung von Benutzungsoberfläche (Client) und angebotenen Diensten (Server), die Möglichkeit, bestimmte Dienste mehreren Clients zugänglich zu machen, und die Verteilung mehrerer Clients und Server in einem Netzwerk sind eindeutig Argumente, die für eine Client/Server-Architektur sprechen. Allerdings ist dieses Modell nur dann sinnvoll anwendbar, wenn die Clients und der Server mit denselben Kommunikationsstandards arbeiten. Dies ist jedoch aufgrund der Heterogenität der verschiedenen Systeme häüfig nicht der Fall.

Die Entwicklung von Client/Server-Anwendungen in heterogenen Netzen stellt besonders hohe Anforderungen an die Softwareentwicklung. Middleware bietet eine Möglichkeit, den Anwendungsentwickler zu unterstützen. Sie erlaubt den Maschinen eine Kommunikation und Interoperabilität unter Verwendung eines definierten Application Programming Interface. Das heisst mit der Middleware werden die Unterschiede zwischen unterschiedlichen Hardware-Plattformen, Betriebsystemen und Protokollen versteckt. Für den Benutzer ergibt sich daher eine einheitliche Sicht auf das heterogene Netz.

Aus diesem Grund hat sich die OMG (Object Management Group), eine private Standardisierungsorganisation, zusammengesetzt, um einen Standard für die Kommunikation in heterogenen Netzen zu definieren. Das Ergebnis dieser Bemühungen ist CORBA (Common Object Request Broker Architecture), ein globales Konzept, das die Interoperabilität von Applikationen unabhängig vom Betriebssystem und der verwendeten Programmiersprache zum Ziel hat. In diesem Konzept kommunizieren Client und Server mit Hilfe von Objekten aus einem zentralen Object-Repository miteinander. CORBA

Der Object Request Broker (ORB) ist das von ein universelles Kommunikationsmedium für beliebig geartete Objekte in verteilten heterogenen Systemen. ORB zeichnet sich durch folgende Eigenschaften aus:

• Objektorientierung.

Die grundlegenden Einheiten der Architektur sind Objekte, wobei ein Objekt eine beliebige, eindeutig identifizierbare Einheit ist, also nicht notwendigerweise ein Objekt im Sinne einer Programmiersprache.

• Verteilungstransparenz.

CORBA-Programme greifen auf entfernte Objekte mit denselben Mechanismen zu, wie auf lokale Objekte. Der genaue Aufenthaltsort eines Objekts bleibt für seine Klienten in der Regel unbekannt.

• Effizienz.

Die Architektur für den ORB ist bewusst so gehalten, dass effiziente Implementationen möglich sind, die z.B. im Falle rein lokaler Kommunikation dem traditionellen Funktionsaufruf nur unwesentlich nachstehen.

Page 244: ITKnowHow

• Hardware-, Betriebssystem- und Sprachunabhängigkeit.

Die Komponenten eines CORBA-Programms können auf verschiedenen Betriebssystemen, Hardwarearchitekturen und mit verschiedenen Programmiersprachen realisiert werden.

• Offenheit.

Über den ORB können Programme verschiedener Hersteller zusammenarbeiten und sogar ORB's verschiedener Hersteller miteinander kommunizieren. Der Anwender erhält dadurch die Freiheit, jede Komponente einzusetzen, die seinen individuellen Bedürfnissen am besten gerecht wird. Softwareentwickler erhalten die Chance, am zukunftsweise und unabhängig zu programmieren und Angebote grosser Firmen mit spezialisierten Produkten zu ergänzen.

Die Spezifikation

Es existieren folgende Komponenten:

• Object Request Broker (ORB)

Stellt Dienste zur Verfügung, über die die Kommunikation zwischen Clients (Einheiten, die von Objekten bereitgestellte Methoden nutzen) und Server (Objektimplementierungen) abgewickelt wird. Diese Dienste legt CORBA 1.x fest. CORBA 2.0 spezifiziert zusätzlich den Kommunikationsmechanismus zwischen ORBs verschiedener Hersteller.

• Object Services

Grundlegende Operationen für die logische Modellierung und physikalische Speicherung von Objekten (z.B Funktionen zur Erstellung, Modifizierung, Kopie, Bewegung und Löschung von Objekten, automatische dauerhafte Aufbewahrung von Objekten auf Speichermedien). Die Object Services werden mit der Common Object Services Spezification (COSS) von der OMG festgelegt.

• Common Facilities

Sammlung von Klassen und Objekten, die allgemein nützliche, höherwertige Dienste für unterschiedliche Anwendungsarten (z.B. CAD/FiBu) bzw. mehrere Programmdienste (z.B. GUI-Funktionalität, Druckerdienste) enthalten. Im Gegensatz zu den Object Services müssen diese nicht in jedem OMG-konformen Produkt bereitstehen. Ein Beispiel hierfür ist OpenDoc, ein offener Standard für Verbunddokumente basierend auf IBM's SOM/ DSOM und Apples Bento-Technologie.

• Application Objects

Stellen die eigentlichen Anwendungsobjekte wie Textverarbeitung oder CAD dar. Sie unterliegen keiner Standardisierung.

Page 245: ITKnowHow

Arbeitsweise

Der ORB fungiert als Telefonzentrale in einem verteilten System. Er stellt Dienste für die Initialisierung und Auffindung von Zielobjekten und für die Übermittlung von Methodenaufrufen (requests) und deren Resultaten zwischen Clients und Zielobjekten zur Verfügung.

Die Schnittstelle, die der Client sieht, ist unabhängig von der Position des Zielobjektes und von der Programmiersprache, in der das Zielobjekt realisiert ist. Dieses Ziel wird über die Schnittstellen-Definitionssprache IDL (Interface-Definition-Language) erreicht. Diese beschreibt Zielobjekte mit ihren Methoden und Attributen (Werten) in einer programmiersprachenunabhängigen Form, die aber keinerlei Anweisungen enthält. Die Bereitstellung der Dienste des ORB erfolgt in Form von Objekten, die ebenfalls mit Hilfe der IDL definiert wurden.

Die IDL ähnelt der Struktur von in C++ realisierten Klassendefinitionen. Das CORBA-Objektmodell unterstützt Einfach- auch und Mehrfachvererbung, Attribute und Methoden können allerdings nicht überladen werden. Aus der Beschreibung eines Zielobjektes mittels IDL erstellt der IDL-Compiler IDL-Stubs (werden für den Aufrufer benötigt) sowie IDL-Skeletons (für die Objektimplementierung benötigt) in der verwendeten Programmiersprache.

Ein Methodenaufruf spezifiziert einen Methodennamen, das Zielobjekt, Parameter und einen optionalen Kontext. Dieser Kontext enthält Informationen über die Position des Aufrufers. Ausserdem werden hier eventuelle Fehlerrückmeldungen übergeben. Ein Client hat zwei Möglichkeiten einen Methodenaufruf an ein Zielobjekt zu übermitteln:

• über den vom IDL-Compiler erstellten IDL-Stub, der zur Kompilierzeit zu seinem Code dazugebunden wird.

• über eine Abfrage des ORB nach Informationen über vorhandene Schnittstellen und Objekte. Mit diesen Informationen kann der Client mit Hilfe des Dynamic Invocation Interface (DII) dynamisch einen Methodenaufruf aufbauen und übermitteln.

Zusätzlich kann ein Client verschiedene Dienste des ORBs über das ORB Interface nutzen (Objekte erstellen und löschen, Referenzen bzw. Namen von Objekten zur Wiederauffindung abfragen, u.a.). CORBA ist prinzipiell auf synchrone Nachrichtenübermittlung ausgelegt. Das heisst eine Aufruf an ein Objekt wird es mit der Rückgabe der Wert beendet.

Es kann aber ein One-way-request ausgelöst werden, bei dem der Aufrufer die Beendigung nicht abwarten muss, es dürfen aber von der Methode keine Ergebnisse zurückgeliefert werden. Zudem kann ein 'deferred synchronous request' erzeugt werden, bei dem der Aufrufer weiterarbeiten kann und später das Ergebnis der Methodenausführung abfragt.

Page 246: ITKnowHow

Netzwerk-Topologien

Busstruktur

Das lineare Netzwerk besteht aus mehreren Stationen, die hintereinander oder nebeneinander in Reihe angeordnet sind. Der Datenverkehr nimmt in der Mitte dieser Kette stark zu. Fällt eine Station aus, dann ist das Netzwerk unterbrochen und teilt sich in zwei Teile.

Ringstruktur

Das zirkulare Netzwerk besteht aus mehreren Stationen, die als geschlossener Ring angeordnet sind. Dabei unterhält jede Station je eine Verbindung zu zwei anderen Stationen. Wird der Ring unterbrochen entsteht ein lineares Netzwerk. Alle Stationen bleiben in Betrieb.

Sternstruktur

Das zentrale Netzwerk hat eine zentrale Station, die zu allen anderen Stationen jeweils eine Verbindung unterhält. Die Datenbelastung der zentralen Station ist sehr hoch, da alle Netzverbindungen darüber laufen. Das Netzwerk funktioniert so lange, bis die Zentralstation ausfällt. Das zentrale Netzwerk ist leicht erweiterbar, und einfach zu pflegen.

Hierarchische Struktur

Das hierarchische Netzwerk besteht aus mehreren linearen und zentralen Netzwerken, die miteinander verbunden sind. Das Bild, daß sich daraus ergibt, sieht einer Verästelung eines Baumes gleich. Je mehr das Netzwerk verzweigt, desto aufwendiger und kostenintensiver wird es.

Page 247: ITKnowHow

Dezentrale Struktur

In einem dezentralen Netzwerk gibt es keine verbindliche Struktur. Die Verbindung zwischen zwei Stationen wird nach Bedarf und Datenaufkommen auf- und abgebaut. Bei Ausfall einer Verbindung gibt es im Regelfall einige alternative Strecken, um den Datenverkehr fortzuführen. Die Struktur des dezentralen Netzwerkes entspricht einem Chaos an verschiedensten Systemen und Übertragungsstrecken.

Allen LAN-Typen ist gemein, dass man für den Anschluss an das Netzwerk natürlich über entsprechende Hardware, in den meisten Fällen eine Netzwerkkarte des jeweiligen Typs im lokalen Rechner, verfügen muss. Ethernet

Das Ethernet wurde 1973 am Xerox PARC als Teil eines umfangreichen Forschungsprojektes für verteilte Systeme entwickelt und sollte die Vorteile einer schnellen, lokalen Vernetzung mit niedrigen Fehlerraten und ohne Verzögerungen aufzeigen.

Auf Grund seiner Einfachheit hat Ethernet bis heute eine starke Verbreitung gefunden und ist in seinen Variationen in sehr vielen LANs anzutreffen. Thick Ethernet

Das Original-Ethernet (festgelegt im Standard IEEE 802.3) besteht aus einem Koaxial-Kabel mit einem halben Zoll (1,27 cm) Durchmesser, an das die Rechner über sogenannte Transceiver angeschlossen sind. An jedem Ende des Kabels befindet sich ein Endwiderstand von 50 Ohm, der auch als Terminator bezeichnet wird (siehe Abbildung). Über ein derartiges Netzwerk lassen sich Geschwindigkeiten bis 10 Mbps (Megabit pro Sekunde) erreichen.

Ein Kabel mit einem derartigen Durchmesser ist etwas unhandlich, daher wird diese Art des Ethernets auch als Thick Ethernet oder 10Base5 bezeichnet. Thin Ethernet (10Base2)

Das beim Thin Ethernet verwendete Koaxialkabel ist dünner, billiger und einfacher zu handhaben. Der Anschluss an die Netzwerkkarte des Rechners erfolgt über ein sogenanntes T-Stück, an das links und rechts ein Netzwerkkabel angeschlossen wird, während die "untere" Seite des T's mit der Netzwerkkarte verbunden ist.

Page 248: ITKnowHow

Am Anfang und am Ende des Kabelstrangs befinden sich auch hier Endwiderstände von 50 Ohm. Die Steckverbindungen erfolgen über BNC-Anschlüsse. Mit einem Thin Ethernet kann man Geschwindigkeiten bis 10 MBit erreichen. 10BaseT

Im Gegensatz zum normalen Thin-Ethernet mit seiner Busstruktur ist ein 10BaseT-Netz sternförmig aufgebaut. Von einem Verteiler, dem sogenannten Hub, führen Twisted-Pair-Kabel zu den einzelnen Rechnern. Der Anschluss erfolgt über RJ45-Stecker, wie sie auch oft bei Telefonen verwendet werden.

Diese Verkabelungsart beseitigt einen gravierenden Nachteil der Busstruktur. Wird der Bus nämlich an einer Stelle unterbrochen (sei es durch ein defektes Kabel oder eine übereifrige Reinigungskraft), ist das Netzwerk vollständig lahm gelegt. Bei einer sternförmigen Verkabelung ist bei einem Kabelschaden nur ein Rechner betroffen, die anderen können ganz normal im Netz weiterarbeiten.

Wäre 10BaseT nicht aufwendiger und teurer als die Koaxialverkabelung, wäre letztere sicher schon ganz von der Bildfläche verschwunden. Fast Ethernet (100BaseT)

Der Aufbau eines Fast Ethernets ähnelt stark dem eines 10BaseT-Netzes. Jedoch müssen aufgrund der höheren Datengeschwindigkeit von 100 Mbps aufwendigere Twisted-Pair-Kabel der Kategorie 5 verwendet werden. Neben dem Hub müssen natürlich auch die eingesetzten Netzwerkkarten für eine Geschwindigkeit von 100 Mbps vorgesehen sein. Gigabit Ethernet

Übertragungsraten von bis zu 1000 Mbps erreicht man mit Hilfe von geschirmten Kabeln (Shielded Twisted Pair - STP) bzw. Glasfaserleitungen. Netzwerkkarten und Hubs für derartige Geschwindigkeiten müssen wesentlich aufwendiger konstruiert sein und sind dementsprechend teuer.

Da kaum ein Rechner einen Datenstrom von 1 Gbps (enspricht 125 MByte pro Sekunde!) verarbeiten kann, werden Gigabit Ethernets vor allem als Backbone-Leitungen verwendet, die ganze Netzwerke miteinander verbinden.

Page 249: ITKnowHow

Die folgende Tabelle zeigt eine Übersicht über alle Ethernet-Varianten:

Ethernet-Typ Geschw. max.Länge Struktur Kabelart Anschluss am

Rechner

10Base2 10 Mbps 185 m Bus Koaxial (Thin Ethernet)

BNC-Buchse, T-Stück

10Base5 10 Mbps 500 m Bus Koaxial (Thick Ethernet)

AUI-Buchse, Transceiver

10BaseF 10 Mbps 2000 m Bus Glasfaser Optokoppler

10BaseT 10 Mbps 100 m Stern Twisted Pair, Kat. 3 RJ45-Anschluss

100BaseT 100 Mbps 100 m Stern Twisted Pair,

Kat. 5 RJ45-Anschluss

Gigabit-Eth. 1 Gbps 100 m Stern STP, Kat. 6 Spezieller

Anschluss

Gigabit-Eth. 1 Gbps 500 m Stern Glasfaser Optokoppler

Funktionsweise

Neben der Verkabelung ist es natürlich interessant zu wissen, was auf einem Ethernet-Kabel eigentlich passiert. Jedes Gerät im Ethernet hat eine eindeutige Hardware-Adresse von 6 Bytes Länge, die auch als MAC-Adresse bezeichnet wird. Diese Adresse hat nichts mit den IP-Nummern des TCP/IP-Protokolls zu tun (zumindest nicht direkt) und auch nicht mit den Computern der Firma Apple (auch nicht indirekt). Pakete im Ethernet enthalten immer die Hardware-Adresse des Senders und des Empfängers.

Das Versenden von Daten erfolgt über sogenanntes Packet Broadcasting, d.h jedes Paket wird einfach auf das Kabel gesendet. Alle anderen Stationen erhalten bzw. `sehen' dieses Paket, es wird jedoch nur von dem festgelegten Empfänger entgegengenommen und verarbeitet.

Wenn zwei Stationen gleichzeitig Daten senden, kommt es konsequenterweise zu Paketkollisionen (Natürlich rumst es nicht im Kabel, sondern die elektrischen Impulse der beiden Sender überschneiden sich und werden damit unbrauchbar). Das Ethernet definiert drei Varianten, mit diesem Verhalten umzugehen:

Die Stationen "lauschen" ständig am Bus und merken so, ob auf dem Kabel Datenverkehr stattfindet. Eine Station sendet erst, wenn keine Signale mehr auf dem Kabel liegen, um die laufende Übertragung nicht zu zerschmettern.

Page 250: ITKnowHow

Sollten zwei Stationen genau zum selben Zeitpunkt mit dem Senden beginnen, kommt es trotzdem zur Kollision. Während eine Station sendet, prüft sie gleichzeitig auf dem Empfangskanal, ob die Signale korrekt versendet wurden. Da alle Stationen im Netz einschliesslich der Sendenden die Signale empfangen, stellt dies kein Problem dar. Erkennt die sendende Station nun, dass die Daten nicht korrekt übertragen werden, handelt es sich wahrscheinlich um eine Kollision. Die sendende Station schickt ein Kollisionssignal in das Kabel, was bewirkt, dass alle Stationen im Netz ihre Sendetätigkeit abbrechen (die ja vorhanden sein muss, sonst hätte es keine Kollision gegeben). Nach einer zufällig bestimmten Zeit, versucht die Station wieder zu senden. Die andere Station, mit der es zur Kollision kam, hat eine andere Zufallszeit ermittelt und wird dann merken, dass das Netz bereits belegt ist. Sollten beide Stationen trotzdem wieder zur selben Zeit senden, was extrem unwahrscheinlich ist, beginnt das Spiel eben wieder von vorn.

Als Sicherungsmassnahme wird die Prüfsumme eines Ethernet-Paketes (korrekt heisst es Ethernet-Frame) mit dem tatsächlichen Inhalt verglichen. Kommt es dabei zu Unstimmigkeiten, wird das Paket vom Empfänger abgewiesen. Token Ring

Token-Ring-Netze wurden relativ früh entwickelt, sind jedoch nicht so stark verbreitet wie andere LAN-Technologien. Die logische Struktur dieses Netztyps entspricht, wie der Name schon sagt, der eines geschlossenen Ringes. Die tatsächliche Struktur muss dem nicht entsprechen, Token-Ring-Netze sind auch mit sternförmiger Verkabelung möglich. Beschränken wir uns aber auf die Art der Datenübertragung.

Um die Funktionsweise von Token-Ring-Netzwerken zu verstehen, kann man das Beispiel eines Güterzuges heranziehen, der immer wieder eine Kreisstrecke befährt und regelmässig an allen Stationen vorbeikommt. Die Lokomotive stellt hierbei das sogenannte Token-Paket \index{Token} dar. Je nachdem ob Waggons, also Daten, angehangen wurden, wird die Lokomotive als frei oder belegt gekennzeichnet. Möchte eine Station nun Daten versenden, prüft sie, ob das Token frei ist. Ist dies der Fall, wird das Token als belegt gekennzeichnet, mit der Zieladresse versehen und die Daten angehängt. Unser Zug fährt weiter im Kreis, bis er die festgelegte Zielstation erreicht hat und trennt sich dort von seinen Daten. Das Token wird wieder als frei gekennzeichnet und kann erneut Daten transportieren.

So geht das Token ständig von Rechner zu Rechner. Ist der Inhalt des Datenpakets nicht für den jeweiligen Rechner bestimmt, sendet er das Token weiter. So ist gewährleistet, dass jede Station die gleichen Chancen hat, Daten senden zu können. Anders als beim Ethernet gibt es hier nicht das Problem mit den Paketkollisionen, da ja immer nur ein Paket unterwegs ist. FDDI

Die Abkürzung FDDI steht für Fiber Distributed Data Interconnect. Dieser Netzwerktyp überträgt seine Daten nicht über Kabel, sondern über Lichtimpulse auf Glasfaserleitungen. Dies hat den Vorteil, dass die Datenübertragung nicht durch elektromagnetische Störungen beeinflusst werden kann, ausserdem ist mit Lichtimpulsen eine höhere Datenübertragunsrate möglich als bei elektrischen Signalen.

Page 251: ITKnowHow

Ein FDDI-Netz ist ein Token-Ring-Netzwerk \index{Token Ring} mit einer Bandbreite von 100 Megabit pro Sekunde. Um Störungen automatisch beheben zu können, besteht ein FDDI-Netz aus zwei in entgegengesetzte Richtungen laufenden Ringen. Der Datenverkehr erfolgt wie bei jedem Token-Ring-LAN über ein Token, dass ständig im Kreis läuft. Im normalen Betrieb wird von den zwei vorhandenen Ringen lediglich einer genutzt.

Interessant wird das Verhalten von FDDI, wenn ein Hardware-Fehler im Netz auftritt. Wenn ein Gerät bemerkt, dass eine Kommunikation zu einem anderen Gerät im Netz nicht möglich ist, benutzt es automatisch den zweiten Ring, um den aufgetretenen Defekt zu umgehen. Wird der Ring also aus welchen Gründen auch immer an einer Stelle unterbrochen, leiten die zwei benachbarten Station den Datenverkehr automatisch auf den zweiten Ring um. ATM - Asynchronous Transfer Mode

Bei ATM handelt es sich um eine verbindungsorientierte Hochgeschwindigkeitsnetzwerk-Technologie, die sowohl in loakeln Netzen als auch in WANs zum Einsatz kommt. Üblichweise meint "Hochgeschwindigkeit" Netzwerke mit Datentransferraten von 100 Mbps und höher. ATM kann je nach darunterliegender Netzwerktechnik Transferraten bis in den Gigabit-Bereich erreichen. Entsprechend teuer ist auch die für ATM erforderliche Hardware.

Um derartig hohe Geschwindigkeiten erreichen zu können, verwendet ATM mehrere spezielle Hardware- und Software-Techniken:

• Ein ATM-Netzwerk besteht aus einem oder mehreren ATM-Switches, die mit Host-Rechnern oder wiederum mit weiteren ATM-Switches verbunden sein können.

• ATM benutzt optische Medien wie Glasfaserleitungen zur Datenübertragung, auch als Verbindung zwischen Hosts und ATM-Switch.

• Pakete (sog. Cells) in der untersten Schicht von ATM-Netzwerken haben eine feste Länge. Da jedes Paket exakt dieselbe Grösse hat, können ATM Cells sehr schnell verarbeitet werden.

ATM unterscheidet sich stark von den bisher beschriebenen paketorientierten Netzwerken. Im Gegensatz zu ihnen ist ATM verbindungsorientiert angelegt und eignet sich daher auch zur Übertragung von Sprache (grosse Teile des Telefonnetzes bauen auf ATM-Backbones auf). Doch bleiben wir bei Rechnernetzen: Möchte ein Host eine Verbindung zu einem anderen aufbauen, kontaktiert er den nächsten ATM-Switch und teilt ihm seinen Verbindungswunsch samt Adresse des Zielrechners mit. Der Switch versucht nun, eine Verbindung zu diesem herzustellen. Dabei entsteht eine Art Pfad über weitere Switches. Ersterer Switch legt nun für diese Verbindung bzw. diesen Pfad eine eindeutige Nummer fest und teilt dem Host diese mit. Ist eine Verbindung einmal aufgebaut, sind Übertragungen mit garantierter Bandbreite darüber möglich. Eine Verbindung bleibt bestehen, bis einer der beiden Partner diese trennt, also "auflegt".

Möchte der Host nun Daten versenden, schickt er diese samt Verbindungs-Nummer (die Verbindung besteht bereits) zum Switch. Dieser hat die Nummer gespeichert und weiss, an welchen Switch er die Daten weiterschalten und welche ID-Nummer er dort

Page 252: ITKnowHow

benutzen muss. Der nächste Switch tut genau dasselbe bis die Daten irgendwann beim Zielrechner angekommen ist. Dabei weiss jeder Switch nur, an wen er die Daten einer bestimmten Verbindung weiterleiten muss, er hat keine Information über die Herkunft oder den letztendlichen Empfänger. Dies sorgt dafür, dass im Netz sehr wenig Overhead durch die Leitungen geschoben wird, was der Geschwindigkeit direkt zugute kommt.

Page 253: ITKnowHow

Netzwerkprotokolle

Mittels geeigneter Regeln wird in Netzwerken die Art und Weise der Datenübertragung zwischen den angeschlossenen Rechnern und dem Netzwerk festgelegt. Die allgemein als Protokoll bezeichneten Regeln legen im speziellen Fall des Netzwerkprotokolls die Form, das Format und die Übernahmeart der Daten fest.

Sie sind zudem verantwortlich für eine eventuelle Aufspaltung und das Verpacken der von den oberen Schichten (Schicht 7-5 nach dem OSI- Referenzmodell) gesandten Daten, das Finden geeigneter Transportwege im Netz, die Überwachung der Übertragung und für die anschliessende Zusammenführung und Zustellung an den Empfänger. Netzwerkprotokolle kann man also im wesentlichen der 4. und 3. OSI- Schicht, also der Transport- und der Netzwerkschicht zuordnen. Wichtige Netzwerkprotokollarten sind:

• NetBIOS

• TCP/IP

• IPX/SPX

• AppleTalk

• ODI

• NetBEUI

• CCITT X.25 TCP/IP

Das Transmission Control Protocol/Internet Protocol kurz TCP/IP bezeichnet eine ganze Reihe von Protokollen, die die Verbindung von Computern in unterschiedlichen, herstellerunabhängigen, heterogenen Netzwerken ermöglichen. TCP/IP wurde ursprünglich für das US-Verteidigungssystem entwickelt, um Computer in unterschiedlichsten Systemen miteinander zu verbinden.

Mittlerweile ist TCP/IP ein internationaler Standard und wird von fast allen Herstellern unterstützt. Besondere Bedeutung gewann die TCP/IP Protokol- familie als Basis Protocol für das Internet. Innerhalb TCP/IP ist das TCP für die fehlerfreie Zustellung der Daten- pakete verantwortlich (Ebene 4 der OSI-Schichten, Transportschicht).

Das IP übernimmt die Übertragung der Datenpakete, ohne sich dabei um die Ankunft beim Empfänger, einen optimalen Weg oder eine bestimmte Reihenfolge zu kümmern (Ebene 3 der OSI-Schichten, Netzwerkschicht).

Page 254: ITKnowHow

X.25 und X.75

Die von der französischen Telefongesellschaft (Comité Consultatif Inter- national Télégraphique et Téléphonique, kurz CCITT) geschaffenen und international verbindlichen Normen X.25 und X.75 sind zum Standard bei der Datenübertragung geworden.

• X.25

bezeichnet dabei ein paketorientiertes Verfahren, das für jede Punkt-zu-Punkt Übertragung geeignet ist, das heisst die einzelnen Datenpakete werden unabhängig voneinander von Station zu Station bis zum Empfänger geschickt.

Das Einsatzgebiet von X.25 liegt weniger im LAN- Bereich, sondern bei Datenverbindungen über weite Strecke, wie wir sie Z.B bei WAN´s und GAN´s finden. Als Beispiel mag hier das Datex-P Netz der Telekom dienen, das nach dem Prinzip eines Routers arbeitet und in das man sich über ISDN oder analoge Leitungen einwählen kann.

• X.75

ist ein paketorientiertes, synchrones Protokoll das sich stark an das OSI-Schichtenmodell anleht und auf der Verbindungsschicht arbeitet (2-Ebene OSI Schichtenmodell, Data Link Layer). Es wird zum Beispiel bei ISDN-Verbindungen für die Datenübertragung auf den B-Kanälen angewandt und unterstützt Verbindungen bis 64kBit/s.

NetBIOS

Das sogenannte Network Basic Input/Output System kurz NetBIOS Software- Modul ist eine Standard-Schnittstelle, die den Zugriff der einzelnen Stationen im Netz auf die vorhandenen Betriebsmittel, wie Drucker, Streamer usw. regelt.

Das NetBIOS ist auf den Netzwerkkarten implementiert und wird häufig auch als Application Programmer Interface kurz API oder Anwenderschnittstelle bezeichnet, da sie die vom Anwender an das Netzwerk gerichteten Aufrufe entsprechen weiterleitet. NetBIOS arbeitet auf der Transportschicht (Ebene 4 der OSI-Schichten) und überwacht unter anderem den Datenverkehr mittels entsprechender Fehlerprotokolle. IPX/SPX

Das Internetwork Protocol Exchange kurz IPX gehört ebenso wie das NetBIOS zu den Anwenderprogramm-Schnittstellen und wird vom NetBIOS für die Übertragung der Daten verwendet. IPX ist auf der Netzwerkschicht (Ebene 3 der OSI-Schichten) angesiedelt und übernimmt die Aufspaltung der Daten in entsprechende Datenpakete und deren Wiederzusammenführung.

Das Sequenced Packed Protocol Exchange kurz SPX ist eine Erweiter- ung des IPX und überwacht mittels entsprechender Fehlerprüfungen die korrekte Übertragung der

Page 255: ITKnowHow

Daten. IPX/SPX benötigt zwingend das Netzwerkbetriebssystem NetWare der Firma Novell. AppleTalk

AppleTalk ist eine von Apple Computer entwickelte Netzwerkprotokoll- familie für die hauseigenen Computer. Mittlerweile ist AppleTalk auch auf anderen Systemen einsetzbar und kann zur Datenübertragung sowohl Ethernet als auch das Token-Ring-Verfahren nutzen.

Mit AppleTalk eingerichtete Netzwerke zeichnen sich durch Komfort, grosse Bedienerfreundlichkeit, einfache Fehleranalyse und leichte Erweiterbarkeit aus. AppleTalk arbeitet auf den Ebenen 7-3 des OSI-Schichtenmodells.

Page 256: ITKnowHow

Telekommunikation Hardware

In einem Netzwerk kommt es immer wieder vor, dass Netzwerksegmente erweitert oder ausgebaut werden müssen. Nachfolgend werden Ideal-Typen beschrieben, die in dieser Form allerdings selten vor kommen. Meistens handelt es sich um eine Kombination aus zwei Geräten.

• Repeater

• Bridge

• Router

• Switch

• Hub

• Gateway

• NIC

• Ringleitungsverteiler Repeater

Ein Repeater arbeitet auf der Bitübertragungsschicht(Schicht 1) des OSI-Modells. Er hat nur die Funktion Signale zu verstärken und sie neu zu übertragen. Dadurch ist es möglich lange Kabelstrecken zu überbrücken. Ein Repeater übernimmt keinerlei regulierende Funktion in einem Netzwerk, und kann nicht dazu verwendet werden, um ein Netzwerk zu entlasten.

Für angeschlossene Geräte ist nicht erkennbar, ob sie an einem Repeater angeschlossen sind. Er verhält sich völlig transparent.

Abbildung: Netzwerkmodell mit einem Repeater

Bridge

Eine Bridge arbeitet auf der Sicherungsschicht(Schicht 2) des OSI-Modells. Durch eine Bridge kann ein überlastetes Netzwerk in Segmente aufgeteilt und wieder zusammengeführt werden. Eine Bridge legt sich eine Datenbank aller Stationsadressen

Page 257: ITKnowHow

an. Anhand der dieser Daten entscheidet die Bridge, ob die empfangene Datenpakete in ein anderes Netzwerksegment weitergeleitet wird oder nicht.

Mit der Zeit kann dann die Bridge immer besser entscheiden, in welches Segment die ankommenden Daten gehören. Eine Bridge arbeitet aber nur dann sinnvoll, wenn zwei Netzwerk-Segmente verbunden werden sollen, aber der meiste Datenverkehr innerhalb der beiden Segmente stattfindet.

Abbildung: Netzwerkmodell mit einer Bridge

Router

Ein Router ist ein Gerät mit mindestens zwei Netzwerkanschlüssen. Er arbeitet auf der Vermittlungsschicht(Schicht 3) des OSI-Modells. Ein Router ermöglicht es mehrere Netzwerke mit unterschiedlichen Protokollen und Architekturen zu verbinden. Über die sogenannte Routingtabelle entscheidet ein Router, welchen Weg ein Datenpaket nimmt. Die Routingtabelle enthält folgende Angaben:

• alle bekannten Netzwerkadressen

• Verbindungsarten in andere Netzwerke

• Weginformationen zu anderen Routern

• Verbindungskosten

Anhand dieser Informationen entscheidet ein Router über den Weg, den ein Datenpaket nimmt. In der Routingtabelle werden auch die Anzahl der Zwischenstationen für ein Datenpaket gespeichert, das es für das Erreichen des Ziels benötigt.

Abbildung: Netzwerkmodell mit einem Router

Page 258: ITKnowHow

Gateway

Ein Gateway verbindet zwei Netzwerke miteinander, die zueinander inkompatibel sind. Ein Gateway setzt die Protokolle und die Adressierung in das jeweilige Ziel-Netzwerk um. Dabei kann es vorkommen, das es je nach Anforderung speziell konfiguriert oder neu entwickelt werden muss. Switch

Ein Switch arbeitet auf der Sicherungsschicht(Schicht 2) des OSI-Modells. Ein Switch schaltet direkte Verbindungen zwischen den angeschlossenen Geräten. Auf dem gesamten Kommunikationsweg steht die gesamte Bandbreite des Netzwerkes zur Verfügung.

Empfängt ein Switch ein Datenpaket, so sucht er in seinem Speicher nach der Zieladresse(MAC), und schickt dann das Datenpaket nur an diesen Port. Während zwei Ports miteinander kommunizieren können zwei Ports parallel Daten austauschen. Im Idealfall kann ein n-Port-Switch n/2 Datenpakete(Frames) gleichzeitig vermitteln. Die MAC-Adresse lernt ein Switch mit der Zeit kennen. Die Anzahl der Adressen, die ein Switch aufnehmen kann, hängt ab von seinem Speicherplatz. Switches unterscheidet man hinsichtlich ihrer Leistungsfähigkeit mit folgenden Eigenschaften:

• Anzahl der speicherbaren MAC-Adressen

• Verfahren, wann ein empfangenes Datenpaket weitervermittelt wird

• Latenz der vermittelten Datenpakete

Abbildung: Netzwerkmodell mit einem Switch

Hub

Hubs arbeiten auf der Bitübertragungsschicht(Schicht 1) des OSI-Modells. Sie haben reine Verteilfunktion. Alle Stationen die an einem Hub angeschlossen sind, teilen sich die gesamte Bandbreite mit der der Hub an ein Netzwerk angeschlossen ist. Nur die Verbindung vom Computer zum Hub verfügt über die gesamte Bandbreite. Durch die Verbindung mehrerer Hubs lassen sich die Anzahl der möglichen Stationen erhöhen.

Page 259: ITKnowHow

Ein Hub nimmt ein Datenpaket an und sendet es an alle anderen Ports. Dadurch sind alle Ports belegt. Diese Technik ist nicht besonders effektiv. Es hat aber den Vorteil, das solch ein Hub einfach und kostengünstig zu bauen ist.

Abbildung: Netzwerkmodell mit einem Hub

NIC(Network Interface Card)

Ein NIC ist ein Netzwerkadapter. In einem Computer handelt es sich um eine Netzwerkkarte, die es ermöglicht auf ein Netzwerk zuzugreifen. Ein NIC arbeitet auf der Bitübertragungsschickt(Schicht 1) des OSI-Modells.

Jeder NIC hat eine Hardware-Adresse, die es auf der Welt nur einmal gibt. Anhand dieser Adresse lässt sich der Netzwerkadapter zweifelsfrei identifizieren. Allerdings muss eine Netzwerkkarte nicht fest in einem Computer eingebaut sein. Es gibt auch, wie auf dem Bild links zu sehen, Netzwerkadapter, die sich über den USB an einen Computer anschliessen lassen.

Page 260: ITKnowHow

Wissen

o Führung o Globalisierung und Informationstechnologie o Komplexität o Kunden o Strategie

• Kommunikation

! 10 Regeln fuer Pressearbeit ! Bewertungskreterien fuer Kurzreden ! Das Interview ! Das Statement ! Der Vortrag ! Die Podiumsdiskussion

Page 261: ITKnowHow

Führung

Führung beschreibt immer einen sozialen Prozess. Dieser Prozess vollzieht sich in privatwirtschaftlich organisierten Industriegesellschaften unter bestimmten Bedingungen. Der Zweck der Produktion bzw. der Dienstleistung liegt in der Nachfrage- bzw. Bedürfnisbefriedigung für einen anonymen Markt. Das Motiv des einzelnen, in Unternehmen zu arbeiten, ist der Arbeitslohn.

Zweck, Ziel und individuelles Motiv sind bei den Beschäftigten in Organisationen und Unternehmen also entkoppelt. Zwecke und Ziele werden von der Unternehmensführung angeordnet und damit fremdbestimmt. Um die Identifikation der Beschäftigten mit den Zielen sicherzustellen, wird ein Regel-, Anreiz- und Motivationssystem aufgebaut. In diesem Sinne ist Führung immer eine gewollte und zielgerichtete Verhaltensbeeinflussung.

Einheitliches und zielgerichtetes Handeln der Unternehmensmitglieder soll durch Personen durchgesetzt werden, die mit entsprechender Macht ausgestattet sind. Diese Personen können ihre Macht über ihre Eigentümerfunktion oder über Delegation erhalten haben wie etwa angestellte Manager. "Die traditionelle Form, mit deren Hilfe Koordinationen von Handlungen sichergestellt werden sollen, ist die Etablierung hierarchischer Rollenschemata."

Doch wer das Verhalten anderer Menschen oder soziale Prozesse zielgerichtet beeinflussen soll oder will, muss mit einer Paradoxie leben. Managerinnen und Manager erhalten Verantwortung für ein hochkomplexes System, das sie gar nicht in einem linear-kausalen Sinne steuern können. Schon allein deshalb nicht, weil Menschen in Organisationen in der Regel nicht auf ihre Autonomie, auf Eigenitiative und Kreativität verzichten.

Die traditionellen Bilder von Führungspersönlichkeiten haben auch die Illusion genährt, dass die Personen an der Spitze von Unternehmen den grössten Überblick haben, mithin über die wesentlichen Informationen zur "Lenkung" von Organisationen verfügen. In der Praxis müssen Managerinnen und Manager eher mit Risiken, mit Ungewissheit und Unvorhersagbarkeit leben, sind auf die Urteile und Einschätzungen anderer angewiesen.

Die Voraussetzung für effektives und situationsgerechtes Handeln in Organisationen ist die Entwicklung eines funktionierenden Systems direkter Kommunikation und der Koordinierung der Aufgaben. Um dies zu bewerkstelligen, müssen Organisationen notwendigerweise wegkommen von starren hierarchischen Gliederungen hin zu kleinen, autonomen und selbstorganisierten Einheiten, die zeitweise und aufgabenbezogen arbeiten. In der Praxis erfolgreiche Modelle sind Gruppenkonzepte wie Projektgruppen und Quality Circles, bei denen interdisziplinär und über Hierarchieebenen hinweg Aufgaben gelöst werden. Die Stärke von solchen Gruppen liegt beispielsweise darin, dass sie die Komplexität der relevanten Umwelten besser abbilden können und verschiedene Sichtweisen auf Probleme und Aufgaben liefern. Ein dazu passendes Führungsverständnis nimmt Abschied von einer Personen-und Rollenzentrierung und betont die Prozessorientierung.

Auch die Identifikation mit den Organisationszielen ist kein einseitiger steuerbarer Prozess. Identifikation, Motivation und Leistungsbereitschaft von Organisationsmitgliedern hängen wesentlich davon ab, ob ihre Bedürfnisse in Bezug

Page 262: ITKnowHow

auf die Arbeit befriedigt werden: Selbstverwirklichung, Entfaltung von Fähigkeiten, Anerkennung, Mitbestimmung, aber auch Aufstiegschancen, ein sicherer Arbeitsplatz, eine gute Bezahlung und so weiter.

Bei der Identifikation ist ein grundlegender Konflikt zwischen Mitarbeitern und Unternehmen im Blick zu behalten. Organisationen müssen auf die Austauschbarkeit von Mitarbeitern achten, wichtige Prozesse so gestalten, dass sie nicht von einer bestimmten Person abhängig werden. Andererseits müssen sie dafür sorgen, dass die Mitarbeiterinnen und Mitarbeiter eng an die Organisation gebunden sind, sich mit ihren Zielen identifizieren. Eine Lösung ist, die Zugehörigkeit und Nichtaustauschbarkeit auf der Beziehungsebene zu sichern, während die Austauschbarkeit auf der inhaltlichen Ebene der ausgeübten Funktionen gewährleistet wird. Strukturelle Führung

Unter struktureller Führung werden alle "unpersönlichen" Steuerungsmechanismen verstanden, d. h. bestehende Regeln und Normen für das Verhalten der Beschäftigten: Arbeitsbeginn, Arbeitsschutzbestimmungen, Anreizsysteme (Entgelt, Gratifikationen, Statussymbole), Kleiderordnung, Selektionssysteme von Mitarbeitern (Wer "passt" in die Organisation?) und so weiter. Die Hierarchie mit ihrem Unter- und Überordnungssystem gilt ebenso als wichtiges Führungsinstrument wie Zieldefinitionen und Führungsgrundsätze. Unterschiedlichste Pläne und Planvorgaben nicht nur im industriellen Fertigungsbereich, sondern auch im Verwaltungsbereich koordinieren die vielfältigen Aufgaben. Wichtige Strukturen und Rahmenbedingungen, die das Verhalten von Organisationsmitgliedern steuern und sie einbinden sollen:

• Betriebliche Hierarchie

Wie stark die Organisation zentralisiert ist, hat nicht nur Konsequenzen für Entscheidungskompetenzen und ein formales Über- und Unterordnungsgefüge. Die Hierarchie beschreibt den Aufbau der innerbetrieblichen Machtverhältnisse. Die einzelnen Hierarchiestufen sind mit Statussymbolen verbunden, sie schreiben auch die soziale Distanz fest: Wie gross ist der Schreibtisch? Wer darf eine eigene Sekretärin haben? Wie teuer ist der Dienstwagen?

Stark hierarchisch organisierte Unternehmen sind in der Regel auch hoch zentralisiert. Alle Organisationsmitglieder sollen sich an den Vorgaben der Unternehmensspitze orientieren und haben geringe eigene Entscheidungsspielräume. Zentralisierung korreliert negativ mit Risikobereitschaft und Innovationsneigung der Organisationsmitglieder. Sie senkt die Initiative und Leistungsbereitschaft und verhindert Kreativität. Zudem behindert sie Kommunikation und eine effektive Konfliktaustragung.

• Delegation von Entscheidungsbefugnissen

Die Delegation setzt einen Rahmen für Entscheidungsprozesse in Unternehmen und für den Hand-lungsspielraum von Personen. Welche Vorgesetzte können innerhalb der gegebenen Organisationsstrukturen Aufgaben, Kompetenzen, Entscheidungen delegieren? Wie stark partizipieren welche Personen an Entscheidungen?

• Formalisierungsgrad der Organisation

Page 263: ITKnowHow

Er gibt das Ausmass der offiziellen, schriftlichen Regelungen und Vorschriften an. Die Formalisierung kann das Verhalten von Betriebsangehörigen bis ins Detail regeln. So zum Beispiel, welche Kommunikationswege – schriftlich oder mündlich – einzuhalten sind, wieviele Unterschriften benötigt werden und so weiter. Eine starke Formalisierung engt die Gestaltungsspielräume der MitarbeiterInnen ein. Zwar verhindern Formalisierungen Konflikte, führen aber häufig zu negativem Organisationsklima und sinkender Arbeitszufriedenheit. Existieren nur wenige formale Regeln, ist der Entscheidungsspielraum für die Organisationsmitglieder gross.

• Organisationskultur

Der Begriff Kultur verweist auf die dem Handeln der Organisationsmitglieder zugrundeliegenden Werte, Normen und damit verbundene Einstellungen und Denkweisen. Um Lösungsansätze der strukturellen Führungsprobleme anzubieten, hat die betriebswirtschaftliche Theorie und Praxis verschiedene Management-Modelle entwickelt, die hier kurz skizziert werden:

o Management by delegation

Führung durch die Delegation von Aufgaben. Den Mitarbeiterinnen und Mitarbeitern werden mit den Aufgaben die zu ihrer Erfüllung nötigen Entscheidungskompetenzen übertragen. Damit wird der Handlungsspielraum der Mitarbeiterinnen und Mitarbeiter vergrössert.

o Management by exceptions

Führung durch die Kontrolle von Abweichungen und Eingreifen im Ausnahmefall.

o Management by objectives

Führung durch Zielvereinbarungen. Hier wird nur das mit den Mitarbeitern verabredete Ziel kontrolliert. Die einzelnen Mitarbeiter planen selbst, mit welchen Mitteln und Massnahmen sie die vereinbarten Ziele erreichen. Das fordert von ihnen Selbstverantwortung und eigene Initiative.

o Management by participation

Führung unter Beteiligung der Mitarbeiter an Entscheidungen. Sie bringen eigene Ideen, Anregungen, Bedenken in den Entscheidungsprozess ein. Ein hoher Informationsstand aller Beteiligten ist die Voraussetzung für solch eine Partizipation.

o Management by results

Unternehmensführung nach dem Ergebnis, zielorientierte Führung. Dieses Modell wird häufig in Verbindung mit sogenannten Profit-Centern durchgeführt. Das sind weitgehend selbständige gewinnorientierte Unternehmensbereiche mit separater Erfolgsrechnung.

Page 264: ITKnowHow

Führung durch Zielvereinbarungen

Ein in der Praxis weit verbreitetes Modell ist die Führung durch Zielvereinbarung ("Management by objectives"). Dieses innerbetriebliche Steuerungssystem hat den Zweck, die einzelnen Unternehmensteile auf ein gemeinsames Ziel hin zu koordinieren. Kernidee ist, durch spezifische Ziele für klare Orientierung zu sorgen, den Weg zum Ziel aber frei zu geben – und somit eine stärkere Selbstorganisation und auch Selbstkontrolle zu ermöglichen.

Damit versucht dieses Führungsmodell, den Bedürfnissen von Beschäftigten nach sinnvoller Arbeit, Autonomie, Mitverantwortung und Mitbeurteilung des Leistungserfolges gerecht zu werden. Gebert und von Rosenstiel verweisen auf Analysen, nach denen mit zunehmender inhaltlicher Spezifizierung des Zieles die Leistung der Mitarbeiter steigt. Ausserdem führe das Setzen höherer bzw. anspruchsvollerer Ziele zu höheren Leistungsergebnissen.

Wichtigstes Instrument dieser Führungsmethode sind Zielabsprachen zwischen Mitarbeiter(innen) und Vorgesetzten. Sie erfordern Transparenz der Zielsetzung und die "Übersetzung" von Oberzielen auf die jeweils nächsten Ebenen. Vorgesetzte müssen dabei von der Vorstellung abrücken, dass sie (allein) die Ziele kennen, die Anweisungen zu ihrer Realisierung geben und das Ergebnis kontrollieren. In der Führung durch Zielvereinbarung werden Ziele quasi objektiviert und den Mitarbeiterinnen und Mitarbeitern die Möglichkeit gegeben, sie eigenverantwortlich in Aufgaben umzusetzen. Ein mögliches Probleme dabei ist, ob Vorgesetzte es von ihrem Selbstbild "verkraften" können, wenn Mitarbeiter die Aufgaben auf ihre eigene Weise lösen. Führungstil Varianten: Führungsstil Charakterisierung

"autoritär" Vorgesetzter entscheidet, setzt durch, notfalls Zwang

"partriarchalisch" Vorgesetzter entscheidet, setzt mit Manipulation durch

"informierend" Vorgesetzter entscheidet, setzt mit Überzeugung durch

"beratend" Vorgesetzter informiert, Meinungsäusserung der Betroffenen

"kooperativ" Gruppe entwickelt Vorschläge, Vorgesetzter wählt aus

"partizipativ" Gruppe entscheidet autonom, in vereinbartem Rahmen

"demokratisch" Gruppe entscheidet autonom, Vorgesetzter als Integrator, Koordinator

Page 265: ITKnowHow

Als Führungsstile bezeichnet man typische Verhaltensmuster der Managerinnen und Manager. Die Kritik am hierarchisch autoritären Führungsstil bezieht sich meist auf die Betonung der Hierarchie, auf die geringen Einflussmöglichkeiten der Mitarbeiter, auf Zwang und Sanktionen, auf Angst von Mitarbeitern, Fehler zu machen usw. Zumeist positiv werden die kooperativen, demokratischen Führungsstile beschrieben, etwa mit den Kriterien: Verzicht auf Machtausübung seitens der Vorgesetzten, Mitbestimmung, offene Kommunikation, Angstfreiheit, Aufbau von Vertrauensbeziehungen usw. Empirisch stellte eine Studie von Seidel im deutschsprachigen Raum fest, dass die "kooperative" Führungsform der "direktiven" tendenziell überlegen sei, betonte aber gleichzeitig, "dass dies deutlicher für die Bewältigung kreativer bzw. innovativer Aufgaben als für die Lösung von Routineaufgaben gelte."

Führungsstile geben in der Regel nur die grobe Richtung des Miteinander in Betrieben an. Oft existieren in grossen Organisationen Mischformen oder verschiedene Führungsstile nebeneinander. In einer Automobilfirma zum Beispiel herrscht am Fliessband ein anderer Ton als in der Konstruktionsabteilung.

Um diesen unterschiedlichen Aspekten in Unternehmen gerecht zu werden, hat sich der sogenannte "situative Ansatz" herausgebildet. Seine Prämisse: Es gibt keinen optimalen Führungsstil für alle Bereiche und Situationen, deshalb sind bei der Entscheidung für Führungsstile die spezifischen personen- und aufgabenbezogenen Situationen zu berücksichtigen.

Die Wirklichkeit in Unternehmen scheint jedoch grauer als die Theorie. Viele Mitarbeiter beklagen sich über mangelnde Transparenz, fühlen sich von den Chefs schlecht behandelt, arbeiten unmotiviert und bringen keine eigenen Ideen ein. Die "Therapievorschläge" dafür lauten: kurze Wege, konstruktive Rückmeldung, Sinn- und Wissensvermittlung, klare Zielvereinbarungen sowie Chancen zur Mitwirkung und Mitgestaltung.

Page 266: ITKnowHow

Globalisierung und Informationstechnologie

Hoch in den Anden, in Cayambe, Ecuador, eine halbe Tagesreise von der Hauptstadt Quito entfernt, treffen sich die Mädchen der oberen Mittelschicht jeden Tag nach der Schule im örtlichen Cybercafé. Sie surfen im Internet, bestellen eifrig die neueste amerikanische Teenagermode bei J. Crew und Abercombie & Fitch. Für diese Mädchen und für Millionen anderer Menschen rund um den Globus ist die Globalisierung heute zu einer profanen Alltagsangelegenheit geworden. Für sie sind Zeit, Entfernung, Sprache und Kultur, die in der Vergangenheit das Leben des Einzelnen beschränkt und Gemeinden und Nationen auf der Welt voneinander getrennt haben, durch Technologie und Wirtschaft transzendiert worden.

Aber Globalisierung hat auch eine dunklere, weniger hoffnungsvolle Seite, die sich während der von der Welthandelsorganisation (WTO) einberufenen Treffen der Handelsminister der Welt manifestierte. Tausende Gewerkschaftsmitglieder, Umwelt- und Dritte-Welt-Aktivisten und andere riegelten die Zentren der Treffpunkte (Seattle, Davos, Prag ...) ab, um dagegen zu demonstrieren, was sie als die negativen Seiten der Globalisierung ansahen: Arbeitslosigkeit, Verarmung, genmanipulierte Lebensmittel, Zerstörung des Regenwalds und die Vereinheitlichung traditioneller Kulturen.

Die Globalisierung vertieft, verbreitert und beschleunigt die weltweite Vernetzung in allen Bereichen des heutigen sozialen Lebens, von den kulturellen bis kriminellen, den finanziellen bis spirituellen, wie der britische Soziologe Anthony Giddens in seinem Buch "Runaway World" schreibt.

Für einige stellt dies eine neue Welt der Möglichkeiten und Hoffnungen dar. Für andere ist es eine Welt, in der die Menschen immer weniger Kontrolle haben über die Dinge, die ihr tägliches Leben am meisten betreffen. Weil die Globalisierung für unterschiedliche Leute Unterschiedliches bedeutet und sogar für ein und dieselbe Person Unterschiedliches, ist die aktuelle gesellschaftliche Diskussion über die Globalisierung verwirrend und zeitweise verkrampft. Es gibt zahlreiche Anzeichen, dass die öffentliche Debatte darüber in den kommenden Jahren noch komplizierter und spalterischer werden wird.

Für Viele ist die Globalisierung vor allem die rasche Verbreitung des marktwirtschaftlichen Kapitalismus in der ganzen Welt, begünstigt durch die gegenwärtige Revolution in der Informationstechnologie. Sie ist eine unwiderstehliche wirtschaftliche Kraft, angetrieben durch transnationale Produktions- und Handelsnetzwerke, die die traditionellen sozialen und politischen Einheiten, nationale Märkte und möglicherweise die Regierungsfunktion des Nationalstaats zerstören.

Aber Globalisierung ist weit mehr als nur ein wirtschaftliches Phänomen. Eine solche Analyse erklärt nicht, was mit den Mädchen in Cayambe passiert ist. Der Unterschied, den die Globalisierung in ihren Leben ausmacht, ist nicht so sehr wirtschaftlicher, sondern vielmehr sozialer und psychologischer Natur. Diese jungen Frauen teilen gemeinsame Vorlieben - die Kleider, die sie tragen, die Musik, die sie hören, die persönlichen Hoffnungen und Sorgen - mit Gleichaltrigen auf der ganzen Welt. Ihre Hoffnungen und Ängste nähren sich nicht nur aus ihrer direkten Umgebung, sondern werden in Echtzeit durch die Ereignisse und Ideen, die ihren Ursprung irgendwo anders auf dem Globus haben, geprägt. Ihre Ansichten von der Welt und ihrem Platz in ihr

Page 267: ITKnowHow

werden durch das Internet, das Fernsehen und andere Informationstechnologien, die noch niemals so breit zugänglich waren, geformt und rapide transformiert,

Dieses Globalisierungsbewusstsein berührt das Leben von weit mehr als nur von vernetzten Teenagern eines Andendorfs. In einer Zeit, in der Kinder in Thailand T-Shirts herstellen, die von französischen Hausfrauen getragen werden, in der Stahlarbeiter mittleren Alters in Wheeling, West Virginia, ihre Jobs durch Importe aus Brasilien verlieren und in der Treibhausgase von chinesischen mit Kohle betriebenen Generatoren die Luftqualität in Japan beeinträchtigen, ist die Globalisierung eine epochale technologische und kulturelle Transformation, die die Träume der Menschen in allen Teilen der Welt beflügelt und sie mit Alpträumen verfolgt. Es fördert das Gefühl der Entfremdung und Hoffnungslosigkeit. Und sie nährt zunehmend ihre politischen Leidenschaften. Öffentliche Meinung

Aber ist dies wirklich der Fall? Was weiss man eigentlich über die Einstellungen und Gefühle der Menschen in Bezug auf die Folgen dieses Globalisierungsphänomens? Globalisierung ist der rote Faden, der sich, ausgesprochen und unausgesprochen, durch die öffentlichen Debatten über viele Themen hindurchzieht, von der Unsicherheit des Arbeitsmarkts über die Belastungen der Familien bis hin zur Sicherheit der Lebensmittel in den Regalen der Supermärkte. In Wirklichkeit jedoch ist herzlich wenig über die Wechselwirkung dieser Zusammenhänge für die Bildung der öffentlichen Meinung bekannt. Einzelne Umfragen über den Freihandel und die Welthandelsorganisation sagen wenig darüber, wie die Globalisierung auf die persönlichen Werte und Einstellungen einwirkt. Solange die Wechselwirkung von rasantem internationalen wirtschaftlichen und technologischen Wandel und den Gefühlen der Menschen über ihre Zukunft, ihre Gemeinschaft, ihr Familienleben und ihre Religion nicht umfassender untersucht worden ist, wird es unmöglich sein, herauszufinden, ob die Globalisierung nur ein vorübergehendes und relativ unwichtiges Phänomen in der Menschheitsgeschichte oder die transformative Erfahrung ist, die viele ihrer Befürworter in ihr sehen und die die Kritiker verteufeln.

Bis heute wurden nur einige umfassende Stichproben der öffentlichen Meinung in Bezug auf die Globalisierung gemacht. Die wenigen tiefer gehenden Analysen über amerikanische Einstellungen offenbaren, dass - einer Studie der Universität Maryland von 1999 zufolge - eine grosse Mehrheit der Amerikaner (70%) sagt, sie habe von der Globalisierung gehört. In einer gemeinsamen Umfrage der Kaiser Familienstiftung, der Washington Post und der Harvard-Universität von 2000 gab nur etwas über die Hälfte der Befragten (57%) an, "gut" oder "sehr gut" zu verstehen, was der Begriff bedeutet. Dieses Verständnis verwandelt sich in gemässigt positive Ansichten, wenn Globalisierung in allgemeinen Zusammenhängen präsentiert wird. In einer Gallup-Umfrage von 1998 betrachteten mehr als die Hälfte der Amerikaner (54%) Globalisierung als "überwiegend gut" für die Vereinigten Staaten 20% als "überwiegend schlecht", 15% waren neutral.

Doch es kamen deutlichere Meinungen zutage, wenn die Befragten über die möglichen Vor- oder Nachteile für spezifische Gesellschaftsgruppen befragt wurden. Die Konsumenten, die Konzerne, die Wirtschaft und die Arbeitsplatzschaffung im Ausland werden als die "Gewinner" einer zunehmend globalisierten Welt angesehen. Die heimische Arbeitsplatzschaffung und die Umwelt werden auf der anderen Seite als die

Page 268: ITKnowHow

"Verlierer" angesehen. Dies ist besonders das vorherrschende Gefühl bei geringer verdienenden Amerikanern. In einer Untersuchung des Pew Research Centers von 1999 kam heraus, dass nur eine von drei Familien, in denen weniger als 50 000 Dollar verdient wird, eine positive Einstellung zur Globalisierung hat.

In einer Umfrage von Business Week und Harris Interactive von 1999 meinte eine solide Mehrheit, dass die Globalisierung "gut" für die Konsumenten sei (65%), für amerikanische Unternehmen (65%), die Wirtschaft (61%) und die Arbeitsplatzschaffung in armen Ländern (70%). Aber nur weniger als die Hälfte (47%) glaubten, dass die Globalisierung gut für die Schaffung von Arbeitsplätzen in Amerika sei. Noch weniger (38%) glaubten, dass sie gut für die Umwelt sei. Zusammengefasst belegen diese Umfragen eine inkohärente und ambivalente öffentliche Meinung bezüglich der Globalisierung.

Französische Umfrageinstitute haben ähnliche Fragen wie die amerikanischen Institute gestellt: Die französische Bevölkerung äusserte grössere Bedenken über die Globalisierung als die amerikanische. In einer im Jahr 2000 durchgeführten Umfrage sagte die Hälfte der französischen Befragten, die Globalisierung sei für Frankreich schlecht, während ein Drittel (36%) meinte, sie sei eine gute Sache. Die Globalisierung gehörte auch mit zu den zehn modernen beängstigenden Phänomenen, denen sich Frankreich gegenübersieht, auch wenn sie fast am Ende der Liste auf Platz neun steht. Die Meinung mässigte sich, wenn genereller zur Globalisierung gefragt wurde. Insgesamt meinte die Bevölkerung in Frankreich, die Globalisierung sei eher positiv (47%) als negativ (40%).

Noch weniger wurde das Thema Globalisierung in Grossbritannien untersucht. Aber eine im Jahr 1999 unter Studenten durchgeführte Umfrage ergab, dass nur 4% glaubten, dass die zunehmende Globalisierung ihren Erfolg im Leben beeinflussen würde.

Natürlich ist für die meisten Menschen Globalisierung ein zu abstraktes Konzept, als dass es starke Gefühle hervorrufen könnte, in welche Richtung auch immer. Es sind die sichtbaren Folgen des globalisierten Handels, der Investitionen, der Umweltschädigung und ähnliche Themen, die die Menschen mit dem schnellen, international herbeigeführten Wandel ihres Lebens in Verbindung bringen.

Diesbezüglich brachte eine vergleichende Studie von Angus Reid über internationalen Handel in 14 Ländern im Jahr 1998 ein gemischtes Bild zum Vorschein, mit Teilen der Bevölkerung, die zum Freihandel tendieren und andere zum Protektionismus. In Russland und Japan zum Beispiel befürwortetet eine solide Mehrheit von 60 bzw. 59% eine Ausweitung des Handels (nur 19 bzw. 37% zogen Protektionismus vor). In Deutschland und Belgien sprach sich nur eine knappe Mehrheit von 53 bzw. 51% für die Ausweitung des Handels aus (35 bzw. 33% wählten Protektionismus). Fast gleich war die Meinung in folgenden Ländern verteilt: in Kanada waren 48% für den Freihandel und 46% für Protektionismus; in Israel war das Verhältnis 48 zu 35, in der Ukraine 42 zu 45 und in Südafrika 48 zu 38. Protektionismus bevorzugten die Befragen in Frankreich (50/44), in den Vereinigten Staaten (53/41), in Grossbritannien (51/36), Italien (58/33), Südkorea (62/28) und Australien (70/24).

Die umfassendsten nationalen Studien in den Vereinigten Staaten über internationalen Handel wurde für die Association of Women in International Trade durch EPIC/MRA durchgeführt. Sie brachten durchweg wiederum zutage, dass eine Mehrheit der Amerikaner Freihandelsabkommen befürwortet und glaubt, dass ausländische Investitionen gut für amerikanische Arbeiter seien.

Page 269: ITKnowHow

Sorgen und Ängste

Eine Folge der Globalisierung ist die zunehmende Sorge um Arbeitsnormen weltweit. In einer Umfrage der National Consumers League von 1999 wurden Amerikaner gefragt, ob sie als Konsumenten über Ausbeuterbetriebe und Kinderarbeit bei der Warenproduktion beunruhigt seien. Sechs von zehn (61%) Befragten antworteten, dass sie das sehr beunruhige. Gleichermassen wurde in einer im letzten Jahr von Newsweek durchgeführten Umfrage herausgefunden, dass neun von zehn (87%) Amerikanern über Kinderarbeit in Übersee beunruhigt seien, 55% davon sagten, dass sie sogar sehr beunruhigt seien. In einer Umfrage der Universität Maryland von 1999 wurden Amerikaner genauer gefragt, ob andere Nationen durch Gewerkschaftsforderungen die Löhne anheben und Kinderarbeit abschaffen sollten. Acht von zehn (82%) waren der Meinung, dass die Vereinigten Staaten dies von anderen Ländern erwarten könnten.

Bedenken gegenüber der Globalisierung wurden immer wieder in Form von Besorgnis über den Zustand der globalen Umwelt manifest. In einer Gallup-Umfrage von 1998 stellte sich heraus, dass so gut wie alle Amerikaner (89%) meinten, dass die Verbesserung der globalen Umwelt eine wichtige Sache sei, von denen sagte wiederum die Hälfte (53%), dass es sogar eine sehr wichtige Sache sei. In einer Umfrage des Pew Research Center von 1999 kam heraus, dass sechs von zehn Amerikaners (62%) meinten, dass der Schutz der globalen Umwelt von oberster Priorität für die amerikanische Regierung sein sollte.

Globalisierung hat auch Ängste bei Konsumenten geschürt, die über die Sicherheit importierter Lebensmittel besorgt sind. In der Studie der Universität Maryland über Globalisierung von 1999 wurde gefragt, ob die Europäische Union das Recht haben sollte, die Einfuhr amerikanischen Rindfleischs von Rindern zu verbieten, denen Wachstumshormone verabreicht wurden, auch wenn dies internationale Handelsabkommen verletzten würde. Sechs von zehn (58%) sympathisierten mit der EU, indem sie sagten, dass auch die Europäer amerikanisches Rindfleisch verbieten können sollten. In ähnlicher Weise glaubten acht von zehn (81%) Amerikanern, dass die EU und Japan die Kennzeichnung von genmanipulierten Lebensmitteln von den USA sollten verlangen können, ungeachtet der Tatsache, dass die USA sagen, diese Lebensmittel seien erwiesenermassen ungefährlich. Unzureichender globaler Vergleich

Leider ist über die Einstellungen und grundlegenden Werte, an denen sich die Meinungen über Globalisierung orientieren, noch weniger bekannt. Das Dentsu Institute for Human Studies in Japan hat vier vergleichende "Analysen globaler Werte" in Tokio, New York, London und Berlin durchgeführt. Die Untersuchungen verfolgten die Trends bei den Einstellungen zur Zukunft (eine Vielzahl von Amerikanern denkt, dass das Beste noch kommen wird) und haben herausgefunden, dass in allen untersuchten Ländern alle Menschen denken, dass Moral und Ethik sich verschlechtert haben, dass, während in Deutschland und Japan die Menschen glauben, dass die Arbeitsbedingungen sich verschlechtert haben, die Leute in den Vereinigten Staaten und Grossbritannien der Meinung sind, dass sie sich verbessert haben und dass im Hinblick auf Institutionen, die mit Problemen, die durch die Globalisierung entstehen,

Page 270: ITKnowHow

umgehen können, der Privatsektor generell ein höheres Ansehen hat als der öffentliche Sektor.

Doch überwiegend sagen uns diese Meinungsumfragen mehr über das, was wir nicht wissen, als darüber, was wir wissen hinsichtlich der Auswirkungen der Globalisierung auf die Familie und die geistigen Werte, auf die Einstellung der Menschen zur Arbeit und Gemeinschaft, auf ihre Vorstellungen von einem angemessenen Lebensstandard, auf ihre Auffassung von öffentlicher Moral und bürgerlichen Pflichten.

Auch sagt uns die bestehende Forschung wenig darüber, wie die Globalisierung die Erwartungen der Menschen an Regierung, Wirtschaft und Bürgergruppen verändert hat, welche wirtschaftlichen und sozialen Nöte die Menschen derzeit haben angesichts einer globalisierenden Wirtschaft und auf wen die Öffentlichkeit schaut, um ihr bei der Bewältigung der Probleme und dem Erreichen ihrer Ziele zu helfen.

Die Geschwindigkeit der Informationsrevolution hat zum Beispiel die seit langem bestehenden Schranken beseitigt, die lange Zeit die eine Kultur von der anderen abgeschirmt haben. Durch Auslandsinvestitionen, Handel und Fortschritte in der Informationstechnologie erobert die "Kulturindustrie" eines Landes - Film, Musik, Musikvideo, Software - problemlos andere Märkte. Die kulturellen Normen und Attribute eines Landes haben sich in alle Teile der Welt ausgebreitet, sowohl symbolisch, wie das goldene "M" von McDonald, als auch real, wie etwa die amerikanischen Standards der Konzernführung. Kulturelle Identität

Konsumenten, besonders die jungen, feiern diese Vielfalt, was durch die weltweite Popularität von Hollywood-Filmen, Reggae und französischer Mode belegt wird. Aber die wirtschaftliche Globalisierung kann bedeuten, dass die amerikanische Kultur und die englische Sprache der übrigen Welt aufgezwungen werden und die reiche Vielfalt unterschiedlicher Traditionen, Bräuche, Mythen und Moralvorstellungen, die lange Zeit dazu beigetragen haben, die Identität eines jeden Landes und Region festzulegen, überwältigen. Weil Kultur so viel mit Identität zu tun hat, manifestierte sich Antiglobalismus oft als Antiamerikanismus.

Der kulturelle Impetus, der die Globalisierung vorantreibt, hat auch die Bindungen gelöst, die den Menschen einmal die stark benötigte Vorstellung davon gegeben haben, wer sie sind. Folglich gehen in vielen Ländern Globalisierungsängste und Ausländerfeindlichkeit Hand in Hand.

Während diese Herausforderung, die die Globalisierung für die eigene Kultur bedeutet, zum Prügelknaben der Globalisierungsgegner geworden ist, ist tatsächlich sehr wenig bekannt über die Auswirkungen des rapiden wirtschaftlichen und technologischen Wandels auf kulturelle Werte und Haltungen. Die Übernahme einiger kultureller Manifestationen der Globalisierung, wie Fast Food und Rockmusik, legt im besten Fall eine Ambivalenz hinsichtlich der Auswirkungen auf ihr Leben nahe. Dennoch: die derzeitige Wiedergeburt des Interesses an regionalen Sprachen wie etwa Keltisch oder Baskisch und des Spanischen als zweitwichtigste Sprache im Internet suggerieren, dass es viel zu einfach wäre, davon auszugehen, dass die Globalisierung die Kulturen um eine amerikanische oder englische Norm herum homogenisieren würde. Die langfristigen Auswirkungen erfordern eine viel genauere Untersuchung.

Page 271: ITKnowHow

Auch die Auswirkungen der Globalisierung auf die Haltung der Menschen zur Regierungsfähigkeit werden noch kaum verstanden. Die Globalisierung hat wirtschaftliche Erwartungen geschaffen, die wiederum Erwartungen der Öffentlichkeit an die demokratischen Regierungen schüren, die jede Demokratie, besonders die im Entstehen begriffenen, wohl nur schwerlich erfüllen kann. Wer hat die Kontrolle?

Die Fähigkeit, eine gewisse Kontrolle über die Dinge, die das tägliche Leben beeinflussen, auszuüben, war in der Geschichte immer die treibende Kraft bei politischen Entscheidungen in der ganzen Welt. Aber wie zum Beispiel der Soziologe Daniel Bell von der Harvard Universität bemerkt hat, ist der Nationalstaat heute oft zu klein, um die grossen Probleme zu lösen, und zu gross, um die kleinen Probleme zu lösen. Daher ist die Frage, wer den Menschen bei der Lösung ihrer Probleme hilft, von zunehmender Bedeutung.

Die Globalisierung verändert naturgemäss den Ort der Kontrolle der Menschen. Die Untersuchung "Der Puls Europas", die von der Times Mirror Corporation vor einem Jahrzehnt in 17 Ländern durchgeführt worden ist, hat ergeben, dass sowohl Ost- als auch Westeuropäer schon damals glaubten, dass der Erfolg im Leben massgeblich durch Kräfte ausserhalb ihrer Kontrolle beeinflusst würde. Im Gegensatz dazu waren die Amerikaner eher der Auffassung, dass sie ihr eigenes Schicksal beeinflussen könnten. Es ist nicht bekannt, ob sich heutzutage das europäische Gefühl der Machtlosigkeit durch die zunehmende Globalisierung der europäischen Wirtschaft und Kultur eher verschlimmert oder verbessert hat, und ob die Globalisierung das Machtgefühl der Amerikaner erschüttert oder beflügelt hat.

Auch ist nicht bekannt, was die Menschen als die grössten Herausforderungen ansehen, die sich ihren Regierungen in dieser Globalisierungsära stellen - von wem sie glauben, dass er die Entscheidungen fällt, die ihr tägliches Leben am meisten beeinflussen: ihre regionale Regierung, ihre nationale Regierung oder eine internationale Organisation, und welche Rolle sie für Nichtregierungsorganisationen wie beispielsweise Umweltgruppen bei der Regierungsführung sehen.

In vielerlei Hinsicht ist trotz aller Strassenproteste und kluger veröffentlichter Kritik das, was wir über Globalisierung nicht wissen, weit wichtiger als das, was wir wissen. Es sind die Auswirkungen des rasanten internationalen wirtschaftlichen und technologischen Wandels auf die Hoffnungen und Ängste der Menschen, ihre Erwartungen für ihre Kinder, ihre Gemeinden und ihre Regierungen, die uns zeigen werden, ob die Globalisierung ein evolutionärer oder revolutionärer Prozess ist. Am wichtigsten dabei ist, dass wir nur dann, wenn wir die Folgen der Globalisierung auf die Werte und Einstellungen der Menschen besser verstehen, zu erkennen beginnen, wie diese ihre Erwartungen an Regierung und Gesellschaft beeinflussen. Da alle Menschen auf der ganzen Welt mit dem global verursachten Wandel ihres Lebens zu kämpfen haben, ist dies die Herausforderung der Zukunft.

Page 272: ITKnowHow

Komplexität - vernetzt, dynamisch und undurchsichtig

Zum wichtigsten Instrument für komplexe Situationen gehört die Erkenntnis oder auch Einsicht, dass man eine komplexe Situation oder ein komplexes Problem vor sich hat und nicht nur ein einfaches Problem. So ist die einfache, schnelle Lösung im Normalfall dann die Falsche.

In der Praxis läuft vieles anders als man es theoretisch erwarten würde oder man es sich ausgedacht hat. So führen gedachte Verbesserungen zu tatsächlichen Verschlechterungen. Oder man löst ein Problem und erzeugt viel neue Probleme damit. Oder "richtige" Einzelentscheidungen führen trotzdem zur Katastrophe.

Immer wenn man es mit einer grossen Anzahl von Elementen zu tun hat, unter denen es auch Abhängigkeiten gibt, hat man es mit grosser Wahrscheinlichkeit mit Komplexität zu tun. Komplexität wird immer auch eine subjektive Komponente haben. Was für einen Anfänger schon hochkomplex ist, ist für den Erfahrenen simple Routine.

Das Autofahren. Für den Fahrschüler sind sowohl die technische Koordination von Schaltung, Kupplung, Gas und Bremse sehr schwierig oder gar das Einschätzen einer etwas unübersichtlichen Verkehrsituation. Der routinierte Autofahrer hingegen handhabt alle diese Probleme so leicht und schnell, dass er schon gar nicht mehr darüber nachdenken muss.

Umgang mit Komplexität

• Einfachheit - Keep it simple and stupid

• Kleinheit - Small is beautiful

• Kurzfristigkeit - Wer weiss schon, was morgen sein wird

• Nachdenken - Smarter, not harder

• Langsamkeit - Ankommen statt umkommen

Weil gedachte Verbesserungen oft tatsächliche Verschlechterungen bringen, erklärt dies auch die Beliebtheit von Provisorien. Sie lösen oft nur ein singuläres Problem und machen nicht alles neu, und führen so weniger zu neuen Problemen. Auch die Anpassung an ein Problem anstelle der Lösung des Problems kann ein kluge Entscheidung sein, um einfacher zu überleben. Speziell wenn manche Probleme nur vorübergehend auftreten, ist es klug sich anzupassen oder abzuwarten und das Problem mehr oder weniger zu ignorieren.

Neben Routine sind Einfachheit und Robustheit der Werkzeuge das bewährteste Mittel im Umgang mit Komplexität. Wenn die verwendeten Werkzeuge einfach und robust sind und keine Nebeneffekte haben, dann ist die Chance gross, dass jeder Beteiligte sie durchschauen wird (Einfachheit) und sich auf den gewünschten Effekt verlassen kann (Robustheit).

Das Wichtigste ist, die Komplexität ernst zu nehmen. Denn wer die Komplexität unterschätzt, wird später einen hohen Preis dafür zahlen, das Lehrgeld, wie man dies

Page 273: ITKnowHow

nennt. Weil Routine der Komplexität den Schrecken nimmt, lohnt es sich, bewährte Vorgangsweisen immer wieder zu verwenden. In Form von Prozessen. Dazu ist es allerdings notwendig, diese Vorgangsweisen zu dokumentieren. Sonst werden alle Fehler immer wieder gemacht.

Wir müssen im komplexen Umfeld Vielzieligkeit anstreben und das Problem gleichzeitig von mehreren Ecken aus angehen. Und alle wesentlichen Parameter und Motive parallel, aber nicht zu radikal verändern. Um Verbesserungen in einer Firma zu erreichen, sind jeweils 1% in vielen verschiedenen Bereichen effektiver, als eine einzige grosse, aber eng begrenzte Veränderung.

Zu der Vielzieligkeit gehört auch, dass wir uns bald - proaktiv (vorbeugend) um Probleme kümmern, die wir erst haben werden. Denn wir wissen ja, je früher wir uns um Lösungen bemühen, um so billiger werden diese sein. Bei der Suche nach Lösungen sollen wir jene bevorzugen, die auch bei verschiedensten Einflüssen eine hohe Erfolgswahrscheinlichkeit haben. Man nennt dieses Vorgehen: Divergenz - Effizienz. Ob sie allerdings die beste Lösung ist, lässt sich im komplexen Umfeld nie sagen, weil es zu den Eigenschaften der Komplexität gehört, dass man noch immer eine bessere Lösung wird finden können.

Psychologen haben getestet, welche Persönlichkeitsprofile die besten Voraussetzungen für die Lösung komplexer Probleme haben. Interessanterweise gehören zu den wichtigsten Eigenschaften nicht Intelligenz und Kreativität. Die allerwichtigste Eigenschaft ist Selbstbewusstsein, die Fähigkeit sich nicht unterkriegen zu lassen, am Ball zu bleiben, der Wille das Problem zu lösen. Dazu gehört auch die Erfahrung, ähnliche Probleme schon gemeistert zu haben. "Ich werde es schaffen, weil ich schon ganz anderes gelöst habe", ist ein typischer Ausspruch von erfolgreichen Menschen. Ebenfalls sehr wichtig in diesem Zusammenhang ist das Abstraktionsvermögen von Menschen. Gute "Abstrahierer" sind vor allem schneller im Lösen.

Page 274: ITKnowHow

Kunden Was ist Kundenbeziehungsmanagement?

Kundenbeziehungsmanagement ist ein umfassender Ansatz, der das gesamte Unternehmen betrifft. Es gehört zu den originären Kernkompetenzen eines Unternehmens. Ziel ist der Aufbau und stetige Ausbau von beidseitig vorteilhaften Beziehungen mit den Kunden. Der Fokus ist damit nicht mehr das Produkt, nicht mehr die einzelne Transaktion, sondern die langfristige Beziehung zum Kunden. Denn aus diesen Beziehungen wird der zukünftige Cash-Flow für das Unternehmen generiert. Und damit stellen die Beziehungen Unternehmenswerte dar, die eines Managements bedürfen wie die finanziellen oder physikalischen Vermögensgegenstände.

Kundenbeziehungsmanagements steht die Erkenntnis, dass jeder Kunde einzigartig ist, ein "Segment of One" darstellt, und entsprechend auch die Beziehung zwischen Kunde und Unternehmen gestaltet werden muss. Und der für das Unternehmen wichtigste Unterschied ist der Wert, den jede einzelne Kundenbeziehung darstellt. Einzigartige Beziehungen zu allen Kunden zu unterhalten muss deshalb auch bedeuten, dass abgestuft nach dem Wert die Ressourcen für die Pflege der jeweiligen Beziehung zugeordnet werden.

Ziel bei der Entwicklung der Beziehungen muss es sein, konsistente Prozesse bei den Interaktionen mit den Kunden, den "Momenten der Wahrheit", im gesamten Unternehmen sicherzustellen. Das bedeutet, dass für die verschiedenen Kontaktkanäle wie Filiale, Internet oder Telefon jeweils auf den Kanal und das Geschäftsereignis abgestimmte, für den einzelnen Kunden entsprechend seinen Bedürfnissen und seinem Wert für das Unternehmen spezifische, aber dennoch unternehmensweit einheitliche Unternehmensreaktionen erfolgen müssen.

Grundvoraussetzung hierfür ist Wissen - Wissen um den einzelnen Kunden, seine Bedürfnisse, seine Einzigartigkeit und sein Ertragspotential. Dieses Wissen muss überall im Unternehmen an allen Kontaktpunkten mit den Kunden verfügbar sein und hier muss bei Interaktionen diese Wissensbasis auch überprüft, erneuert und ausgebaut werden. Kundenportfolio

Die Unterschiede zwischen Kunden sind grösser als die Ähnlichkeiten, in bezug auf das, was sie von Anbietern wollen und was Anbieter von ihnen bekommen. Dennoch werden Kunden gleich behandelt. Warum? Weil Unternehmen nicht wissen, was der einzelne Kunde wünscht, weil es zu teuer oder unmöglich erscheint, dem Kunden genau das anzubieten, was er haben will?

Der technologische Fortschritt macht es möglich, One-to-One-Marketing zu betreiben: Fokussierung auf einen kleinen, profitablen Kundenkreis, Aufbau langfristiger, vertrauensvoller Beziehungen mit diesen Kunden und Verkauf massgeschneiderter Produkte. Die Frage ist: Lohnt sich das? Ja, und zwar aus folgenden Gründen:

Page 275: ITKnowHow

• Meist trägt nur ein kleiner Teil des Kundenkreises den grössten Teil zum Unternehmensprofit bei (z.T. wird mit 20% der Kunden 120% der Gewinne erwirtschaftet)

• Nur ein kleiner Teil des potentiellen Umsatzes mit einem Kunden wird verwirklicht (im Bankenbereich 10-15%)

Es lohnt sich also, sich auf einen kleinen profitablen Kundenkreis zu fokussieren und beispielsweise durch Cross-Selling den Umsatz mit diesen Kunden zu steigern, also den eigenen Anteil am "Share of Wallet" des Kunden zu erhöhen.

Wie finde ich nun die Kunden, auf die ich mich fokussieren sollte? Über den Customer Lifetime Value. Dieser Wert gibt an, welchen potentiellen Wert ein Kunde über seinen Lebenszyklus für ein Unternehmen besitzt. Er umfasst nicht nur den Umsatz, den das Unternehmen über die Jahre mit diesem Kunden generiert, sondern bezieht auch sinkende Kosten bei der Kundenpflege, Veränderungen des Einkommens, Cross-Selling und Gewinnung von Neukunden durch Empfehlung mit ein.

Der nächste Schritt nach der Bestimmung der wichtigsten Kunden gilt der Identifikation der Charakteristiken dieser Kunden und der weiteren Kundensegmente. Diese Analyse erlaubt die Entwicklung spezifischer Angebote für die Kunden, auch für die weniger profitablen. Denn diese sind häufig eine notwendige Basis für das Unternehmen. Sie bedürfen aber eines anderen, weniger aufwendigen Marketingansatzes. Produktbildung

Hören Sie auf die Stimme des Kunden. Warum ziehen Kunden beim Kauf ein Produkt einem anderen vor? Weil das Produkt einen höheren Wert für den Kunden besitzt. Dies ist allgemein bekannt, werden Sie sagen. Wenn es nun um die Entwicklung neuer Produkte oder Dienstleistungen geht, orientieren sich dann die Unternehmen an diesem Wert? In den meisten Fällen lautet die Antwort: Nein. Denn oft fragen Unternehmen ihre Kunden überhaupt nicht, obwohl nur diese wirklich die Antwort kennen. Oder sie fragen die Kunden nach einzelnen Produkteigenschaften, obwohl Kunden bei Ihren Kaufentscheidungen das Produkt als Ganzes bewerten. Oder sie fragen nach der Kundenzufriedenheit.

Wenn Sie nach Kundenzufriedenheit fragen, fragen Sie aber nur Ihre aktuellen Kunden - und nicht potentielle neue Kunden. Sie fragen nach den Erfahrungen mit existierenden Produkten - und schauen damit in die Vergangenheit und nicht in die Zukunft. Sie fragen nur nach der Zufriedenheit mit den eigenen Produkten - damit wissen Sie aber nicht, wie die Produkte der Konkurrenten beurteilt werden, und dies ist die Messlatte. Denn Ihre Kunden können sehr zufrieden mit Ihren Produkten sein. Wenn sie aber den Produkten der Wettbewerber einen noch höheren Wert einräumen als Ihren eigenen, bringt Ihnen das wenig.

Der Kunden-Wert-Ansatz geht weiter als der Kundenzufriedenheitsansatz. Er gibt Ihnen mit Hilfe des Instruments der Conjoint-Analyse Antworten auf die Fragen, die Sie bei der Produktentwicklung stellen:

• Was sind die wichtigsten kaufdeterminierenden Faktoren, auf die die Kunden Wert legen, wenn sie zwischen Ihren Produkten und denen Ihrer grössten Wettbewerber wählen?

Page 276: ITKnowHow

• Wie beurteilen Kunden Ihre Leistung gegenüber Ihren Wettbewerbern bezüglich der kaufdeterminierenden Faktoren?

• Welche anteilige Bedeutung hat jeder dieser Faktoren für den Kundenwert?

Und damit können Sie die Produkte und Dienstleistungen bestimmen, die aufgrund ihrer Eigenschaften den im Markt höchsten Wert für den Kunden bedeuten - aber auch, wie wertvoll die Marke oder der Lieferant ist und damit die Kundenbindung. Kundenkontakt

Interaktionen zwischen Kunde und Unternehmen sind positiv für das Unternehmen. Wenn der Kunde mit ihm in Kontakt ist, ist der Kunde noch sein Kunde. Je mehr Interaktionen mit dem Kunden stattfinden, umso besser ist dies für das Geschäft.

Die Interaktionen mit dem Kunden sind für das Unternehmen aber problembehaftet. Immer neue Medien wie E-Mail, Videokonferenzen oder Internet-Telefonie entstehen, über die Kunde und Unternehmen in Kontakt treten können. Und die Kunden wollen vielfach über diese Medien mit dem Unternehmen interagieren. Und für das Unternehmen bieten diese Kanäle auch neue Chancen zur effizienten Kommunikation, zur Vertiefung der Beziehung mit dem Kunden.

Es reicht aber nicht aus, einfach einen neuen Kontaktkanal einzurichten. Dieser muss in das bestehende Interaktionsnetzwerk integriert werden. Und dies ist eine Herausforderung für interne Organisationsstrukturen, Prozesse, Systeme. Doch das interessiert den Kunden nicht. Er tritt in Interaktion mit einem Unternehmen und erwartet, dass unabhängig vom Kontaktkanal eine Interaktion nach den gleichen Geschäftsregeln abläuft, mit Mitarbeitern, die über den gesamten Informationsbackground verfügen, die seine Bedürfnisse, die Beziehungshistorie kennen. Wissen managen

Wissen existiert in Ihrem Unternehmen und die meisten Ihrer Mitarbeiter haben keine Kenntnis davon - und benutzen es deshalb nicht. Ihnen ist nicht bekannt, ob und wo Wissen vorhanden ist und wie Sie an das Wissen gelangen. Und dies, obwohl für diesen Wissenserwerb Kosten angefallen sind und obwohl das Wissen dringend benötigt wird - es ein entscheidender Erfolgsfaktor ist.

Wissensmanagement ist heutzutage essentiell beim Kundenbeziehungsmanagement. Dem Kunden zu geben, was er will - das ist das Ziel. Und woher weiss man, was der Kunde will? Meistens vom Kunden selbst. Doch diese Informationen, die der Kunde an das Unternehmen gibt, werden vielfach nicht aufgenommen, gespeichert oder anderen Mitarbeitern bekannt gemacht. Und damit vergibt man eine grosse Chance: eine besondere Verbindung zum Kunden aufzubauen mit Informationen, über die Wettbewerber nicht verfügen können.

Wissensmanagement ist ein relativ neues Managementkonzept, aber es baut auf vielen bekannten Instrumenten auf, wie der Prozessanalyse, Informationsplanung und dem

Page 277: ITKnowHow

Change Management. Folgende Stufen sind bei der Implementierung zu berücksichtigen:

• Analyse der Wissensanforderungen im Unternehmen: Welches Wissen wird an welchen Stellen benötigt?

• Ist-Aufnahme des im Unternehmen vorhandenen Wissens

• Durchführung von Massnahmen und Design von Prozessen zu externem Wissenserwerb und interner Wissensentwicklung

• Einführung von Wissensinput- (Selektion, Speicherung, Aktualisierung) und Output-Prozessen (Verteilung)

• Definition der Anforderungen an unterstützende IT-Systeme;

• Auswahl und Einführung der Systeme

• Massnahmen zur Förderung einer offenen Unternehmenskultur, die den Austausch von Informationen unterstützt

• Design eines Messinstrumentariums zur Bewertung des Erfolgs von Wissensmanagementaktivitäten

Prozesse optimieren

Wenn Unternehmen den Weg in die neue Welt der Kundenbeziehungen antreten wollen, werden sie häufig von Schatten aus der Vergangenheit daran gehindert: ihren IT-Systemen.

Die alten Systemlandschaften können genau das nicht erfüllen, was Kernpunkt des Kundenbeziehungsmanagements ist: Fokus auf den einzelnen Kunden mit seinen spezifischen Eigenschaften und Bedürfnissen. Die Mitarbeiter benutzen verschiedene Systeme mit unterschiedlichen Sichten auf den Kunden, je nach Produkt oder Vertriebsweg, sie greifen auf unterschiedliche Informationen ohne gegenseitige Verknüpfung und Abgleich zu. Zweck dieser Systeme war auch nicht die Kundenpflege, sondern Automatisierung und Effizienzsteigerung. Folge dieser Situation: Die Unternehmen besitzen viele der Kundeninformationen, die sie dringend brauchen, aber sie können sie nicht richtig verwenden, weder im Kundenkontakt noch bei Analysen der Datenbestände.

Fortschritte in der Informationstechnologie und ein neuer Fokus der Systemanbieter auf die Prozesse mit Kundenorientierung haben zu einem Angebot an Systemen geführt, mit denen die theoretischen Ansätze des Kundenbeziehungsmanagements umgesetzt werden können. Diese Systeme werden die Beziehungen zwischen Anbieter und Kunde grundlegend verändern:

• Data Warehouses und Data Marts erlauben die Extraktion von ungeordneten (Kunden-) Informationen in eine konsistente strukturierte Datenbasis

• Mittels Ansätzen bzw. Tools wie Data Mining und OLAP kann die Datenbasis analysiert werden

Page 278: ITKnowHow

• Systeme wie Sales Force Automation unterstützen die Vertriebsmitarbeiter und andere Organisationseinheiten mit Kundenkontakt (z.B. Call Center) beim Management der Interaktionen mit Kunden.

Die technologischen Möglichkeiten sind vorhanden, die Projekte zur Einführung aber anspruchsvoll. Der umfassende Charakter des Kundenbeziehungsmanagements machen eine sorgfältige Systemauswahl, effektive Implementierung und einen strategisch fokussierten Einsatz notwendig. Die Verantwortung für ein solches Projekt muss bei der gesamten Unternehmensführung liegen und darf nicht einer einzelnen Abteilung überlassen werden. Beschwerden - eine grosse Chance

Seien Sie froh, wenn Sie Beschwerden bekommen, denn der überwiegende Teil der Kunden beschwert sich überhaupt nicht, ehe sie Sie verlassen. Beschwerden geben Ihnen eine zweite Chance:

• erfolgreiches Beschwerdenmanagement trägt zur Kundenloyalität bei

• Beschwerden liefern wertvolle Informationen über Kundenbedürfnisse und eigene Schwachstellen

• Beschwerden eröffnen die Möglichkeit, negative Urteile, die an Dritte weitergetragen werden, zu revidieren

Deshalb: Stimulieren Sie Ihre Kunden zu Beschwerden. Schaffen Sie interne Prozesse, so dass der Kunde sich leicht und gerne beschwert. Entwickeln Sie eine gegenüber Beschwerden positive Unternehmenskultur. Und binden Sie Ihre Mitarbeiter mit ein. Denn sie haben den direkten Draht zum Kunden. Sie wissen, wo der Schuh drückt und wie man die Probleme beheben kann.

Bleiben Sie aber nicht bei realen Beschwerden stehen. Auch der Verlust von Kunden ist als (stumme) Beschwerde anzusehen. Kontaktieren Sie diese Kunden, befragen Sie sie nach den Ursachen für ihre Entscheidung. Analysieren Sie diese Kunden, um ähnliche, möglicherweise auch abwanderungsgefährdete Kunden zu identifizieren und Gegenmassnahmen zu ergreifen.

Wenn Dienstleistungen erbracht werden, treten Fehler auf - dies ist nie ganz vermeidbar. Und der Kunde ist dabei. Ein perfektes Zusammentreffen, um Unzufriedenheit beim Kunden entstehen zu lassen. Doch Sie können dies verhindern. Vielmehr können Sie die Loyalität des Kunden zu Ihrem Unternehmen stärken, wenn Sie sich in dieser Ausnahmesituation bewähren. Durch die richtigen Massnahmen unmittelbar nach Eintreten des Problems - mit Hilfe eines Krisen-Management-Systems. Dessen Implementierung umfasst folgende Schritte:

• Identifikation der gravierendsten Problem-/Beschwerdesituationen (aus Kunden- und Unternehmenssicht)

• Analyse dieser Situationen und Ausarbeitung der effektivsten Reaktionsmassnahmen

• Umsetzung der erforderlichen Strukturveränderungen (Prozesse, Organisationsstrukturen, Personalsystem)

Page 279: ITKnowHow

• Erfolgskontrolle Kontrolle der Kundenbeziehung

Kundenbeziehungsmanagement ist nicht billig. So belaufen sich in der Telekommunikationsbranche die jährlichen Kosten je Kunde auf 30-50 DM. Solche Investitionen müssen gerechtfertigt werden. Aber wie? Welche Messgrössen zeigen den Erfolg des Kundenbeziehungsmanagements: Wenn der Kunde zufrieden ist? Wenn eine lange Dauer der Geschäftsbeziehungen erreicht wird? Wenn ein hoher Ertrag je Kunde erwirtschaftet wird? Und die Frage ist dabei immer: Welchen Anteil an diesem Erfolg hat das Kundenbeziehungsmanagement?

Da die Auswirkungen eines Kundenbeziehungsmanagements erfahrungsgemäss erst nach 2-3 Jahren richtig sichtbar werden, erweist sich ein kurzfristig angelegtes Controlling als nicht zielführend. Und das Controlling auf eine Messgrösse, auf vergangenheits- oder gegenwartsbezogene Messgrössen zu beschränken, wie dies häufig in der Praxis erfolgt, ist ebenfalls nicht sinnvoll.

Eines der am häufigsten eingesetzten Elemente des Controlling-Mixes ist die Messung der Kundenzufriedenheit. Kundenzufriedenheit ist aber nur Voraussetzung, nicht jedoch ausreichend für den Erfolg. Gleiches gilt für andere Messgrössen wie Kundenbindung. Sie sind notwendige und sinnvolle Indikatoren, ob das Beziehungsmanagement bestimmte gewünschte Wirkungen erzielt hat. Letztendlich ist aber Erfolg erst dann gegeben, wenn eine Umsetzung der Zufriedenheit in für das Unternehmen profitable Kaufhandlungen erfolgt.

Controlling für das Beziehungsmanagement muss also umfassend sein, so wie auch das Beziehungsmanagement ein holistischer Ansatz ist. Das System der Balanced Scorecard eröffnet einen Rahmen zur Integration strategischer Massnahmen wie das Beziehungsmanagement. Es enthält historische finanzielle Kennzahlen wie im traditionellen Controlling. Aber es bindet daneben die Faktoren zukünftiger Leistungen ein: Kunden, interne Geschäftsprozesse und Innovationen. Und Balanced Scorecard ist mehr als ein Messsystem. Es kann als zentraler und organisatorischer Rahmen für die gesamten Managementprozesse dienen.

Page 280: ITKnowHow

Strategie

Strategie, die; -,-n 1. längerfristiger Plan zur Erreichung eines Zieles, der versucht, äussere Faktoren und Reaktionen zu berücksichtigen und das weitere Vorgehen darauf einzurichten 2. (mil.) für bestimmte Kriegssituationen festgelegte mil. Vorgehensweise 3. langfristig angelegte Vorgehensweise, Überlegung zur mittel- und längerfristigen Entwicklung. (aus Langenscheidts Fremdwörterbuch)

Im Kontext mit der Unternehmensführung ist Strategie - trotz seiner heutigen weiten Verbreitung - ein junger Begriff. Erst nach 1980 wurde Strategie zu einem zentralen Begriff im Management.

Abbildung: Einflussfaktoren der Unternehmensstrategie

Die Strategie wurde je nach dem gerade modischen Schlagwort mit Erfahrungskurve, Portfolio, Wettbewerbspositionierung, Kernkompetenzen, Lean Management oder Reengineering gleichgesetzt.

Page 281: ITKnowHow

In Wirklichkeit ist Strategie etwas weit Komplexeres und Umfassenderes. Was umfasst Strategie?

• Wissen, was man will.

Ohne Ziele benötigt es keine Strategie. Das wichtigste Element für eine erfolgreiche Strategie ist das klare Ziel und der Wille dieses Ziel zu erreichen. Jeder Mitarbeiter sollte mit seiner ganzen Persönlichkeit und Willenstärke hinter diesem Ziel stehen. Wie bereits Antoine de Saint - Exupéry gesagt hat: "Wenn Du ein Schiff bauen willst, so trommle nicht Leute zusammen, um Holz zu beschaffen, Werkzeuge vorzubereiten, Aufgaben zu vergeben und die Arbeit einzuteilen, sondern wecke in ihnen die Sehnsucht nach dem weiten, endlosen Meer."

• Wissen,was man nicht will.

Nur eine eindeutige Position in dieser Frage vermeidet Ablenkung und ständige Neuorientierung. Bill Gates hat hier eine seiner Stärken. In einem Interview aus dem Jahr 1998 sagt er: "Wir werden weder den Besitz von Telekom-Netzen noch Telefongesellschaften anstreben. Wir werden nicht in die Systemintegration einsteigen und nicht in die Beratung auf dem Feld Informationssysteme." Nur wer genau weiss, was er nicht will, kann sich voll auf das konzentrieren, was er will.

"Strategie muss immer mit Innovationen einhergehen"

• Etwas Neues schaffen.

Strategie muss immer mit Innovation einhergehen. Diese kann durchaus nach innen gerichtet sein. Einer der grossen Irrtümer der meisten Strategen ist die ständige Suche nach Gesetzmässigkeiten von Strategien. Sie studieren die Erfolgsstorys von gestern, um sie zu imitieren. Nur Kreativität, Originalität und Querdenken produzieren überlegene Strategien. "Find out what everybody else is doing, then do it differently", lautet ein amerikanisches Motto. Das Problem besteht nur darin, dass einem niemand sagt, was "differently" heisst, das kann man nur selbst herausfinden.

• Externe Chancen und interne Kompetenzen integrieren.

Die Strategieansätze der vergangenen 30 Jahre zeichneten sich durch eine jeweils einseitige Betonung aus. Entweder standen die externen Chancen im Mittelpunkt (Portfolio, Wettbewerbsstrategie, Kundenzufriedenheit), oder die internen Aspekte wurden einseitig betont (Erfahrungskurve, Kernkompetenzen, Lean Management). Strategie erfordert jedoch die gleichgewichtige Behandlung beider Seiten. Der Markt für Mobile Commerce mag zwar grossartige Wachstumschancen bieten, das nutzt aber einer Firma, der die entsprechenden

Page 282: ITKnowHow

Kompetenzen fehlen, absolut nichts. Diese banale Einsicht wurde und wird ständig missachtet. Umgekehrt scheitert der beste Dampflokomotiven-Hersteller der Welt trotz seiner tollen Kompetenzen, weil niemand mehr Dampflokomotiven kauft.

• Durchhalten.

Strategie heisst durchhalten, heisst Ausdauer, nicht aufgeben. Man könnte das Michelangelo Wort "Genius ist ewige Geduld" in "Strategie ist ewige Geduld" abwandeln. Trotz der scheinbaren Schnelllebigkeit unserer Zeit und ihrer Märkte entstehen dauerhafte Erfolgspositionen nicht in kurzer Zeit. Vielmehr erfordern sie Visionen und Aktionen, die über Jahrzehnte reichen und einem konsistenten Strategiemuster treu bleiben.

Page 283: ITKnowHow

Kommunikation

10 Regeln für erfolgreiche Pressearbeit

1. Nur die echte Nachricht zählt. Nur glaubhafte Botschaften und interessante Informationen haben eine Chance in der täglichen Presse-Flut.

2. Vertrauen gewinnen ist das Ziel. Zuerst auf der redaktionellen Seite und dann auf den Seiten der Leser und Hörer.

3. Hände weg von unausgegorenen Nachrichten und überzogenen PR-Phrasen. Sie schaden, denn Journalisten durchschauen Sie schneller als Ihnen lieb ist.

4. Nicht erst in einer Krise an PR, Presse- und Öffentlichkeitsarbeit denken. Nicht erst dann die ersten Presse-Mitteilungen in der Hoffnung auf Konkursabwehr und höheren Abverkauf versenden.

5. Kontinuität. Bemühen Sie sich,, regelmässig Informationen aus Ihrem Haus in die relevanten Redaktionen zu schicken.

6. Bestimmen Sie jemanden in Ihrem Unternehmen, der für das Zusammentragen von Informationen und Themen verantwortlich ist. Er (es) ist Bindeglied zwischen Unternehmen und PR-Berater oder PR-Journalist. Je weiter oben Ihr Beauftragter in der Unternehmenshierarchie angesiedelt ist, desto besser.

7. Aktualität zählt. Ende September interessiert sich kaum noch jemand für Ihre Halbjahresbilanz.

8. Nutzen Sie Ihre Kontakte und bauen Sie diese aus. Der Kontakt zum Journalisten sollte in der Hand des Unternehmens sein. Der Hauptgrund: Journalisten wollen stets Informationen aus erster Hand und keinen PR-Berater, der etwa in Fragen der Firmenpolitik oder –ausrichtung nie wirklich kompetente Aussagen ad hoc treffen kann oder darf.

9. In der Anfangsphase gilt: Jede Veröffentlichung zählt, ist sie auch noch so klein. Nicht ungeduldig werden. Und dies schon gar nicht die Redaktionen in irgendeiner Form spüren lassen. Sie verscherzen sich so mühsam aufgebaute Sympathien.

10. Verinnerlichen Sie: Kommunikation ist kein preiswertes Geschäft. Nur wenn Sie bereit sind, auch langfristig in Ihre Vermarktung zu investieren, können Sie am Ende auch messbare Ergebnisse erwarten.

Page 284: ITKnowHow

Kommunikation

Bewertungskriterien für Kurzreden Ziel

Ziel der Rede verstanden ++ + 0 - -- Ziel der Rede unklar Er / sie überzeugt ++ + 0 - -- Er / sie lässt mich kalt

Gesamteindruck

wirkt sicher ++ + 0 - -- wirkt unsicher zeigt Engagement ++ + 0 - -- wirkt unmotiviert

Aufbau

klarer Aufbau, logische Reihenfolge ++ + 0 - -- Lücken, sprunghaft

angemessene Länge ++ + 0 - -- zu lang; zu kurz passende Informationsauswahl ++ + 0 - -- zu ausführlich; zu wenig breit

Sprache

passt zum Publikum ++ + 0 - -- zu banal, zu viele Fachausdrücke

einfache Sätze ++ + 0 - -- Schachtelsätze; abgebrochene Sätze

abwechslungsreich ++ + 0 - -- immer gleich

Stimme

Aussprache gut verständlich ++ + 0 - -- verschluckt Wörter, zu leise

Tempo gut ++ + 0 - -- zu schnell; zu langsam; abgehackt

richtige Pausen ++ + 0 - -- zu wenig Pausen

Page 285: ITKnowHow

Körper

sicherer Stand, zum Publikum hin ++ + 0 - -- unsicher, ablehnend, verschlossen

natürliche Gesten ++ + 0 - -- steif, verkrampft; aufgesetzte Gesten

regelmässiger Blickkontakt ++ + 0 - -- kein oder flüchtiger Blickkontakt

Besonderes

... ++ + 0 - -- ...

Page 286: ITKnowHow

Kommunikation Das Interview Form und Funktion

Form Eine (prominente) Person wird von einem Interviewer befragt. In der Regel kündet ein Moderator zuvor an, wer aus welchem Anlass zu welchem Thema befragt werden soll (Anmoderation).

Funktion Das Publikum soll durch das Gespräch die befragte Person und ihre Tätigkeiten, Erfahrungen und Meinungen kennenlernen.

Strukturmerkmale Der Interviewer ist über das Thema längst orientiert und kennt die meisten Antworten bereits. Er stellt somit keine echten Fragen (Fragen nach Dingen, die er nicht weiss), sondern vorbereitete, auf das Publikum ausgerichtete Fragen, mit denen er ganz bestimmte Informationen aus dem Befragten herausholen und ans Publikum weiterleiten will. Interviews können unterschiedlich stark vorstrukturiert sein. Während ein Interview mit einem Skirennsieger spontan und - mindestens für den Sportler - unvorbereitet geführt wird, sind "Interviews" in einer Talkshow praktisch wortwörtlich abgesprochen. Interviews können friedliche Gespräche sein, in denen der Begragte ausführlich von sich erzählen kann (Musikstar als Gast in einer Sendung), sie können primär der Informationsvermittlung dienen (Expertenbefragungen), sie können aber auch zum Verhör ausarten (Der heisse Stuhl, Rundschau).

Fragetechnik Fragen können sein: offen, kanalisierend, suggestiv, geschlossen. Der Interviewer hat durch seine Fragen den Befragten absolut im Griff. Wenn er will, kann er ihn völlig manipulieren, in eine ganz bestimmte Richtung lenken, mit Anschuldigungen in die Verteidigung drängen und ihm das Wort abklemmen. Wer ein Interview führt, trägt eine grosse Verantwortung und sollte entsprchend vorbereitet sein.

Wer fragt, führt - Wer gefragt wird, wird geführt

Page 287: ITKnowHow

Faire Fragen

Die folgenden Fragearten sind fair, weil sie dem Befragten die Möglichkeit geben, sein Wissen und seine Meinung frei zu äussern.

Informationsfrage Alle W-Fragen: wer? was? wieviel? wo? welches? wann? warum? Sachfrage Frage, auf die es eine "richtige" Antwort gibt: "Wie hoch ist der

Dollarkurs?" Meinungsfrage Frage nach der persönlichen Meinung: "Was halten Sie davon?" Kontraversfrage Frage mit oder: "Kann man das lernen oder muss das angeboren

sein?" Ja-Nein-Frage Frage, die man mit Ja und Nein beantworten kann: "Ist das gut

so?"

Unfaire Fragen

Die folgenden Fragearten sind unfair, weil sie den Befragten in eine bestimmte Richtung drängen oder ihm eine Meinung unterstellen.

Alternativfrage Gibt dem Befragten nur 2 Möglichkeiten: "Wollen Sie Rot- oder Weisswein?"

Unterstellende Frage Die Frage: "Wie hoch sind die Raten für Ihr Auto?" unterstellt dem Befragten, dass er sein Auto nicht bar bezahlt hat.

Ja/Nein-Falle Mit Ja und Nein setzt der Antwortende sich in die Nesseln: "Haben Sie immer noch Schulden?" "Ja" = ich habe Schulden. "Nein" = Ich hatte Schulden. Eine Solche Falle muss man zurückweisen: "Ich hatte noch nie Schulden!"

Fangfrage Man will etwas anderes wissen, als man fragt. Mit "Haben Sie einen Parkplatz gefunden?" erfährt man, ob der andere mit dem Auto gekommen ist oder nicht.

Provokativfrage Lockt den Befragten aus der Reserve: "Wollen oder können Sie keine Antwort geben?" (Kann bei lahmen Befragten nötig werden)

Suggestivfrage Der Befragte soll sich der Meinung des Interviewers anschliessen: "Sie meinen doch auch...?", "Sie haben sicher schon...?". Suggestivfragen muss man abklemmen: "Wie kommen Sie darauf..."

Aber-Nicht Radioreporter-Krankheit: "Aber ist es nicht...", "Aber haben Sie nicht...". Der Befragte kann nicht mehr antwortn, er muss sich verteidigen!

Page 288: ITKnowHow

Beispiele

Unfair Fair Wollen Sie Rotwein oder Weisswein? Was möchten Sie trinken? Fühlen Sie sich nicht elend in dieser Situation? Wie fühlen Sie sich in dieser Situation? Meinen Sie nicht auch, dass Was sagen Sie zu der Aussage:"..."? Können Sie keine Alternativen nennen? Können Sie Alternativen nennen?

Page 289: ITKnowHow

Kommunikation Das Statement Statement (Kurzrede) = öffentliche Erklärung, Behauptung, Darlegung. Anlässe

• Verkaufspräsentation

• Kongress, Seminar

• Pressekonferenz

• Vereinsversammlung

• Empfang, Apéro

• Feier

• Reise

• Podiumsgespräch Ziele

• erläutern, darstellen

• begrüssen, eröffnen

• bewerten, analysieren

• Antrag stellen

• danken, gratulieren

• kritisieren, Frage stellen

• werben, auffordern

• Stellung nehmen

Page 290: ITKnowHow

Aufbau

Abbildung: Aufbau eines Statements Planung

1. Zwecksatz formulieren Was will ich mit meiner Rede erreichen? 2. Publikum analysieren Zu wem spreche ich? Vorwissen? Interessen? 3. Argumente sammeln pro, kontra 4. Reihenfolge festlegen erstens, zweitens; einerseits, andererseits... 5. guten Einstieg suchen vgl. unten 6. Stichwortkarte erstellen auf Zettel, Menukarte, Traktandenliste

Merksatz Mit dem ersten Satz gewinnen Sie die Zuhörer.

Mit dem letzten Satz überzeugen Sie die Zuhörer.

Page 291: ITKnowHow

Beispiele, Anregungen

Einstieg Ziel: Zuhörer packen, Aufmerksamkeit, Wohlwollen wecken.

Situationsbezug Wenn Sie sich in diesem Raum umschauen... Wir sind hier zusammengekommen, um...

Bezug auf Vorredner Frau X hat vorhin behauptet... Wir haben im Vortrag von Herrn X gehört... Sie haben mich gefragt...

Aktualitätsbezug Ich habe heute in der Zeitung gelesen... Themenformulierung Das Thema dieser Sendung lautet...

Wir müssen uns heute entscheiden, ob... Sie sind hierher gekommen, um zu erfahren...

Fragen Haben Sie schon einmal...? Was machen Sie, wenn...?

Fakten Jedes Jahr gibt es in Europa über 100'000 virenbefallene Computer.

Beispiel, Bild Stellen Sie sich vor, Sie... Schauen Sie sich einmal diesen Gegenstand an...

persönliches Erlebnis Letzte Woche bin ich nach New York geflogen. Da hat doch... geistreiche Bemerkung Es ist noch kein Meist vom Himmel gefallen, sagt man. Beim

Gleitschirmfliegen ist das anders; da fallen selbst Meister vom Himmel.

Schlechte Einstiegsvarianten: Entschuldigung (Ich bin kein guter Redner usw.), danken, dass man reden darf, Schleife (Zuerst möchte ich bemerken), Ankündigung, man werde es kurz machen, Weichmacher (Ich möchte), ziellose Polemik (Es ist doch einfach eine Schweinerei...) Hauptteil Ziel: darlegen und überzeugen

• Eingehen auf das, (was war), was ist, was sein sollte und vorschlagen, wie man dorthin kommt

• Argumente pro und kontra, (bereits geäusserte) Meinungen gegeneinander abwägen

• Behauptungen, Fakten, Beweisführung

• Beispiele, Bilder, persönliches Erlebnis

• eigene Meinung

Page 292: ITKnowHow

Schluss Ziel: Zweck der Rede erreichen, Appell

• Kerngedanken bündeln, das Wichtigste wiederholen

• Bezug zum Einstieg herstellen (ich hatte die Frage gestellt...)

• persönliche Meinung nochmals unterstreichen

• Appell: machen Sie..., wählen Sie..., nehmen Sie...

• Wunsch (weiterhin guten Appetit, viel Vergnügen, alles Gute)

Schlechte Schlussvarianten: Ich habe geschlossen. Das wars.

Page 293: ITKnowHow

Kommunikation Der Vortrag Das Schreiben der Rede Abklärungen Thema Genaues Thema? Von wem bestimmt? Zeit Wieviel Redezeit? Ort Anlass? Rahmen? Raum? Technische Einrichtung? Publikum Wer? Wieviele? Freiwillig? Vorkenntnisse? Interessen? Ziel Ziel der Rede? Material sammeln Wissen Informationen sammeln. Fundierte Einarbeitung ins Thema Interesse Diskussion mit Bekannten. Eigeninteresse, persönliche Einstellung. Schmuck Beispiele, Bilder, Zitate, Witze. Grosszügig sammeln, jedoch ohne Ziel und Thema aus den Augen zu verlieren. Disposition Auswahl Material zielgerichtet auswählen. Nie alles bringen! Ordnung Informationen in logische Reihenfolge bringen. Passenden Schmuck

wählen. Anfang, Schluss In jedem Stadium der Arbeit schriftlich und laut redend arbeiten.

Manuskript • Für offiziellen Anlass wörtliches Manuskript erstellen.

• Aufbau der Rede hörbar machen.

• Einfache Sprache.

• Anschaulich bleiben, mit Bildern, Beispielen, konkreten Wörtern.

• Redeschmuck einbauen: rhetorische Fragen,

Page 294: ITKnowHow

Wiederholungen, Steigerungen, direkte Ansprache der Zuhörer...

• Grosse Schrift, weite Zeilenabstände.

• Viele, sinnvolle Abschnitte mit grossem Abstand dazwischen.

• Blätter einseitig bedrucken, nummerieren, nicht heften.

Stichwortkarten • Für einfacheren Vortrag Stichwortkarten erstellen.

• Aufbau der Rede sicht- und hörbar machen.

• Anfang, Schluss, Namen und Zitate wörtlich.

• A6, festes Papier, einseitig, nummeriert.

Kontrolle • Rede laut lesen. Zeitkontrolle!

• Inhalt, Logik und Zuhörerfreundlichkeit überprüfen.

• Rede evtl. kürzen und überarbeiten.

Visuelle Hilfsmittel erstellen

Visuelle Hilfsmittel sind sparsam einzusetzen. Sie sollen das Wort ergänzen, unterstützen und vertiefen (nicht wiederholen, ersetzen oder davon ablenken). Sie müssen qualitativ hochstehend sein und sich technisch und inhaltlich reibungslos in den Vortrag einfügen lassen. Der Aufwand für die Herstellung darf nicht unterschätzt werden.

Folien • Grosse Schrift! (mind. 18 Punkt)

• Wenig Text.

• Anschauliche, leicht lesbare Grafiken ("Milchkannen").

• Farben.

Dias • Wenige, passende, aussagekräftige Bilder.

• Nur einwandfreie, fotografisch gelungene Bilder

Papier Bei kleiner, im Voraus bekannter Teilnehmerzahl können wichtige und/oder komplizierte Informationen (Zahlen, Diagramme, Beispiele, Zitate, Literaturangaben, Namen und Adressen) auf einem Blatt ausgeteilt werden.

Tafel, Flipcharts Für Vorträge nicht geeignet (->Konferenzen, Seminare)

Page 295: ITKnowHow

Beim Zeigen mit Finger, Stift oder Stock weiterreden und zum Publikum gerichtet bleiben. (Rede nicht unterbrechen, sich nicht im Profil oder mit Rücken zum Publikum aufstellen) Üben

• Der fertige Vortrag ist mindestens ein Mal laut vorzutragen, mit allen technischen Hilfsmitteln!

• Die Handhabung der Folien und Dias ist speziell zu trainieren.

• Zeitkontrolle!

• Ideal ist eine Überprüfung mit Tonband oder Video und/oder einem kritischen Zuhörer.

• Sprache, Mimik und Gestik überprüfen und trainieren. Vorbereitungen Äusseres Kleidung Herren Anzug mit Hemd und passender Krawatte. Dunkle Schuhe.

Allenfalls Gilet oder Pulli statt Kittel. Keine Jeans, Jacken, Mützen und Turnschuhe.

Kleidung Damen Hose / Jupe mit Bluse oder Zweiteiler. Stümpfe und flache Schuhe. Keine Jeans, dicken Pullis, Socken und Stöckelschuhe. Keine zu grossen Tücher oder Rollkragen um den Hals, Silhouette wahren.

Frisur Muss absolut sitzen. Haare aus dem Gesicht. Keine Extravaganzen.

Schmuck Dezenter Ohren- und Halsschmuck für Frauen empfehlenswert, darf jedoch nicht baumeln und klimpern. Keine Armreife und nicht zuviele Ringe. Wenn möglich keine Brille.

Schminke In künstlichem Licht Gesicht pudern. Frauen sollten Lippenstift benützen.

Der Redner muss mindestens so gut gekleidet sein wie das Publikum. Keine persönlichen Einstellungen demonstrieren. Raum Allgemein Stimmen Grösse und Sitzordnung? Genug Luft und Licht?

Sitzplatz des Organisators? Eigener Sitzplatz? Redeplatz?

Page 296: ITKnowHow

Rednerpult Höhe einstellen. Fest verankert? Fangleiste? Genug Licht? Genug Platz? Abstand zum Publikum?

Technik allgemein Bedienung von Licht und Fenstern? Kabel und andere Stolperfallen? Mikrofon? Hilfe sicherstellen (Hausmeister).

Technik Hellraumprojektor Standort festlegen (evtl. am Boden markieren). Leinwand oder

weisse Wand vorhanden? Wo ist die Steckdose? Ein- und Ausschaltknopf? Gerät mit Folie ausprobieren und scharf stellen! Ablagefläche für noch nicht / bereits gezeigte Folien schaffen. Schreib- und Zeigestifte bereitlegen.

Diaprojektor und Video Standort festlegen (evtl. am Boden markieren). Leinwand oder weisse Wand vorhanden? Gerät mit Dia oder Video scharf stellen! Reihenfolge und Ausrichtung der Dias zwei Mal überprüfen. Beherrschung des Gerätes sicherstellen. Hilfsperson organisieren, die den Projektor bedient. Zeigestock besorgen.

Mikrofon Wenn möglich ohne. Ansonsten: ausprobieren und einstellen!

Frühzeitig abklären, was vorhanden ist (inkl. Gerätetypen), allenfalls selber mitbringen. Auftritt Zeitpunkt Ablauf der Veranstaltung mit Organisator nochmals durchgehen,

Zeitpunkt des eigenen Vortrags sicherstellen. Absolute Pünktlichkeit!

Weg Von draussen? Von meinem Sitzplatz aus? Kürzester Weg? Probelauf.

Vorstellung Sicherstellen, dass man richtig angekündigt und vorgestellt wird: Name, Herkunft, evtl. Ausbildung und Tätigkeit, Beruf und Titel des Vortrags dem Organisator frühzeitig schriftlich mitteilen.

Page 297: ITKnowHow

Die Rede halten Lampenfieber Vorbeugen Perfekte Vorbereitung! Genug Zeit und Schlaf. Wenig essen,

keine Beruhigungs- und Aufputschmittel. Bekämpfen Entspannungs- und Atemübungen. Spaziergang, abschalten. Standhalten Ein bisschen Lampenfieber ist nötig, sonst fehlt die Energie.

Wissen: Es erwartet niemand eine fehlerfreie Leistung. Einstimmung Konzentration Rückzug (Gang, Ecke, Fensterbank, Klo) und 100% Konzentration

auf Thema und Ziel des bevorstehenden Vortrags. Spannung Die nötige Körperspannung und Haltung aufbauen. Begeisterung "Ich freue mich, hier zu sein. Ich freue mich, dass Sie hier sind.

Ich bin ganz für Sie da. Ich weiss, wovon ich spreche." Los geht's Auftritt Ruhig und fest nach vorne schreiten. Sich "aufbauen". Blickkontakt Blickkontakt aufnehmen und halten bis zum Schluss! Reden Voll bei der Sache sein und nur bei der Sache. Voll auf das

Publikum ausgerichtet sein und nur auf das Publikum. Mit Leib und Seele dabei sein.

Die Rede sitzt, ist vorbereitet und einstudiert. Jetzt ist nicht der Moment, um irgendetwas auszuprobieren oder zu üben.

Page 298: ITKnowHow

Kommunikation Die Podiumsdiskussion Form und Funktion

Diskussionen dienen im Allgemeinen dazu, Informationen und Meinungen auszutauschen sowie andere Leute für den eigenen Standpunkt zu gewinnen. Da man nicht mit beliebig vielen Leuten diskutieren kann, benützt man das Podium als Möglichkeit, einzelne, für das Thema besonders kompetente Personen stellvertretend diskutieren zu lassen. Die Podiumsdiskussion siedelt sich an zwischen der Diskussion, in der es um die Sache geht (Was ist besser?), und der Debatte, in der es um den Sieg geht (Wer gewinnt?). Ziel ist meistens nicht, die "Wahrheit" zu finden, einen Kompromiss zu erarbeiten oder gar Beschlüsse zu fassen, sondern den eigenen Standpunkt glaubwürdig zu vertreten und dem Publikum beliebt zu machen. Gesprächstechnisch zentral ist daher der Einsatz von Argumenten und Gegenargumenten.

An einer Podiumsdiskussion nehmen teil ein Gesprächsleiter sowie je ein bis drei Vertreter zweier kontroverser Meinungen zu einem Thema von allgemeinem Interesse. Podiumsdiskussionen sind in der Regel öffentlich, was schriftliche Einladungen / Anzeigen notwendig macht. Die Dauer der Veranstaltung wird vorher festgelegt, ebenso, ob die Podiumsdiskussion am Schluss zu einer Forumsdiskussion mit allen Anwesenden erweitert wird oder nicht.

Der Gesprächsleiter

Eröffnung Der GL begrüsst die Zuhörer und Teilnehmer. Er stellt die Teilnehmer vor. Er gibt das Thema der Veranstaltung bekannt.

Er orientiert über die Ausgangslage / die Hintergründe, die zum Thema führten.

Er gibt allenfalls Gesprächsregeln bekannt (Worterteilung, Länge der Beiträge)

Er legt die Dauer der Veranstaltung fest. Er stellt eine Startfrage.

Die Startfrage muss offen sein, das heisst sie muss unterschiedliche Stellungnahmen ermöglichen. Sie soll die Redenden nicht in eine bestimmte Richtung drängen. Sie darf allenfalls leicht provozieren. Gute Fragen sind: "Wie stellen Sie sich die Entwicklung des Internets in den nächsten 5 Jahren vor?" "Wie ist es Ihrer Meinung nach zu dieser Situation gekommen?" "Die Gewerkschaft ist tot. Was sagen Sie zu dieser Behauptung?" Keine Fragen, die man mit Ja oder Nein beantworten kann! Der GL muss die Startfrage schriftlich vorbereitet haben.

Page 299: ITKnowHow

Diskussionsteil Der GL erteilt das Wort und sorgt dafür, dass alle gleich viel zum Reden kommen.

Er fasst zusammen, hält Ergebnisse fest, wiederholt Kernaussagen. Er führt neue Aspekte in die Diskussion ein, stellt zusätzliche Fragen. Der GL unterbricht Dauerredner.

Er unterbricht und lenkt zum Thema zurück, wenn die Teilnehmer a) abschweifen, b) sich in Details verlieren c) sich im Kreis drehen oder d) persönlich werden.

Er blockt Provokationen ab und sorgt für Ruhe im Saal

Der GL muss die Diskussion nicht nur lückenlos verfolgen, sondern jederzeit im Griff haben. Er notiert, wer was gesagt hat, damit er zusammenfassen und zum nächsten Punkt überleiten kann. Er verliert das Thema und den von ihm geplanten Ablauf der Diskussion nie aus den Augen!

Schluss Der GL kündet den Schluss an. Er erteilt jedem Teilnehmer das Wort für ein Schlussvotum Er fasst zusammen, zieht Schlussfolgerungen, weist auf die Zukunft hin. Er bedankt sich bei den Teilnehmern und Zurhörer

Der GL hat absolute Neutralität zu wahren. Er darf zum Thema selber nicht Stellung nehmen, er darf die Beiträge der Teilnehmer nicht bewerten ("interessant, was Sie da sagen"), und er darf nicht Partei ergreifen.

Die Teilnehmer

Die Teilnehmer einer Podiumsdiskussion haben mit Organisation und Gesprächsführung nichts zu tun. Sie haben sich jedoch geistig vorzubereiten: Gute Kenntnis der Sache und gründliche persönliche Auseinandersetzung mit dem Thema. Sie sollen sich in die Position des Gegners versetzen und überlegen, was seine Anliegen sind und welche Argumente von seiner Seite zu erwarten sind. Eigene Argumente, allenfalls Zahlen und Fakten, die man in der Diskussion einsetzen will, sind schriftlich mitzubringen.

Eine Podiumsdiskussion soll nicht "gepflegt-einschläfernd" sein. Das lateinische Wort "discutere" bedeutet immerhin "zerschlagen", "zerlegen". Eine gewisse Aggressivität ist durchaus am Platz. Trotzdem sind die Teilnehmer gehalten, mit Argumenten zu streiten und unfaire Taktiken zu unterlassen. Sie sollen Fragen beantworten und auf den Gegner eingehen. Eine Diskussion bleibt ein Gespräch und ist keine Aneinanderreihung von Monologen. Dazu ist aufmerksames Zuhören notwendig.

Page 300: ITKnowHow

Abbildung: Notizenblatt für Teilnehmer und Gesprächsleiter Argumente und Gegenargumente

Das Folgende ist lediglich, eine kleine Auswahl möglicher Argumentationstaktiken. Sie sind in der Regel ethisch vertretbar, teilweise auch an der Grenze zu den unfairen Taktiken.

Plus-Minus Bekannte Mängel werden (selber) benannt und zugegeben, die Vorteile jedoch als überwiegend dargestellt.

Ja-Aber Dem Argument des Gegners wird zugestimmt, dann aber sofort mit einem Gegenargument widersprochen. ("Natürlich kostet so ein Weiterbildungskurs viel; wenn Sie aber bedenken, was...")

Beispiel Beispiele beweisen überhaupt nichts! Aber sie sind schwer zu widerlegen...

Schweigen Wenn der Gegner als Antwort nur vielsagend schweigt, schiesst die brillanteste Argumentation ins Leere...

Umkehrung Den Einwand zurückgeben. ("Sind Sie wirklich überzeugt, dass...?") Mehrheit Die eigene Meinung wird als die Ansicht der Mehrheit dargestellt.

Gegner werden isoliert. ("Alle demokratisch gesinnten Bürger..." "Nur der letzte Hinterwäldler glaubt heute noch...")

Umwertung Was vom Gegner als positiv dargestellt wurde, wird negativ umgedeutet und umgekehrt. ("Gerade weil das Leben das höchste Gut ist, müssen wir..." "Sie würden nicht hier sitzen, wenn wir nicht seit Jahren an ... gearbeitet hätten.")

Fakten Gegen Zahlen, Statistiken und andere Fakten ist schwer anzukommen. Entweder-Oder Man stellt die Situation dar, als gäbe es nur zwei Lösungen. ("Entweder

Page 301: ITKnowHow

wir machen ... oder wir werden alle...") Widersprüche Man weist dem Gegner Widersprüche in seinen Argumenten nach. Definition Man lässt den Gegner seine Begriffe definieren, fragt nach Beispielen

und Beweisen, vor allem, wenn er sehr gescheit redet und abstrakte Begriffe verwendet. ("Was verstehen Sie eigentlich unter E-Business?")

Analogie Man stellt den Gegner in eine Situation, in der er gegen seine Überzeugung handeln müsste. ("Was würden Sie tun, wenn... ? Sie würden wohl auch...")

Ad Absurdum Der Vorschlag des Gegners wird aufgenommen un in Gedanken weitergesponnen, wobei herauskommt, dass der Vorschlag unbrauchbar ist. ("Wenn wir..., dann passiert... und dann wird... Das führt zwangsweise zu einem Chaos")

Bumerang Das Argument des Gegners wird gegen ihn selber gerichtet. ("Wenn Sie ... durchsetzen wollen, müssen Sie die Hälfte Ihrer Abteilungsleiter entlassen")

Einzelne Argumente können zu ganzen Strategien zusammengefügt werden:

Standpunkt 1. Standpunkt bekannt geben 2. Standpunkt begründen 3. Beispiel 4. Schlussfolgerung

5. Aufforderung, Standpunkt zu übernehmen oder mindestens zu diskutieren

Problemlösung 1. Ist-Zustand schildern 2. Ursachen aufzeigen 3. Soll-Zustand schildern 4. Vorschlag zur Problemlösung entwickeln

5. Aufforderung, den Vorschlag anzunehmen oder mindestens zu diskutieren

Zwei Positionen 1. Position A schildern 2. Position B schildern 3. Für eine Position Stellung beziehen oder beide ablehnen

4. Stellungnahme begründen bzw. dritte Position (Kompromiss) vorschlagen

Page 302: ITKnowHow

Reaktion: Mit Fragen nach Präzisierung und Ergänzung kann man Zeit gewinnen und den Gegner manchmal schon verunsichern ("Sie meinen also...?"). Ansonsten gilt es, Schwachstellen in der Argumentation zu finden: Geht er von Tatsachen aus oder von Vermutungen? Wird die Lage objektiv beurteilt? Sind die Begründungen stichhaltig? Die Beispiele an den Haaren herbeigezogen? Erwähnt er nur bestimmte Faktoren und lässt andere gezielt weg? Sind seine Schlussfolgerungen logisch? usw.

Unfaire Taktiken

Schlagwort Einzelfälle werden verallgemeinert, statt Beweisen werden pauschale Aussagen gemacht. ("Das war schon immer so"). Gleich unangebracht sind Schlagworte ("Ohne Top Management kein Erfolg").

Autoritätenzitat Das Zitat einer Persönlichkeit wird anstelle eigener Beweise dazu missbraucht, den Gegner zum Schweigen zu bringen. ("Schon Einstein hat gesagt...")

Erfahrung Unter der Berufung auf die eigene Erfahrung wird jeder Vorschlag abgeblockt. ("Das hat sich bis heute bewährt." "Junger Mann, da können Sie...")

Emotion Mangels Gründen werden die Emotionen der Leute für die eigene Sache missbraucht. ("Opfer sind wieder einmal die kleinen Kinder...")

Plausibilität Schwache Argumente werden mit dem Appell an den gesunden Menschenverstand aufgemöbelt. ("Jeder vernünftige Mensch sieht doch...")

Ausweichen In die Enge getrieben, weicht man auf ein anderes Thema aus. ("Übrigens...")

Isolierung Ein Aspekt aus der Argumentation des Gegners wird isoliert und zerpflückt. Man kann den Aspekt auch aufbauschen und damit den Teufel an die Wand malen.

Ad Personam Der Gegner wird persönlich angegriffen ("Davon verstehen Sie gar nichts!")

Reaktion: Unfaire Taktiken muss man erkennen, um reagieren zu können. Man soll ruhig, aber entschieden, allenfalls mit einer Prise Ironie reagieren: Die Taktik als solche aufdecken, Fragen stellen, Beweise verlangen, Emotionales zurückweisen, die Dinge richtigstellen.

Zuhören

Bei jedem Gespräch ist die Hör-Zeit bedeutend länger als die eigene Sprech-Zeit. Trotzdem sind die meisten Menschen schlechte Zuhörer. Die Folgen: Diskussionsteilnehmer sind unkonzentriert, warten gelangweilt auf "ihren" nächsten Auftritt, wiederholen bereits Gesagtes, ohne es zu merken, gehen nicht auf Fragen ein, zitieren die Diskussionspartner falsch, reden die längste Zeit aneinander vorbei.

Page 303: ITKnowHow

Aktives Zuhören will gelernt und geübt sein. Aktiv zuhören heisst, Konzentration auf die Gesprächspartner, Blickkontakt, den Gedankengängen der anderen bewusst folgen, Rückmeldungen geben (nicken, "genau", "ach ja?"), Verständigungsfragen stellen, notizen machen, schweigen.

Ohne das Zuhören verliert jede Diskussion ihren Sinn!