Die 5 wichtigsten IT-Infrastruktur-Trends 2016

Was kommt auf IT-Leiter im nächsten Jahr zu? Welche Themen werden 2016 im Infrastrukturbereich wichtig? In meinen Augen werden uns diese Themen in den nächsten zwölf Monaten beschäftigen (und hoffentlich das Leben erleichtern): Container, Fog Computing, neue Prozessoren als Schubgeber für SDS, Cloud-Centric Design und virtuelle Netzwerke.

1. Cloud-Betriebssysteme und Container
Wer virtuelle Systeme auf Basis von OpenStack oder anderen Infrastrukturmanagementlösungen betreibt, nutzt die Funktionalitäten von Linux-Distributionen wie Ubuntu, SUSE, Red Hat & Co. Diese Systeme sind aber für den Einsatz in der Cloud gar nicht vorgesehen.
Aus diesem Grund haben minimalistische Cloud-Betriebssysteme wie Core OS an Popularität gewonnen. Core OS versteht sich als Werkzeugsammlung, um den Betrieb von Containern in einem großen Verbund zu verwalten. Anfänglich setzte Core OS auf Docker als Container-Format. Inzwischen haben sich die Core OS-Gründer aber aus Sicherheitsgründen und wegen des Umfangs, den die Container-Plattform inzwischen angenommen hat, von Docker losgesagt und entwickeln ihre eigene Implementierung namens Rocket.
Die gleiche Richtung schlägt auch Ubuntu ein. Canonical setzt ebenfalls auf sein eigenes Containerprodukt LXD. LXD ist ein Aufsatz für die virtuelle Umgebung LXC (Linux Containers) und erlaubt damit den verteilten Betrieb von LXC-Containern in einer OpenStack-Installation. Da derzeit die meisten OpenStack-Clouds unter Ubuntu laufen, ist für ihre Betreiber LXD das optimale Container-Format.
Fazit: Monolithisches Applikationsdesign fällt langsam aus der Zeit. Die Architektur der Zukunft erfordert mehr Agilität und Flexibilität. Sie orientiert sich an Services und funktioniert nach dem Software-Defined-Ansatz. Die technologischen Grundlagen bilden Cloud-Betriebssysteme und Container. Anwender sollten sich nicht frühzeitig auf populäre Container wie Docker festlegen, weil hier das letzte Wort noch nicht gesprochen ist. Dadurch dass sich die Hersteller von (Cloud-)Betriebssystemen immer stärker ihrer eigenen Container-Software zuwenden, werden ihre Lösungen für Anwender 2016 deutlich interessanter werden.

2. Fog Computing für die Ära des IoT (Internet of Things)
Fog Computing oder Distributed Computing (geografisch verteilt über heterogene Plattformen) ist ein neues Technologiemodell, das Cloud Computing um Network Edge (auf Geräteebene Router und Switches und auf Netzebene 3G) erweitert. Ähnlich wie die Cloud bietet ein Fog Daten-, Rechen-, Storage- und Application Services. Der Unterschied: ein Fog konzentriert Daten, Prozesse und Applikationen in Devices, unterstützt geografische Verteilung und Mobilfunk. Konzentriert meint, dass die Daten lokal in Smart Devices verarbeitet anstatt zur Verarbeitung in die Cloud gesandt werden. Services werden auf Network Appliance gehostet oder direkt auf Geräten wie Set-Top-Boxen oder Access Points. In einer Fog Computing-Umgebung würde ein großer Teil der Verarbeitung also direkt z.B. in einem Router stattfinden anstatt die Daten zu übertragen.
Cloud und Fog Computing konkurrieren nicht miteinander, sondern Fog Computing ist ein Ansatz für den Umgang mit den Anforderungen der ständig steigenden Anzahl an Internet-verbundenen Geräten. Damit ist Fog eine Erweiterung der Cloud im Zeitalter des „Internet of Things“ (IoT). IoT erfordert nämlich eine neue Schichtenarchitektur, die Edge Computing unterstützt. Einige IoT Cloud Provider setzen Fog Computing um, indem sie eigene Clients auf Netzwerk Appliances installieren.
Fazit: Fog Computing ist besser gerüstet für die zukünftigen Anforderungen als Cloud Computing. Es wird deshalb auch 2016 eine immer entscheidendere Rolle im Internet of Things spielen. Während das theoretische Konzept schon sehr weit ist, müssen für den Praxiseinsatz noch offene Fragen wie Sicherheit, Vertraulichkeit und Zuverlässigkeit geklärt werden. Das Fog-Thema wird aber wachsen, da es hilft, die neuen Network-Paradigmen mit schnellerer Datenverarbeitung und weniger Verzögerungen bei der Übertragung zu erfüllen. Trotzdem wird Cloud Computing mit seinen High-end Computing-Anforderungen seine Daseinsberechtigung für Unternehmen nicht verlieren.

3. Neue Intel-Prozessoren: Performance-Schub für Software-Defined Storage
Bei den Prozessoren für Cloud- und Storage-Server will Intel dem Konkurrenten ARM nicht das Feld überlassen: ab 2016 sollen neue Xeon-D-Prozessen den weit verbreiteten ARM-SoCs-Produkten Paroli bieten. Intels Storage-CPUs sind besonders interessant für SDS-Software (Software-Defined-Storage) wie zum Beispiel Ceph oder openATTIC. Bei Ceph hat der OSD-Prozess der Festplatte Auswirkungen auf die CPU-Auslastung, da er I/O zwischen Netzwerk und HDD produziert. Wenn Aufgaben wie „Erasure Coding“ oder On-Disk-Verschlüsselung ausgeführt werden, steigt die CPU-Auslastung stark an.
Den Markt aufmischen dürfte Intels Open Source-Initiative. Intel greift mit zwei Open Source-Kits den Entwicklern von Software für Storage- und Netzwerksysteme unter die Arme: Die Storage Acceleration Library beschleunigt Speicher-Aufgaben, wodurch Prozessoren wie der Xeon D-1500 eine besonders hohe Performance liefern sollen können. Zusätzlich bietet Intel ein Storage Performance Development Kit an, um High Performance und skalierbare Storage Anwendungen zu entwickeln. Beide Pakete stehen unter einer Open Source Lizenz, damit „Software-Architekten und Entwickler ihre Storage Lösungen optimieren“ können.
Fazit: SDS setzt auf Standard-Hardware. Wenn Intel mit seinen Storage-Prozessoren explizit SDS-Applikationen unterstützt, dann wird die Hardware für diese Lösungen immer leistungsfähiger und dank Intels Marktdurchdringung auch preiswerter. Zudem fördert Intel mit seinen Open Source Developer Tools die Storage-Software Entwicklung auf Intel Basis. Die Luft für proprietäre und hochpreisige HW-Storage Hersteller dürfte damit 2016 dünner werden.

4. Hybrid Cloud verzögert sich oder: Cloud-Centric Design wird eine Notwendigkeit
Hybrid Clouds sind für Unternehmen vor allem deshalb attraktiv, weil die Anwendungsausführung so weit wie möglich in der IT des Unternehmens selbst erfolgt. Nur zu hohen Lastzeiten wird die Abarbeitung in eine öffentliche Cloud ausgelagert. Mit der richtigen Software bieten Hybrid Clouds damit Unternehmen die Möglichkeit, ihre Rechenzentren zu verkleinern, Kosten zu senken und die Energieeffizienz zu verbessern.
Was sich für viele CIOs in der Theorie nach einer idealen Lösung anhört, hat in der Praxis leider einige Ecken und Kanten. Das hauptsächliche Problem besteht darin, dass die meisten Anwendungen noch nicht auf eine derartige Auslagerung ausgelegt sind. Unternehmen können nur dann in vollem Umfang vom Konzept der Hybrid Clouds profitieren, wenn ihre Software auch Cloud-Architekturen unterstützt. Das ist aber in den meisten Anwenderfirmen noch nicht der Fall. Laut Gartner werden in den nächsten Jahren mehr als 60% der Cloud-Projekte darin bestehen, bei bestehenden Anwendungen erneut die Cloud-Unterstützung zu implementieren.
Fazit: Um das Potential eines Cloud-Modells voll auszunutzen, müssen Anwendungen mit den besonderen Eigenschaften, Limitierungen und Chancen des Cloud-Modells im Hinterkopf neu konzipiert werden. Unternehmen sind 2016 gut beraten, wenn sie ihren Fokus nicht länger auf die Migration der Enterprise Workloads richten, sondern zukünftig mehr in die Schaffung von Cloud-optimierten Applikationen (Cloud-Centric Design) investieren. Erst dann können sie das volle Leistungsvermögen der Cloud ausschöpfen.

5. Der hinterherhinkende Trend: Virtuelle und softwarekonfigurierbare Netzwerke
Daten und Anwendungen wandern zunehmend in die Cloud. Notwendig ist daher ein stabiles Netzwerk, das diese Datenflut sicher zur Verfügung stellt. Virtuelle Netzwerke sind der fehlende Baustein, damit Unternehmen Virtualisierung vollständig nutzen können.
Das aktuelle Netzwerkdesign ist für feste Muster, vorhersehbare Bandbreite und gut definierte Endpunkte optimiert. Für die Anforderungen in der Vergangenheit reicht das aus, aber heute müssen viele Server, Services, Data Stores und Clouds, inklusive Mobilgeräten unterstützt werden – und das weltweit verteilt und mit schwankenden Datenvolumina. Software-Defined Network (SDN) hilft, diese neuen Anforderungen und ihre Komplexität in den Griff zu bekommen. Dazu kommen u.a. Workload-Monitoring, programmierbare Weiterleitungen und automatische Switch-Konfigurationen zum Einsatz.
Fazit: Softwarekonfigurierbare Netzwerke bzw. virtuelle Netzwerke werden in Zukunft die Unternehmensnetze revolutionieren. Infrastrukturen, bei denen die Funktionsebenen eines Netzwerkes in virtuelle Services ausgelagert werden, bilden die grundlegende Basis für moderne Technologien wie Software-Defined Datacenter (SDDC), Cloud Computing, Virtualisierung oder Big Data.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Von OTRS spaltet sich ein Fork ab

Die Chemnitzer Firma c.a.p.e IT GmbH wird ihr seit Jahren entwickeltes OTRS Addon-Produkt KIX4OTRS von OTRS lösen und als Fork unter dem Namen KIX weiterentwickeln.

Endlich kommt etwas Bewegung in den sehr eintönigen Open Source Ticketing Markt. Zwar erfreut sich auch Request Tracker (häufig auch RT abgekürzt) großer Beliebtheit, jedoch bleibt es hinter den Möglichkeiten eines OTRS deutlich zurück. Es bleibt abzuwarten, ob die c.a.p.e IT GmbH den großen aufwändigen Maintenance Aufgaben gewachsen ist. Ein gutes Standing in der Community hat die c.a.p.e IT GmbH schon mal. Ich wünsche Ihnen viel Erfolg bei dieser Mammutaufgabe.

Einen umfassenden Blog Post zu diesem Thema finden Sie auf der Webseite der Open Source Business Alliance: http://osb-alliance.de/von-otrs-spaltet-sich-ein-fork-ab/

 

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

OTRS 5 ist erschienen

Vor kurzem hat OTRS die 5. Version seiner Software veröffentlicht. Benutzer des Ticketsystems wird das freuen, denn OTRS hat dadurch stark an Benutzerfreundlichkeit gewonnen. Insbesondere in den Bereichen Darstellung auf mobilen Endgeräten, Statistiken und Durchsuchen von Listen hat der Hersteller nachgebessert. 

OTRS 5 ist erstmals mobil geworden: die Software weist durchgehend ein „Responsive Design“ auf, sodass sich Nutzer mobiler Endgeräte jetzt die gesamte Oberfläche des Ticketsystems platzsparend und übersichtlich im mobilen Browser darstellen können. Dadurch kann man komplett auf die App verzichten. Das Hauptmenü lässt sich jederzeit links einblenden, Eigenschaften eines Tickets klappen rechts bei Bedarf aus.

Im Bereich Listen hat OTRS alle verwendeten Listen und Drop-Down-Felder durch Einfach- und Mehrfachauswahlen ersetzt, die sich sehr leicht durchsuchen lassen. Das macht sich insbesondere in sehr langen Listen positiv bemerkbar. Musste man früher noch recht lange scrollen, was insbesondere auf Mobilgeräten für Unmut sorgte, tippt man nun einfach drauf los und bekommt die passenden Suchergebnisse sofort präsentiert.

Ticket-Ansicht in der mobilen Darstellung in OTRS 5

Auch das Anhängen von Dokumenten ist in der neuen Version einfacher geworden: Dateien lassen sich jetzt einfach per Drag-and-Drop in allen gängigen Browsern anfügen. In der Ticket-Ansicht wurden außerdem thematisch zusammengehörige Aktionen in Gruppen zusammengefasst, was die Übersichtlichkeit weiter erhöht.

Neues Statistikmodul
Wer im Arbeitsalltag häufig auf Statistiken zurückgreifen muss, wird sich über das komplett überarbeitete Statistikmodul freuen (siehe Abbildung unten). Es ist in der neuen Version so leicht wie nie zuvor zu bedienen. So können z.B. die Achsen von Diagrammen oder Filter leicht durch Anklicken der entsprechenden Bereiche geändert werden und müssen nicht wie früher Schritt für Schritt durchlaufen werden. Das Ergebnis der Änderungen sieht man sofort in einer Vorschau.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Marshmellow SAP II: CCMS ist tot, es lebe Wily!

SAP setzt seit kurzem Wily Introscope als Monitoring-Tool ein, das alte Überwachungssystem CCMS wird nicht mehr unterstützt. Nachdem es im ersten Teil der SAP-Monitoring-Reihe um SAP und seine Komponenten selbst ging, widme ich mich in diesem Beitrag Wily Introscope, der neuen Überwachungsschicht im vielschichten “Marshmellow SAP”.

Sie kennen das. Man nimmt sich vor alle zwei Wochen einen Blog-Artikel zu schreiben und plötzlich stehen wieder die üblichen drei Zeitfresser vor der Tür: Projekte, Notfälle, Feiertage. Inspiriert durch den Aufhänger des letzten Blogposts, habe ich am 1. Mai seit vielen, vielen Jahren mal wieder einen Marshmellow gebraten. Dabei musste ich feststellen, dass der oft zitierte Weg das Ziel ist: Die Freude überwiegt beim Brutzeln – ein Gaumenschmaus ist der fertige Marshmellow hingegen nicht. Das ist so ein bisschen wie bei der Ankündigung eines SAP-Monitoring Whitepapers (unser Marshmellow aus Teil 1). Die Vorfreude ist immer größer als das Lesevergnügen. Denn die Erkenntnis aus diesen Pamphleten ist oft mit viel Arbeit verbunden: Notwendige Umstellungen auf neue Releases und die Einarbeitung in neue Architekturen und Sachverhalte.

Das werde ich Ihnen auch bei unserem Whitepaper nicht ersparen können, denn es behandelt die einschneidenden Veränderung, die SAP für das Monitoring ab der Solution Manager Version 7.1 für uns bereithält. SAP setzt zukünftig nicht mehr auf das betagte CCMS (Computer Center Management System), das Sie über die Transaktion RZ20 aufrufen. SAP hat einen Pakt mit dem Technologiepartner CA (Computer Associates) geschlossen und Wily Introscope als neue Monitoring-Infrastruktur eingeführt.

Die guten alten CCMS-Knoten werden über kurz oder lang nicht mehr nutzbar sein und alle Lösungspartner, die auf diese Technologie gesetzt haben, müssen sich etwas einfallen lassen. Die einen machen es sich einfach und „möchten sich Wily erst mal eine Weile anschauen, um zu sehen, ob es sich durchsetzt“. Andere haben die Zeit genutzt und sich auf die neue Welt eingestellt. Denn CCMS wird definitiv nicht mehr weiterentwickelt und Wily ist die Zukunft. Da beißt die Maus keinen Faden ab.

Ein großer Unterschied zwischen dem Monitoring in der alten CCMS- und der neuen Wily Introscope-Architektur ist, dass der Großteil der Konfiguration zentral über den Solution Manager durchgeführt werden kann. Sogenannte Diagnostics Agents, die direkt auf den SAP Systemen installiert werden, senden die Messergebnisse direkt an den SmartStore des Wily Introscope. Interessant dabei ist, dass neben der Zuweisung einzelner Metriken auch eine Massenverwaltung über Templates möglich ist. Dazu können mehrere Metriken zu einem Metrik-Template zusammengefasst und auf die entsprechenden Systeme ausgerollt werden. Über das Frontend des Wily Introscope Enterprise Manager hat man die Möglichkeit, sich die gesammelten Daten jeglicher Systeme, die in das Monitoring aufgenommen wurden, visualisiert anzeigen zu lassen, zum Beispiel in Form eines Graphen.

Viel mehr Details zu diesem Thema finden Sie in unserem Whitepaper. Da Vorfreude die schönste Freude ist, werden wir das Paper erst mit dem nächsten Blogartikel bereitstellen Damit ich Sie aber heute nicht enttäuscht zurücklasse, hier noch ein kleines Zuckerl: in der vergangenen Woche gab es ein Webinar zum Thema SAP-Monitoring mit Open Source statt. Am Beispiel des Nagios-basierten Frameworks openITCOCKPIT wird die Überwachung von und mit Wily gezeigt. Eine Aufzeichnung finden Sie hier. Beste Grüße und bis zum nächsten Mal!

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Marshmellow SAP: Artikelreihe zum neuen Solution Manager

Wie der Marshmellow im Smore: So fühlt man sich oft, wenn man SAP einsetzt. SAP bedienen kann jeder, SAP bereitstellen, überwachen und warten aber nur der Experte. Das System ist derartig komplex, dass es schon lange nicht mehr von Generalisten gewartet werden kann. In einer dreiteiligen Artikelreihe werde ich das Marshmellow-Sandwich SAP auseinander nehmen. Dabei wird es u.a. um die neue Architektur des SAP-Monitorings und Integrationsmöglichkeiten in Open Source-Anwendungen gehen. Ein (fast) echtes Marshmellow gibt es als Dreingabe: Der völlig aktualisierte Nachfolger unseres SAP-Monitoring-Whitepapers.
In diesem Beitrag geht es zunächst um SAP selbst: Der Software-Konzern aus Walldorf hat einerseits in Sachen Standardisierung von IT-gestützten Geschäftsprozessen Maßstäbe gesetzt und Fachanwendern das Leben deutlich erleichtert. Andererseits ist es für Basis-Administratoren und Modulbetreuer ein riesiger Kraftakt, die notwendigen Voraussetzungen im Backend zu schaffen. SAP ist komplex, sehr komplex. Woher kommt aber die Komplexität, die Anwendern wie Experten graue Haare beschert?

Rufen wir uns die Anfänge von SAP in Erinnerung: SAP R/3 (später SAP ERP) bestand bis in die 2000er hinein hauptsächlich aus den ERP Central Components (ECC) FI (Finance), CO (Controlling), MM (Materials Management), SD (Sales and Distribution), PP (Production Planning) und HR (Human Resources).

Erweiterungen wie beispielsweise CRM, BW und SCM sowie Branchenlösungen (die liebevoll IS genannt wurden, was für Industrie Standards steht) kamen später hinzu und wurden an ECC angedockt. Wo viele Funktionalitäten und Programmteile wie Pilze aus dem Boden sprießen, da wachsen aber auch die Anforderungen an das Backend – insbesondere an das Monitoring. Nur wer das Backend von SAP umfassend überwacht, kann seine Geschäftsprozesse stabil betreiben.

Die Folge davon war, dass im Laufe der Jahre viele SAP-Applikationen mit ihren eigenen Pflege- und Wartungs-Tools entstanden sind. Für eine (oft überlastete) SAP-Basismannschaft waren sie irgendwann kaum mehr zu überblicken. Spätestens bei Einführung des Solution Managers musste daher die gute alte Pfadfinderausrüstung wieder herhalten.

Der Solution Manager 7.1 stellt die Überwachung von SAP-Landschaften auf den Kopf, denn das etwas in die Jahre gekommene CCMS (Computer Center Management System – über die RZ20 Transaktion zu erreichen) wird von SAP nicht mehr strategisch weiterverfolgt. Eine neue Überwachungsarchitektur hält in Walldorf Einzug, wodurch die ausgetrampelten Monitoring-Pfade plötzlich wieder steinig werden.

Was der Solution Manager konkret bringt, lesen Sie in den nächsten Beiträgen der Reihe. In zwei Wochen möchte ich hier Wiley vorstellen und klären, ob er ein würdiger CCMS-Nachfolger ist. Es lohnt sich also, dran zu bleiben.

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar

Neulich im Onlineshop

Ich bin vor knapp fünf Monaten Vater geworden. Wenn mir derzeit etwas fehlt, dann ist es Zeit. Das ist auch gar nicht schlimm, denn was man dafür gewinnt, wiegt jede Einschränkung auf.

Dennoch: Was tut man, wenn man aus den fünf Monate alten Hosen horizontal herausgewachsen ist und keine Zeit für einen ausgedehnten Stadtbummel hat? Richtig. Man besucht einen Onlineshop.

Gesagt, getan, geschaut und gekauft?

Weit gefehlt, es war mir nicht vergönnt, denn der Warenkorb funktionierte über Stunden nicht. Die Folge daraus, ich war schlecht gelaunt und der Versandhändler hatte weniger Umsatz. Keine Ahnung wie viele Kunden genau wie ich in diesem Moment enttäuscht aufgegeben haben. Mir stellt sich natürlich die Frage: Haben die kein ordentliches Monitoringtool im Einsatz? Mit Sicherheit  haben sie eines, denn zur Überwachung ist es essentiell wichtig, ein Systemmonitoring in der IT-Landschaft zu betreiben. Meines Erachtens reicht es alleine jedoch  nicht aus, da es Anwendung-Szenarien gibt, bei denen es niemand merkt, wenn sie nicht funktionieren z. B.  wie in meinem Fall der „Jetzt Kaufen“-Button im Warenkorb.

Der Ärger hätte dem Onlinehändler und mir erspart bleiben können

In meiner Auffassung ist ein E2E-Monitoring der zweite wichtige Baustein, da er die Sicht auf die Anwendung komplettiert und auf dem Systemmonitoring als nächsthöhere Stufe aufsetzt. Das End-to-End Monitoring vereint zwei Lösungsansätze: die Messung der Service-Performance mit Robotersystemen welche in regelmäßigen Zeitabläufen immer wieder „typische“ Anwender-Transaktionen durchführen und die Echtzeitmessung der Performance aller Transaktionen aus der Endanwendersicht. Die Verfügbarkeitsprüfung der Transaktionen umfasst sowohl die Ausführbarkeit, als auch die Checks nach bestimmten Inhalten. So würde auch der besagte Online Händler einen echten und unverfälschten Blick auf die Verfügbarkeit von Diensten und Services erhalten.

Open Source bietet leistungsstarke Frameworks in diesem Umfeld. Mit AutoIT oder dem simplen httpfox-AddIn im Firefox – Nagios integriert die Messdaten und bietet leistungsstarke Auswertungsmöglichkeiten. Mit mehrwertigen Nagios-FrontEnds wie openITCOCKPIT lassen sich die entsprechenden Events korrelieren und in SLA-Reports auswerten.

Veröffentlicht unter End-2-End, Monitoring | Hinterlasse einen Kommentar

IT-Steuerung ist der erste Schritt zu ITIL

Ich sitze gerade im Zug nach Stuttgart. Nichts geht mehr – der Zug steht. Der einbrechende Eisregen hat das Schienensystem lahmgelegt. Zum Glück habe ich einen Platz mit Aussicht: Auf dem nahen Fabrikgelände bemüht sich ein Gabelstaplerfahrer nach Kräften, einen Kleincontainer bei wildem Schneetreiben aufzuladen. Der Gabelstapler ist offen und das verzerrte Gesicht des Steuermannes verrät, dass es da draußen ziemlich kalt ist. Im wohltemperierten Halleneingang stehen zwei Arbeiter, die ihrem Kollegen über die Ferne etwas zurufen und es offensichtlich besser wissen als er. Unweigerlich muss ich an den typischen Rechenzentrumsbetrieb denken.

Hier verhält es sich meistens so, dass im Verhältnis 2:1 auf denjenigen eingeredet wird, der so viel Hintern in der Hose hat, um die ganzen Befehle auf das Produktivsystem abzufeuern. Mit dem nötigen Druck geht das dann sicher schief. Ein Leitfaden zur Wiederherstellung eines Systems wäre jetzt hilfreich gewesen, ein Testsystem auch – das stellt jetzt sogar der arme Admin fest. Jetzt ist es nachts um drei, aber immerhin steht jetzt keiner mehr hinter ihm. Nun ist seine Müdigkeit verantwortlich für die vielen Fehler. Was für ein Tag! Dabei war es nicht mal er, der die Meldung über den ausgefallenen IT-Service vom Kunden entgegennahm. Aber was hilft es schon, sich zu beschweren – wahrscheinlich wurde die Anforderung zur Einrichtung eines entsprechenden Checks wieder per Mail an einen der vielen Burnout-geschädigten Langzeitkranken gesendet.

Reflexartiger Gedanke: Da muss man mal ITIL einführen! Aber ITIL alleine schützt vor solchen Situationen nicht. Das Niederschreiben von Prozessen bedeutet nämlich nicht, dass sie auch gelebt werden. Oft wird ITIL nur zur Absicherung eingeführt und verfolgt wenig praktischen Bezug. ISO-Zertifizierungen bekommt man damit auf jeden Fall – einen stabilen IT-Betrieb nicht zwangsläufig. ITIL ist eine Bibliothek von Best Practices, also Empfehlungen, wie man mit seinen IT-Prozessen idealerweise umgehen sollte. Aber eine Prozessbeschreibung ist aufwändig. Und wir alle wissen, dass viel Text deshalb aufgeschrieben wird, weil man nicht alles behalten kann. Merken Sie was?

Was der arme Admin braucht, ist IT-Steuerung. Um IT aktiv zu steuern, benötigen Sie IT-gestützte Prozesse. Aber was heißt das eigentlich? “Tools einführen” ist out. Man implementiert Arbeitsvorgänge, die über miteinander integrierte Applikationen gestützt werden. Die Werkzeuge folgen dem Prozess und nicht die Prozesse dem Werkzeug. Und das bedeutet: IT-Mitarbeiter müssen keine ITIL-Handbücher mehr lesen, weil sie aus einer entsprechenden Vorgehensweise nicht ausbrechen können. Die Tools geben nämlich die Arbeitsvorgänge vor. Dieser Ansatz setzt natürlich eine hohe Flexibilität der jeweiligen Applikationen voraus. Also ein Heimspiel für Open Source.

Klingt zu einfach? Ok, hier ein Anwendungsbeispiel, das unserem eingangs erwähnten Admin geholfen hätte:
Ein zentrales Monitoring-System meldet zielgerichtet eine hohe Antwortzeit eines SAP-Dienstes an das Ticketsystem. Das funktioniert deshalb so gut, weil die in der Configuration Management Database gepflegten Servicebäume mit den Host- und Service-Abhängigkeiten des Überwachungssystems automatisiert abgeglichen werden. Der Helpdesk-Mitarbeiter sieht das Ticket und wird sofort aktiv. Er grenzt den Fehler mit einem Blick auf die Monitoring Dashboards ein. Durch die zentrale Servicedokumentation mit entsprechenden Wiederherstellungsplänen kann der 1st Level Support eine Workorder an das Provisioning-Team stellen. Das passiert über das im Ticketsystem integrierte Changemanagement. Das Provisioning-Team bringt eine neue virtuelle Maschine aus, die einen Teil der Last des problematischen Dienstes übernimmt. Im Hintergrund wird die neue VM übrigens direkt ins Monitoring eingebracht und im ITSM eine Aufgabe angelegt, dass ein Wiederherstellungsplan angelegt werden muss. Daran wird der Admin zwei Mal erinnert, bis sein Manager diese Info erhält.

Ohne zu übertreiben: Open Source macht den Traum von Prozesssicherheit durch Automatisierung möglich – ganz ohne eisige Kostenstürme in innovationsfeindlichen Umgebungen.

Veröffentlicht unter ITIL, ITSM, Servicemanagement | Hinterlasse einen Kommentar

Hallo Open Source Welt!

Warum zum Teufel ein weiterer Blog zum Thema Open Source? Ganz einfach. Open Source gewinnt in den letzten Jahren zunehmend an Relevanz – nicht zuletzt, weil Open Source endlich in geschäftskritischen Bereichen angekommen ist. Und genau in diesem Umfeld wird kaum gebloggt. Technische Beiträge gibt es zuhauf. Es wird viel geconft und gecodet. Aber worauf es bei dem Betrieb von Open Source in Enterprise Rechenzentren ankommt, wird wenig behandelt.

Und das ruft mich auf den Plan. Mein Name ist Steffen Rieger. Mit 15 jähriger Erfahrung im Datacenter-Betrieb eines börsennotierten Konzerns in leitender Tätigkeit, hoher Affinität zu Servicemanagement nach ITIL und Expertise durch Leitung von zahlreichen Open Source Projekten, möchte ich einen Beitrag zum Thema “Business Open Source für das Datacenter-Backend” leisten.

Steffen Rieger

Veröffentlicht unter Allgemein | Hinterlasse einen Kommentar