Marshmellow SAP II: CCMS ist tot, es lebe Wily!

September 26th, 2013

SAP setzt seit kurzem Wily Introscope als Monitoring-Tool ein, das alte Überwachungssystem CCMS wird nicht mehr unterstützt. Nachdem es im ersten Teil der SAP-Monitoring-Reihe um SAP und seine Komponenten selbst ging, widme ich mich in diesem Beitrag Wily Introscope, der neuen Überwachungsschicht im vielschichten “Marshmellow SAP”.

Sie kennen das. Man nimmt sich vor alle zwei Wochen einen Blog-Artikel zu schreiben und plötzlich stehen wieder die üblichen drei Zeitfresser vor der Tür: Projekte, Notfälle, Feiertage. Inspiriert durch den Aufhänger des letzten Blogposts, habe ich am 1. Mai seit vielen, vielen Jahren mal wieder einen Marshmellow gebraten. Dabei musste ich feststellen, dass der oft zitierte Weg das Ziel ist: Die Freude überwiegt beim Brutzeln – ein Gaumenschmaus ist der fertige Marshmellow hingegen nicht. Das ist so ein bisschen wie bei der Ankündigung eines SAP-Monitoring Whitepapers (unser Marshmellow aus Teil 1). Die Vorfreude ist immer größer als das Lesevergnügen. Denn die Erkenntnis aus diesen Pamphleten ist oft mit viel Arbeit verbunden: Notwendige Umstellungen auf neue Releases und die Einarbeitung in neue Architekturen und Sachverhalte.

Das werde ich Ihnen auch bei unserem Whitepaper nicht ersparen können, denn es behandelt die einschneidenden Veränderung, die SAP für das Monitoring ab der Solution Manager Version 7.1 für uns bereithält. SAP setzt zukünftig nicht mehr auf das betagte CCMS (Computer Center Management System), das Sie über die Transaktion RZ20 aufrufen. SAP hat einen Pakt mit dem Technologiepartner CA (Computer Associates) geschlossen und Wily Introscope als neue Monitoring-Infrastruktur eingeführt.

Die guten alten CCMS-Knoten werden über kurz oder lang nicht mehr nutzbar sein und alle Lösungspartner, die auf diese Technologie gesetzt haben, müssen sich etwas einfallen lassen. Die einen machen es sich einfach und „möchten sich Wily erst mal eine Weile anschauen, um zu sehen, ob es sich durchsetzt“. Andere haben die Zeit genutzt und sich auf die neue Welt eingestellt. Denn CCMS wird definitiv nicht mehr weiterentwickelt und Wily ist die Zukunft. Da beißt die Maus keinen Faden ab.

Ein großer Unterschied zwischen dem Monitoring in der alten CCMS- und der neuen Wily Introscope-Architektur ist, dass der Großteil der Konfiguration zentral über den Solution Manager durchgeführt werden kann. Sogenannte Diagnostics Agents, die direkt auf den SAP Systemen installiert werden, senden die Messergebnisse direkt an den SmartStore des Wily Introscope. Interessant dabei ist, dass neben der Zuweisung einzelner Metriken auch eine Massenverwaltung über Templates möglich ist. Dazu können mehrere Metriken zu einem Metrik-Template zusammengefasst und auf die entsprechenden Systeme ausgerollt werden. Über das Frontend des Wily Introscope Enterprise Manager hat man die Möglichkeit, sich die gesammelten Daten jeglicher Systeme, die in das Monitoring aufgenommen wurden, visualisiert anzeigen zu lassen, zum Beispiel in Form eines Graphen.

Viel mehr Details zu diesem Thema finden Sie in unserem Whitepaper. Da Vorfreude die schönste Freude ist, werden wir das Paper erst mit dem nächsten Blogartikel bereitstellen Damit ich Sie aber heute nicht enttäuscht zurücklasse, hier noch ein kleines Zuckerl: in der vergangenen Woche gab es ein Webinar zum Thema SAP-Monitoring mit Open Source statt. Am Beispiel des Nagios-basierten Frameworks openITCOCKPIT wird die Überwachung von und mit Wily gezeigt. Eine Aufzeichnung finden Sie hier. Beste Grüße und bis zum nächsten Mal!

Marshmellow SAP: Artikelreihe zum neuen Solution Manager

Mai 28th, 2013

Wie der Marshmellow im Smore: So fühlt man sich oft, wenn man SAP einsetzt. SAP bedienen kann jeder, SAP bereitstellen, überwachen und warten aber nur der Experte. Das System ist derartig komplex, dass es schon lange nicht mehr von Generalisten gewartet werden kann. In einer dreiteiligen Artikelreihe werde ich das Marshmellow-Sandwich SAP auseinander nehmen. Dabei wird es u.a. um die neue Architektur des SAP-Monitorings und Integrationsmöglichkeiten in Open Source-Anwendungen gehen. Ein (fast) echtes Marshmellow gibt es als Dreingabe: Der völlig aktualisierte Nachfolger unseres SAP-Monitoring-Whitepapers.
In diesem Beitrag geht es zunächst um SAP selbst: Der Software-Konzern aus Walldorf hat einerseits in Sachen Standardisierung von IT-gestützten Geschäftsprozessen Maßstäbe gesetzt und Fachanwendern das Leben deutlich erleichtert. Andererseits ist es für Basis-Administratoren und Modulbetreuer ein riesiger Kraftakt, die notwendigen Voraussetzungen im Backend zu schaffen. SAP ist komplex, sehr komplex. Woher kommt aber die Komplexität, die Anwendern wie Experten graue Haare beschert?

Rufen wir uns die Anfänge von SAP in Erinnerung: SAP R/3 (später SAP ERP) bestand bis in die 2000er hinein hauptsächlich aus den ERP Central Components (ECC) FI (Finance), CO (Controlling), MM (Materials Management), SD (Sales and Distribution), PP (Production Planning) und HR (Human Resources).

Erweiterungen wie beispielsweise CRM, BW und SCM sowie Branchenlösungen (die liebevoll IS genannt wurden, was für Industrie Standards steht) kamen später hinzu und wurden an ECC angedockt. Wo viele Funktionalitäten und Programmteile wie Pilze aus dem Boden sprießen, da wachsen aber auch die Anforderungen an das Backend – insbesondere an das Monitoring. Nur wer das Backend von SAP umfassend überwacht, kann seine Geschäftsprozesse stabil betreiben.

Die Folge davon war, dass im Laufe der Jahre viele SAP-Applikationen mit ihren eigenen Pflege- und Wartungs-Tools entstanden sind. Für eine (oft überlastete) SAP-Basismannschaft waren sie irgendwann kaum mehr zu überblicken. Spätestens bei Einführung des Solution Managers musste daher die gute alte Pfadfinderausrüstung wieder herhalten.

Der Solution Manager 7.1 stellt die Überwachung von SAP-Landschaften auf den Kopf, denn das etwas in die Jahre gekommene CCMS (Computer Center Management System – über die RZ20 Transaktion zu erreichen) wird von SAP nicht mehr strategisch weiterverfolgt. Eine neue Überwachungsarchitektur hält in Walldorf Einzug, wodurch die ausgetrampelten Monitoring-Pfade plötzlich wieder steinig werden.

Was der Solution Manager konkret bringt, lesen Sie in den nächsten Beiträgen der Reihe. In zwei Wochen möchte ich hier Wiley vorstellen und klären, ob er ein würdiger CCMS-Nachfolger ist. Es lohnt sich also, dran zu bleiben.

Neulich im Onlineshop

Februar 26th, 2013

Ich bin vor knapp fünf Monaten Vater geworden. Wenn mir derzeit etwas fehlt, dann ist es Zeit. Das ist auch gar nicht schlimm, denn was man dafür gewinnt, wiegt jede Einschränkung auf.

Dennoch: Was tut man, wenn man aus den fünf Monate alten Hosen horizontal herausgewachsen ist und keine Zeit für einen ausgedehnten Stadtbummel hat? Richtig. Man besucht einen Onlineshop.

Gesagt, getan, geschaut und gekauft?

Weit gefehlt, es war mir nicht vergönnt, denn der Warenkorb funktionierte über Stunden nicht. Die Folge daraus, ich war schlecht gelaunt und der Versandhändler hatte weniger Umsatz. Keine Ahnung wie viele Kunden genau wie ich in diesem Moment enttäuscht aufgegeben haben. Mir stellt sich natürlich die Frage: Haben die kein ordentliches Monitoringtool im Einsatz? Mit Sicherheit  haben sie eines, denn zur Überwachung ist es essentiell wichtig, ein Systemmonitoring in der IT-Landschaft zu betreiben. Meines Erachtens reicht es alleine jedoch  nicht aus, da es Anwendung-Szenarien gibt, bei denen es niemand merkt, wenn sie nicht funktionieren z. B.  wie in meinem Fall der „Jetzt Kaufen“-Button im Warenkorb.

Der Ärger hätte dem Onlinehändler und mir erspart bleiben können

In meiner Auffassung ist ein E2E-Monitoring der zweite wichtige Baustein, da er die Sicht auf die Anwendung komplettiert und auf dem Systemmonitoring als nächsthöhere Stufe aufsetzt. Das End-to-End Monitoring vereint zwei Lösungsansätze: die Messung der Service-Performance mit Robotersystemen welche in regelmäßigen Zeitabläufen immer wieder „typische“ Anwender-Transaktionen durchführen und die Echtzeitmessung der Performance aller Transaktionen aus der Endanwendersicht. Die Verfügbarkeitsprüfung der Transaktionen umfasst sowohl die Ausführbarkeit, als auch die Checks nach bestimmten Inhalten. So würde auch der besagte Online Händler einen echten und unverfälschten Blick auf die Verfügbarkeit von Diensten und Services erhalten.

Open Source bietet leistungsstarke Frameworks in diesem Umfeld. Mit AutoIT oder dem simplen httpfox-AddIn im Firefox – Nagios integriert die Messdaten und bietet leistungsstarke Auswertungsmöglichkeiten. Mit mehrwertigen Nagios-FrontEnds wie openITCOCKPIT lassen sich die entsprechenden Events korrelieren und in SLA-Reports auswerten.

IT-Steuerung ist der erste Schritt zu ITIL

Februar 15th, 2013

Ich sitze gerade im Zug nach Stuttgart. Nichts geht mehr – der Zug steht. Der einbrechende Eisregen hat das Schienensystem lahmgelegt. Zum Glück habe ich einen Platz mit Aussicht: Auf dem nahen Fabrikgelände bemüht sich ein Gabelstaplerfahrer nach Kräften, einen Kleincontainer bei wildem Schneetreiben aufzuladen. Der Gabelstapler ist offen und das verzerrte Gesicht des Steuermannes verrät, dass es da draußen ziemlich kalt ist. Im wohltemperierten Halleneingang stehen zwei Arbeiter, die ihrem Kollegen über die Ferne etwas zurufen und es offensichtlich besser wissen als er. Unweigerlich muss ich an den typischen Rechenzentrumsbetrieb denken.

Hier verhält es sich meistens so, dass im Verhältnis 2:1 auf denjenigen eingeredet wird, der so viel Hintern in der Hose hat, um die ganzen Befehle auf das Produktivsystem abzufeuern. Mit dem nötigen Druck geht das dann sicher schief. Ein Leitfaden zur Wiederherstellung eines Systems wäre jetzt hilfreich gewesen, ein Testsystem auch – das stellt jetzt sogar der arme Admin fest. Jetzt ist es nachts um drei, aber immerhin steht jetzt keiner mehr hinter ihm. Nun ist seine Müdigkeit verantwortlich für die vielen Fehler. Was für ein Tag! Dabei war es nicht mal er, der die Meldung über den ausgefallenen IT-Service vom Kunden entgegennahm. Aber was hilft es schon, sich zu beschweren – wahrscheinlich wurde die Anforderung zur Einrichtung eines entsprechenden Checks wieder per Mail an einen der vielen Burnout-geschädigten Langzeitkranken gesendet.

Reflexartiger Gedanke: Da muss man mal ITIL einführen! Aber ITIL alleine schützt vor solchen Situationen nicht. Das Niederschreiben von Prozessen bedeutet nämlich nicht, dass sie auch gelebt werden. Oft wird ITIL nur zur Absicherung eingeführt und verfolgt wenig praktischen Bezug. ISO-Zertifizierungen bekommt man damit auf jeden Fall – einen stabilen IT-Betrieb nicht zwangsläufig. ITIL ist eine Bibliothek von Best Practices, also Empfehlungen, wie man mit seinen IT-Prozessen idealerweise umgehen sollte. Aber eine Prozessbeschreibung ist aufwändig. Und wir alle wissen, dass viel Text deshalb aufgeschrieben wird, weil man nicht alles behalten kann. Merken Sie was?

Was der arme Admin braucht, ist IT-Steuerung. Um IT aktiv zu steuern, benötigen Sie IT-gestützte Prozesse. Aber was heißt das eigentlich? “Tools einführen” ist out. Man implementiert Arbeitsvorgänge, die über miteinander integrierte Applikationen gestützt werden. Die Werkzeuge folgen dem Prozess und nicht die Prozesse dem Werkzeug. Und das bedeutet: IT-Mitarbeiter müssen keine ITIL-Handbücher mehr lesen, weil sie aus einer entsprechenden Vorgehensweise nicht ausbrechen können. Die Tools geben nämlich die Arbeitsvorgänge vor. Dieser Ansatz setzt natürlich eine hohe Flexibilität der jeweiligen Applikationen voraus. Also ein Heimspiel für Open Source.

Klingt zu einfach? Ok, hier ein Anwendungsbeispiel, das unserem eingangs erwähnten Admin geholfen hätte:
Ein zentrales Monitoring-System meldet zielgerichtet eine hohe Antwortzeit eines SAP-Dienstes an das Ticketsystem. Das funktioniert deshalb so gut, weil die in der Configuration Management Database gepflegten Servicebäume mit den Host- und Service-Abhängigkeiten des Überwachungssystems automatisiert abgeglichen werden. Der Helpdesk-Mitarbeiter sieht das Ticket und wird sofort aktiv. Er grenzt den Fehler mit einem Blick auf die Monitoring Dashboards ein. Durch die zentrale Servicedokumentation mit entsprechenden Wiederherstellungsplänen kann der 1st Level Support eine Workorder an das Provisioning-Team stellen. Das passiert über das im Ticketsystem integrierte Changemanagement. Das Provisioning-Team bringt eine neue virtuelle Maschine aus, die einen Teil der Last des problematischen Dienstes übernimmt. Im Hintergrund wird die neue VM übrigens direkt ins Monitoring eingebracht und im ITSM eine Aufgabe angelegt, dass ein Wiederherstellungsplan angelegt werden muss. Daran wird der Admin zwei Mal erinnert, bis sein Manager diese Info erhält.

Ohne zu übertreiben: Open Source macht den Traum von Prozesssicherheit durch Automatisierung möglich – ganz ohne eisige Kostenstürme in innovationsfeindlichen Umgebungen.

Hallo Open Source Welt!

Dezember 12th, 2012

Warum zum Teufel ein weiterer Blog zum Thema Open Source? Ganz einfach. Open Source gewinnt in den letzten Jahren zunehmend an Relevanz – nicht zuletzt, weil Open Source endlich in geschäftskritischen Bereichen angekommen ist. Und genau in diesem Umfeld wird kaum gebloggt. Technische Beiträge gibt es zuhauf. Es wird viel geconft und gecodet. Aber worauf es bei dem Betrieb von Open Source in Enterprise Rechenzentren ankommt, wird wenig behandelt.

Und das ruft mich auf den Plan. Mein Name ist Steffen Rieger. Mit 15 jähriger Erfahrung im Datacenter-Betrieb eines börsennotierten Konzerns in leitender Tätigkeit, hoher Affinität zu Servicemanagement nach ITIL und Expertise durch Leitung von zahlreichen Open Source Projekten, möchte ich einen Beitrag zum Thema “Business Open Source für das Datacenter-Backend” leisten.

Steffen Rieger