Ab wann lohnt sich IT-Outsourcing? Was gibt es dabei zu bedenken?
Die Server sind der Dreh- und Angelpunkt der elektronischen „Kommunikation“ eines jeden Unternehmens. Ohne den Datentransfer und die Datenverarbeitung der Informationstechnologie (IT) ist der moderne Büroalltag völlig undenkbar geworden. Müssen die dazu notwendigen Server aber unbedingt im Serverraum des eigenen Unternehmens stehen? Warum lagern sämtliche internetabhängige Unternehmen ihre IT früher oder später in ein modernes Rechenzentrum aus? Überlegungen und Tipps von Martin Verges.
Anlass für das IT-Outsourcing sind häufig vermeidbare und kostenintensive IT-Ausfälle, die ganze Firmen lahmlegen können und einem Unternehmen plötzlich die Internetabhängigkeit drastisch vor Augen führen, bis hin zur möglichen Existenzgefährdung des Betriebes. Aber muss denn überhaupt immer erst etwas passieren, bevor etwas passiert? Es gibt einige, wichtige und überzeugende Faktoren, die bereits im Vorfeld ein Nachdenken über die Auslagerung oder sogar einen Anbieterwechsel lohnenswert machen.
Vertrauen zum Rechenzentrumsbetreiber bzw. Colocation-Anbieter ist natürlich die Basis für und vor einem IT-Outsourcing, denn bei einem solchen Vorhaben geht nichts ohne einen verlässlichen Service-Partner. Doch bei den großen Anbietern mit Massendiensten und standardisierten Leistungskatalogen fühlen sich viele Kundengruppen wie beispielsweise Startups oder auch kleine und mittlere Unternehmen (KmU) oft nicht gut aufgehoben. Häufig bieten diese nicht den notwendigen Raum für die individuellen IT-Anforderungen von Unternehmen mit spezialisierten Geschäftsideen aus der Internetwirtschaft. Mittelständler haben darüber hinaus in der Regel besonders hohe Ansprüche an Service-Dienstleistungen und kurzen Reaktionszeiten. Doch diese Vorstellungen passen häufig nicht zur Abfertigungs-Mentalität großer Anbieter. Nicht selten fühlen sich KmU dort nicht ernst genommen, denn persönliche Betreuung wird häufig erst ab einer gewissen Größenordnung angeboten. Völlig zu Unrecht genießen jedoch mittelständische Rechenzentren und Colocation-Anbieter häufig nicht das Vertrauen großer und bekannter Marktteilnehmer. Dabei wird aber oftmals vergessen, dass gerade auf „mittelständischer Augenhöhe“, die gleiche Sprache gesprochen wird: Qualität in allen Leistungsmerkmalen und absolute Kundenorientierung statt Arroganz, Ausreden und Hinhaltetaktiken unter dem bequemen Schutzschirm einer etablierten Marke, unter der es mitunter nicht mehr für nötig gehalten wird, sich kundenorientiert anzustrengen.
Eigener Serverraum versus fremdes Rechenzentrum
Vergleicht man jedoch völlig unvoreingenommen, sozusagen anhand der typischen Szenarien, die zum Ausfall von Servern führen, die Situation, dass die IT-Systeme des Unternehmens im eigenen Serverraum stehen, mit der Situation, wenn sie in einem modernen Rechenzentrum stünden, so ergibt sich bereits mit nur einer Hand von Vorteilen, folgendes Bild:
1. Reaktionszeiten
Aus Erfahrung vergehen vom Auftreten eines Ausfalls bis zu dessen Beseitigung, einschließlich Wiederherstellung aller Daten, bei Kunden mit firmeninterner IT, durchschnittlich ca. 10 Stunden, wenn überhaupt die Hardware-Probleme vor Ort selbst gelöst werden können. Jedoch greifen mehr als die Hälfte aller Unternehmen auf externe Dienstleister zurück. Umfragen zufolge, haben mehr als 60 Prozent aller Unternehmen nach eigener Einschätzung, noch nicht genug unternommen, um die Verfügbarkeit kritischer IT-Systeme wenigstens auf ein Standard-Niveau anzuheben. Fast alle, der damit verbundenen Ausfälle würden aber, aufgrund der infrastrukturellen Aufstellung eines modernen Rechenzentrums, dort gar nicht erst auftreten.
2. Wichtige Gütekriterien
Verfügt man als Unternehmen jederzeit über ausreichend technisches Personal, um z. B. rund um die Uhr Updates einzuspielen, Datensicherung und Daten-Wiederherstellung zu ermöglichen? Ist überhaupt gewährleistet, dass bei (Netzwerk-) Problemen schnellstmöglich eine Lösung umgesetzt werden kann? Die Nutzung des Vorteils fremder Expertise zur proaktiven Fehlervermeidung kann gar nicht hoch genug eingeschätzt werden. Die Komplexität von IT-Systemen nimmt immer weiter zu, bedingt durch immer leistungsfähigere Server-Infrastrukturen. Benötigen werden daher zunehmend Monitoring-Systeme, mit denen alle IT-Komponenten überwacht und gesteuert werden können. Statusmeldungen müssen in Echtzeit zuverlässig übermittelt werden und helfen dabei, bereits im Vorfeld Ausfälle von Komponenten zu erkennen. In einem modernen Colocation-Rechenzentrum stehen hierfür im ganzjährigen 24-Stunden-Betrieb, Fachpersonal und persönliche Ansprechpartner mit kurzen Kommunikationswegen und klaren Verantwortlichkeiten zur Verfügung. Spezialisierte und serviceorientierte Rechenzentren sind sogar durch ein gut sortiertes Warenlager mit allen Komponenten ihrer Kunden bevorratet um nervige Lieferzeiten zu verhindern.
3. Klimatisierung
Server sollten außerdem unbedingt klimatisiert betrieben werden – der nächste heiße Sommer mit Meldungen reihenweiser Server-Ausfällen kommt regelmäßig genau so sicher wie eine große Grippe-Welle im Winter. Die dazu notwendige Klimatisierung sollte aber auch möglichst energie- und damit kosteneffizient sein. Die Daten auf den Servern mögen es darüber hinaus nicht nur gerne kühl sondern gerne auch absolut staubfrei, denn Staubfreiheit ermöglicht Langlebigkeit. Schon der Betrieb eines handelsüblichen Staubsaugers mit einem guten Staubrückhaltevermögen, würde – wegen der Partikelerkennung der Brandfrühesterkennung – in einem modernen Rechenzentrum Alarm auslösen.
4. Unterbrechungsfreier Stromversorgung
Es ist sehr sinnvoll, Server mittels redundant geschalteter, unterbrechungsfreier Stromversorgungseinheiten (USV) zu betreiben, die gegen Ausfälle, Schwankungen und Lastspitzen schützt. Moderne Batterie-Systeme und Dieselgeneratoren würden in einem Rechenzentrum selbst einen tagelangen Stromausfall überbrücken können.
5. Gaslöschanlagen
Es gibt wohl auch kaum ein Unternehmen, welches wasserdichte Server angeschafft hat. In vielen Unternehmen existieren im Brandfall höchstens Sprinkleranlagen. In einem Rechenzentrum wird mit modernen Gaslöschanlagen gearbeitet, die der Informationstechnologie nicht schaden können. Selbst beim größten anzunehmenden Unfall, wie z. B. der völligen Zerstörung der Unternehmens-IT, können die Kunden-Daten in einem Rechenzentrum auf Wunsch durch mehrfach vorhandene Redundanz-Prinzipien geschützt und durch separate Brandabschnitte oder sogar georedundant gespiegelt werden.
6. Daten-Kompromittierungsschutz
Abgestufte Befugnisrechte, mechanisch-baulichen Maßnahmen, elektronische Detektionsmaßnahmen und organisatorisch-personellen Maßnahmen stellen in einem Rechenzentrum sicher, dass interne und externe Daten-Kompromittierung ausgeschlossen ist. Im eigenen Unternehmen ist dies ab einer höheren Mitarbeiterzahl aber nur noch sehr schwer zu leisten.
7. Skalierbare Systeme
Wenn sich durch Unternehmenswachstum oder Marketing-Maßnahmen plötzlich die Anzahl, der gleichzeitig auf einem Server agierenden Nutzer vervielfacht, stößt herkömmliche Unternehmens-IT regelmäßig an ihre Grenzen. In der Regel ist z. B. klassisches Webhosting bereits ab 30 gleichzeitigen Nutzern überfordert. Skalierbare IT-Infrastrukturen und Hochverfügbarkeits-Cluster in Rechenzentren, die sich ohne Ausfallzeiten im laufenden Geschäftsbetrieb anpassen können, bewältigen diese Aufgaben mühelos.
8. DDoS-Schutz
Es gibt im unternehmenseigenen Serverraum keinen wirksamen Schutz vor mutwilligen Überlastangriffen (DDoS). Unter der Wucht solcher DDoS-Angriffe brechen Server, Netz-Infrastrukturen und mitunter auch ganze Rechenzentren zusammen, wenn diese nicht über die notwendigen Bandbreiten in der Außenanbindung verfügen, um große Volumenangriffe zu stemmen. Bei nur gleichbleibender Angriffstendenz und ohne dass ein Unternehmen zu einer besonderen Risikogruppe gehören muss, wird es innerhalb der nächsten 3 Jahre, mindestens einmal von einem DDoS-Angriffs-Szenario betroffen sein. Wenn überhaupt, dann können nur in wenigen Rechenzentren die hohen Investitionen in eine kompromisslos taugliche Schutztechnologie, die sich im oberen sechsstelligen Bereich bewegt, gestemmt werden. Nur in einem zukunftsoptimierten Rechenzentrum sind solche Kosten auf hunderte Unternehmens-Server umlegbar und damit überschaubar.
9. „Selbstverständliches“
Offensichtliches sollte man der Vollständigkeit halber aber auch erwähnen, weil es mitunter manchmal ganz vergessen wird: So gut wie kein Serverraum im eigenen Unternehmen kann solche Datenübertragungsraten leisten, wie sie durch ein Glasfasernetz am Standort des Rechenzentrums gewährleistet sind. Spürbare Latenzzeiten gibt es hier nicht. Nicht zuletzt verschwendet Unternehmens-IT im eigenen Serverraum unnötig viel Platz, den man anderweitig viel besser nutzen kann.
Fazit:
Die Sorglosstellung in IT-Angelegenheiten, ermöglicht dem Unternehmer die Konzentration auf seine Ideen und Kernkompetenzen. Möchte man aber allein einen Bruchteil der hier aufgeführten Vorteile für sein Unternehmen nutzen, stellt sich die Frage „ab wann“ sich ein IT-Outsourcing überhaupt lohnt, nicht mehr ernsthaft und erklärt damit auch gleichzeitig das Phänomen, warum früher oder später jedes (IT-) Unternehmen ein zukunftsoptimiertes Rechenzentrum nutzt: Die Kosten eines Rechenzentrums (Infrastruktur, Produkte, Personal) lassen sich durch Hunderte von Unternehmens-Servern teilen und in flexibel zusammengesetzten Modulen zu monatlichen Pauschalpreisen buchen. Wollte man die gleichen Leistungen hausintern umsetzen wollen, wären die Gesamtkosten für das Unternehmen nicht mehr vertretbar. Kein vernünftiger Unternehmer braucht hier Nachhilfe, um rechnerisch zum gleichen Ergebnis zu kommen.
Autorenprofil Martin Verges
Bereits mit 18 Jahren gründete Martin Verges seine erste IT-Firma und administrierte Firmen-Netzwerke, die mit ISO-Zertifikaten abgenommen wurden. Später folgte eine Spezialisierung als IT-Consultant und Software-Entwickler – mit Fokus auf IT-Sicherheit. Mit der Umfirmierung wurde der Ausbau der Hosting-Geschäfte forciert. Seitdem betreut er als Geschäftsführer das europaweite IT-Netzwerk der Rechenzentren von First Colo, einem unabhängigen, mittelständischen Unternehmen im Eigentum und Betrieb der Unternehmensgründer. Dabei verantwortet er die gesamte technische Planung und den komplexen, störungsfreien Betrieb der Rechenzentren.
Zum Unternehmen First Colo:
Die First Colo GmbH betreibt als IT-Infrastrukturanbieter Hochverfügbarkeits-Rechenzentren an deutschen und europäischen Server-Standorten, mit den Kernkompetenzen Housing & Colocation, Managed Services und DDoS-Schutz. First Colo bietet Konnektivitäts- und IT-Management-Dienstleistungen für den Mittelstand und für Großkunden an. Die Server zahlreicher Unternehmen bekommen bei First Colo ein sicheres, kostengünstiges und zeitgemäßes Zuhause. Zum Kundenstamm gehören vornehmlich mittelständische Unternehmen mit hohem Datenverkehrsaufkommen und überdurchschnittlichen Ansprüchen an Servicequalität und IT-Sicherheit. Laut der Unternehmensberatung Deloitte gehörte First Colo im Jahre 2014 zweimal in Folge zu den 50 Technologieunternehmen Deutschlands mit dem schnellsten Wachstum.