Schon lange ist der Begriff „Cloud“ nicht mehr nur irgendein Buzzword. Die Cloud, oder besser die Clouds, sind aus unserem Daily-Doing quasi nicht mehr wegzudenken. Doch was, wenn ich, obwohl sich die Spreu schon längst vom Weizen getrennt hat, noch immer nicht sehr viel über Cloud weiß? Einfach abheben und den Blindflug in die große, weite Welt der Public Clouds starten? In einem Web Frontend mal etwas zusammenklicken und schauen, wie es sich anfühlt? Cloudformation? DevOps? Wait! – What? Um richtig testen zu können, auch gleich meine Daten in irgendein Bucket schieben und los geht’s? Übung macht bekanntlich den Meister. Go for it!
Wie wir finden ein ziemlich gewagter Ansatz. Doch was wäre, wenn es einen sicheren Hafen gäbe, so sicher, dass ich fast im totalen Blindflug mit der Cloud spielen, Erfahrungen und Know-how aufbauen kann? Nun, genau das dachten wir uns auch und darum haben wir genau diesen sicheren Hafen gebaut – die „Open Cloud Platform“ oder kurz „OCP“.
Doch wer sind wir eigentlich? Wir sind ein virtuelles Team aus dem Cloud & Infrastructure Services-Bereich der OTTO Group IT. Unser fachlicher Background setzt sich aus den Bereichen Virtualisierung, Storage, Netzwerk und DevOps zusammen.
Seit vielen Jahren betreiben wir erfolgreich die VMware Private Cloud Umgebung „SPICE“. Zu unseren Kund*innen gehören interne Teams sowie Konzerngesellschaften, welche „Managed Services“, meist in Form von virtuellen Maschinen von uns beziehen.
Mit der Trendwende hin zur Public Cloud, wurden auch die Rufe nach einer agilen, skalierbaren Private Cloud Umgebung im Konzern lauter. Schnell haben wir erkannt, dass hier dringender Handlungsbedarf besteht, um am Puls der Zeit zu bleiben und unseren Kunden den bestmöglichen Service zu bieten. Dies war die Geburtsstunde der Open Cloud Platform.
Unser gesamter Tech Stack ist ein buntes Konglomerat aus 100% Open Source Software – darauf sind wir mehr als stolz.
In den Tiefen unserer Automation lauert eine Gitlab Pipeline, die MaaS per API nach Nodes mit genau diesem Status absucht. Sobald so eine Node gefunden wurde, wird ein weiterer, wohlbekannter Freund ins Rennen geschickt – Ansible. Der ein oder andere wird sich jetzt denken: „Okay, die nehmen Ansible und installieren die OpenStack Packages…“. Nope, wir betreiben OpenStack zu 100% containerisiert in Docker, inkl. Hypervisor und SDN (Software Defined Network). Ansible ist für uns quasi nur ein etwas besseres Docker-Compose. Es rollt die benötigten Container, ausgewählt anhand der Tags aus MaaS, auf der Node aus und übernimmt die Konfiguration der verschiedenen OpenStack Komponenten wie z. B. Nova, Neutron, Keystone usw.
Auch hier haben wir das Rad nicht neu erfunden. Die OpenStack Community hat erkannt, dass OpenStack anhand von Paketen zu installieren und zu betreiben wahrlich mit viel Schmerz einhergeht. Das deployment Tool unserer Wahl wurde Kolla/Kolla-Ansible. Da wir sehr spezielle Anforderungen haben, mussten wir noch eigenen Code schreiben, um Kolla/Kolla-Ansible für uns passend zu machen. Wie es sich für OpenSource gehört, haben wir diesen Code natürlich zurück in die Community gegeben.
Was gibt es noch zu tun, nachdem alle OpenStack Services auf der neuen Node up & running sind? Kurz und knapp: nichts. Sobald die Pipelines erfolgreich abgeschlossen wurden, ist die Node produktiv und führt i.d.R. bereits neu erstellte Cloud Ressourcen aus.
Umgekehrt, d.h. wenn eine Node in den Ruhestand geht, funktioniert es natürlich genauso. In OCP betreiben wir voll automatisiertes Up-/Down-Scaling mit Hardware.
Möchtest du Teil des Teams werden?
We have received your feedback.