Open Source Automation Days 2020 – virtuelle Vielfalt
2020 ist nicht nur das Produkt eines fünffachen 404s sondern auch das große Jahr der Online-Konferenzen. Während Konferenzen zuvor vor allem in besonders auffälligen oder ausgefallenen Lokationen stattfanden und zum physischen Network einluden, dienen dieses Jahr vor allem Online-Plattformen als notwendiger Kompromiss.
Eine der Konferenzen, auf die ich mich besonders gefreut habe, sind die Open Source Automation Days des Münchner Unternehmens ATIX AG.
Das Event fand vom 19.10 bis zum 21.10 statt – der erste Tag war den Workshops vorbehalten, die letzten beiden Tage bestanden aus Vorträgen.
Agenda
Wie bereits letztes Jahr, wurde das Vortragsprogramm auf zwei Tage gestreckt. Am ersten optionalen Workshop-Tag konnten sich Teilnehmer für einen der folgenden Workshops registrieren:
- KubeOne 101: Learn how to use Operator driven Cluster Lifecycle Tool
- Ansible Advanced
- GitLab CI/CD – from zero to hero
- Kubernetes Best Practices und GitOps-Grundsätze
- Host Deployment und initiale Konfiguration mit Foreman / orcharhino
Die Vorträge wurden wieder in Strategie– und Technik-Tracks aufgeteilt – der Raumwechsel war dieses Jahr nur einen Mausklick entfernt. Die Themen-Auswahl mit 28 Vorträgen und zwei 2 Keynotes war gewohnt vielfältig und interessant:
Tag 1
Strategie
- Peaceful Distributed Microservice Architecture
- Aufbau einer Edge Computing Platform
- Developing an Open Source Culture around more than just the Code
- Automation: Forget the technology, focus on the culture!
- opsi 4.2: Unser Weg zu Microservices und wieder zurück
- orcharhino und orcharhino Proxies für komplexe Netze
- Driving Multi-cloud and Hybrid Cloud with Hitachi Kubernetes Service
Technik
- Mission Possible – Microsoft mit OpenSource-Tools meistern
- GIT Entwicklungs Workflows – von Simple GIT zu GIT Flow DevOps
- GitOps – Kubernetes The Easy Way
- Systemverwaltung mit Uyuni
- Configuration templating vs configuration as code, 12th round
- Erfolgreiches Ertrinken in Logdateien
- Automating the Management of Kubernetes Applications with Ansible
Tag 2
Strategie
- Automation of the legacy and new world with orcharhino – auf Anfrage
- Automate your OS and hypervisor patching to stay secure
- When DevOps goes wrong
- The path to OpenSource DBaaS with Kubernetes
- From Containers to Kubernetes Operators
- PostgreSQL: Open Source Datenbank in hochkritischen Unternehmenslandschaften
- Developers love CI/CD: The Sec and Ops sequel
Technik
- Code to Kubernetes: Deployment shouldn’t be an afterthought
- Automation pipeline to build Chromebooks for enterprises
- Servermanagementinfrastuktur, ein technischer Überblick
- Top Trends in IT Automation
- Ist Cloud doch zu langsam für legacy Software?
- Distributed community in a virtual world-connected or disconnected?
- Power-Up With Cloud And Tekton Pipelines
Die vierte Iteration der Konferenz hatte mit 160 Konferenz– und 20 Workshop-Teilnehmern die bisher größten Teilnehmerzahlen. 9 Partner unterstützten das Event.
Keynotes
Mark Hlawatschek (Vorstand ATIX) leitete das Event mit einem Abriss über die Themen Automatisierung und Open Source-Kultur ein. Laut ihm war es nie wichtiger Menschen zusammenzubringen als aktuell – angesichts der Corona-Pandemie und omnipräsenter Home Office-Tätigkeiten eine absolut korrekte Schlussfolgerung. Auch aus dem eigenen Haus gab es mit einem Ausblick auf das zum Zeitpunkt der Konferenz noch erscheinende orcharhino 5.5.0 Neuigkeiten. So basiert dieses nun auf Foreman 2.1 und Katello 3.16. Neben VMware vSphere 7.0 wird nun auch Oracle ULN für Paket-Downloads unterstützt.
Eine zweite Keynote („Das neue virtuelle Normal“) von Oliver Rößling knüpfte thematisch an nicht ganz freiwillige Konferenzen an. So wurden neben üblichen Tools und Netiquetten ständiger Online-Termine auch technologische Neuigkeiten vorgestellt. Mit Spatial.io wird so das gemeinsame Arbeiten mithilfe Argumented Reality nach Hause geholt, während Matterport 360°-Scans von komplexen Gebäuden ermöglich und mit Virtual Reality-Technologie den „Spaziergang“ durch Büro vom heimischen Wohnzimmer aus ermöglicht. Wer kein solches VR-Headset sein Eigen nennt, könnte mithilfe eines Geräts von Double Robotics zumindest virtuell durch das echte Büro navigieren. Technologisch allesamt interessante Lösungen, die vor allem bei mehrjährigem Andauern der Pandemie verlockender werden könnten, so Rößling. Ich persönlich hoffe, nie eines der genannten Gadgets benutzen zu müssen.
Tobi Knaup (Co-CEO, D2IQ) sprach in der Keynote des zweiten Tages über die Vorzüge von Open Source-Philosophien innerhalb Organisationen. So führt die größere Community im Vergleich zu proprietärer Software zu schnelleren und qualitativeren Entwicklungen. Firmen können ihr Produktwachstum beschleunigen, in dem sie Open Source-Prozesse adaptieren und offene Kulturen pflegen, so Knaup.
Talks
Martin Alfke (CEO, example42 GmbH) zeigte in seinem Vortrag einige Praxis-Beispiele zur Versionierung von Puppet Code in Git-Repositories. Konkret wurden einige Work- flow-Beispiele mit Vor- und Nachteilen gegenüber vorgestellt. Zwei essentielle Bestandteile der Workflows waren das Branching-Konzept sowie CI-/CD-Pipelines zum Austausch von Code zwischen Umgebungen. In einem der Workflows wurden bewusst keine Merges sondern Cherry Picking in Git eingesetzt, um ausschließlich die not- wendige Menge an Code zwischen Repositories und Umgebungen auszutauschen.
Melanie Corr (Community Manager für Foreman und Pulp) berichtete über die Pflege von Open Source-Communities. So ist es beispielsweise wichtig in einer Community nicht nur Code, sondern auch Tests und Dokumentationen auszutauschen. Corr (die lange die Dokumentation von Red Hat Satellite pflegte) sagte, dass die Einstiegshürden einer Community so gering wie möglich sein müssen, um erfolgreich zu sein. Auch ist es wichtig, jedegliche Art von Beiträgen zu ermöglichen und zu sichten. Aktuell ist es geplant, die Foreman-, Katello- und Red Hat Satellite-Dokumentationen zu vereinheitlichen. Technisch kommt hier unter anderem AsciiDoc zum Einsatz.
Erol Ülükmen (Geschäftsführer bei uib GmbH) berichtete über die Entwicklung von opsi 4.2. Vor allem ging es um die modernisierte Architektur. So wird nun das Web-Framework Starlet eingesetzt und WSGI wurde durch ASGI ersetzt. Die Applikation ist prinzipiell in Containern und Kubernetes lauffähig, das Dependency-Management ist nun unabhängig vom jeweiligen Linux-Distributor. Für das zentrale Überwachen von Performance-Daten wird Redis eingesetzt. Die In-Memory-Datenbank lieferte in Test-Szenarien bis zu 100.000 Anfragen pro Sekunde bei ca. 1ms Latenz; zur Visualisierung wird Grafana eingesetzt. Worker-Prozesse reagieren nun 250% schneller, WebDav sogar 1000%. Parallel konnten auch Systemvoraussetzungen reduziert werden. So benötigt ein Szenario mit 200 Standorten und 4.000 Clients nun nur noch eine VM (8 CPUs, 16 GB RAM) statt wie vorher 5. opsi 4.2 wird voraussichtlich Ende des Jahres erscheinen. Nachfolgende Versionen sollen die Backend-Datenstruktur und Web-Oberfläche optimieren.
Dr. Josef Spillner (Leiter Distributed Application Computing Paradigms & Dozent, Zürcher Hochschule für Angewandte Wissenschaften) verglich einige gängige Frameworks für zentralisiertes Logging hinsichtlich ihrer Stärken und Schwächen. So gibt es mit Logzip von Huawei zwar einen Algorithmus mit sehr hoher Kompressionsrate, jedoch ist ein Durch- suchen nicht möglich. Im Rahmen einer Forschung zu effizienteren und leistungs- stärkeren Logging-Algorithmen ist mit streamblast ein vielversprechender Prototyp entstanden, der vorgibt besonders effizient zu sein.
Timothy Appnel (Senior Product Manager, Red Hat) demonstrierte, wie sich Kubernetes-Applikationen mit Ansible verwalten lassen. Unabhängig von Ansible ist jedes Shell-Kommando und jede UI-Interaktion eine Chance zur Automatisierung, so Appnel. Mit den Ansible-Collections kubernetes.code und community.okd gibt es Ansible-Module zur Verwaltung von Kubernetes- und OpenShift-Applikationen. Erstere wird seit dem vergangenen Ansiblefest sogar offiziell von Red Hat unterstützt. Mit den zahlreichen Modulen lassen sich verschiedenste Aspekte der Infrastruktur und Applikation steuern. In Ergänzung gibt es auch Kubernetes Operator, um die Verwaltung komplexer Applikationen zu ermöglichen.
Fritz Weinhappl (Sales Consultant, Oracle) präsentierte mit Ksplice ein Angebot des Datenbank- Herstellers zur Kernel-Aktualisierung ohne anschließenden Neustart. Ksplice existiert seit 2008 und nutzt ähnlich wie kGraft (SUSE) und kpatch (Red Hat) die entsprechende Infrastruktur des Linux-Kernels, um Module zur Laufzeit auszutauschen. Neben dem eigenen Oracle Linux werden auch Red Hat Enterprise Linux, Ubuntu und Fedora unterstützt. Die ersten beiden können 30 Tage kostenlos getestet wer- den, die Desktop-Distributionen können nach Registrierung kostenlos gepatcht werden.
Oracle gibt an, 150 Millionen Meltdown-Patches dank Ksplice in nur 4 Stunden installiert zu haben. Leider gibt es jedoch kein Bestreben, das Tooling freizugeben bzw. zu dokumentieren. Red Hat und SUSE bieten gegen Bezahlung ebenfalls entsprechende Livepatch-Services an, legen aber ihre Tools und Vorgehensweise offen, sodass die Community adaptieren kann.
In seinem Vortrag „From Containers to Kubernetes Operators“ sprach Philipp Krenn (Team Lead bei Elastic) über typische Fehler bei der Implementation und täglichen Administration von Kubernetes-Clustern. So ist ein häufiger Fehler beim Bereitstellen von Applikationen die Auswahl des falschen Container-Tags. Version-Pinning ist essentiell und daher bietet Elastic konsequenterweise kein latest-Tag an. Auch ist beim Deployment darauf zu achten, idealerweise keine nativen Deployments sondern Helm- Charts zu verwenden.
Borys Neselovskyi zeigte den Mehrwert der PostgreSQL-Datenbank in hochkritischen Unternehmenslandschaften. So wurden vor allem verschiedene Architekturen für kritische Unternehmenslandschaften und PostgreSQL-Szenarien vorgestellt. Als Ergänzung wird der grafische Postgres Enterprise Manager auf Basis von pgAdmin angeboten.
Zu guter Letzt berichtete Michael Friedrich in seinem Vortrag „Developers love CI/CD: The Sec and Ops sequel“ über Drageekeksi, neue Entwicklungen bei CI-/CD-Pipelines sowie praktischen Tipps zur Optimierung von ebensolchen. Bedingt durch im- mer steigende Speed to Market-Zahlen sind Unternehmen stets angehalten kurze Feed- backrunden und schnellere Adaptionen umzusetzen. Hierfür sind vor allem aussagekräftige und effiziente Pipelines von immenser Bedeutung.
Um eine solche zu konzipieren sind vor allem sinnvolle und reproduzierbare Unit- Tests sowie granulare Job-Definitionen notwendig. Eine Pipeline sollte im Fehlerfall schnellstmöglich abbrechen und keine unnötigen Infrastruktur-Kosten verursachen. Erreicht werden kann das durch minimalistische Artefakt-Konfigurationen (z.B. Caching zwischen Stages) sowie optimierte Docker-Images (Größe, Software-Auswahl). Abhängigkeiten einzelner Jobs können grafisch dank GitLabs neuer DAG-Funktionalität (Directed Acyclic Graph) grafisch dargestellt werden. Minimale und maximale Pipeline- Laufzeiten helfen fehlerhafte Läufe zu erkennen. Mit CI-/CD-Analytics lassen Trends auf drohende Qualitätsprobleme schließen. Eine REST API kann in Verbindung mit Prometheus, Icinga und weiteren Monitoring-Frameworks verwendet werden, um Entwickler frühestmöglich auf Anomalien hinzuweisen. Dank Security-Scanning können Bibliotheken auf bekannte Sicherheitslücken untersucht wer- den – aber auch fälschlicherweise hinterlegte Credentials können erkannt werden.
Fazit
Mir hat das Event wieder viel Spaß gemacht. Trotz suboptimaler Bedingungen hat es die ATIX AG wieder geschafft, eine spannende Konferenz auf die Beine zu stellen – auch wenn das übliche lockere Networken nach Feierabend pandemiebedingt ausblieb. Vor allem der Workshop-Tag ist eine sinnvolle Ergänzung des Konferenzprogramms. So kann man sich am ersten Tag „einschließen“ und mit voller Konzentration einem Thema widmen, bevor die folgenden beiden Tage von vielen Themen geprägt werden.
Ich freue mich schon auf das nächste Event – hoffentlich unter gewohnten Umständen.
Christian Stankowic
Neueste Artikel von Christian Stankowic (alle ansehen)
- Open Source Automation Days 2020 – virtuelle Vielfalt - 2. Dezember 2020