Open Source Automation Days 2020 – virtuelle Vielfalt

Im Orginal von Christian Stankowic veröffentlicht auf https://cstan.io/?p=12523

2020 ist nicht nur das Produkt eines fünffachen 404s sondern auch das große Jahr der Online-Konferenzen. Während Konferenzen zuvor vor allem in besonders auffälligen oder ausgefallenen Lokationen stattfanden und zum physischen Network einluden, dienen dieses Jahr vor allem Online-Plattformen als notwendiger Kompromiss.

Eine der Konferenzen, auf die ich mich besonders gefreut habe, sind die Open Source Automation Days des Münchner Unternehmens ATIX AG.

Das Event fand vom 19.10 bis zum 21.10 statt – der erste Tag war den Workshops vorbehalten, die letzten beiden Tage bestanden aus Vorträgen.

Agenda

Wie bereits letztes Jahr, wurde das Vortragsprogramm auf zwei Tage gestreckt. Am ersten optionalen Workshop-Tag konnten sich Teilnehmer für einen der folgenden Workshops registrieren:

  • KubeOne 101: Learn how to use Operator driven Cluster Lifecycle Tool
  • Ansible Advanced
  • GitLab CI/CD – from zero to hero
  • Kubernetes Best Practices und GitOps-Grundsätze
  • Host Deployment und initiale Konfiguration mit Foreman / orcharhino

Die Vorträge wurden wieder in Strategie– und Technik-Tracks aufgeteilt – der Raumwechsel war dieses Jahr nur einen Mausklick entfernt. Die Themen-Auswahl mit 28 Vorträgen und zwei 2 Keynotes war gewohnt vielfältig und interessant:

Tag 1

Strategie

Die vierte Iteration der Konferenz hatte mit 160 Konferenz– und 20 Workshop-Teilnehmern die bisher größten Teilnehmerzahlen. 9 Partner unterstützten das Event.

Keynotes

Mark Hlawatschek (Vorstand ATIX) leitete das Event mit einem Abriss über die Themen Automatisierung und Open Source-Kultur ein. Laut ihm war es nie wichtiger Menschen zusammenzubringen als aktuell – angesichts der Corona-Pandemie und omnipräsenter Home Office-Tätigkeiten eine absolut korrekte Schlussfolgerung. Auch aus dem eigenen Haus gab es mit einem Ausblick auf das zum Zeitpunkt der Konferenz noch erscheinende orcharhino 5.5.0 Neuigkeiten. So basiert dieses nun auf Foreman 2.1 und Katello 3.16. Neben VMware vSphere 7.0 wird nun auch Oracle ULN für Paket-Downloads unterstützt.

Eine zweite Keynote („Das neue virtuelle Normal“) von Oliver Rößling knüpfte thematisch an nicht ganz freiwillige Konferenzen an. So wurden neben üblichen Tools und Netiquetten ständiger Online-Termine auch technologische Neuigkeiten vorgestellt. Mit Spatial.io wird so das gemeinsame Arbeiten mithilfe Argumented Reality nach Hause geholt, während Matterport 360°-Scans von komplexen Gebäuden ermöglich und mit Virtual Reality-Technologie den „Spaziergang“ durch Büro vom heimischen Wohnzimmer aus ermöglicht. Wer kein solches VR-Headset sein Eigen nennt, könnte mithilfe eines Geräts von Double Robotics zumindest virtuell durch das echte Büro navigieren. Technologisch allesamt interessante Lösungen, die vor allem bei mehrjährigem Andauern der Pandemie verlockender werden könnten, so Rößling. Ich persönlich hoffe, nie eines der genannten Gadgets benutzen zu müssen.

Tobi Knaup (Co-CEO, D2IQ) sprach in der Keynote des zweiten Tages über die Vorzüge von Open Source-Philosophien innerhalb Organisationen. So führt die größere Community im Vergleich zu proprietärer Software zu schnelleren und qualitativeren Entwicklungen. Firmen können ihr Produktwachstum beschleunigen, in dem sie Open Source-Prozesse adaptieren und offene Kulturen pflegen, so Knaup.

Talks

Martin Alfke (CEO, example42 GmbH) zeigte in seinem Vortrag einige Praxis-Beispiele zur Versionierung von Puppet Code in Git-Repositories. Konkret wurden einige Work- flow-Beispiele mit Vor- und Nachteilen gegenüber vorgestellt. Zwei essentielle Bestandteile der Workflows waren das Branching-Konzept sowie CI-/CD-Pipelines zum Austausch von Code zwischen Umgebungen. In einem der Workflows wurden bewusst keine Merges sondern Cherry Picking in Git eingesetzt, um ausschließlich die not- wendige Menge an Code zwischen Repositories und Umgebungen auszutauschen.

Melanie Corr (Community Manager für Foreman und Pulp) berichtete über die Pflege von Open Source-Communities. So ist es beispielsweise wichtig in einer Community nicht nur Code, sondern auch Tests und Dokumentationen auszutauschen. Corr (die lange die Dokumentation von Red Hat Satellite pflegte) sagte, dass die Einstiegshürden einer Community so gering wie möglich sein müssen, um erfolgreich zu sein. Auch ist es wichtig, jedegliche Art von Beiträgen zu ermöglichen und zu sichten. Aktuell ist es geplant, die Foreman-, Katello- und Red Hat Satellite-Dokumentationen zu vereinheitlichen. Technisch kommt hier unter anderem AsciiDoc zum Einsatz.

Erol Ülükmen (Geschäftsführer bei uib GmbH) berichtete über die Entwicklung von opsi 4.2. Vor allem ging es um die modernisierte Architektur. So wird nun das Web-Framework Starlet eingesetzt und WSGI wurde durch ASGI ersetzt. Die Applikation ist prinzipiell in Containern und Kubernetes lauffähig, das Dependency-Management ist nun unabhängig vom jeweiligen Linux-Distributor. Für das zentrale Überwachen von Performance-Daten wird Redis eingesetzt. Die In-Memory-Datenbank lieferte in Test-Szenarien bis zu 100.000 Anfragen pro Sekunde bei ca. 1ms Latenz; zur Visualisierung wird Grafana eingesetzt. Worker-Prozesse reagieren nun 250% schneller, WebDav sogar 1000%. Parallel konnten auch Systemvoraussetzungen reduziert werden. So benötigt ein Szenario mit 200 Standorten und 4.000 Clients nun nur noch eine VM (8 CPUs, 16 GB RAM) statt wie vorher 5. opsi 4.2 wird voraussichtlich Ende des Jahres erscheinen. Nachfolgende Versionen sollen die Backend-Datenstruktur und Web-Oberfläche optimieren.

Dr. Josef Spillner (Leiter Distributed Application Computing Paradigms & Dozent, Zürcher Hochschule für Angewandte Wissenschaften) verglich einige gängige Frameworks für zentralisiertes Logging hinsichtlich ihrer Stärken und Schwächen. So gibt es mit Logzip von Huawei zwar einen Algorithmus mit sehr hoher Kompressionsrate, jedoch ist ein Durch- suchen nicht möglich. Im Rahmen einer Forschung zu effizienteren und leistungs- stärkeren Logging-Algorithmen ist mit streamblast ein vielversprechender Prototyp entstanden, der vorgibt besonders effizient zu sein.

Timothy Appnel (Senior Product Manager, Red Hat) demonstrierte, wie sich Kubernetes-Applikationen mit Ansible verwalten lassen. Unabhängig von Ansible ist jedes Shell-Kommando und jede UI-Interaktion eine Chance zur Automatisierung, so Appnel. Mit den Ansible-Collections kubernetes.code und community.okd gibt es Ansible-Module zur Verwaltung von Kubernetes- und OpenShift-Applikationen. Erstere wird seit dem vergangenen Ansiblefest sogar offiziell von Red Hat unterstützt. Mit den zahlreichen Modulen lassen sich verschiedenste Aspekte der Infrastruktur und Applikation steuern. In Ergänzung gibt es auch Kubernetes Operator, um die Verwaltung komplexer Applikationen zu ermöglichen.

Fritz Weinhappl (Sales Consultant, Oracle) präsentierte mit Ksplice ein Angebot des Datenbank- Herstellers zur Kernel-Aktualisierung ohne anschließenden Neustart. Ksplice existiert seit 2008 und nutzt ähnlich wie kGraft (SUSE) und kpatch (Red Hat) die entsprechende Infrastruktur des Linux-Kernels, um Module zur Laufzeit auszutauschen. Neben dem eigenen Oracle Linux werden auch Red Hat Enterprise Linux, Ubuntu und Fedora unterstützt. Die ersten beiden können 30 Tage kostenlos getestet wer- den, die Desktop-Distributionen können nach Registrierung kostenlos gepatcht werden.

Oracle gibt an, 150 Millionen Meltdown-Patches dank Ksplice in nur 4 Stunden installiert zu haben. Leider gibt es jedoch kein Bestreben, das Tooling freizugeben bzw. zu dokumentieren. Red Hat und SUSE bieten gegen Bezahlung ebenfalls entsprechende Livepatch-Services an, legen aber ihre Tools und Vorgehensweise offen, sodass die Community adaptieren kann.

In seinem Vortrag „From Containers to Kubernetes Operators“ sprach Philipp Krenn (Team Lead bei Elastic) über typische Fehler bei der Implementation und täglichen Administration von Kubernetes-Clustern. So ist ein häufiger Fehler beim Bereitstellen von Applikationen die Auswahl des falschen Container-Tags. Version-Pinning ist essentiell und daher bietet Elastic konsequenterweise kein latest-Tag an. Auch ist beim Deployment darauf zu achten, idealerweise keine nativen Deployments sondern Helm- Charts zu verwenden.

Borys Neselovskyi zeigte den Mehrwert der PostgreSQL-Datenbank in hochkritischen Unternehmenslandschaften. So wurden vor allem verschiedene Architekturen für kritische Unternehmenslandschaften und PostgreSQL-Szenarien vorgestellt. Als Ergänzung wird der grafische Postgres Enterprise Manager auf Basis von pgAdmin angeboten.

Zu guter Letzt berichtete Michael Friedrich in seinem Vortrag „Developers love CI/CD: The Sec and Ops sequel“ über Drageekeksi, neue Entwicklungen bei CI-/CD-Pipelines sowie praktischen Tipps zur Optimierung von ebensolchen. Bedingt durch im- mer steigende Speed to Market-Zahlen sind Unternehmen stets angehalten kurze Feed- backrunden und schnellere Adaptionen umzusetzen. Hierfür sind vor allem aussagekräftige und effiziente Pipelines von immenser Bedeutung.

Um eine solche zu konzipieren sind vor allem sinnvolle und reproduzierbare Unit- Tests sowie granulare Job-Definitionen notwendig. Eine Pipeline sollte im Fehlerfall schnellstmöglich abbrechen und keine unnötigen Infrastruktur-Kosten verursachen. Erreicht werden kann das durch minimalistische Artefakt-Konfigurationen (z.B. Caching zwischen Stages) sowie optimierte Docker-Images (Größe, Software-Auswahl). Abhängigkeiten einzelner Jobs können grafisch dank GitLabs neuer DAG-Funktionalität (Directed Acyclic Graph) grafisch dargestellt werden. Minimale und maximale Pipeline- Laufzeiten helfen fehlerhafte Läufe zu erkennen. Mit CI-/CD-Analytics lassen Trends auf drohende Qualitätsprobleme schließen. Eine REST API kann in Verbindung mit Prometheus, Icinga und weiteren Monitoring-Frameworks verwendet werden, um Entwickler frühestmöglich auf Anomalien hinzuweisen. Dank Security-Scanning können Bibliotheken auf bekannte Sicherheitslücken untersucht wer- den – aber auch fälschlicherweise hinterlegte Credentials können erkannt werden.

Fazit

Mir hat das Event wieder viel Spaß gemacht. Trotz suboptimaler Bedingungen hat es die ATIX AG wieder geschafft, eine spannende Konferenz auf die Beine zu stellen – auch wenn das übliche lockere Networken nach Feierabend pandemiebedingt ausblieb. Vor allem der Workshop-Tag ist eine sinnvolle Ergänzung des Konferenzprogramms. So kann man sich am ersten Tag „einschließen“ und mit voller Konzentration einem Thema widmen, bevor die folgenden beiden Tage von vielen Themen geprägt werden.

Ich freue mich schon auf das nächste Event – hoffentlich unter gewohnten Umständen.

The following two tabs change content below.

Christian Stankowic

Neueste Artikel von Christian Stankowic (alle ansehen)