Schlagwortarchiv für: daten streaming

Streaming Workshop

Streaming Workshop Munich

BIG DATA becomes FAST DATA


Streaming Workshop

Immer mehr Unternehmen nutzen dezentrale Event-Streaming-Plattformen, die nicht nur nach dem Prinzip „publish-and-subscribe“ funktionieren, sondern auch die Speicherung und Verarbeitung von Daten ermöglichen. Unternehmen aller Branchen verlassen sich heute auf Echtzeitdaten, um Kundenerfahrungen zu personalisieren oder betrügerisches Verhalten zu erkennen.

Am 24. Juli 2019 laden Confluent, Anbieter einer Event-Streaming-Plattform auf Basis von Apache Kafka®, und ATIX, der Linux- und Open-Source-Spezialist, zu einem dreistündigen Workshop nach München ein, um verschiedene Anwendungsfälle der Streaming-Technologie in großen und mittleren Unternehmen zu demonstrieren. Dazu gehören Beispiele von der Deutschen Bahn, AirBnB und mehr.

Da die Anzahl der Plätze begrenzt ist, bitten wir Sie, Ihren Platz zu reservieren!

Agenda:

15:30 – 16:00 Uhr: Anmeldung und Snacks

16:00 – 17:00 Uhr: Echtzeitverarbeitung großer Datenmengen: Was ist eine Streaming-Plattform? Wie nutzen Unternehmen Apache Kafka und Confluent? – Confluent

17:00 – 17:45 Uhr: Wie man Apache Kafka & Confluent einsetzt (und wie man es nicht tun sollte) – Bernhard Hopfenmüller, ATIX

17:45 – 18:30 Uhr: Ihre Streaming-Reise, weitere Anwendungsfälle und offene Diskussionen – allesamt

18:30 – 21:00 Uhr: Get together, Abendessen, Q&A

Workshop-Details:

  • Echtzeitverarbeitung großer Datenmengen: Eine Event-Streaming-Plattform als zentrales Nervensystem im Unternehmen.
  • Herausforderungen und Lösungen für die Integration, Verarbeitung und Speicherung großer Datenmengen in Echtzeit.
  • Warum sowohl die Tech-Giganten aus dem Silicon Valley als auch etablierte, erfolgreiche Unternehmen (müssen) auf Event-Streaming-Plattformen setzen?
  • Anwendungsbeispiele aus der Automobil- und Finanzbranche, dem Einzelhandel, Logistikunternehmen und mehr.
  • Apache Kafka als De-facto-Standard sowohl für Global 2000 als auch für KMU für zukünftige Transformationsprojekte.

Die Sessions werden auf Wunsch in englischer Sprache abgehalten.

Veranstaltungsort:
ATIX AG
Parkring 15, 3. OG
85748 Garching bei München


Anmeldung

Wir freuen uns auf Sie!

Haben Sie noch Fragen zum Streaming Workshop Munich ?

apache-kafka

Apache Kafka

Apache Kafka


Um die vom Markt geforderte Agilität und Schnelligkeit zu erreichen, müssen Unternehmen Daten in Echtzeit verarbeiten, darauf reagieren und die Daten an beliebig viele verarbeitende Systeme oder Nutzer bereitstellen können.
Die meisten Organisationen stehen dabei vor einer Flut an Daten, die aus (neuen) Applikationen, Webseiten, dem IoT und mehr stammen. Die ideale Architektur, die die meisten sich vorstellen, ist ein sauberes, optimiertes System. Dies ermöglicht Unternehmen, aus all diesen Daten Kapital zu schlagen. Hierfür gibt es die unterschiedlichsten Anwendungsfälle.

Features

  • Event-getriebene Datenauswertung, z.B. für die Durchführung von Betrugserkennung im Bankenwesen, die Verarbeitung größter Datenmengen für Schwarmintelligenz-Anwendungen oder autonomes Fahren.
  • Lose Koppelung bzw. Entkoppelung von Legacy-Anwendungen und modernen Anwendungen mit Kafka als gemeinsamer Event-Streaming-Plattform.
  • Schaffung bzw. Erweiterung der Microservices-Architektur.
  • Realisierung dynamischer Analytics-Anwendungen, z.B. für maschinelles Lernen.
  • Migration oder Zusammenführung von Altanwendungen, z.B. in M&A-Szenarien: Indem die Daten aus der alten Applikation in Kafka eingespeichert werden, können die Zielapplikationen auf diese jederzeit und dauerhaft zugreifen.

Confluent – Apache Kafka


Confluent Platform verbessert Apache Kafka , indem es dessen Integrationsmöglichkeiten erweitert und es um Tools zur Optimierung und Verwaltung von Kafka-Clustern sowie Methoden zur Gewährleistung der Sicherheit von Streams ergänzt. Confluent Platform macht Kafka leichter zu entwickeln und betreiben. Confluent Open Source kann kostenlos heruntergeladen werden, während Confluent Enterprise als Abonnement erhältlich ist.

Features


  • Zentrales Cluster-Management über Universal Control Plane (UCP).
  • Eigene WebGUI.
  • Verwendung von Docker Swarm und Kubernetes möglich und im Betrieb austauschbar.
  • Zertifizierte Kubernetes Distribution.
  • Docker Trusted Registry (DTR) inklusive Sicherheitsscan der Images.
  • OS unababhängig (SLES, RHEL, CentOS, Ubuntu, Windows).
  • Microsoft Windows Hosts als Worker möglich.
  • Mandantenfähig.

Wie unterstützen wir Sie?


  • Bei der Planung und Umsetzung Ihres Kafka Clusters in enger Zusammenarbeit mit unserem Partner Confluent.
  • Bei der Implementierung der für Sie entworfenen Lösung.
  • Bei der Anpassung der gewählten Lösung an Ihre speziellen Bedürfnisse.

Wie können wir helfen?