4 godziny szkolenia, które jest wprowadzeniem do Apache Flink, lidera wśród narzędzi do przetwarzania strumieni danych w systemach Big Data.
Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.
Wprowadzenie
Niektórzy uważają, że Apache Flink to standard de facto przetwarzania strumieni danych Big Data. Zdecydowanie coś w tym jest. Liczba różnych API, od DataStream API, poprzez Table API i SQL, a skończywszy na CEP (Complex Event Processing) jest imponująca.
Czego się nauczysz
W ramach warsztatu przede wszystkim poznasz mocne strony Apache Flink, napiszesz proces ETL czasu rzeczywistego z wykorzystaniem DataStream API, poznasz w praktyce możliwości analizy strumieni danych w czasie rzeczywistym z wykorzystaniem Table API i SQL.
Dla kogo jest ten warsztat
Warsztat przeznaczony jest dla osób które coś już o przetwarzaniu strumieni danych słyszały, dla których Apache Kafka kojarzy się czymś innym niż autor Procesu czy marka zagranicznej kawy. Dla tych którzy chcą poznać podstawy narzędzia, które z roku na rok staje się coraz popularniejsze, bo trudno znaleźć lepsze w świecie, w którym dane nie lubią czekać.
Wymagania wstępne
- Podstawowa wiedza IT.
- Podstawowa wiedza w zakresie języków programowania Java i Scala
- Podstawowa wiedza w zakresie relacyjnych baz danych
- Podstawowa wiedza w zakresie przetwarzania strumieni danych
- Konto Google, dostęp do platformy GCP
Szkolenie prowadzone we współpracy ze Stacja IT
Program
Godzina 1
- Przetwarzanie strumieni danych – uspójnienie zeznań
- Sprawdzenie i konfiguracja środowiska
- Przerwa kawowa
Godzina 2
- DataStream API – na początek
- Warsztat – ETL czasu rzeczywistego
- Projekt - ETL czasu rzeczywistego
- Przerwa kawowa
Godzina 3
Godzina 4
- Complex Event Processing
- Warsztat - notatnik Zeppelina
- I co dalej? – podsumowanie i zakończenie