4 godziny szkolenia, które jest wprowadzeniem do Apache Flink, lidera wśród narzędzi do przetwarzania strumieni danych w systemach Big Data.
Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.
Wprowadzenie
Niektórzy uważają, że Apache Flink to standard de facto przetwarzania strumieni danych Big Data. Zdecydowanie coś w tym jest. Liczba różnych API, od DataStream API, poprzez Table API i SQL, a skończywszy na CEP (Complex Event Processing) jest imponująca.
Czego się nauczysz
W ramach warsztatu przede wszystkim poznasz mocne strony Apache Flink, napiszesz proces ETL czasu rzeczywistego z wykorzystaniem DataStream API, poznasz w praktyce możliwości analizy strumieni danych w czasie rzeczywistym z wykorzystaniem Table API i SQL.
Dla kogo jest ten warsztat
Warsztat przeznaczony jest dla osób które coś już o przetwarzaniu strumieni danych słyszały, dla których Apache Kafka kojarzy się czymś innym niż autor Procesu czy marka zagranicznej kawy. Dla tych którzy chcą poznać podstawy narzędzia, które z roku na rok staje się coraz popularniejsze, bo trudno znaleźć lepsze w świecie, w którym dane nie lubią czekać.
Wymagania wstępne
- Podstawowa wiedza IT.
 - Podstawowa wiedza w zakresie języków programowania Java i Scala
 - Podstawowa wiedza w zakresie relacyjnych baz danych
 - Podstawowa wiedza w zakresie przetwarzania strumieni danych
 - Konto Google, dostęp do platformy GCP
 
Szkolenie prowadzone we współpracy ze Stacja IT
Program
Godzina 1
- Przetwarzanie strumieni danych – uspójnienie zeznań
 - Sprawdzenie i konfiguracja środowiska
 - Przerwa kawowa
 
Godzina 2
- DataStream API – na początek
 - Warsztat – ETL czasu rzeczywistego
 - Projekt – ETL czasu rzeczywistego
 - Przerwa kawowa
 
Godzina 3
Godzina 4
- Complex Event Processing
 - Warsztat – notatnik Zeppelina
 - I co dalej? – podsumowanie i zakończenie