Szkolenie Projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache zaczyna się od krótkiego wprowadzenia wyjaśnienia tego jak rozumieć Big Data i jakie ma…
Harmonogram Dzień 1 Wprowadzenie do przetwarzania strumieni danych Spark Streaming Spark Structured Streaming – podstawy Spark Structured Streaming – elementy zaawansowane Wprowadzenie Przetwarzanie strumieni danych…
Apache Spark określany jest mianem standardu de-facto przetwarzania Big Data. Jego popularność, występowanie praktycznie w ramach każdej z platform chmurowych, w środowiskach on-premise, API dla…
Aplikacje analizujące napływające dane, reagujące na pojawiające się anomalie, śledzące przebieg procesów biznesowych, analizujące zmianę trendów w sieciach społecznościowych. Platformy odbierające bez przerwy dane z…
Jeszcze niedawno dokumentacja Apache Spark przykładowe fragmenty kodu w ramach dostarczanych API prezentowała w kolejności: Scala, Java, Python R. Od wersji 3.5.0 ta kolejność jest…
Jeszcze niedawno dokumentacja Apache Spark przykładowe fragmenty kodu w ramach dostarczanych API prezentowała w kolejności: Scala, Java, Python R. Od wersji 3.5.0 ta kolejność jest…
Wprowadzenie do Apache Spark w telegraficznym skrócie. Od podstaw do orientacji w temacie.
Kurs Big Data i platforma Hadoop – wprowadzenie jest praktycznym wprowadzeniem do tematyki Big Data, ze szczególnym uwzględnieniem platformy Hadoop oraz jej podstawowych narzędzi.
Przetwarzanie dokumentów XML może mieć różną postać. Można go realizować proceduralnie za pomocą API takich jako DOM czy SAX. Można wykorzystać do tego celu także…
4 godziny szkolenia, które jest wprowadzeniem do Apache Flink, lidera wśród narzędzi do przetwarzania strumieni danych w systemach Big Data. Lekko, bez nadmiernych dygresji i…