Menu Zamknij

Szkolenia

  • Apache Spark z wykorzystaniem języka Scala

    Apache Spark z wykorzystaniem języka Scala

    Apache Spark określany jest mianem standardu de-facto przetwarzania Big Data. Jego popularność, występowanie praktycznie w ramach każdej z platform chmurowych, w środowiskach on-premise, API dla języków Scala, Java, ale także Python i R w pełni uzasadnia to twierdzenie. Kurs Apache Spark z wykorzystaniem języka Scala prezentuje praktyczne wykorzystanie platformy Apache Spark w kontekście przetwarzania Big…


  • Apache Spark w 1 dzień (Scala)

    Wprowadzenie do Apache Spark w telegraficznym skrócie. Od podstaw do orientacji w temacie.


  • Apache Spark z wykorzystaniem języka Python

    Jeszcze niedawno dokumentacja Apache Spark przykładowe fragmenty kodu w ramach dostarczanych API prezentowała w kolejności: Scala, Java, Python R. Od wersji 3.5.0 ta kolejność jest już inna: Python, Scala, Java, R. Popularność języka Python robi swoje, znaczenie dla świata Data Science to jeszcze potęguje.


  • Zaawansowane przetwarzanie strumieni danych w Apache Flink

    Zaawansowane przetwarzanie strumieni danych w Apache Flink

    Aplikacje analizujące napływające dane, reagujące na pojawiające się anomalie, śledzące przebieg procesów biznesowych, analizujące zmianę trendów w sieciach społecznościowych. Platformy odbierające bez przerwy dane z systemów źródłowych celem ich ciągłego przetwarzania dla przykładu zasilającego hurtownię danych, czy aktualizującego panele managerskie. To przykłady zastosowań, które jak powietrza potrzebują zaawansowanych platform przetwarzających strumienie danych.


  • Big Data i platforma Hadoop – wprowadzenie

    Big Data i platforma Hadoop – wprowadzenie

    Kurs Big Data i platforma Hadoop – wprowadzenie jest praktycznym wprowadzeniem do tematyki Big Data, ze szczególnym uwzględnieniem platformy Hadoop oraz jej podstawowych narzędzi.


  • XQuery

    XQuery

    Przetwarzanie dokumentów XML może mieć różną postać. Można go realizować proceduralnie za pomocą API takich jako DOM czy SAX. Można wykorzystać do tego celu także podejście deklaratywne takie jak arkusze XSL. Jednak jeśli dokumentów jest wiele, a podejście deklaratywne (analogiczne do SQL) jest priorytetem, wówczas XQuery jest jedynym właściwym wyborem.


  • Projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache

    Projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache

    Szkolenie Projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache zaczyna się od krótkiego wprowadzenia wyjaśnienia tego jak rozumieć Big Data i jakie ma cechy, aby zaraz po tym przejść do podstaw programowania w języku Scala oraz wykorzystania Apache Spark. Zaglądniemy nie tylko do rozwiązań pozwalających na przetwarzanie wsadowe (Spark SQL), ale także do…


  • Flink (4h)

    Flink (4h)

    4 godziny szkolenia, które jest wprowadzeniem do Apache Flink, lidera wśród narzędzi do przetwarzania strumieni danych w systemach Big Data. Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.


  • Big Data Streams (4h)

    Big Data Streams (4h)

    4 godziny szkolenia, które jest wprowadzeniem do narzędzi przetwarzania strumieni danych w systemach Big Data. Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.


  • Spark i Scala (4h)

    Spark i Scala (4h)

    4 godziny szkolenia, które jest wprowadzeniem do platformy Apache Spark. Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.


  • Platforma Hadoop – wprowadzenie (4h)

    Platforma Hadoop – wprowadzenie (4h)

    4 godziny szkolenia, które jest wprowadzeniem do platformy Hadoop. Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.


  • Przetwarzanie strumieni danych w środowiskach Big Data

    Przetwarzanie strumieni danych w środowiskach Big Data

    Jedno z niewielu szkoleń na rynku, które adresuje tematykę przetwarzania strumieni danych. Dokonuje ono kompleksowego przeglądu jej mechanizmów i narzędzi. Kurs przechodzi od najbardziej podstawowych zagadnień do najbardziej złożonych. Pozwala to opanować skomplikowany świat przetwarzania strumieni danych.