-
Bazy danych NoSQL

Fundamenty dla baz danych NoSQL powstały w latach 2006-2007 wraz z rozwiązaniami takimi jak BigTable (Google) i Dynamo (Amazon). W latach 2007-2009 powstały najważniejsze z obecnie funkcjonujących baz danych noSQL: MongoDB, HBase, Redis, Cassandra, Neo4j. Kurs przedstawia wybrane bazy danych i silniki przetwarzania danych – liderów w swoich kategoriach wśród baz danych NoSQL.
-
Big Data i platforma Hadoop – wprowadzenie

Kurs Big Data i platforma Hadoop – wprowadzenie jest praktycznym wprowadzeniem do tematyki Big Data, ze szczególnym uwzględnieniem platformy Hadoop oraz jej podstawowych narzędzi.
-
Apache Spark z wykorzystaniem języka Python
Jeszcze niedawno dokumentacja Apache Spark przykładowe fragmenty kodu w ramach dostarczanych API prezentowała w kolejności: Scala, Java, Python R. Od wersji 3.5.0 ta kolejność jest już inna: Python, Scala, Java, R. Popularność języka Python robi swoje, znaczenie dla świata Data Science to jeszcze potęguje.
-
Projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache

Szkolenie Projektowanie platformy Big Data z użyciem narzędzi z rodziny Apache zaczyna się od krótkiego wprowadzenia wyjaśnienia tego jak rozumieć Big Data i jakie ma cechy, aby zaraz po tym przejść do podstaw programowania w języku Scala oraz wykorzystania Apache Spark. Zaglądniemy nie tylko do rozwiązań pozwalających na przetwarzanie wsadowe (Spark SQL), ale także do…
-
Zaawansowane przetwarzanie strumieni danych w Apache Flink

Aplikacje analizujące napływające dane, reagujące na pojawiające się anomalie, śledzące przebieg procesów biznesowych, analizujące zmianę trendów w sieciach społecznościowych. Platformy odbierające bez przerwy dane z systemów źródłowych celem ich ciągłego przetwarzania dla przykładu zasilającego hurtownię danych, czy aktualizującego panele managerskie. To przykłady zastosowań, które jak powietrza potrzebują zaawansowanych platform przetwarzających strumienie danych.
-
Przetwarzanie danych przestrzennych
Harmonogram Dzień 1 Wprowadzenie do obiektowości Typ SDO_GEOMETRY Przetwarzanie danych przestrzennych Dzień 2 Standard SQL/MM Geometrie LRS Znaczenie układów współrzędnych Wprowadzenie Dane przestrzenne są jednym…
-
Przetwarzanie strumieni danych w Apache Spark
Harmonogram Dzień 1 Wprowadzenie do przetwarzania strumieni danych Spark Streaming Spark Structured Streaming – podstawy Spark Structured Streaming – elementy zaawansowane Wprowadzenie Przetwarzanie strumieni danych…
-
Apache Spark dla kursu Data Science PRO + AI

Jeszcze niedawno dokumentacja Apache Spark przykładowe fragmenty kodu w ramach dostarczanych API prezentowała w kolejności: Scala, Java, Python R. Od wersji 3.5.0 ta kolejność jest już inna: Python, Scala, Java, R. Popularność języka Python robi swoje, znaczenie dla świata Data Science to jeszcze potęguje.
-
Apache Spark w 1 dzień (Scala)
Wprowadzenie do Apache Spark w telegraficznym skrócie. Od podstaw do orientacji w temacie.
-
XQuery

Przetwarzanie dokumentów XML może mieć różną postać. Można go realizować proceduralnie za pomocą API takich jako DOM czy SAX. Można wykorzystać do tego celu także podejście deklaratywne takie jak arkusze XSL. Jednak jeśli dokumentów jest wiele, a podejście deklaratywne (analogiczne do SQL) jest priorytetem, wówczas XQuery jest jedynym właściwym wyborem.
-
Flink (4h)

4 godziny szkolenia, które jest wprowadzeniem do Apache Flink, lidera wśród narzędzi do przetwarzania strumieni danych w systemach Big Data. Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.
-
Big Data Streams (4h)

4 godziny szkolenia, które jest wprowadzeniem do narzędzi przetwarzania strumieni danych w systemach Big Data. Lekko, bez nadmiernych dygresji i gór informacji. W sam raz na pierwszy rzut oka.