Integral Technologies - wersja polska Integral Technologies - English Version Integral Technologies - Twitter Integral Technologies - Facebook
przeszukaj: 
STRONA GŁÓWNA  »  SZKOLENIA  »  OPIS SZKOLENIA
 
Skip Navigation Links
O FIRMIE
» Autoryzacje
» Referencje
» Siedziba
» Kariera
OBSŁUGA SZKOLEŃ
» Wyszukiwanie
» Lista Szkoleń
» Zapisy
» Vouchery
» Promocje
» Regulamin
OFERTA SZKOLEŃ
» Microsoft Office
» Autoryzowane Szkolenia
         Microsoft
» Grafika Komputerowa
» Programowanie
» Technologie Internetowe
» Zarządzanie Projektami
» Software Assurance
» Szkolenia onLine
PROJEKTY UNIJNE
USŁUGI
» Aplikacje
EGZAMINY
» Pearson VUE
» Certiport MOS
» Castle
» Promocje
» Cennik
» Zapisy
» Ścieżki Microsoft
KONTAKT
POLITYKA PRYWATNOŚCI
ZAMÓW NEWSLETTER
Baza wiedzy MSDN
MS-20775
Performing Data Engineering On Microsoft HD Insight
szkolenie autoryzowane
cena / 1 osoba
3 850,00 zł
czas trwania
5 dni
dostępność onLine
zapytaj »
O szkoleniu
Dla kogo
Głównym celem tego kursu jest umożliwienie uczestnikom nauczenia się umiejętności planowania i realizacji przepływów pracy big data w HDInsight.
Wymagania wstępne
  • Doświadczenie w programowaniu z wykorzystaniem R i znajomość typowych pakietów R.
  • Znajomość powszechnych metod statystycznych i najlepszych praktyk w zakresie analizy danych.
  • Podstawowa znajomość systemu operacyjnego Microsoft Windows i jego podstawowej funkcjonalności.
  • Praktyczna wiedza z relacyjnych baz danych.
Zakres tematyczny
  • Pierwsze kroki z HDInsight
    • co to jest Big Data?
    • wprowadzenie do Hadoop
    • praca z funkcją MapReduce
    • wprowadzenie do HDInsight
  • Wdrożanie klastra HDInsight
    • identyfikacja typów klastra HDInsight
    • zarządzanie klastrami HDInsight za pomocą portalu Azure
    • zarządzanie klastrem HDInsight za pomocą Azure PowerShell
  • Autoryzacja użytkowników w celu uzyskania dostępu do zasobów
    • łączenie klastrów z poza domeny
    • konfigurowanie klastrów domenowych HDInsight
    • zarządzanie klastrami domenowych HDInsight
  • Wczytywanie danych do HDInsight
    • przechowywanie danych dla przetwarzania HDInsight
    • korzystanie z narzędzi do wczytywania danych
    • maksymalizacja wartości z przechowywanych danych
  • Rozwiązywanie problemów z HDInsight
    • analiza logów HDInsight
    • logi YARN
    • zrzuty stosu
    • pakiet zarządzania operacjami
  • Wdrażanie rozwiązań wsadowych
    • magazyn Apache Hive
    • zapytania HDInsight przy użyciu Hive i Pig
    • używanie HDInsight
  • Projektowanie wsadowych rozwiązań ETL dla dużych zbiorów danych za pomocą Spark
    • co to jest Spark?
    • ETL ze Spark
    • wydajność Spark
  • Analiza danych za pomocą Spark SQL
    • implementacja zapytań iteracyjnych i interaktywnych
    • wykonanie analizy eksploracyjnej danych 
  • Analiza danych za pomocą Hive i Phoenix
    • implementacja interaktywnych zapytań Big Data za pomocą interaktywnej Hive
    • wykonanie analizy eksploracyjnej danych  za pomocą Hive
    • wykonanie interaktywnego przetwarzanie za pomocą Apache Phoenix
  • Stream Analytics
    • analiza strumieniowa (Stream Analytics)
    • przetwarzanie danych strumieniowych ze Stream Analytics
    • zarządzanie zadaniami Stream Analytics
  • Wdrażanie rozwiązań strumieniowania za pomocą Kafka i Hbase
    • budowanie i wdrożenie klastra Kafka
    • publikowanie, używanie i przetwarzanie danych za pomocą klastra Kafka 
    • użycie HBase do zapytań i przechowywania
  • Opracowywanie rozwiązań przetwarzania danych w czasie rzeczywistym za pomocą Apache Storm
    • utrzymanie danych długoterminowych
    • strumieniowanie danych za pomocą Storm
    • tworzenie topologii Storm
    • konfiguracja Apache Storm
  • Tworzenie aplikacji strumieniowych Spark
    • praca ze Spark Streaming
    • tworzenie aplikacji strumieniowo-strukturalnej Spark
    • trwałość i wizualizacja
Zakres tematyczny szkolenia
Dla kogo
Głównym celem tego kursu jest umożliwienie uczestnikom nauczenia się umiejętności planowania i realizacji przepływów pracy big data w HDInsight.
Wymagania wstępne
  • Doświadczenie w programowaniu z wykorzystaniem R i znajomość typowych pakietów R.
  • Znajomość powszechnych metod statystycznych i najlepszych praktyk w zakresie analizy danych.
  • Podstawowa znajomość systemu operacyjnego Microsoft Windows i jego podstawowej funkcjonalności.
  • Praktyczna wiedza z relacyjnych baz danych.
Zakres tematyczny
  • Pierwsze kroki z HDInsight
    • co to jest Big Data?
    • wprowadzenie do Hadoop
    • praca z funkcją MapReduce
    • wprowadzenie do HDInsight
  • Wdrożanie klastra HDInsight
    • identyfikacja typów klastra HDInsight
    • zarządzanie klastrami HDInsight za pomocą portalu Azure
    • zarządzanie klastrem HDInsight za pomocą Azure PowerShell
  • Autoryzacja użytkowników w celu uzyskania dostępu do zasobów
    • łączenie klastrów z poza domeny
    • konfigurowanie klastrów domenowych HDInsight
    • zarządzanie klastrami domenowych HDInsight
  • Wczytywanie danych do HDInsight
    • przechowywanie danych dla przetwarzania HDInsight
    • korzystanie z narzędzi do wczytywania danych
    • maksymalizacja wartości z przechowywanych danych
  • Rozwiązywanie problemów z HDInsight
    • analiza logów HDInsight
    • logi YARN
    • zrzuty stosu
    • pakiet zarządzania operacjami
  • Wdrażanie rozwiązań wsadowych
    • magazyn Apache Hive
    • zapytania HDInsight przy użyciu Hive i Pig
    • używanie HDInsight
  • Projektowanie wsadowych rozwiązań ETL dla dużych zbiorów danych za pomocą Spark
    • co to jest Spark?
    • ETL ze Spark
    • wydajność Spark
  • Analiza danych za pomocą Spark SQL
    • implementacja zapytań iteracyjnych i interaktywnych
    • wykonanie analizy eksploracyjnej danych 
  • Analiza danych za pomocą Hive i Phoenix
    • implementacja interaktywnych zapytań Big Data za pomocą interaktywnej Hive
    • wykonanie analizy eksploracyjnej danych  za pomocą Hive
    • wykonanie interaktywnego przetwarzanie za pomocą Apache Phoenix
  • Stream Analytics
    • analiza strumieniowa (Stream Analytics)
    • przetwarzanie danych strumieniowych ze Stream Analytics
    • zarządzanie zadaniami Stream Analytics
  • Wdrażanie rozwiązań strumieniowania za pomocą Kafka i Hbase
    • budowanie i wdrożenie klastra Kafka
    • publikowanie, używanie i przetwarzanie danych za pomocą klastra Kafka 
    • użycie HBase do zapytań i przechowywania
  • Opracowywanie rozwiązań przetwarzania danych w czasie rzeczywistym za pomocą Apache Storm
    • utrzymanie danych długoterminowych
    • strumieniowanie danych za pomocą Storm
    • tworzenie topologii Storm
    • konfiguracja Apache Storm
  • Tworzenie aplikacji strumieniowych Spark
    • praca ze Spark Streaming
    • tworzenie aplikacji strumieniowo-strukturalnej Spark
    • trwałość i wizualizacja
O ośrodku szkoleniowym
Integral Technologies
ul. Wspólna 50A lok. 37, 00-684 Warszawa
MS-20775
Performing Data Engineering On Microsoft HD Insight
czas trwania: 5 dni
Dla kogo
Głównym celem tego kursu jest umożliwienie uczestnikom nauczenia się umiejętności planowania i realizacji przepływów pracy big data w HDInsight.
Wymagania wstępne
  • Doświadczenie w programowaniu z wykorzystaniem R i znajomość typowych pakietów R.
  • Znajomość powszechnych metod statystycznych i najlepszych praktyk w zakresie analizy danych.
  • Podstawowa znajomość systemu operacyjnego Microsoft Windows i jego podstawowej funkcjonalności.
  • Praktyczna wiedza z relacyjnych baz danych.
Zakres tematyczny
  • Pierwsze kroki z HDInsight
    • co to jest Big Data?
    • wprowadzenie do Hadoop
    • praca z funkcją MapReduce
    • wprowadzenie do HDInsight
  • Wdrożanie klastra HDInsight
    • identyfikacja typów klastra HDInsight
    • zarządzanie klastrami HDInsight za pomocą portalu Azure
    • zarządzanie klastrem HDInsight za pomocą Azure PowerShell
  • Autoryzacja użytkowników w celu uzyskania dostępu do zasobów
    • łączenie klastrów z poza domeny
    • konfigurowanie klastrów domenowych HDInsight
    • zarządzanie klastrami domenowych HDInsight
  • Wczytywanie danych do HDInsight
    • przechowywanie danych dla przetwarzania HDInsight
    • korzystanie z narzędzi do wczytywania danych
    • maksymalizacja wartości z przechowywanych danych
  • Rozwiązywanie problemów z HDInsight
    • analiza logów HDInsight
    • logi YARN
    • zrzuty stosu
    • pakiet zarządzania operacjami
  • Wdrażanie rozwiązań wsadowych
    • magazyn Apache Hive
    • zapytania HDInsight przy użyciu Hive i Pig
    • używanie HDInsight
  • Projektowanie wsadowych rozwiązań ETL dla dużych zbiorów danych za pomocą Spark
    • co to jest Spark?
    • ETL ze Spark
    • wydajność Spark
  • Analiza danych za pomocą Spark SQL
    • implementacja zapytań iteracyjnych i interaktywnych
    • wykonanie analizy eksploracyjnej danych 
  • Analiza danych za pomocą Hive i Phoenix
    • implementacja interaktywnych zapytań Big Data za pomocą interaktywnej Hive
    • wykonanie analizy eksploracyjnej danych  za pomocą Hive
    • wykonanie interaktywnego przetwarzanie za pomocą Apache Phoenix
  • Stream Analytics
    • analiza strumieniowa (Stream Analytics)
    • przetwarzanie danych strumieniowych ze Stream Analytics
    • zarządzanie zadaniami Stream Analytics
  • Wdrażanie rozwiązań strumieniowania za pomocą Kafka i Hbase
    • budowanie i wdrożenie klastra Kafka
    • publikowanie, używanie i przetwarzanie danych za pomocą klastra Kafka 
    • użycie HBase do zapytań i przechowywania
  • Opracowywanie rozwiązań przetwarzania danych w czasie rzeczywistym za pomocą Apache Storm
    • utrzymanie danych długoterminowych
    • strumieniowanie danych za pomocą Storm
    • tworzenie topologii Storm
    • konfiguracja Apache Storm
  • Tworzenie aplikacji strumieniowych Spark
    • praca ze Spark Streaming
    • tworzenie aplikacji strumieniowo-strukturalnej Spark
    • trwałość i wizualizacja
 
PARTNERZY
Europejski Fundusz Rozwoju Regionalnego
© 2018 Integral Technologies