(6-15 Квітня, Курс) Hadoop & Big Data Essentials

 5,999.00

Бажаєте навчитися планувати і створювати високоефективні, надійні і швидкі Big Data і Hadoop-кластери у одного з викладачів Kyivstar Big Data School? Навчитися правильно вибирати утиліти, налаштовувати продуктивність і безпеку? Освоїти одну з найцікавіших і затребуваних професій в IT? Тоді рекомендуємо вам один з найдоступніших і всеосяжних введень в Hadoop і Big Data від одного з найдосвідчених Big Data архітекторів України.

Out of stock

Category:

Опис

Даний курс унікальний тим, що автор викладає його вже два роки і він залишається єдиним доступним, але, в той самий час, всеосяжним введенням в чарівний світ великих даних і Hadoop. Розглянемо все: починаючи від принципово важливих відмінностей між Hadoop і реляційними базами даних, закінчуючи роботою з основними інструментами. Навчимося закачувати дані в Hadoop і отримувати їх назад, імітуючи побудову найпростіших додатків. Курс забезпечений об`ємною практикою з розгортанням своїх власних кластерів в Клауді (Amazon Web Services) і абсолютно точно затримається в голові надовго. Додайте сюди ще мільйон корисних порад, підводних каменів, кращих практик найбільших світових компаній таких як Cisco, Deloitte, Cloudera і веселих історій з життя одного з найкращих Hadoop-архітекторів України та викладача Kyivstar Big Data School 2.0, в колі таких саме допитлівих хлопців і дівчат, як і ви самі.

Аудиторія: data-інженери, адміністратори, DevOps-інженери, програмісти і всі, кому цікаво підвищити свій професійний клас і записати туди основи Hadoop і Big Data.

Складність: бажано знати основи реляційних баз даних (Мова SQL) і базові команди Linux.

Тривалість: 20 годин (5 занять)

Час проведения:

Пт, 6 Квітня 2018 08:00 – 12:00 (4 години)
Сб, 7 Квітня 2018 10:00 – 14:00 (4 години)
Нд, 8 Квітня 2018 10:00 – 14:00 (4 години)
Сб, 14 Квітня 2018 10:00 – 14:00 (4 години)
Нд, 15 Квітня 2018 10:00 – 14:00 (4 години)

Місце проведення: Київ, Гетьмана 1Б, Коворкінг “Data Hub” (м. Шулявська)

Вартість: 5999 грн.

 

Програма курсу: Hadoop & Big Data Essentials

  1. Повторення поняття реляційної бази даних
  2. Пояснення понять OLTP, OLAP, ETL
  3. Розгляд типової IT-інфраструктури підприємства з точки зору зберігання і обробки даних
  4. Пояснення поняття Великих Даних, характеристики Великих Даних
  5. Проблеми в обробці Великих Даних
  6. Екскурс в технології обробки Великих Даних
  1. CAP и BASE теореми
  2. Типи NoSQL і NewSQL баз даних
  3. NoSQL vs Hadoop
  1. Місце Hadoop в IT-інфраструктурі підприємства
  2. Огляд системи Hadoop і типові приклади використання
  3. Архітектура Hadoop
  4. Дистрибутиви Hadoop
  5. Огляд екосистемних проектів Hadoop
  1. Архітектура м сервіси HDFS
  2. Як зберігаються дані в HDFS?
  3. Процеси читання і запису файлів в HDFS
  4. Відмовостійкість, NameNode federation
  5. Проблема зберігання маленьких файлів в HDFS
  6. Формати файлів і компресія даних в HDFS
  1. Розгляд парадигми MapReduce на прикладі
  2. Архітектура кластера Hadoop з YARN
  3. Як працюють основні компоненти YARN
  4. Job Scheduling
  5. Spark on YARN – основні концепції та архітектура
  1. Які ресурси необхідні для установки кластера?
  2. Установка кластера Hadoop на 3 вузлах
  3. Управління кластером Hadoop через графічний інтерфейс і утиліту Hue
  4. Знайомство с Zeppelin
  1. Моніторинг процесів HDFS
  2. Огляд конфігураційних файлів HDFS
  3. Робота з нативними графічними інтерфейсами HDFS
  4. Маніпуляція даними в HDFS через командний рядок
  5. Програми HDFS, що полегшують життя
  1. Моніторинг процесів YARN
  2. Огляд конфігураційних файлів YARN
  3. Робота з ResourceManager UI
  4. Запуск і моніторинг MapReduce программ
  5. Запуск і моніторинг Spark программ
  6. Hadoop benchmarking
  1. Формати файлів і компресія
  2. Огляд Hive і Impala
  3. Таблиці і партиціювання в Hive
  4. Завантаження даних в таблиці Hive
  5. Читання данних за допомогою Hive і Impala
Для отримання сертифікату про успішне проходження курсу, ми підготували тест, щоб з'ясувати, що ви запам'ятали, щоб ви потім зуміли розповісти навіть своїй бабусі про Hadoop, і попросимо зробити кілька прикладів, щоб переконатися, що після цього курсу ви готові до вирішення Big Data проблем.

Питання і відповіді:

Q: Для кого цей курс?

A: Не важливо, хто ви – дата сайнтист, DevOps, тестувальник або програміст – якщо вам необхідно працювати з Hadoop, то цей курс для вас.

Q: Що я зможу робити після цього курсу?Q: Що я зможу робити після цього курсу?

A: Ви будете знати основну теорію Big Data, а також зможете розповісти як влаштований і працює Hadoop, навчитеся самостійно встановлювати кластера Hadoop, ефективно працювати з HDFS, запускати MapReduce програми або Spark додатки, оперувати даними за допомогою Hive і Impala, а також заливати дані в Hadoop з зовнішніх систем.

Q: Як буде виконуватися практика?

A: Знадобиться ноутбук і AWS-аккаунт. В рамках курсу ви створите AWS аккаунт (якщо у вас ще немає його), встановіть під чуйним керівництвом тренера кластер Hadoop, що складається з 3 “нод” (вузлів) і всю практику будете виконувати саме на цьому кластері. І природно, цей кластер залишиться вам для подальшого самонавчання і практики.

Q: Чи буду я платити додаткові гроші за інфраструктуру?

A: Так. Знадобиться карта з приблизно 20 доларами на ній для настройки інстанси на AWS. Ми могли б включити ці невеликі гроші в вартість курсу, але не хочемо обмежувати вашу творчість на випадок якщо ви відразу захочете створювати кластера на 10-20 і навіть 100 машин. Крім того, це навчить тих, хто ще не вміє, акуратно розпоряджатися ресурсами AWS і своїми грошима.

Завантажити детальну презентацію курса