Curso de Big Data Developer con Cloudera Apache Hadoop (IFCD23)

Dificultad: Intermedio

Presentaci贸n Descargar PDF

Curso de Big Data Developer con Cloudera Apache Hadoop (IFCD23)聽orientado a obtener la certificaci贸n oficial de聽Cloudera. 100% gratuito si se imparte bajo alguno de los programas subvencionados por el SERVEF de Formaci贸n Profesional para el Empleo.

聽Duraci贸n: 175h

聽Prop贸sito

Los alumnos adquirir谩n los conocimientos b谩sicos del lenguaje Java y los conocimientos necesarios para, una vez familiarizados con los componentes principales de Hadoop, HDFS, MapReduce y el amplio ecosistema alrededor de Hadoop, elaborar c贸digo sobre la API de Hadoop, as铆 como depurar programas Mapreduce y optimizar su funcionamiento. A lo largo del curso tambi茅n se introduce a los asistentes en otros elementos del ecosistema Hadoop como son Hive, Pig, HBase, Flume y Oozie.

聽Objetivos

Al finalizar el Curso de Big Data Developer con Cloudera Apache Hadoop (IFCD23), el alumno estar谩 preparado para analizar y resolver problemas del mundo real utilizando Apache Hadoop y herramientas asociadas al centro de datos empresariales. Se trabajar谩 a trav茅s de todo el proceso de dise帽o y construcci贸n de soluciones, incluyendo los datos de ingesti贸n, determinar el formato de archivo adecuado para el almacenamiento, el procesamiento de los datos almacenados, y presentar los resultados al usuario final en una forma f谩cil de interpretar. Ir谩 m谩s all谩 de MapReduce para utilizar elementos adicionales del centro de datos empresarial y desarrollar aplicaciones de convergencia que son altamente relevantes para el negocio.

聽聽Contenidos

  • M贸dulo 1: Desarrollo de Aplicaciones Python聽(75h)
    1. – Introducci贸n a Python.
    2. – C贸mo ejecuta Python los programas.
    3. – Ejecutar programas en Python.
    4. – Introducci贸n a los tipos de objetos Python.
    5. – Tipos Num茅ricos.
    6. – Tipado Din谩mico.
    7. – Fundamentos de Cadenas.
    8. – Listas y Diccionarios.
    9. – Tuplas, Ficheros y todo lo dem谩s.
    10. – Introducci贸n a las Sentencias Python.
    11. – Asignaciones, Expresiones y Prints.
    12. – if Tests y Reglas de Sintaxis.
    13. – Los Bucles While y For.
    14. – Iteraciones y Comprehensions.
    15. – La Documentaci贸n.
    16. – Fundamentos de las Funciones.
    17. – Scopes.
    18. – Argumentos.
    19. – Funciones Avanzadas.
    20. – Comprehensions y Generations.
    21. – Benchmarking.
    22. – M贸dulos.
    23. – Programaci贸n de M贸dulos.
    24. – Programaci贸n Orientada a Objetos.
    25. – Fundamentos de Programaci贸n de Clases.
    26. – Sobrecarga de Operadores.
  • M贸dulo 2: Desarrollador Cloudera para Apache Spark I聽(50h)
    1. – 聽Introduction.
    2. – Introduction to Hadoop and the Hadoop Ecosystem.
    3. – Hadoop Architecture and HDFS.
    4. – Importing Relational Data with Apache Sqoop.
    5. – Introduction to Impala and Hive.
    6. – Modeling and Managing Data with Impala and Hive.
    7. – Data Formats.
    8. – Data Partitioning.
    9. – Capturing Data with Apache Flume.
    10. – Spark Basics.
    11. – Working with RDDs in Spark.
    12. – Writing and Deploying Spark Applications.
    13. – Parallel Programming with Spark.
    14. – Spark Caching and Persistence.
    15. – Common Patterns in Spark Data Processing.
    16. – Preview: Spark SQL.
    17. – Conclusion.
  • M贸dulo 3: Desarrollador Cloudera para Apache Spark II (50h)
    1. – 聽Introducci贸n.
    2. – Arquitectura de applicaciones.
    3. – Simplificando el desarrollo con Kite SDK.
    4. – Definiendo y usando Data Sets.
    5. – Importaci贸n de datos relacionales con Apache Sqoop.
    6. – Captura de datos con Apache Flume.
    7. – Desarrollo de componentes Flume customizados.
    8. – Manejo de Workflows con Apache Oozie.
    9. – Procesamiento de pipeline de datos con Apache Crunch.
    10. – Leer y analizar formatos de datos customizados en Apache Hive.
    11. – Responder queries interactivas con Impala.
    12. – Transformaci贸n de Data Streams con Morphlines.
    13. – Autorizar B煤squeda completa en los datos guardados con HDFS.
    14. – Presentaci贸n de resultados a los usuarios.
    15. – Trabajo de RDDs.
    16. – El Hadoop Distributed File System.
    17. – Ejecutar Spark en un Cluster.
    18. – Programaci贸n paralela con Spark.
    19. – Caching y Persistence.
    20. – Escritura de aplicaciones Spark.
    21. – Spark, Hadoop y el Enterprise Data Center.
    22. – Spark Streaming.
    23. – Algoritmos usuales en Spark.
    24. – Mejora de rendimiento Spark.
    25. – Conclusi贸n.

聽Dirigido a

A trabajadores y/o desempleados que pretendan dedicarse a ocupar puestos de trabajos para los que capacita este curso.

聽Requisitos

Corresponder谩 a la Administraci贸n laboral competente la comprobaci贸n de que los alumnos poseen los requisitos formativos y profesionales para cursar con aprovechamiento la formaci贸n en los t茅rminos previstos en los apartados siguientes.

Para acceder a la formaci贸n de los m贸dulos formativos de los certificados de profesionalidad de los niveles de cualificaci贸n profesional 2 y 3 los alumnos deber谩n cumplir alguno de los requisitos siguientes:

  1. Estar en posesi贸n del T铆tulo de Graduado en Educaci贸n Secundaria Obligatoria para el nivel 2 o t铆tulo de Bachiller para nivel 3.
  2. Estar en posesi贸n de un certificado de profesionalidad del mismo nivel del m贸dulo o m贸dulos formativos y/o del certificado de profesionalidad al que desea acceder.
  3. Estar en posesi贸n de un certificado de profesionalidad de nivel 1 de la misma familia y 谩rea profesional para el nivel 2 o de un certificado de profesionalidad de nivel 2 de la misma familia y 谩rea profesional para el nivel 3.

Materiales, metodolog铆a y evaluaci贸n

Profesor

Juan Carlos Hern谩ndez

Licenciado en Inform谩tica. BSc in Computer Science. 20 a帽os de experiencia profesional y docente.