AWS BIG DATA ANALYTICS – SPECIALTY

INICIO

próximamente

Martes, Jueves : 20:00  a 22:30  GMT – 5 y Sábado: 9:00 a 12:00 GMT – 5

  • DESCRIPCION DEL CURSO
  • TEMARIO
  • DOCENTE
  • PREGUNTAS FRECUENTES

AWS BIG DATA
ANALYTICS – SPECIALTY

El objetivo de este programa de especialización es formar a los participantes como especialista cloud  AWS BIG DATA ANALYTICS SPECIALTY. El Professional AWS Big Data Analytics Specialty desarrolla e implementa soluciones de Big Data & Analytics los cuales ofrecen oportunidades y desafios a las empresas para poder analizar los datos de manera eficiente y obtener una ventaja competitiva en el mercado. Las arquitecturas de gestión de datos han evolucionado desde el modelo tradicional de almacenamiento de datosa arquitecturas más complejas que abordan más requisitos, como el procesamiento por lotes y en tiempo real, datos estructurados y no estructurados,  transacciones de alta velocidad entre otros mas. AWS proporciona una amplia plataforma de servicios administrados para ayudarlo a construir, proteger y escalar sin problemas aplicaciones de Big Data & Analytics de extremo a extremo de manera rápida y sencilla. Si sus aplicaciones requieren transmisión en tiempo real o procesamiento de datos por lotes AWS proporciona la infraestructura y las herramientas  necesarios para que pueda abordar su próximo proyecto de Big Data & Analytics

En este módulo abordaremos los conceptos relacionado a Big Data Analytics, Cloud computing y AWS.

  • Big Data Analytics
  • Cloud Computing
  • AWS

En este módulo abordaremos los servicios fundamentales que son transversales a diversos tipos de proyectos que se pueden desarrollar en AWS

  • Networking: VPC, route table, subnet, endpoint y security group
  • Security and user management: AWS KSM, IAM roles, profile y users.
  • Code as a Service: AWS Cloudformation

Laboratorio:

  • Despliegue de la infraestructura inicial mediante cloudformation.

En este módulo abordaremos todo lo referente a la colección e ingesta de datos en AWS para capturar información en forma batch y real time en proyectos de Big data & Analytics.

  • Kinesis Stream:
    • Core concepts: Resharing (splitting y merging), distribution, enhanced fan out y batching,
    • Producer: KPL, agent
    • Consumer: KCL, lambda
    • Encryption and decryption
    • Vs SQS
  • Kinesis Firehose:
    • Conexión con S3, Redshift y Elasticsearch
  • MSK
    • Cluster de Kafka administrado por AWS

Laboratorio:

  • Despliegue de los servicios y features mencionados.
  • Creación de productores y consumidores para Kinesis Stream usando KPL y KCL
  • Data pipeline usando Kinesis Firehose, Lambda, S3/Redshifd/ElasticSearch

En este módulo abordaremos todo lo concerniente a la fase de almacenamiento y los diversos tipos de storages que brinda AWS para proyectos de Big data & Analytics.

  • S3: lifecycle, etag, versions, replicacion, layer tier, encryption at rest (client o server-side) y glacier
  • DynamoDB
    • Core concepts: TTL, partitioning, write y read capacity, LSI y GSI, autoscaling, Dynamodb Streams, Dynamo DAX,
  • Keyspaces
    • Cluster de Casssandra administrado por AWS
  • RDS
    • Aurora

Laboratorio:

  • Despliegue de todos los servicios y features mencionados en AWS.
  • Creación tablas de dynamo y dynamo Streams y consumidos mediante Lambdas / KCL

En este módulo abordaremos todo lo concerniente al procesamiento de datos, usando los diversos servicios que brindas AWS para proyectos de Big data & Analytics.

  • Glue
    • Crawler y clasificadores
    • Glue catalog
    • Glue Notebook
  • EMR: Hadoop environment core concepts
    • HDFS, Hive, Spark, Presto, Livy, Hue
    • Integración EMR con AWS Glue
    • EMR Auto escalado
    • EMR Steps
    • EMR Notebook
    • EMR administración
    •  
    • EMR tipo de instancias y opciones de compra.
  • Lambdas
    • Empaquetado de archivos y buenas prácticas.

Laboratorio:

  • Despliegue de todos los servicios y features mencionados en AWS.
  • Despliegue pipeline s3, lambda, glue (crawler y job)
  • Despliegue de aplicación spark (scala) – Redshift en EMR

En este módulo abordaremos todo lo referente al análisis de datos, fase importante de toda solución de Big Data & Analytics revisando diversos servicios que ofrece AWS.

  • Kinesis Analytics:
    • Continuous y windows queries
  • Redshift:
    • Core concepts Estilos de distribución, DBLink, WLM, escalamiento manual y concurrente, tipos de nodos, encriptación y compresión.
    • Administración: STL and SVV tables, carga de data, mantenimiento de índices y anti-patrones.
  • Redshift spectrum:
    • Performance y buenas prácticas.
  • ElasticSearch service:
    • Kibana, logstach y elaticSearch
  • Athena
    • Integracion con S3 y conectores customizados
  • Sagemaker

Laboratorio:

  • Despliegue de todos los servicios y features mencionados en AWS.
  • Despliegue de un cluster de Redshift y Redshift spectrum con S3
  • Data pipeline usando Sagemake – Athena – S3/Dynamodb/JDBC.
  • Múltiples formas de ingesta de datos en Elasticsearch (Rest API, Elastic driver y beats)

En este módulo se revisará el servicio que ofrece AWS para visualización y además unos conceptos transversales de todos los servicios aprendidos.

  • Quicksight
    • SPICE vs Query
    • Tipos de visualización
  • LakeFormation
  • Cloudwatch
  • Integración general de los servicios de Bigdata vistos.
  • Laboratorio:

    • Despliegue de todos los servicios y features mencionados en AWS.
    • Creación de dashboards mediante Quicksight e integracion con S3/Athena/Redshift
    • Despliegue pipeline usando LakeFormation

    Ademas:

    • La creación e interacción con los servicios de Amazon se darán usando AWS CLI, Python (boto3) o Scala (JDK conector), dependiendo del caso.
    • Banco de pregunta para el examen AWS Certified Data Analytics

Instructor Ing. Michael Martin Balboa

Nuestro instructor Michael es Ing. de Sistemas especializado en tecnologías Cloud, Big Data & Analytics.Actualmente se desempeña como Senior Big Data Engineer y Cloud Specialist AWS en Belcorp liderando diversos proyectos para la corporación que tiene presencia en 15 países.Cabe resaltar que además de la experiencia laboral de nuestro docente especializado también cuenta con diversas certificaciones oficiales de tecnologías Cloud y Big Data :

– AWS Certified Big Data Specialty
– AWS Certified Solution Architect
– DataStax Certified professional on Apache Cassandra
– CRT020 Databricks Certified Associate Developer for Apache Spark

DIRIGIDO A:

Este curso de especialización esta dirigido a todas aquellas personas que desean especializarse como AWS Big Data Analytics Specialty para tener la capacidad de diseñar, desarrollar e implementar soluciones tecnologicas de Big Data & Analytics utilizando los componentes y servicios de AWS.

Previous
Next

REQUISITOS: Se recomienda conocimientos básicos relacionado a base de datos SQL y algún lenguaje de programación y comandos basicos linux. Tambien deben contar con una cuenta activa en AWS.

CERTIFICADO:  Al finalizar el programa de especialización se hará entrega de un certificado físico y/o digital a nombre de la empresa ATC como especialista Cloud: AWS BIG DATA ANALYTICS SPECIALTY

ATC  diseña y desarrolla cursos especializados en temas relacionado al área de Big Data, Machine Learning, Data Science, Data Mining, Deep Learning, Artificial intelligence y Business Intelligence.

contacto

Menú

suscripciones

Messenger
Abrir chat
Hola, en que te puedo ayudar