Big Data - Processamento de dados com Spark e PySpark

Crie o seu servidor Apache Spark, processe grandes quantidades e faça um streaming em tempo real utilizando PySpark :)

Big Data - Processamento de dados com Spark e PySpark
Big Data - Processamento de dados com Spark e PySpark

Big Data - Processamento de dados com Spark e PySpark udemy course

Crie o seu servidor Apache Spark, processe grandes quantidades e faça um streaming em tempo real utilizando PySpark :)

Não se assuste mais com as tecnologias de Big Data! Aprenda o essêncial para processar grandes quantidades de dados em memória com o melhor Framework do mercado: O Apache Spark!

Iniciaremos do zero, explicando o que é Big Data e o que é necessário para que um dado seja categorizado como tal. Tudo de forma simples, com uma linguagem leve e agradável! 

Após nos situarmos entre as tecnologias explicadas, dentre elas, o Hadoop, criaremos um servidor Apache Spark em uma instalação Windows e então prosseguiremos o curso explicando todo o framework e analisando dados. Vale ressaltar que instalaremos o Spark no Windows para os usuários menos experientes. Caso você seja usuário Linux, não se preocupe: Os comandos são os mesmos!

Explicaremos detalhadamente o que são as variáveis de ambiente e como elas influenciam na instalação e configuração de programas, como por exemplo o Java e a sua máquina virtual, a JVM.

Aplicaremos Map Reduce e outras funções nativas do Spark, utilizaremos o Spark SQL, criaremos RDDs e os novos Dataframes! Tudo isso do zero, passo a passo, explicado com  que você já conhece!

Preocupado com os softwares? Você terá um drive com todos os programas e scripts do curso, exlusivo para o nosso material, além de, é claro, também ter os links oficiais, caso deseje baixar os programs direto do fabricante!

E aí? Curtiu a ementa?

Vem comigo aprender a processar Big Data!!