Requisitos
Tecnologias Necessárias
Conhecimentos obrigatórios
Tempo de Experiência
Experiência mínima obrigatória
3+ anos como Engenheiro de Dados
O que buscamos:
Profissional que atue como Engenharia de Dados / Data Platform
Responsabilidades:
Experiência como Data Platform.
Requisitos e Qualificações:
Experiência como Data Platform;
Tecnologias de Armazenamento de Dados: Conhecimento profundo em bases de dados relacionais e não relacionais (SQL, NoSQL), e soluções em cloud (Amazon Redshift, Google BigQuery, Snowflake);
ETL e Data Pipelines: Experiência com ferramentas de ETL (Apache NiFi, Apache Airflow, Talend, AWS Glue) e integração de dados;
Big Data e Arquitetura de Dados: Familiaridade com ferramentas como Hadoop, Spark, Kafka, Flink, e arquiteturas distribuídas;
Plataformas de Cloud: Expertise em AWS, Microsoft Azure, Google Cloud Platform, com foco na implementação de soluções de dados em cloud;
Linguagens de Programação: Proficiência em Python, SQL, Java, Scala, com ênfase em automação e criação de algoritmos para processamento de grandes volumes de dados;
Governança e Segurança de Dados: Compreensão das melhores práticas para segurança, privacidade e qualidade dos dados (GDPR, CCPA, etc.), além de estratégias de governança de dados;
Ferramentas: EKS, EMR, Pyspark, Airflow, Criação de API, Consumo de APIs, CI/CD;
Alta capacidade de análise e resolução de problemas;
Comportamental: facilidade de trabalho em equipe, iniciativa, dinâmico e responsável;
Atividades
O que buscamos:
Profissional que atue como Engenharia de Dados / Data Platform
Responsabilidades:
Experiência como Data Platform.
Requisitos e Qualificações:
Experiência como Data Platform;
Tecnologias de Armazenamento de Dados: Conhecimento profundo em bases de dados relacionais e não relacionais (SQL, NoSQL), e soluções em cloud (Amazon Redshift, Google BigQuery, Snowflake);
ETL e Data Pipelines: Experiência com ferramentas de ETL (Apache NiFi, Apache Airflow, Talend, AWS Glue) e integração de dados;
Big Data e Arquitetura de Dados: Familiaridade com ferramentas como Hadoop, Spark, Kafka, Flink, e arquiteturas distribuídas;
Plataformas de Cloud: Expertise em AWS, Microsoft Azure, Google Cloud Platform, com foco na implementação de soluções de dados em cloud;
Linguagens de Programação: Proficiência em Python, SQL, Java, Scala, com ênfase em automação e criação de algoritmos para processamento de grandes volumes de dados;
Governança e Segurança de Dados: Compreensão das melhores práticas para segurança, privacidade e qualidade dos dados (GDPR, CCPA, etc.), além de estratégias de governança de dados;
Ferramentas: EKS, EMR, Pyspark, Airflow, Criação de API, Consumo de APIs, CI/CD;
Alta capacidade de análise e resolução de problemas;
Comportamental: facilidade de trabalho em equipe, iniciativa, dinâmico e responsável;