- Menganalisa bisnis proses dan menganalisa struktur data, merancang model datawarehouse dan datamart dan membuat solusi big data
- Mempersiapkan, memanipulasi dan mengolah data serta membuat pipeline data integrasi (ETL/ELT/Realtime) dari berbagai sumber data sesuai dari kebutuhan yang telah didefinisikan di project
- Membuat laporan dan mepersiapkan data untuk kebutuhan analis
Kualifikasi:
- Usia maksimal 30 tahun
- Pendidikan minimal S1 Teknik Informatika
- Pengalaman di posisi yang sama minimal 3 tahun
- Memahami Database : Oracle, SQL Server, MySql, MariaDB, PostgreSql, MongodB
- Memahami Data Modeling dan Konsep Datawarehousing : Slowly Changing Dimension, Star Schema, Snowflake Schema, OLAP Database, Columnar Database
- Memahami Data Integration : ETL Tools/Pipeline tools (Pentaho, Talend, SSIS, Informatica, AWS Glue, Kafka)
- Memahami Cloud : AWS (Prefered), Azure, Google Clouds
- Memahami Operating System Linux
- Memahami Big Data : Hadoop, S3, AWS Redshift/Athena, Azure Synapse, Google BigQuery, Apache Spark
- Coding : SQL, Python/Java/NodeJS/.NET
- Memahami Konsep Machine Learning : Algoritma supervised learning & unsupervised learing and Python
- Memahami Data Visualization : Power BI, Tableau
- Penempatan : Kantor Pusat – Ciracas Jakarta Timur