崗位職責:
1.負責企業級數據中臺架構設計與核心模塊開發,支撐全域數據資產化;
2.搭建高可用數據管道(ETL/ELT),完成多源異構數據采集、清洗與標準化處理;
3.主導數據倉庫建模(維度建模/Data Vault),優化數據分層存儲與計算性能;
4.設計數據服務化接口(API/數據沙箱),支持業務部門自助分析需求;
5.制定數據治理規范(元數據/數據質量/血緣追蹤),保障數據資產可管可控;
6.協同算法團隊構建數據應用場景(用戶畫像/實時大屏/智能風控)。
任職要求:
1.統招本科及以上學歷,計算機/統計相關專業,3年以上數據開發經驗;
2.精通Hadoop/Spark/Flink生態圈,具備TB級數據處理及性能調優經驗;
3.熟練使用SQL/Python/Scala,掌握DolphinScheduler等調度工具;
4.熟悉數據倉庫技術(Kimball理論/數據湖架構),有Hive/ClickHouse/StarRocks實戰經驗;
5.了解數據治理框架(Apache Atlas/DataHub),熟悉數據安全管控方案;
6.具備云平臺(AWS/阿里云數據工場)開發經驗,掌握Kafka/Pulsar流處理技術。
優先條件:
1.有數據中臺從0到1搭建經驗,熟悉OneData方法論;
2.掌握實時數倉(Flink CDC/Doris)或湖倉一體架構(Iceberg/Hudi);
3.熟悉DataOps理念,有DataMesh架構實踐經驗;
4.了解主流BI工具(Tableau/FineBI)或數據建模工具(PowerDesigner/Erwin)。