|
|
| |
| |
职位描述 用小程序查看更多 |
|
【岗位职责】 1.负责日志、数据库、API及第三方数据等多源异构数据的接入、清洗与标准化处理,搭建高效稳定的数据入湖管道。 2.参与数据仓库离线、准实时及实时ETL任务的开发工作。 3.搭建端到端数据质量监控体系,制定并落地数据校验规则,保障数据质量符合标准。 4.参与大数据治理体系设计,负责数据模型的开发与维护,通过元数据管理及质量体系实现专有领域数据的全链路管控。 5.参与数据资产管理,重点搭建指标体系、标签体系,并负责数据目录的梳理与维护。
【任职要求】 1.至少5年以上的大数据领域工作经验,其中2年及以上企业级大数据平台搭建或多业务域数据治理经验。有集团型企业数字化转型项目经验,或涉及办公、经营、工业(建造)、会员运营等2个及以上业务方向数据开发经历者优先,熟悉多源异构数据整合逻辑。 2.精通Hadoop生态技术,熟练使用Spark、Flink进行数据开发;掌握数据采集工具,能适配结构化、非结构化、时序等多类型数据采集需求;熟悉OLAP引擎,能设计高性能数据查询方案支撑业务分析。 3.具备完整的数据治理落地经验,熟悉数据标准制定、数据质量管控、数据血缘追踪、元数据管理流程; 4.了解数据建模方法,能针对经营分析、风控预警、会员画像等场景设计合理的数据模型,保障数据的易用性与分析效率。 |
|
| |
|
|
| |
|