职位描述
Shell数据架构数据治理数据中台开发JavaSqlSparkKafka
岗位职责
· 参与公司数据平台的建设与维护,支撑数据采集、存储、处理、服务等工作;
· 设计并开发高可靠、高性能、可扩展的批处理与实时数据管道(Data Pipeline);
· 优化现有数据模型与 ETL/ELT 流程,提升数据处理效率与质量;
· 协同数据分析师、算法工程师和业务团队,理解数据需求并提供工程化解决方案;
· 推动数据治理落地,包括元数据管理、数据血缘、质量监控与标准化;
· 编写清晰的技术文档,参与代码评审,保障系统可维护性与稳定性;
· 跟踪大数据领域新技术,持续改进数据架构与工具链。
任职要求
· 计算机、软件工程、数学或相关专业本科及以上学历,3年以上数据工程或后端开发经验;
· 精通 SQL,熟悉Java编程语言;
· 熟悉常用大数据技术栈,具备以下至少两项实战经验:
· 批处理:Spark(PySpark/Scala)、Hive、MapReduce
· 实时计算:Flink、Kafka Streams、Spark Streaming
· 数据仓库:Snowflake、Redshift、BigQuery、Doris、ClickHouse 或 Hive 数仓建模
· 消息队列:Kafka、Pulsar、RocketMQ
· 熟悉 Linux 环境及 Shell 脚本,具备基本的 DevOps 能力(如 CI/CD、Docker);
· 了解数据建模方法(维度建模、范式建模)及数据分层设计(ODS/DWD/DWS/ADS);
· 具备良好的沟通能力和团队协作精神,能主动推动问题解决。
· 参与公司数据平台的建设与维护,支撑数据采集、存储、处理、服务等工作;
· 设计并开发高可靠、高性能、可扩展的批处理与实时数据管道(Data Pipeline);
· 优化现有数据模型与 ETL/ELT 流程,提升数据处理效率与质量;
· 协同数据分析师、算法工程师和业务团队,理解数据需求并提供工程化解决方案;
· 推动数据治理落地,包括元数据管理、数据血缘、质量监控与标准化;
· 编写清晰的技术文档,参与代码评审,保障系统可维护性与稳定性;
· 跟踪大数据领域新技术,持续改进数据架构与工具链。
任职要求
· 计算机、软件工程、数学或相关专业本科及以上学历,3年以上数据工程或后端开发经验;
· 精通 SQL,熟悉Java编程语言;
· 熟悉常用大数据技术栈,具备以下至少两项实战经验:
· 批处理:Spark(PySpark/Scala)、Hive、MapReduce
· 实时计算:Flink、Kafka Streams、Spark Streaming
· 数据仓库:Snowflake、Redshift、BigQuery、Doris、ClickHouse 或 Hive 数仓建模
· 消息队列:Kafka、Pulsar、RocketMQ
· 熟悉 Linux 环境及 Shell 脚本,具备基本的 DevOps 能力(如 CI/CD、Docker);
· 了解数据建模方法(维度建模、范式建模)及数据分层设计(ODS/DWD/DWS/ADS);
· 具备良好的沟通能力和团队协作精神,能主动推动问题解决。
展开该职位详情




