【岗位职责】
1. 负责Hadoop、Hive、Spark、Flink、Kafka等主流大数据组件在容器化环境(如K8S)中的部署、监控、性能调优与故障排查,保障集群高可用;
2. 参与大数据平台及数据库集群的容量规划、资源调度(如K8S调度策略)与成本优化,协助设计云原生架构下的高可用方案;
3. 设计并实施数据库(PostgreSQL/MySQL/Doris)的备份恢复、容灾切换(如主从复制、多活架构)、安全审计及高可用集群搭建(含K8S StatefulSet部署);
4. 编写并优化SQL查询、存储过程,协助开发团队进行数据库表结构设计及性能规范制定,配合数据团队完成数据迁移与治理;
5. 配合研发、测试团队,提供容器化环境下的运维支持,保障应用与大数据服务的稳定交付。
【任职要求】
1. 学历:本科及以上,计算机相关专业;
2. 经验:5–8 年大数据运维经验;
3. 技术能力:
1) 熟悉K8S基础架构,能独立完成集群部署、管理Pod与服务、配置存储;
2) 了解K8S资源调度、滚动更新、日志管理,熟悉Helm包管理;能使用K8S部署和管理大数据组件(如Spark on K8S、Flink Operator);
3) 熟练掌握 PostgreSQL 数据库体系结构、事务机制、WAL、VACUUM、索引优化等核心原理; 能配置备份恢复、性能调优;
4) 构建基于Prometheus的集群监控体系,配置Node、Pod、服务(如Kafka、Hadoop)监控指标,使用Grafana实现可视化,定义告警规则;
5) 设计并维护基础CI/CD流水线(如GitLab CI/CD、 Jenkins),实现应用构建、镜像打包、自动化部署;
6) 具备 Ansible/Python/shell编写自动化运维脚本经验者优先;
7) 参与数据中台、实时数仓或 OLAP 项目建设者优先;有内网项目运维经验优先;
8) 有持续学习新技术的热情,关注数据库与大数据领域发展趋势。
【为什么选择我们?】
我们鼓励并坚持自下而上的管理理念,挖掘每一位员工的能力。公司通过系统化的项目实践平台与管理赋能机制,为优秀的员工提供参与项目运作及跨部门协作管理的机会。
我们关心员工的个人成长,相信用人所长才能创造团队的最大价值。我们注重员工的专业学习与沉淀,我们相信慢即是快。为你提供不拘泥于固定的工作内容。你将在各类型项目、研究中快速学习和突破,迅速提升核心能力,从专才到通才,与公司共同发展。
我们推崇并践行坦诚、直接的内部文化。这不仅仅是为了创造舒适、高效的沟通环境,更是为了帮助每个人直面自己的不足,获得真正的成长。
【我们的福利】
工作地点:广州南沙区4号线南横地铁站附近
工作时间:五天8小时制,周末双休,工作与家庭兼顾
工作环境:舒适、优美、高效
工作氛围:灵活、开放、创新、有追求
薪酬福利:根据岗位性质提供具有市场竞争力的薪酬水平