【岗位职责】
1. 负责人工智能系统与平台的安全体系建设,包括数据安全、模型安全、算法合规、内容安全等方向。
2. 主导AI安全风险评估与渗透测试,识别AI应用及基础设施中存在的安全风险,并推动整改。
3. 研究并落地对抗攻击防御技术(如对抗训练、模型蒸馏、输入变换等),提升AI模型的鲁棒性与安全性。
4. 构建隐私保护能力,推动联邦学习、多方安全计算、差分隐私等技术在AI平台与数据流程中的应用。
5. 制定AI安全相关规范与标准,指导业务团队在AI开发全流程中落实安全要求。
6. 负责AI安全事件的应急响应与复盘,建立完善的安全监控、告警与处置机制。
7. 跟踪国内外AI安全法律法规与行业标准,确保公司AI业务合规运营。
8. 与算法、平台、运维、法务等团队协同,推动AI安全能力在集团级项目中的落地与持续优化。
【任职要求】
1. 学历要求:硕士研究生及以上学历,计算机类、网络安全类、人工智能类、电子信息类等相关专业。
2. 工作经验:6年以上信息安全或AI安全相关工作经验,其中至少3年专注于AI安全领域;具备从0到1主导AI安全体系建设项目经验者优先。对于一级工程师(高水平),需具备10年以上经验,并有大型项目安全架构设计及团队技术指导经验。
3. 专业能力:深入理解AI安全领域知识,包括但不限于:数据安全(数据脱敏、加密、隐私计算)、模型安全(对抗攻击防御、模型鲁棒性、后门检测)、算法合规(可解释性、公平性)、内容安全(防滥用、有害信息过滤)等。
4. 攻防实战:熟悉主流AI框架(如PyTorch、TensorFlow、MindSpore)及其安全机制,具备AI模型攻防实战经验,熟悉常见对抗攻击算法(如FGSM、PGD、CW)及防御技术(对抗训练、模型蒸馏、输入变换)。
5. 隐私计算:熟悉隐私计算技术,包括多方安全计算、联邦学习、同态加密、差分隐私等,并有实际项目落地经验,能够将隐私保护技术融入AI平台与数据流程。
6. 云原生安全:了解云原生安全体系,熟悉Kubernetes、Docker环境下的安全配置、容器镜像扫描、运行时安全监控,具备AI平台(MLOps)安全体系建设经验者优先。
7. 合规标准:熟悉国内外AI安全相关法律法规及标准,能够指导业务合规与安全审计。
8. 应急响应:具备卓越的逻辑思维与问题排查能力,能够快速定位并解决复杂的AI系统安全漏洞、数据泄露事件及新型攻击,建立应急响应机制。
9. 沟通协调:具备出色的跨团队沟通协调能力,能够与算法、平台、运维、法务等多部门高效联动,推动安全策略落地,并能向管理层清晰汇报安全风险与解决方案。
10. 加分项:
- 拥有CISSP、CISP、CISA、CIPP等相关安全认证;
- 具备红蓝队实战经验,发现并报告过知名AI系统漏洞(如CVEs),或有开源AI安全工具/框架贡献者优先;
- 具备AI安全团队管理或技术培训经验,能够指导初中级工程师成长。