更新于 7月15日

人工智能大模型安全测评工程师

1.3-2万·15薪
  • 广州天河区
  • 1-3年
  • 本科
  • 全职
  • 招1人

职位描述

Python人工智能网络/信息安全
岗位职责:
(1) 大模型安全风险评估
1. 负责大模型全生命周期(数据收集、训练、部署、运营)的安全漏洞扫描与风险评估,识别模型偏见、数据泄露、对抗攻击等安全隐患,制定安全加固方案 。
2. 开展大模型内容安全测评,构建多模态(文本、图像、音频、视频)安全基准测试集,输出风险分析报告并提出整改建议。
(2) 测评体系与工具研发
1. 设计并优化大模型安全测评框架,开发自动化评测工具及测试平台,提升测试效率与覆盖范围,如针对Prompt注入、后门攻击等场景的检测工具。
2. 研究前沿安全攻防技术,对标市面主流安全防范领域公司,探索高阶对抗手法(如对抗样本生成、模型逆向工程),提升测评技术的先进性与实用性。
(3) 合规与伦理审查
1.结合《生成式人工智能服务管理暂行办法》、《生成式人工智能服务安全基本要求》等政策要求,确保大模型应用符合数据隐私、伦理规范及行业标准,参与制定企业内部安全管理制度。
2. 跟踪国内外大模型安全标准动态,推动测评体系与行业规范的衔接。
(4) 跨部门协作与技术支持
1. 与算法研发、数据治理团队协作,将安全要求嵌入模型开发流程,提供安全加固的技术指导。
2. 为业务部门提供安全咨询,参与重大项目的风险评估与应急预案制定 。

岗位要求
1. 学历与专业
计算机科学、人工智能、信息管理、审计、测量、数学或工程类相关专业,本科学历需具备4年以上相关经验,研究生应具备2年以上工作经验。
2. 技术能力
熟悉PyTorch/TensorFlow等深度学习框架,掌握基础模型微调(SFT/DPO)、RAG应用优化及分布式推理技术。精通Python/Java/C++至少一门语言,具备SQL/Hive数据处理能力,熟练使用漏洞扫描、渗透测试工具。
3. 领域知识:
深入理解大模型安全风险(如隐私泄露、生成内容合规性),具备NLP、计算机视觉或多模态模型的测试经验,熟悉主流评测指标(如ROUGE、BLEU、F1)及异常检测算法
4. 法规与软技能
了解《数据安全法》《个人信息保护法》等法规,具备合规意识与风险敏感度 。
5. 逻辑清晰,尤其需具备优秀的文档和方案撰写能力,能与跨部门沟通能力,能独立承担复杂项目(需提供过往项目案例)
6. 具备金融、政务、医疗、能源、公检法等高敏感行业的大模型安全或大模型咨询落地经验,具备信息系统项目管理师(软考高级)或第三方测评机构从业者优先考虑。

工作地点

广州天河区广电平云广场A塔14楼

职位发布者

郭家平/人事经理

立即沟通
公司Logo广州数据集团有限公司
广州数据集团成立于2023年9月,注册资本100亿元。公司秉承母公司广州数字科技集团深耕电子信息领域近70载的专业历史底蕴,顺应数字经济发展大潮,围绕算力中心建设运营与公共数据开发利用,立足产学研用协同创新,整合“算力、算法、数据、场景”四大核心资源,着力打造广州人工智能公共算力中心、广州公共数据开发利用平台、数字广州创新实验室、广州“鲲鹏+昇腾”生态创新中心四大创新平台,建立数据安全监管体系和标准支撑保障体系,培育发展“云、数、智、安”四大业务板块,拓展数字政务、智慧金融、智慧医疗、智慧交通等N个典型场景应用,助力粤港澳大湾区数字经济高质量发展。
公司主页