本报北京讯 近日,国家安全机关披露一起触目惊心的科研泄密案件:某国家重点实验室研究员王某在撰写涉密课题报告时,违规使用境外生成式人工智能工具优化文本,导致30余项关键技术参数及实验数据被境外服务器截获。事件引发科技界震动,国家保密局、科技部等五部门联合启动“科研领域AI使用安全专项整治行动”,多家顶尖科研机构紧急叫停非合规AI工具接入内部网络。
泄密细节:一次“高效写作”引发的灾难
据调查,2023年12月,王某为赶在课题结题前完成10万字报告,在未履行任何审批手续的情况下,将包含“高超声速风洞实验数据”“新型材料热力学参数”等密级内容的文档分批次上传至某境外AI平台。该平台用户协议中明确标注“可能将数据用于模型训练”,但王某未仔细阅读条款,仅通过删除文件名中的“机密”字样便完成操作。
“更危险的是,他为了提升文本专业性,多次要求AI生成‘基于现有实验数据的改进方案’。”国家安全机关办案人员透露,这种交互式提问实质上构成了对涉密信息的二次输出。经技术鉴定,被泄露数据中17项属于“永久保密级”,一旦被境外势力获取,将直接威胁我国航空航天、能源装备等战略领域安全。
双重漏洞:技术盲区与管理缺位交织
事件暴露出科研领域AI应用的两大系统性风险:
- 个体认知偏差:某高校对500名科研人员的调查显示,68%受访者认为“只要不直接上传原始数据,使用AI辅助写作无风险”,42%承认曾将涉密信息“改头换面”后输入AI工具;
- 机构监管滞后:涉事实验室虽配备数据加密系统,但未对AI工具使用作出明确限制,其网络安全策略仍停留在“禁止访问境外网站”的初级阶段,未能识别通过API接口传输数据的隐蔽行为。
“这绝非个案。”中国科学院信息安全国家重点实验室主任李明指出,随着ChatGPT等工具普及,科研人员正形成“AI依赖症”,而多数机构尚未建立数据脱敏、操作留痕、使用审批等全链条管控机制。
全国整顿:科研版“AI使用白名单”出炉
针对此次事件,科技部火速发布《科研活动人工智能应用安全管理办法(试行)》,核心措施包括:
- 强制要求涉密项目使用国产可信AI平台,所有输入输出数据须经保密审查;
- 建立科研人员AI使用信用档案,违规三次以上者列入“黑名单”,取消项目申报资格;
- 2024年6月底前,所有国家重点实验室须完成网络隔离改造,阻断涉密终端与外部AI服务的连接。
与此同时,国家自然科学基金委宣布,将“AI工具合规使用情况”纳入项目验收刚性指标,未通过审查者不予结题。
“科技竞争本质是安全竞争。”国家安全部副部长在专项整治动员会上强调,任何以效率为名的疏忽都可能付出不可承受的代价。截至记者发稿,涉事研究员王某已被移送司法机关,而这场由“一次偷懒”引发的行业地震,仍在持续扩散。
(完)
新闻背景补充:据国际安全智库报告,2023年全球已发生12起AI相关数据泄露事件,其中6起涉及科研领域。我国《数据安全法》明确规定,关键信息基础设施运营者使用境外AI服务需进行安全评估,但目前仅有12%的科研机构落实该要求。专家呼吁,应加快研发自主可控的科研专用大模型,从根本上消除数据出境风险。
未经允许不得转载:云川官网 » 科研人员违规使用AI工具致重大涉密数据泄露:国家安全局介入调查,学术圈掀起合规风暴