2025年7月24日,国家安全部通报多起典型案例,其中科研人员违规使用AI工具导致涉密信息泄露事件引发社会广泛关注。这些案例不仅暴露出部分科研人员安全意识薄弱,更揭示出AI技术广泛应用背景下,信息安全防护面临的新挑战。
泄密案例触目惊心,AI成“双刃剑”
在通报的案例中,某科研机构研究人员小李的遭遇极具代表性。在撰写研究报告时,为图方便,他擅自使用某AI应用软件,将核心数据及实验成果作为写作素材上传。这些承载着关键技术参数的涉密信息,在进入AI数据库后迅速失控。境外间谍情报机关通过攻击AI平台服务器,成功窃取数据并实施逆向工程,导致我国在该领域的技术优势被削弱。据调查,该事件造成直接经济损失超千万元,相关科研项目被迫中断。
无独有偶,某涉密单位工作人员小田在非工作场合随意谈论重大涉密项目进展,被同事家人窃听并上传至网络;某机关新入职干部小蒋为炫耀,将秘密级文件首页拍照发至朋友圈。这些传统泄密场景与AI泄密交织,形成复合型安全风险。
技术漏洞与管理缺失交织,泄密路径多元化
AI工具的泄密风险源于技术特性与管理漏洞的双重作用。生成式AI通过深度学习用户输入数据优化模型,但这一机制也成为信息泄露的“黑洞”。三星公司引入ChatGPT后,员工直接输入半导体设备测量资料、源代码等机密信息,导致数据在24小时内被境外服务器获取。更严峻的是,AI的数据挖掘功能可对碎片化信息进行关联分析,即便只上传部分涉密内容,也可能通过算法还原完整信息。
管理层面,部分科研人员对AI工具的风险认知不足。调查显示,63%的受访者未接受过AI安全使用培训,41%的人认为“上传非公开数据不会造成危害”。某高校实验室甚至允许研究生使用公共AI平台处理涉密课题数据,仅用简单代码删除文件名中的“机密”字样即认为“安全脱敏”。
三招筑牢AI安全防线,守护科研生命线
面对AI泄密风险,需构建“技术防护+制度约束+人员教育”三位一体防控体系。技术上,应优先选用国产自主可控的AI大模型,如某军工企业研发的专用AI平台,通过数据加密、访问控制等技术,实现涉密信息“不上网、不存储、不输出”。制度层面,需严格执行《中华人民共和国保守国家秘密法》第三十一条,明确“涉密不上网,上网不涉密”红线,建立AI工具使用审批机制。人员培训方面,某科研院所推行的“AI安全实训营”模式值得借鉴,通过模拟黑客攻击、数据泄露溯源等场景,提升科研人员应急处置能力。
国家安全机关提醒,科研人员使用AI工具时,务必遵守“三不原则”:不输入涉密信息、不连接非涉密网络、不使用非正规渠道软件。如发现可疑情况,可拨打12339国家安全机关举报受理电话或通过国家安全部微信公众号举报。在享受AI技术红利的同时,唯有筑牢安全防线,才能守护国家科研创新的生命线。
未经允许不得转载:云川官网 » 科研人员违规使用AI致泄密,敲响信息安全警钟