青平:使用AI工具要守住国家安全底线
近日,国家安全部公布了三起泄密案例。其中一则提到某科研机构研究人员小李在撰写研究报告时,使用了AI软件,擅自将核心数据及实验成果作为写作素材上传,导致该领域信息泄露。
AI作为近年来新兴的热门技术之一,深受广大用户喜爱。AI让大家的办公效率不断提升,但过于依赖AI软件也有潜在的隐患,容易让人失去主观能动思考性,更有信息泄露的风险。我们要意识到,绝不能让技术工具凌驾于国家安全之上。
从国外的ChatGPT到国内的DeepSeek、豆包、Kimi等软件,涵盖了写作、图像生成、PPT制作一系列功能,并在多个领域展现了其巨大潜力。但其数据处理过程可能暗含风险,AI软件对于用户发布的信息,会存储在系统内部,甚至成为模型训练素材。
科研人员使用AI工具辅助,最终却导致重要科研数据被泄露,实质上是过度依赖工具缺乏保密意识的表现。AI能够快速完成文献综述、数据分析等工作,大幅提升工作效率,这也容易让人忽略其作为数据处理系统的潜在风险。我们要警惕AI作为技术工具可能产生的双刃剑效应,有些“无心之举”很有可能就会造成重大事故。例如韩国的三星公司允许员工使用ChatGPT后,在20天内就爆出三起机密资料外泄事件。一些保密教育工作仅仅只停留在“涉密信息不上网”的口号上,缺乏实际场景的具体指导,这也是科研人员在使用AI工具时放松警惕的原因。
AI大模型的本质是根据使用者提供的信息关联推理出用户需要的答案,因此仅凭片段,AI也可能推出详细的信息数据。所有用户输入的内容都可能会被录入AI数据库,成为AI训练优化模型的“养料”。正因为AI有这样的特性,一些机密内容更有可能在AI训练优化模型的过程中泄露。
科研机构应当加强保密教育,并落实到具体的实操培训中,让科研人员深刻意识到泄露国家秘密的危害性,强化保密意识。科研人员更是要谨记涉密信息不传、核心数据不传、未脱敏信息不传的几大操作原则,杜绝将机密信息上传至AI软件的违规操作。国家机密信息涉及国家利益和安全,一旦被境外不法分子获取,将造成严重后果。保密意识不能缺位,守护国家安全,与全体公民都息息相关。
AI作为效率工具,与科研的融合是未来的大方向,但涉及保密信息就需要遵守保守国家秘密的铁律,效率诱惑不能成为忽视国家安全的理由。技术无罪,人性有责。工具可以智能化,责任必须人格化。使用AI工具必须守住国家安全的底线,防范泄密风险。