公职人员使用AI大模型的态势、风险及违规行为的认定分析
近年来,以DeepSeek为典型代表的生成式人工智能技术呈现高速迭代发展态势,其凭借关键词输入即可完成文本生成的高效特性,在多元办公场景中的渗透率持续攀升。然而,这类技术在革新工作模式、提升工作效率的同时,也伴生了显著的治理风险:一方面,其数据交互机制与智能生成逻辑,为涉密文件信息泄露埋下安全隐患;另一方面,可能弱化公职人员的责任意识,滋生渎职隐患。由此可见,在生成式人工智能技术加速向政务领域渗透的背景下,亟须明确法律底线与纪律红线,规范公职人员对大模型的使用,以实现技术赋能与风险防控的动态平衡。
随着政务数字化转型的深入,以DeepSeek为代表的大模型技术正逐步成为提升政府服务效能的核心驱动力。通过自然语言处理、多模态数据融合和深度学习等技术,大模型在智能问答、政策分析、城市治理等场景中展现出强大能力。目前,全国已有超过100家政府单位接入DeepSeek等大模型,覆盖民生服务、城市管理等多个领域,显著提升了政务服务的智能化水平。
高效处理复杂事务的政务要求是公职人员逐渐开始使用大模型的内在原因。日常公文处理工作繁琐复杂,政策解读、文件起草等环节需要耗费大量人力和时间。例如,一份重要政策文件的起草,从资料收集、内容撰写到格式核对,往往需要多名工作人员协同工作数天时间,且容易出现人为失误。而DeepSeek等大模型作为智能写作助手,实现了政策解读、文件起草和智能校对的全流程自动化,甚至能够基于历史数据和政策库自动生成规范文本,并结合政务语境进行优化,快速生成高质量的公文。
随着大模型技术深度融入政务场景,其在提升行政效率的同时,也衍生出数据安全与伦理道德的双重风险。例如,基层村干部未经审核直接发布AI生成的工作通知引发舆情,涉密单位人员违规使用AI处理敏感信息危及保密安全。这些案例均暴露出亟待解决的潜在隐患。
从技术维度看,大模型的安全风险呈现多面性。一方面,大模型有数据泄露隐患。政务数据往往高度敏感,公职人员在使用时若将涉密文件、图片等信息使用大模型进行处理,极有可能造成国家秘密泄露。这是因为DeepSeek等大模型是开源模型,其代码的开放性使得模型可能被恶意窜改、漏洞利用,最终导致信息外泄。此外,从该类大模型运行原理也可知,其接收的国家秘密信息会被进一步作为训练数据被利用。由此可见,大模型在数据获取、处理、存储、运算、传输各环节均存在泄密可能。另一方面,“算法黑箱”也可能导致生成公文的不可解释性。大模型通过海量数据训练生成复杂参数网络,其决策过程犹如“黑箱”,难以拆解为清晰规则。这种不可解释性不仅可能因算法通过非线性关联捕捉产生隐含偏见,还会让生成的公文缺乏逻辑支撑。
技术风险的蔓延直接引发了伦理层面的三大危机。首先是技术依赖导致公职人员的主动性丧失,即公职人员可能在没有经过人工审核复查的情况下,直接采纳AI生成的文本,这就导致“技术背书”代替专业判断。若引发政策执行争议,因决策逻辑的无法追溯可能导致追责无果。其次是“算法黑箱”的不透明与程序正义冲突,AI生成公文时缺乏明确依据链,其推荐的政策工具选择逻辑无法被人工复核,这使传统行政法上“过程性审查”这一用来控制行政机关政策性决定的工具无法发挥作用。最后是大模型输出的内容真实性危机。AI可能生成看似规范但逻辑不通的表述,这是因为大模型无法理解公文背后的真实意图,仅依据词汇共现概率生成语句。伦理危机的持续发酵将步步削弱公众对数字化治理的信任基础。
公职人员在应用大模型进行公文写作时,必须要有底线思维和合规意识,紧绷保密之弦,使用合法合规的国产大模型,强化风险意识、规范使用流程。AI数据挖掘功能可基于海量原始数据进行多维推理和关联分析,这就导致哪怕只是截取涉密文件片段,AI程序也会根据用户偏好,在全网范围搜集内容进行匹配、编辑。这些行为均在后台通过算法完成,相关信息完全暴露在互联网环境中,极易扩散外泄、被攻击窃取或经关联汇聚后泄密。因此,无论是在起草涉密文稿时,为提高质效,违规将涉密文件内容输入AI写作工具生成所需文章;还是将涉密素材上传AI工具进行模型学习;抑或是在AI工具中录入涉密身份信息增强个性化服务精准度,都将涉及违规并造成一系列问题。
因此,公职人员应该对应用于大模型的内容进行合法性控制,坚守法律底线。在严格遵守民法典对于信息处理的合法性要求的同时,也应遵守《中华人民共和国保守国家秘密法》的相关规定,即对于泄露后可能损害国家安全和利益的国家秘密,不得接入互联网及其他公共信息网络。《中华人民共和国数据安全法》也明确规定了数据分类分级保护制度,对于关系国家安全、国民经济命脉、重要民生、重大公共利益等国家核心数据,不能随意将其上传大模型进行解析处理或用于进一步生成所需公文。
此外,公职人员应对经手工作内容履行保密义务,严守工作纪律。对于党员,还需进一步遵守《中国纪律处分条例》。对于党员违规使用大模型泄露国家秘密,应根据情节严重性进行判定,若涉嫌违纪,先由纪检监察机关给予政务处分或由任免机关给予处分;若涉嫌违法犯罪,移送司法机关依法处理。
随着2023年8月《生成式人工智能服务管理暂行办法》正式实施,公职人员使用大模型的行为已被纳入纪律审查重点领域。公职人员违规使用大模型的行为可依其侵犯的核心法益归纳为两类:一是数据安全类违规,即明知或应知可能泄密,仍将涉密信息输入大模型处理,直接威胁国家秘密安全;二是履职规范类违规,即未经授权或不恰当授权模型替代其核心职务决策、审批或关键文书生成等履职行为,破坏行政管理的正当性、审慎性与责任性。
对上述违规行为的量纪审查,需着重把握四个递进维度的关键要素:首先,恪守合规性底线,严格依据《中华人民共和国保守国家秘密法》对输入或处理信息准确进行“绝密、机密、秘密”三级密级定性与审查,这构成判定数据安全违规严重程度的客观基础;其次,聚焦行为性质,需精准甄别并区分主观过错程度,比如是明知故犯的恶意规避还是技术认知疏失导致的过失,这是划分责任轻重、实现罚当其责的核心考量;再次,评估危害结果,深入核查违规造成的现实损失和潜在风险,如已泄露信息或对国家安全、公共利益构成的威胁等级,其损害程度是决定处分层级的关键依据;最后,考量领域及身份特殊性,对于涉及国家安全、重大民生或履职于纪检监察、司法等高度敏感岗位的人员,因其失职渎职行为的放大效应与示范作用,其违规行为在同等条件下可能导致更为严厉的纪律处分。除了上述必须依次考察的四个审查因素外,还需要综合考量违纪次数和时间、技术手段与危害可控性等因素。
例如,对于数据安全类行为,如非故意输入非密敏感信息且未造成实质损害的行为,或是疏忽使用未授权模型处理一般工作文件但及时纠正,通常适用警告或批评教育,依据《中华人民共和国公职人员政务处分法》第十二条“情节轻微可免予处分”的规定予以容错处理。但涉及机密级以上数据处理时存在主观过错,包括擅自通过境外服务器运行大模型处理涉密信息,则需加重处分。若涉嫌违法犯罪的,同时启动司法程序。对于履职规范类行为,如故意使用未经审核的大模型完成核心政务且形成错误决策,或未经批准用AI替代人工制定规范性文件,但未引发重大后果,应根据《中华人民共和国公职人员政务处分法》给予相应政务处分。对于党员,则需进一步参照《中国纪律处分条例》进行纪律处分,若造成绝密信息泄露、重大公共安全事件的,按照顶格标准给予开除公职并移送司法机关依法处理。
大模型技术深度嵌入政务领域,既是提升治理效能的催化剂,也是引发安全与伦理危机的导火索。从技术层面的数据泄露隐患、“算法黑箱”困境,到伦理层面的主体性丧失、程序正义冲突,这些二元风险深刻影响着政务数字化转型的可持续性。公职人员作为政务实践的直接参与者,坚守底线思维、规范使用大模型,不仅关乎个体职业操守,更维系着政府公信力与国家信息安全。在此背景下,构建违规使用大模型的量纪标准,是将技术治理纳入法治轨道的关键一步。它不仅为违规行为的惩戒提供量化依据,更能推动形成“技术赋能有边界、政务创新有底线”的治理共识。(作者单位:西安交通大学法学院)