AI赋能保密:新挑战与新策略
2025-06-23 16:36:54
AI赋能保密
新挑战与新策略



当今世界,信息技术创新日新月异,数字化、网络化、智能化深入发展。人工智能作为信息技术发展的新趋势,已经成为衡量一个国家综合竞争力的重要指标。然而,AI技术迅猛发展和应用的同时,也给安全保密工作带来了前所未有的变革与挑战。



AI技术在保密领域的应用





微信图片_20250623160934.jpg


1. 智能加密与解密

AI算法可用于创建更为复杂和安全的加密密钥。基于深度学习的加密技术能够根据数据的特征和使用场景,动态生成加密策略,大大提高数据加密的强度和灵活性。在数字化医疗记录和数据共享的时代,确保敏感医疗信息的安全性和保密性至关重要,部分医疗机构使用AI加密密钥对病例中的敏感信息(如病史、基因检测结果等)进行加密,以阻止未经授权的访问企图。在解密方面,AI可以快速识别授权用户的身份特征,如生物识别信息与行为模式,实现高效且安全的解密操作,确保只有合法用户才能够访问敏感信息,降低了未经授权访问的风险,大大增强了数据安全性。


2. 异常行为监测与预警

微信图片_20250623161155.jpg


与传统安全防护手段相比,AI技术在提升威胁检测与响应效率方面具有独特优势。通过机器学习算法对网络活动和用户行为进行持续监测,AI系统能够建立正常行为的基线模型。一旦检测到异常行为,如大规模数据的异常传输、非工作时间的频繁登录或来自陌生设备的访问请求,可以立即发出预警,这有助于及时发现潜在的安全漏洞和数据泄露风险,将危害控制在萌芽状态。


3. 数据分类与分级保护

微信图片_20250623161707.jpg


AI技术能够对海量数据进行自动分类和分级,依据数据的敏感性、重要性和保密性等因素,为不同级别的数据制定相应的保护措施。对于高度机密的数据,采用更加严格的访问控制、多因素认证和加密存储方式,而对于一般性数据则实施相对宽松的管理策略,从而增强安全防护的立体性和深度,优化保密策略,提高工作效率。



 AI技术引发新挑战


微信图片_20250623161206.jpg


01
 AI算法安全漏洞


AI算法的复杂性,可能使其存在难以察觉的安全漏洞,攻击者可能利用这些漏洞篡改AI模型的决策过程,导致数据被错误分类或加密失效。例如,通过对抗性攻击,攻击者向输入数据中添加微小的干扰,混入一些带有错误标签(将恶意软件标记为正常软件 )的数据,使AI系统误判,从而影响其对真实恶意软件的判断能力。


02
数据隐私问题


微信图片_20250623161910.jpg


一是数据采集风险。训练精准的AI模型依赖于海量的数据支撑,比如对用户的身份信息、位置信息、浏览历史等进行收集与分析,如果缺乏严格的监管和隐私保护机制,可能导致个人敏感信息、企业商业秘密甚至国家秘密被非法收集和利用。此外,AI模型在训练过程中可能无意泄露数据特征,为攻击者提供可乘之机。

二是数据存储风险。存储海量数据的服务器一旦遭受黑客攻击,其中包含用户隐私的数据集就有泄露风险。

三是数据使用风险。数据在不同主体之间共享,用于模型训练等用途时可能引发隐私泄露问题。例如,当医疗数据在不同医疗机构之间流转、用于AI疾病诊断模型训练时,可能由于管理不善导致患者隐私信息被不当使用。

四是模型反推攻击。攻击者可以通过分析AI模型的输出和已知的数据特征,反推出用于训练的数据,从而获取隐私信息。例如,在图像生成模型中,攻击者可能根据生成的图像细节,推测出训练图像的原始内容和相关隐私信息。


03
内部威胁放大


微信图片_20250623162017.jpg


AI技术的自动化和智能化特点可能会放大内部人员的安全威胁,其能够借助AI工具,更隐蔽、高效地窃取敏感数据。内部威胁一般分为两类:一类是数据窃取与恶意利用,内部人员利用AI技术,可以更高效地筛选和提取高价值客户的数据,并对此进行恶意利用;另一类是模型操纵,利用AI生成的虚假身份或模仿正常用户行为模式,绕过安全监测系统,实施数据窃取行为,由于其行为具有一定的智能伪装性,更难被传统的安全防护手段发现。



 构建安全保密新生态




微信图片_20250623162020.jpg


01
加强AI算法安全评估与审计


一是建立严格的AI算法安全评估标准和审计机制,定期对AI系统进行全面的安全检查。采用形式化验证、渗透测试等多种方法,检测算法中可能存在的漏洞,及时进行修复和优化。同时,加强对AI算法开发过程的监管,确保遵循安全设计原则,从源头上降低安全风险。制定针对AI算法安全评估的统一标准,规范审计流程、人员资质等内容,比如要求审计人员具备一定的人工智能知识、数学基础以及数据安全审计经验。采用定期审计或事件驱动审计的方式,设定固定周期对AI算法进行全面审计,在发生数据泄露、模型异常决策等安全事件后,及时开展审计工作。

二是建立算法安全评估机制。在数据层面,检查训练数据是否完整、准确且无恶意篡改,比如查看数据来源是否合法、是否有被“数据投毒”的迹象。在模型层面,检验模型的可解释性,确保模型的决策过程可以被理解和追溯。在隐私保护层面,衡量数据在使用过程中是否采取足够的隐私保护措施,是否进行有效的数据匿名化处理,检测模型训练和使用过程中是否存在算法泄露风险等。

02
完善数据隐私保护法规与技术措施

在法律层面,有关部门应当制定更为严格的数据隐私保护法律法规,明确数据收集、存储、使用和共享的边界与规范,避免过度、过量收集敏感数据信息,加大对数据隐私侵犯行为的处罚力度。在技术层面,采用差分隐私、同态加密等技术手段,最大程度地保护数据隐私安全。例如,差分隐私技术通过对数据添加噪声的方式,使得数据分析结果可适用的同时,无法还原出原始数据,能有效的让数据隐私泄露。

03
强化内部人员安全管理

强化人员准入管理,在招聘环节对员工进行全面背景调查,包括犯罪记录、信用记录、工作经历等,核实其专业资质和技能证书是否真实有效;强化人员权限管理,采用最小权限原则,根据员工的工作任务,赋予最低限度的系统访问权限和数据访问权限,定期检查员工的权限是否与工作职能相匹配;强化保密教育培训,对员工开展常态化保密提醒、经常性教育培训,帮助其增强隐私保护意识、提升安全保密能力;强化内部管理,利用技术手段对办公行为加强管理,构建全方位、多层次的保密防护体系。


内容来源:保密工作杂志


END



扫描二维码,获取更多信息 

成都市保密协会

CDCA2019