当期目录

    2022年 第8卷 第3期    刊出日期:2022-03-01
    上一期   
    深度学习安全与对抗专题
    面向自然语言处理领域的对抗攻击研究与展望
    金志刚 周峻毅 何晓勇
    2022, 8(3):  202. 
    摘要 ( )   PDF (1351KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着人工智能的不断发展,深度学习已经被应用到各领域当中.然而,近些年来有相关研究已经表明,深度学习易受到对抗攻击的影响,这些对抗攻击可以欺骗深度学习模型使模型对样本类别产生错误判断.目前,有关计算机视觉的对抗攻击的研究已经逐渐趋于成熟,而由于文本数据的结构性质比较特殊,有关自然语言处理领域的对抗攻击的研究还处于发展阶段.因此,本文通过介绍对抗攻击的概念及其在计算机视觉领域的应用,来引出自然语言处理领域的对抗攻击的研究现状,并根据具体的自然语言处理下游任务来调研目前流行的对抗攻击方案.最后对自然语言处理领域的对抗攻击发展提出展望.本文对自然语言处理对抗攻击领域的研究人员具有参考价值.
    针对深度强化学习导航的物理对抗攻击方法
    桓琦, 谢小权, 郭敏, 曾颖明,
    2022, 8(3):  212. 
    摘要 ( )   PDF (3659KB) ( )  
    参考文献 | 相关文章 | 计量指标
    本文针对基于深度强化学习(deep reinforcement learning, DRL)的激光导航系统的安全性进行研究,首次提出了对抗地图的概念,并在此基础上提出了一种物理对抗攻击方法.该方法使用对抗样本生成算法计算激光测距传感器上的对抗扰动,然后修改原始地图实现这些扰动,得到对抗地图.对抗地图可以在某个特定区域诱导智能体偏离最优路径,最终使机器人导航失败.在物理仿真实验中,本文对比了智能体在多个原始地图和对抗地图的导航结果,证明了对抗地图攻击方法的有效性,也指出了目前DRL技术应用在导航系统上存在的安全隐患.
    联邦学习安全威胁综述
    王坤庆, 刘婧, 赵语杭, 吕浩然, 李鹏, 刘炳莹,
    2022, 8(3):  223. 
    摘要 ( )   PDF (1579KB) ( )  
    参考文献 | 相关文章 | 计量指标
    当前,联邦学习已被认为是解决数据孤岛和隐私保护的有效解决方案,其自身安全性和隐私保护问题一直备受工业界和学术界关注。现有的联邦学习系统已被证明存在诸多漏洞,这些漏洞可能被联邦学习系统内部或外部的攻击者所利用,破坏联邦学习数据的安全性。首先对特定场景下联邦学习的概念、分类和威胁模型进行介绍;其次介绍联邦学习的机密性、完整性、可用性(CIA)模型;然后对破坏联邦学习CIA模型的攻击方法进行分类研究;最后对CIA模型当前面临的问题挑战和未来研究方向进行分析和总结。
    生成式对抗网络技术与研究进展
    梁晨, 王利斌, 李卓群, 薛源,
    2022, 8(3):  235. 
    摘要 ( )   PDF (866KB) ( )  
    参考文献 | 相关文章 | 计量指标
    近年来,生成对抗网络(generative adversarial networks,GAN)技术研究成果呈指数级增长,生成对抗网络使用零和博弈论将2个相互竞争的神经网络结合起来,使其能够产生更加清晰、更离散的输出.在诸如其计算机视觉、医疗、金融等领域的图像和视频处理及生成、数据集增强、时间序列预测等方面已取得重大进展.本文主要介绍了生成对抗网络的基本框架、理论以及实现过程,并且分析了近年来主流研究现状,通过回顾生成对抗网络变体及其应用场景列举了其亟待改进的问题.此外,本文还着重讨论了如何采用生成对抗网络隐私措施以及处理敏感数据,以及生成对抗网络技术在相关领域的未来发展趋势.
    人脸深度伪造检测综述
    孙毅, 王志浩, 邓佳, 李犇, 杨彬, 唐胜,
    2022, 8(3):  241. 
    摘要 ( )   PDF (2995KB) ( )  
    参考文献 | 相关文章 | 计量指标
    近些年来,视频媒体随着移动互联网的普及发展迅猛,与此同时人脸伪造技术也随着计算机视觉的发展取得了很大的进步。诚然人脸伪造可以用来制作有趣的短视频应用,但由于其易生成、生成用时短、逼真度高等特性,其恶意使用对社会稳定和信息安全产生了极大威胁,如何检测互联网中的人脸伪造视频成为亟待解决的问题。在国内外学者的努力下,伪造检测在近些年也取得了很大的突破,因此本文旨在对现有的伪造检测方法进行详细的梳理和总结。特别地,本文首先介绍了伪造检测数据集,然后从伪造视频的痕迹、神经网络结构、视频时序信息、人脸身份信息、检测算法泛化性等方面对现有的方法进行了归纳和总结,并对相应方法的检测结果进行了对比和分析,最后对深度伪造检测的研究现状进行总结,并展望其面临的挑战和发展趋势,为相关研究工作提供借鉴。
    深度伪造生成和检测技术综述
    张煜之, 王锐芳, 朱亮, 赵坤园, 刘梦琪,
    2022, 8(3):  258. 
    摘要 ( )   PDF (1583KB) ( )  
    参考文献 | 相关文章 | 计量指标
    近年来兴起的深度伪造技术能够篡改或生成高度逼真且难以甄别的音视频内容,并得到了广泛的良性和恶意应用。针对深度伪造的生成和检测,国内外专家学者进行了深入研究,并提出了相应的生成和检测方案。对现有的基于深度学习的音视频深度伪造生成技术、检测技术、数据集以及未来的研究方向进行了全面的概述和详细分析,这些工作将有助于相关人员对深度伪造的理解和对恶意深度伪造防御检测的研究。
    基于安全洗牌和差分隐私的联邦学习模型安全防护方法
    粟勇, 刘文龙, 刘圣龙, 江伊雯,
    2022, 8(3):  270. 
    摘要 ( )   PDF (1210KB) ( )  
    参考文献 | 相关文章 | 计量指标
    联邦学习可以在保证数据隐私安全及合法合规的基础上实现共同建模,但保证联邦学习模型发布的隐私性以及保证用户对模型的效用仍是亟待解决的问题.提出一种基于安全洗牌和差分隐私的联邦学习模型安全防护方法SFLSDP.联邦模型拥有者利用差分隐私技术对联邦学习的模型参数进行加噪声,生成带噪声的模型参数,之后利用用户授权密钥和安全洗牌算法加密模型参数,并将加密的联邦学习模型参数发送给用户;用户在本地使用联邦学习模型时,利用用户授权密钥和安全洗牌算法解密模型参数密文,得到带噪声的联邦学习模型,将自己的数据作为该模型的输入就能得到期望的输出结果.实验证明该方法可以保护原始学习模型的隐私性,同时获得较高的效用.

    一种基于差分隐私的可追踪深度学习分类器
    胡韵, 刘嘉驹, 李春国,
    2022, 8(3):  277. 
    摘要 ( )   PDF (4553KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着深度学习在各个领域的广泛应用,数据收集和训练过程中产生的隐私泄漏问题已成为阻碍人工智能进一步发展的原因之一。目前已有很多研究将深度学习与同态加密或者差分隐私等技术结合以实现对深度学习中的隐私保护。本文从另一个角度尝试解决这个问题,即在一定程度上保证训练数据集的隐私性的基础上,实现对训练数据的计算节点的可追踪性。为此我们提出了一种基于差分隐私的可追踪深度学习分类器,它结合差分隐私和数字指纹技术,在为训练数据集提供隐私保护的同时保证在出现非法传播的训练模型或者数据集时,能根据其中的指纹信息定位到问题训练节点。我们设计的分类器既能保证安全判定分类功能,又能保证指纹的不可感知性、鲁棒性、可信度和可行性等基本特征。从后续的公式推导、理论分析和在真实数据的仿真结果表明,该方案能够满足深度学习中对隐私信息的安全可追踪性的需求。
    基于异构属性图的自动化攻击行为语义识别方法
    薛见新, 王星凯, 张润滋, 顾杜娟, 刘文懋,
    2022, 8(3):  292. 
    摘要 ( )   PDF (2149KB) ( )  
    参考文献 | 相关文章 | 计量指标
    当前安全运营人员面对的是海量的设备日志,需要根据其专家知识或经验来进行调查溯源,这大大的降低了安全运营的效率,同时也为安全运营设置了较高的知识门槛。为了解决这一问题,本文提出了一种基于异构图的自动化攻击行为语义识别方法,能够实现底层安全日志到上层攻击行为之间的映射。首先,利用异构图对系统日志进行威胁建模;然后,以攻击行为上下文为语义并结合知识图谱表示学习得到图中节点与边的向量表示;接着,利用层次聚类把相似的日志聚合到一起,从中找出最具代表性日志作为整个类的行为表示。最后,对本文提出的方法进行了实验验证,可以看出本文方法在系统正常行为与恶意行为的识别上都具有较高的精度,本文方法可以大大提高安全运营的效率。
    基于动态污点分析的程序脆弱性检测工具设计与实现
    石加玉, 彭双和, 石福升, 李勇,
    2022, 8(3):  301. 
    摘要 ( )   PDF (2736KB) ( )  
    参考文献 | 相关文章 | 计量指标
    由于程序源码和编译后的可执行文件之间存在一定的语义差异,且由于用户输入的不确定性,导致在实际应用中,无法保证源代码中已经验证过的性质与其可执行文件依然一致.因此,在程序源代码不被提供的情况下,直接对其可执行程序进行脆弱性分析检测更有实际意义.本文开展了动态污点分析技术在程序脆弱性检测方面的应用研究,设计了基于libdft API程序脆弱性检测工具,并自定义了污染源和污染汇,以适应不同的脆弱性模式.该工具不需要对目标程序的源代码进行分析,可直接对二进制程序进行检测.测试结果表明,该工具可有效检测出心血攻击、格式化字符串攻击、数据泄露、ReturnToLibc攻击等多种程序脆弱性漏洞,对帮助编程人员进行程序安全性检测及保护计算机数据安全具有一定的参考价值.
    专家视点
    高度重视人工智能安全问题
    谭毓安,
    2022, 8(3):  311. 
    摘要 ( )   PDF (1250KB) ( )  
    相关文章 | 计量指标
    近年来,以深度学习为代表的人工智能技术飞速发展,在图像分类、自然语言处理等多个任务中超过了人类的表现。在金融、教育、医疗、军事、制造、服务等多个领域,人工智能技术的应用不断深化,和社会生活的融合愈加紧密。然而,在这一过程中,人工智能系统自身暴露出众多安全问题,不断涌现出针对人工智能系统的新型安全攻击,包括对抗攻击、投毒攻击、后门攻击、伪造攻击、模型逆向攻击、成员推理攻击等。这些攻击损害了人工智能数据、算法和系统的机密性、完整性和可用性,迫切需要学术界和产业界的共同关注。