当期目录

    2023年 第9卷 第6期    刊出日期:2023-06-04
    上一期   
    人工智能的安全风险与隐私保护专题
    人工智能的安全风险与隐私保护
    张玉清
    2023, 9(6):  498. 
    摘要 ( )   PDF (472KB) ( )  
    相关文章 | 计量指标
    随着信息技术和网络社会的快速发展,人工智能技术已经广泛应用于各个领域,包括医疗保健、金融、交通、军事等,这些领域的安全问题直接关系到人们的生命财产安全.然而,在使用人工智能技术实现智能化的过程中,也面临着算法安全风险、信息安全风险、数据安全风险、网络安全风险、社会安全风险及国家安全风险.
    ChatGPT在网络安全领域的应用、现状与趋势
    张弛, 翁方宸, 张玉清,
    2023, 9(6):  500. 
    摘要 ( )   PDF (2555KB) ( )  
    参考文献 | 相关文章 | 计量指标
    ChatGPT作为一种大型语言模型技术展现出了极强的语言理解和文本生成能力,不仅在各行各业受到巨大的关注,而且为网络安全带来新的变革.目前,ChatGPT在网络安全领域的相关研究仍处于起步阶段,为了使研究人员更系统化地了解ChatGPT在网络安全领域的研究情况,归纳总结了ChatGPT在网络安全领域的应用及其可能伴生的安全问题.首先,概述了大型语言模型技术的发展,并对ChatGPT的技术及其特点进行了简要介绍;其次,从助力攻击和助力防御2个方面详细讨论了ChatGPT在网络安全领域的赋能效应,包括漏洞挖掘、利用和修复,恶意软件的检测和识别,钓鱼邮件的生成和检测以及安全运营场景下的潜在用途;再次,深入剖析了ChatGPT在网络安全领域中的伴生风险,包括内容风险和提示注入攻击,并对这些风险进行了详细分析和探讨;最后,从安全赋能和伴生安全2个角度对ChatGPT在网络安全领域的未来进行了展望,指出了ChatGPT在网络安全领域的未来研究方向.
    GPT4发展中的若干问题及其规制方案
    严驰
    2023, 9(6):  510. 
    摘要 ( )   PDF (1273KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着新一代生成式人工智能(AI)大模型GPT4的发布,AI时代已然到来.GPT4在迅速普及应用的同时也引发了若干风险问题.在数据安全层面,面对频发的数据泄露事件,应通过设定数据存储期限,保障数据安全与技术发展并行;在知识产权层面,GPT4带来了关于版权侵权、主体地位、作品认定上的挑战,今后须持续保持关注;在核心算法层面,GPT4中隐藏着算法歧视的风险,应持续优化算法,让GPT4迈向真正的通用人工智能.目前GPT4仍处在不断发展的进程中,设计具体详尽的规制方案为时尚早.为更好地应对GPT4引发的风险,应寻求数字时代的自主创新,推进AI专项立法,结合我国已有的算法治理规范,将生成式AI纳入深度合成技术的范畴.
    基于GPT模型的人工智能数据伪造风险研究
    孙雷亮
    2023, 9(6):  518. 
    摘要 ( )   PDF (1887KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着人工智能技术的快速发展应用,人工智能生成内容(artificial intelligence generated context, AIGC)的出现极大地解放了生产力,以ChatGPT为代表的产品风靡全球,其多样化的应用场景催动商业化迅猛发展.以人工智能数据伪造风险为研究目标,将GPT模型作为研究对象,通过分析其已经暴露或出现的安全隐患,重点研究数据伪造可能出现的原因及其实现过程.结合传统网络空间安全、数据安全攻防对抗方法,对基于模型微调导致数据伪造的实践进行了研究,推测人工智能广泛商业化后部分数据伪造利用场景.最后提出应对数据伪造风险的方法和建议,为将来人工智能大规模应用前规避数据伪造风险提供参考.
    大型语言模型内容检测算法和绕过机制研究
    叶露晨, 范渊, 王欣, 阮文波,
    2023, 9(6):  524. 
    摘要 ( )   PDF (1924KB) ( )  
    参考文献 | 相关文章 | 计量指标
    近年来,大型语言模型(large language model, LLM)技术兴起,类似ChatGPT这样的AI机器人,虽然其内部设置了大量的安全对抗机制,攻击者依然可以精心设计问答,绕过这些AI机器人的安全机制,在其帮助下自动化生产钓鱼邮件,进行网络攻击.这种情形下,如何鉴别AI生成的文本也成为一个热门的问题.为了开展LLM生成内容检测实验,从互联网某社交平台和ChatGPT收集了一定数量的问答数据样本,依据AI文本可获得条件的不同,研究提出了一系列检测策略,包含基于在线可获取AI对照样本的文本相似度分析、基于离线条件下使用统计差异性的文本数据挖掘分析、基于无法获得AI样本条件下的LLM生成方式对抗分析以及基于通过微调目标LLM模型本身构建分类器的AI模型分析,计算并比较了每种情况下分析引擎的检测能力.另一方面,从网络攻防的角度,针对检测策略的特点,给出了一些对抗AI文本检测引擎的免杀技巧.
    ChatGPT安全威胁研究
    朱孟垚, 李兴华
    2023, 9(6):  533. 
    摘要 ( )   PDF (1801KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着深度学习技术与自然语言处理技术的快速发展,以ChatGPT为代表的大型语言模型应运而生,然而其在诸多领域展现出令人惊讶的能力的同时,也暴露出诸多安全威胁,这引发了学术界与产业界的担忧.首先,介绍了ChatGPT及其系列模型的发展历程、工作模式与训练方式;然后,从用户和模型2个层面总结并分析了当前ChatGPT可能遇到的各类安全问题,并提出应对思路与方案;最后,对ChatGPT以及大型语言模型领域未来如何安全可信地发展进行了展望.
    全生命周期数据安全管理和人工智能技术的融合研究
    张昊星, 赵景欣, 岳星辉, 任家东,
    2023, 9(6):  543. 
    摘要 ( )   PDF (1143KB) ( )  
    参考文献 | 相关文章 | 计量指标
    数据逐渐成为新型生产要素,我国已将数据安全提升至国家战略高度.随着新一轮科技革命推动和数字化转型不断深化,人工智能技术的发展潜力日益凸显,并逐渐为数据安全管理领域积极赋能.首先,介绍了数据安全全生命周期管理的概念和意义,分析了数据在生命周期各个阶段所面临的安全风险,并进一步论述了传统数据安全管理技术在海量数据处理和攻击手段升级的背景下所面临的问题和挑战;然后,介绍了人工智能为解决这些问题和挑战的潜在优势,并总结了目前比较成熟且典型的基于人工能的数据安全管理技术和应用场景;最后,对人工智能技术在数据安全管理领域未来的发展趋势进行了展望.旨在为数据安全管理领域的研究者和实践者提供有益的参考,推动人工智能在数据安全管理技术领域的创新和应用.
    大模型技术的网络安全治理和应对研究
    高亚楠,
    2023, 9(6):  551. 
    摘要 ( )   PDF (1101KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着人工智能技术的不断发展,大模型技术已经成为人工智能领域的重要研究方向,ChatGPT4.0和文心一言等的发布快速推进了这项技术的发展和应用.然而,大模型技术的出现也给网络安全带来新的挑战.将从大模型技术的定义、特点和应用入手,分析大模型技术下的网络安全态势,并提出相应的大模型网络安全治理框架,给出大模型网络安全应对步骤,为大模型网络安全保障工作提供参考.
    基于人工智能和区块链融合的隐私保护技术研究综述
    李宗维, 孔德潮, 牛媛争, 彭红利, 李晓琦, 李文凯,
    2023, 9(6):  557. 
    摘要 ( )   PDF (1307KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着人工智能和区块链技术受到广泛的关注和应用,基于人工智能和区块链融合的隐私保护技术也备受瞩目.这类技术不仅能够保护个人隐私,还能保障数据的安全性和可靠性.首先,概述了人工智能与区块链,并概括了它们的结合及所衍生出的隐私保护技术.其次,探究了人工智能与区块链融合的隐私保护技术在实际应用中的具体场景,包括数据加密、去标识化、多层次分布式账本和K匿名方法等.此外,还重点评估了基于人工智能与区块链融合的隐私保护系统的5个关键特性,即权限管理、访问控制、数据保护、网络安全和可扩展性.进一步地,对现有系统中存在的不足和原因进行了深入分析,提出一系列改进建议,以期提高人们对数据隐私保护的认识和应对措施.对基于人工智能与区块链融合的隐私保护技术的应用场景及技术方案进行了分类与总结.最后,探讨了基于人工智能和区块链融合的隐私保护技术的发展方向,包括提高效率、安全性等,以实现更完善的隐私保护.
    基于隐式对称生成对抗网络的图像隐写与提取方案
    屈梦楠, 靳宇浩, 邬江
    2023, 9(6):  566. 
    摘要 ( )   PDF (953KB) ( )  
    参考文献 | 相关文章 | 计量指标
    针对图像隐写技术中存在嵌入秘密图像时载体图像质量下降、易受攻击等问题,提出一个基于隐式对称生成对抗网络的图像隐写与提取方案.该方案首先将图像隐写与提取任务抽象为一个数学优化问题.其次,根据该优化问题提出一个隐式对称生成对抗网络模型.在隐式对称生成对抗网络中包含2个相互独立的生成对抗子网络,即隐写对抗子网络和提取对抗子网络.在隐写对抗子网络中,首先编码器将载体图像和隐秘图像转换为1组包含足够多的载体图像信息和秘密图像信息的高维特征向量,之后解码器将这些特征向量重新构造为嵌入秘密信息后的图像.在提取对抗子网络中,将嵌入秘密信息的图像通过另一组编码器和解码器提取出隐秘图像.最后,设计适用于该模型的损失函数.实验结果表明,该方案具有较高的图像质量,并且能够在面对各种常见攻击时保持较好的鲁棒性.
    基于多注意力机制的孪生网络图像隐写分析方法
    蒋明, 张宗凯, 刘熙尧, 郭标, 胡家馨, 张硕,
    2023, 9(6):  573. 
    摘要 ( )   PDF (1439KB) ( )  
    参考文献 | 相关文章 | 计量指标
    针对从图像中提取更显著的隐写特征来提升隐写分析检测精确度的问题,提出了一种基于多注意力机制的孪生网络图像隐写分析方法.该方法采用特征融合的思想,使隐写分析模型提取更丰富的隐写特征.首先设计由ParNet块、深度可分离卷积块、标准化注意力模块、压缩激励模块、外部注意力模块组成的孪生网络子网,通过多分支网络结构和多注意力机制提取对分类结果更有用的特征提升模型的检测能力;然后使用Cyclical Focal损失在训练的不同阶段修改训练样本的权重提高模型的训练效果.实验使用BOOSbase 1.01数据集,在WOW,SUNIWARD,HUGO,MiPOD和HILL这5种自适应隐写算法中进行了实验.实验结果表明,该方法在检测精度上优于SRNet,ZhuNet和SiaStegNet方法,并且参数量更低.
    一种基于远程证明的智能制造设备群的主动防御方案
    孔维一, 李昕, 宋永立, 况博裕, 付安民,
    2023, 9(6):  580. 
    摘要 ( )   PDF (1988KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着人工智能技术的发展,智能制造已成为目前企业生产的必然选择.然而与此同时,智能制造设备群面临的安全风险也不断上升,一个被入侵的智能制造设备不仅会造成机密泄露、生产链错误等问题,还会成为攻击者的跳板进而影响整个设备群的安全.设计了一种基于远程证明的智能制造系统设备群的主动防御方案SecRA,以验证设备群的安全状态.SecRA对每个智能制造设备都生成独立的证明挑战,实现了网关和设备间点到点通信,保证了该主动防御方法的安全性.SecRA通过对智能制造系统中网关设备的功能扩展,完成验证者和设备之间的异步通信,以匹配现有智能制造系统网络结构.此外,SecRA基于挑战质询的证明协议,将通信和计算开销都转移到资源丰富的网关设备,极大节省了设备端的开销.最后,仿真实验证明了SecRA主动防御方法的高效性和可行性.

    基于多级度量差值的神经网络后门检测方法
    刘亦纯, 张光华, 宿景芳
    2023, 9(6):  587. 
    摘要 ( )   PDF (950KB) ( )  
    相关文章 | 计量指标
    深度神经网络在各类任务中都展现出良好的性能,但由于深度学习模型缺乏透明性和不可解释性,在推理阶段触发恶意攻击者设定的后门时模型出现异常行为而导致性能下降.针对上述问题,提出了一种基于多级度量差值的后门检测方案(backdoor detection scheme based on multilevel measurement difference, MultMeasure).首先对源模型和被恶意注入后门的授权模型对抗攻击生成测试用例;并设置白盒和黑盒2种度量计算测试用例;最后通过统计阈值计算差值判断模型是否被注入后门.实验表明,MultMeasure在植入特洛伊木马模型的后门攻击场景下,并在多触发器和隐形触发器下评估性能良好,相较近年来已有的检测方案,MultMeasure具有更好的有效性和稳定性.
    基于广义神经网络的网络攻击检测与分类方法
    张明明, 刘凯, 李贤慧, 许梦晗, 顾颖程, 张见豪, 程环宇, 王永利,
    2023, 9(6):  593. 
    摘要 ( )   PDF (1705KB) ( )  
    参考文献 | 相关文章 | 计量指标
    如今虚拟世界日趋复杂,网络攻击和新出现的安全威胁逐步增加,因此需要研究针对网络攻击的智能化检测和分类方法,以全面地观察网络活动,阻止恶意行为.提出了一种基于广义回归神经网络(generalized regression neural networks, GRNN)建立的入侵检测模型,对恶意网络攻击进行智能化检测和分类,并使用主流的NSLKDD数据集进行了测试.实验结果表明,所提出的技术相较于目前的其他攻击检测技术,能够更加有效地对恶意行为进行识别与分类.
    中美网络安全漏洞披露与共享政策研究
    曹婉莹, 曹旭栋, 葛平原, 张玉清,
    2023, 9(6):  602. 
    摘要 ( )   PDF (2305KB) ( )  
    参考文献 | 相关文章 | 计量指标
    随着计算机软件系统规模与复杂度的不断增加,针对软件和系统的漏洞攻击愈发频繁,攻击手法也愈发多样.为了避免软件和系统的相关漏洞对国家网络空间安全的威胁,各国相继公布了漏洞管理条例.安全漏洞的正确披露与共享能够帮助安全研究人员及时获悉安全威胁,并通过共享交流节约漏洞修复成本,已成为缓解漏洞安全风险的重要组成部分.介绍了公共漏洞数据库,重点总结了中国和美国网络安全漏洞披露与共享的相关政策法规,给出中国在漏洞披露与共享方面可能存在的问题与应对方法,以便安全研究人员更好地了解和获悉安全漏洞的披露流程及共享的有关规定,保证安全研究人员在法规允许的范围内研究安全漏洞.