摘要点击排行

    一年内发表文章 |  两年内 |  三年内 |  全部

    当前位置: 两年内
    Please wait a minute...
    选择: 显示/隐藏图片
    1. ChatGPT在网络安全领域的应用、现状与趋势
    张弛, 翁方宸, 张玉清,
    信息安全研究    2023, 9 (6): 500-.  
    摘要907)      PDF (2555KB)(717)    收藏
    ChatGPT作为一种大型语言模型技术展现出了极强的语言理解和文本生成能力,不仅在各行各业受到巨大的关注,而且为网络安全带来新的变革.目前,ChatGPT在网络安全领域的相关研究仍处于起步阶段,为了使研究人员更系统化地了解ChatGPT在网络安全领域的研究情况,归纳总结了ChatGPT在网络安全领域的应用及其可能伴生的安全问题.首先,概述了大型语言模型技术的发展,并对ChatGPT的技术及其特点进行了简要介绍;其次,从助力攻击和助力防御2个方面详细讨论了ChatGPT在网络安全领域的赋能效应,包括漏洞挖掘、利用和修复,恶意软件的检测和识别,钓鱼邮件的生成和检测以及安全运营场景下的潜在用途;再次,深入剖析了ChatGPT在网络安全领域中的伴生风险,包括内容风险和提示注入攻击,并对这些风险进行了详细分析和探讨;最后,从安全赋能和伴生安全2个角度对ChatGPT在网络安全领域的未来进行了展望,指出了ChatGPT在网络安全领域的未来研究方向.
    参考文献 | 相关文章 | 多维度评价
    2. 基于人工智能和区块链融合的隐私保护技术研究综述
    李宗维, 孔德潮, 牛媛争, 彭红利, 李晓琦, 李文凯,
    信息安全研究    2023, 9 (6): 557-.  
    摘要637)      PDF (1307KB)(339)    收藏
    随着人工智能和区块链技术受到广泛的关注和应用,基于人工智能和区块链融合的隐私保护技术也备受瞩目.这类技术不仅能够保护个人隐私,还能保障数据的安全性和可靠性.首先,概述了人工智能与区块链,并概括了它们的结合及所衍生出的隐私保护技术.其次,探究了人工智能与区块链融合的隐私保护技术在实际应用中的具体场景,包括数据加密、去标识化、多层次分布式账本和K匿名方法等.此外,还重点评估了基于人工智能与区块链融合的隐私保护系统的5个关键特性,即权限管理、访问控制、数据保护、网络安全和可扩展性.进一步地,对现有系统中存在的不足和原因进行了深入分析,提出一系列改进建议,以期提高人们对数据隐私保护的认识和应对措施.对基于人工智能与区块链融合的隐私保护技术的应用场景及技术方案进行了分类与总结.最后,探讨了基于人工智能和区块链融合的隐私保护技术的发展方向,包括提高效率、安全性等,以实现更完善的隐私保护.
    参考文献 | 相关文章 | 多维度评价
    3. 跨域管控:数据流通关键安全技术
    潘无穷, 韦韬, 李宏宇, 李婷婷, 何安珣,
    信息安全研究    2023, 9 (E1): 105-.  
    摘要597)      PDF (1450KB)(325)    收藏
    数据是一种新型生产要素,具备复制成本低、复制不易被察觉、规模化泄露危害大等特点.为保障数据在流通中的安全,避免数据被窃取滥用,保护数据隐私信息,提出了“跨域管控技术”,它能够保障数据持有者在数据离开其运维域后,仍能保持对数据流通全过程的管控权.通过进行数据外循环下安全模型的威胁分析,以TEETPM、密码学技术为基础,构建了一种大规模数据跨域管控的实现方法,为建设复杂高效大规模数据流程枢纽提供技术支撑.
    参考文献 | 相关文章 | 多维度评价
    4. 大型语言模型内容检测算法和绕过机制研究
    叶露晨, 范渊, 王欣, 阮文波,
    信息安全研究    2023, 9 (6): 524-.  
    摘要504)      PDF (1924KB)(333)    收藏
    近年来,大型语言模型(large language model, LLM)技术兴起,类似ChatGPT这样的AI机器人,虽然其内部设置了大量的安全对抗机制,攻击者依然可以精心设计问答,绕过这些AI机器人的安全机制,在其帮助下自动化生产钓鱼邮件,进行网络攻击.这种情形下,如何鉴别AI生成的文本也成为一个热门的问题.为了开展LLM生成内容检测实验,从互联网某社交平台和ChatGPT收集了一定数量的问答数据样本,依据AI文本可获得条件的不同,研究提出了一系列检测策略,包含基于在线可获取AI对照样本的文本相似度分析、基于离线条件下使用统计差异性的文本数据挖掘分析、基于无法获得AI样本条件下的LLM生成方式对抗分析以及基于通过微调目标LLM模型本身构建分类器的AI模型分析,计算并比较了每种情况下分析引擎的检测能力.另一方面,从网络攻防的角度,针对检测策略的特点,给出了一些对抗AI文本检测引擎的免杀技巧.
    参考文献 | 相关文章 | 多维度评价
    5. 大模型技术的网络安全治理和应对研究
    高亚楠,
    信息安全研究    2023, 9 (6): 551-.  
    摘要458)      PDF (1101KB)(433)    收藏
    随着人工智能技术的不断发展,大模型技术已经成为人工智能领域的重要研究方向,ChatGPT4.0和文心一言等的发布快速推进了这项技术的发展和应用.然而,大模型技术的出现也给网络安全带来新的挑战.将从大模型技术的定义、特点和应用入手,分析大模型技术下的网络安全态势,并提出相应的大模型网络安全治理框架,给出大模型网络安全应对步骤,为大模型网络安全保障工作提供参考.
    参考文献 | 相关文章 | 多维度评价
    6. 针对联邦学习的恶意客户端检测及防御方法
    程显淘,
    信息安全研究    2024, 10 (2): 163-.  
    摘要408)      PDF (806KB)(239)    收藏
    联邦学习允许参与的客户端在不共享其私有数据的前提下协作训练机器学习模型.由于中央服务器无法控制客户端的行为,恶意客户端可能会通过发送被操纵的局部梯度更新破坏全局模型,同时也可能存在数据质量低下但有一定价值的不可靠客户端.针对上述问题,提出了一种针对联邦学习的恶意客户端检测及防御方法FedMDD,以局部梯度更新为依据,通过不同的方式处理检测到的恶意和不可靠客户端,同时防御符号翻转、附加噪声、单标签翻转、多标签翻转和后门攻击.针对2个数据集对比了4种基线算法,实验结果表明,在包含50%恶意客户端和10%不可靠客户端的训练环境中,FedMDD可成功防御各类攻击,在提升模型测试精度和降低后门精度方面都有更好的效果.
    相关文章 | 多维度评价
    7. 跨境数据流动治理进展研究
    沈传年
    信息安全研究    2023, 9 (7): 624-.  
    摘要391)      PDF (1036KB)(183)    收藏
    跨境数据流动在推动全球数据资源共享的同时也不可避免地威胁着数据主权与国家安全,以跨境数据流动治理为博弈点的国际数据话语权的争夺将成为未来国际社会竞争的重点.介绍了跨境数据流动的背景知识和制约因素,调研并比较了美国、欧盟、俄罗斯、日本、澳大利亚等国家和组织的跨境数据流动治理模式,分析了我国当前跨境数据流动治理的政策现状以及面临的挑战,在此基础上,从推进跨境数据流动分级分类监管、创新发展跨境数据流动治理模式、完善应对域外“长臂管辖”的反制措施、积极参与并主导国际治理规则制定等方面,对我国数据主权视角下的跨境数据流动治理提出对策建议.
    参考文献 | 相关文章 | 多维度评价
    8. 大语言模型在网络安全领域的应用
    刘楠, 陶源, 陈广勇,
    信息安全研究    2024, 10 (E1): 236-.  
    摘要383)      PDF (796KB)(306)    收藏
    大语言模型对通用人工智能发展有重要价值,已广泛应用于包括网络安全在内的诸多领域.介绍了大语言模型在网络安全领域的应用情况,包括国内外产业发展现状、模型训练和微调阶段的关键技术,以及各类细分应用场景,并提出网络安全大语言模型研究亟待解决的问题.大语言模型正处于蓬勃发展的阶段,随着人工智能技术研究及其在网络安全领域应用的深入,大语言模型将在网络安全领域发挥更大作用.
    参考文献 | 相关文章 | 多维度评价
    9.  大模型安全评估体系框架研究
    苏艳芳, 袁静, 薛俊民,
    信息安全研究    2024, 10 (E2): 105-.  
    摘要363)      PDF (929KB)(241)    收藏
    近年来,人工智能技术的突飞猛进推动了大模型在众多领域的深度渗透与广泛应用,随之而来的安全挑战日益严峻.聚焦于大模型的安全风险,从风险来源、可信属性与模型全生命周期3个关键维度入手,设计并构建了一个综合性大模型安全评估体系框架.该框架突破传统模型评估主要集中在训练数据和模型生成内容安全等方面的局限,旨在通过系统化、多角度分析,强化大模型在复杂应用场景中的安全性、鲁棒性及可信度,为大模型的安全性能评估提供了一个全面的指导体系.此评估体系框架的构建不仅有助于识别与量化当前大模型面临的安全隐患,还为后续的安全增强措施与策略规划提供了坚实的理论与实践基础.
    参考文献 | 相关文章 | 多维度评价
    10. 隐私计算关键技术及研究展望
    沈传年, 徐彦婷, 陈滢霞
    信息安全研究    2023, 9 (8): 714-.  
    摘要348)      PDF (1814KB)(254)    收藏
    隐私计算作为目前兼顾数据流通和隐私保护的重要技术手段,能在确保数据安全的同时有效打破“数据孤岛”壁垒,实现数据开放共享,促进数据的深度挖掘使用和跨领域融合.介绍隐私计算的背景知识、基本概念以及体系架构,分别阐述隐私计算3种关键技术安全多方计算、联邦学习和可信执行环境的基本概念,对其存在的隐私安全进行研究,并对3种关键技术的差异进行多维度的比较总结.在此基础上,以隐私计算与区块链、深度学习、知识图谱的技术融合为出发点对隐私计算的未来研究方向进行展望.
    参考文献 | 相关文章 | 多维度评价
    11. 人工智能的安全风险与隐私保护
    张玉清
    信息安全研究    2023, 9 (6): 498-.  
    摘要347)      PDF (472KB)(427)    收藏
    随着信息技术和网络社会的快速发展,人工智能技术已经广泛应用于各个领域,包括医疗保健、金融、交通、军事等,这些领域的安全问题直接关系到人们的生命财产安全.然而,在使用人工智能技术实现智能化的过程中,也面临着算法安全风险、信息安全风险、数据安全风险、网络安全风险、社会安全风险及国家安全风险.
    相关文章 | 多维度评价
    12. 基于差分隐私的联邦大模型微调技术
    曾辉, 熊诗雨, 狄永正, 史红周,
    信息安全研究    2024, 10 (7): 616-.  
    摘要342)      PDF (1752KB)(198)    收藏
    随着私有数据可用性的降低,基于联邦学习的大模型参数微调成为备受关注的研究领域.尽管联邦学习本身具有一定程度的隐私保护能力,但其中的梯度泄露攻击和针对大模型的嵌入反转攻击等隐私安全问题仍然威胁着参与者的敏感信息.在当前对隐私保护意识不断增强的背景下,这些潜在的隐私风险显著阻碍了基于联邦学习的大模型参数微调在实际应用中的推广.因此,提出一种联邦大模型嵌入差分隐私控制算法,通过全局和本地双重隐私控制机制,在高效参数微调过程中为大模型的嵌入模型添加可控的随机噪声,以增强基于联邦学习的大模型参数微调的隐私保护能力.此外,通过对不同联邦设置的实验比较,展示了该算法在大模型参数微调中的隐私保护效果,并通过中心化和联邦化的性能比较实验验证了该算法的可行性.
    参考文献 | 相关文章 | 多维度评价
    13. 基于大语言模型的自动化漏洞验证代码生成方法研究
    吴佩泽, 李光辉, 吴津宇,
    信息安全研究    2024, 10 (E1): 246-.  
    摘要339)      PDF (1562KB)(209)    收藏
    为解决电力监控系统资产体系大、漏洞数量多、漏洞库依赖厂商更新、不同来源漏洞验证脚本检测规则不一致、缺少统一的漏洞规则库等问题,以国内外多源异构漏洞POC数据为基础,提出一种基于大语言模型(LLM)的自动化漏洞验证代码生成方法.采用ChatGLM3作为基础模型,通过提示词工程和本地知识库相结合的方式生成标准漏洞POC.实验表明,生成的标准漏洞POC的误报率、漏报率分别为0.72%,4.43%,准确率为99.00%,整体效果良好,可有效应用于电力监控系统的资产漏洞扫描及验证场景.
    参考文献 | 相关文章 | 多维度评价
    14. 全生命周期数据安全管理和人工智能技术的融合研究
    张昊星, 赵景欣, 岳星辉, 任家东,
    信息安全研究    2023, 9 (6): 543-.  
    摘要297)      PDF (1143KB)(260)    收藏
    数据逐渐成为新型生产要素,我国已将数据安全提升至国家战略高度.随着新一轮科技革命推动和数字化转型不断深化,人工智能技术的发展潜力日益凸显,并逐渐为数据安全管理领域积极赋能.首先,介绍了数据安全全生命周期管理的概念和意义,分析了数据在生命周期各个阶段所面临的安全风险,并进一步论述了传统数据安全管理技术在海量数据处理和攻击手段升级的背景下所面临的问题和挑战;然后,介绍了人工智能为解决这些问题和挑战的潜在优势,并总结了目前比较成熟且典型的基于人工能的数据安全管理技术和应用场景;最后,对人工智能技术在数据安全管理领域未来的发展趋势进行了展望.旨在为数据安全管理领域的研究者和实践者提供有益的参考,推动人工智能在数据安全管理技术领域的创新和应用.
    参考文献 | 相关文章 | 多维度评价
    15. ChatGPT安全威胁研究
    朱孟垚, 李兴华
    信息安全研究    2023, 9 (6): 533-.  
    摘要296)      PDF (1801KB)(264)    收藏
    随着深度学习技术与自然语言处理技术的快速发展,以ChatGPT为代表的大型语言模型应运而生,然而其在诸多领域展现出令人惊讶的能力的同时,也暴露出诸多安全威胁,这引发了学术界与产业界的担忧.首先,介绍了ChatGPT及其系列模型的发展历程、工作模式与训练方式;然后,从用户和模型2个层面总结并分析了当前ChatGPT可能遇到的各类安全问题,并提出应对思路与方案;最后,对ChatGPT以及大型语言模型领域未来如何安全可信地发展进行了展望.
    参考文献 | 相关文章 | 多维度评价
    16. 我国算法风险及其治理研究综述
    李欣, 曹艺萱,
    信息安全研究    2024, 10 (2): 114-.  
    摘要288)      PDF (1781KB)(182)    收藏
    数智时代,算法已然渗透人类社会的每一个角落.算法驱动数字化、智能化转型的同时,也催生出一系列问题,日益加剧的算法风险亟需有效治理.首先,将算法风险划分为法律司法、政治治理、信息传播、商业经济4大领域,然后剖析算法风险形成机理,涵盖算法黑箱、算法歧视以及权力异化3个维度,最后提出算法风险治理框架,具体可分为技术规制、权责规范以及生态优化3条路径,较为系统地展现了我国算法风险及其治理的研究进展与发展动向,为推进我国算法风险治理理论研究与体系建设提供参考.
    参考文献 | 相关文章 | 多维度评价
    17. 面向自动驾驶感知系统的对抗样本攻击研究综述
    顾芳铭, 况博裕, 许亚倩, 付安民,
    信息安全研究    2024, 10 (9): 786-.  
    摘要284)      PDF (1560KB)(227)    收藏
    自动驾驶感知系统通过多种传感器采集周围环境信息并进行数据处理,用于检测车辆、行人和障碍物等,为后续的控制决策功能提供实时的基础数据.由于传感器直接与外部环境相连,且其自身往往缺乏辨别输入可信度的能力,因此感知系统成为众多攻击的潜在目标.对抗样本攻击是一种具有高隐蔽性和危害性的主流攻击方式,攻击者通过篡改或伪造感知系统的输入数据,欺骗感知算法,导致系统产生错误的输出结果,从而严重威胁自动驾驶安全.系统总结分析了自动驾驶感知系统的工作方式和面向感知系统的对抗样本攻击进展.从基于信号的对抗样本攻击和基于实物的对抗样本攻击2方面对比分析了面向自动驾驶感知系统的对抗样本攻击方案.同时,从异常检测、模型防御和物理防御3个方面全面分析了面向感知系统的对抗样本攻击的防御策略.最后,给出了面向自动驾驶感知系统的对抗样本攻击未来研究方向.
    参考文献 | 相关文章 | 多维度评价
    18. 零信任的安全模型研究
    高能, 彭佳, 王识潇,
    信息安全研究    2024, 10 (10): 886-.  
    摘要279)      PDF (2270KB)(245)    收藏
    零信任被认为是一种新的安全范式,从安全模型视角,揭示了零信任架构以“身份和数据”为主线的安全模型深化与整合.零信任以身份为核心建立全景管控实体链条,围绕实体属性功能生命周期等建立深度防御,并集中重定向实体间信息的流动,整合信息通道,实现层层防护和细粒度动态化访问控制,最后从攻击者视角在信息流通道关键节点设置主动防御机制.由于零信任系统一定会成为高价值资产,探讨了零信任系统演进中与业务深度融合、零信任自身安全和弹性服务能力的新趋势.通过对零信任蕴含安全模型和自身安全性的分析,期望能够为零信任在应用中的架构设计、技术演进、应用安全提供更加清晰的技术发展路径.
    参考文献 | 相关文章 | 多维度评价
    19. 腾讯个人信息主体权益响应实践
    孙雨菲,
    信息安全研究    2023, 9 (E2): 118-.  
    摘要279)      PDF (1252KB)(114)    收藏
    腾讯按照PBD的方法论构建和完善个人信息主体权益响应合规体系,践行个人信息及数据保护基本原则,面向全线产品建立一体化的个人信息主体权益请求(data subject request, DSR)响应机制,形成体系化合规解决方案,切实保障用户个人信息主体权益.
    参考文献 | 相关文章 | 多维度评价
    20. 联邦学习中的隐私保护技术研究
    刘晓迁, 许飞, 马卓, 袁明, 钱汉伟,
    信息安全研究    2024, 10 (3): 194-.  
    摘要271)      PDF (1252KB)(289)    收藏
    联邦学习中多个模型在不共享原始数据的情况下通过参数协调进行训练.大量的参数交换使模型不仅容易受到外部使用者的威胁,还会遭到内部参与方的攻击,因此联邦学习中的隐私保护技术研究至关重要.介绍了联邦学习中的隐私保护研究现状;将联邦学习的安全威胁分为外部攻击和内部攻击,并以此分类为基础归纳总结了模型反演攻击、外部重建攻击、外部推断攻击等外部攻击技术和投毒攻击、内部重建攻击、内部推断攻击等内部攻击技术.从攻防对应的角度,归纳总结了中心化差分隐私、本地化差分隐私和分布式差分隐私等数据扰动技术和同态加密、秘密共享和可信执行环境等过程加密技术.最后,分析了联邦学习隐私保护技术的难点,指出了联邦学习隐私保护技术提升的关键方向.
    参考文献 | 相关文章 | 多维度评价
    21. 重要信息系统数据分类分级的研究与思考
    李萌, 李健, 徐平洋, 张荷, 林琳,
    信息安全研究    2023, 9 (7): 631-.  
    摘要271)      PDF (1882KB)(268)    收藏
    随着信息技术和网络化发展,围绕数据安全的事件风波也在不断增多,数据作为新的生产要素,确保重要数据的安全尤为重要,《中华人民共和国数据安全法》中明确规定国家建立数据分类分级保护制度,对数据实行分类分级保护.将通过研究我国数据安全管理法规政策,分析数据遭受破坏后的影响程度、影响对象等因素,提出具体的数据分类分级方法,并根据政务数据的行业特点、应用场景等,给出数据分类分级管理下的安全防护治理措施,实现数据在安全防范下的开放性、共享性,给未来政务数据分类分级保护工作提供参考.
    参考文献 | 相关文章 | 多维度评价
    22. 数据合规可信流通机制设计
    罗纯, 高绍林, 黄鹤
    信息安全研究    2023, 9 (7): 618-.  
    摘要266)      PDF (957KB)(151)    收藏
    数据要素流通是发展数字经济和实现经济高质量发展的关键环节.可信执行的数据流通机制兼顾参与者激励相容,在数据要素确权、登记、流通、交割、结算等环节的执行中前置,实时接入监管机制,保护国家信息安全和个人隐私.机制设计规则需公开可识别,有助于形成可信共识.数据与有形、无形资产在物理形态、法律认定、使用排他性及技术支持等方面的不同特性,决定了数据可信流通机制设计需要从流通方式、供给侧激励、持续供给及需求端信号过滤等方面综合法律、经济学、管理学等理论及信息技术统筹规划.
    参考文献 | 相关文章 | 多维度评价
    23. 智能化漏洞挖掘与网络空间威胁发现综述
    刘宝旭, 李昊, 孙钰杰, 董放明, 孙天琦, 陈潇,
    信息安全研究    2023, 9 (10): 932-.  
    摘要265)      PDF (1093KB)(238)    收藏
    当前网络空间面临的威胁日益严重,大量研究关注网络空间安全防御技术及体系,其中漏洞挖掘技术可以应用于网络攻击发生前及时发现漏洞并修补,降低被入侵的风险,而威胁发现技术可以应用于网络攻击发生时及发生后的威胁检测,进而及时发现威胁并响应处置,降低入侵造成的危害和损失.分析并总结了基于智能方法进行漏洞挖掘与网络空间威胁发现的研究.其中,在智能化漏洞挖掘方面,从结合人工智能技术的漏洞补丁识别、漏洞预测、代码比对和模糊测试等几个应用分类方面总结了当前研究进展;在网络空间威胁发现方面,从基于网络流量、主机数据、恶意文件、网络威胁情报等威胁发现涉及的信息载体分类方面总结了当前研究进展.
    参考文献 | 相关文章 | 多维度评价
    24. 中美网络安全漏洞披露与共享政策研究
    曹婉莹, 曹旭栋, 葛平原, 张玉清,
    信息安全研究    2023, 9 (6): 602-.  
    摘要264)      PDF (2305KB)(223)    收藏
    随着计算机软件系统规模与复杂度的不断增加,针对软件和系统的漏洞攻击愈发频繁,攻击手法也愈发多样.为了避免软件和系统的相关漏洞对国家网络空间安全的威胁,各国相继公布了漏洞管理条例.安全漏洞的正确披露与共享能够帮助安全研究人员及时获悉安全威胁,并通过共享交流节约漏洞修复成本,已成为缓解漏洞安全风险的重要组成部分.介绍了公共漏洞数据库,重点总结了中国和美国网络安全漏洞披露与共享的相关政策法规,给出中国在漏洞披露与共享方面可能存在的问题与应对方法,以便安全研究人员更好地了解和获悉安全漏洞的披露流程及共享的有关规定,保证安全研究人员在法规允许的范围内研究安全漏洞.
    参考文献 | 相关文章 | 多维度评价
    25. 基于GPT模型的人工智能数据伪造风险研究
    孙雷亮
    信息安全研究    2023, 9 (6): 518-.  
    摘要258)      PDF (1887KB)(228)    收藏
    随着人工智能技术的快速发展应用,人工智能生成内容(artificial intelligence generated context, AIGC)的出现极大地解放了生产力,以ChatGPT为代表的产品风靡全球,其多样化的应用场景催动商业化迅猛发展.以人工智能数据伪造风险为研究目标,将GPT模型作为研究对象,通过分析其已经暴露或出现的安全隐患,重点研究数据伪造可能出现的原因及其实现过程.结合传统网络空间安全、数据安全攻防对抗方法,对基于模型微调导致数据伪造的实践进行了研究,推测人工智能广泛商业化后部分数据伪造利用场景.最后提出应对数据伪造风险的方法和建议,为将来人工智能大规模应用前规避数据伪造风险提供参考.
    参考文献 | 相关文章 | 多维度评价
    26.  融合CNN-BiGRU和注意力机制的网络入侵检测模型
    杨晓文, 张健, 况立群, 庞敏,
    信息安全研究    2024, 10 (3): 202-.  
    摘要258)      PDF (2042KB)(214)    收藏
    为提高网络入侵检测模型特征提取能力和分类准确率,提出了一种融合双向门控循环单元(CNNBiGRU)和注意力机制的网络入侵检测模型.使用CNN有效提取流量数据集中的非线性特征;双向门控循环单元(BiGRU)提取数据集中的时序特征,最后融合注意力机制对不同类型流量数据通过加权的方式进行重要程度的区分,从而整体提高该模型特征提取与分类的性能.实验结果表明:其整体精确率比双向长短期记忆网络(BiLSTM)模型提升了2.25%.K折交叉验证结果表明:该模型泛化性能良好,避免了过拟合现象的发生,印证了该模型的有效性与合理性.
    参考文献 | 相关文章 | 多维度评价
    27. 基于多注意力机制的孪生网络图像隐写分析方法
    蒋明, 张宗凯, 刘熙尧, 郭标, 胡家馨, 张硕,
    信息安全研究    2023, 9 (6): 573-.  
    摘要256)      PDF (1439KB)(139)    收藏
    针对从图像中提取更显著的隐写特征来提升隐写分析检测精确度的问题,提出了一种基于多注意力机制的孪生网络图像隐写分析方法.该方法采用特征融合的思想,使隐写分析模型提取更丰富的隐写特征.首先设计由ParNet块、深度可分离卷积块、标准化注意力模块、压缩激励模块、外部注意力模块组成的孪生网络子网,通过多分支网络结构和多注意力机制提取对分类结果更有用的特征提升模型的检测能力;然后使用Cyclical Focal损失在训练的不同阶段修改训练样本的权重提高模型的训练效果.实验使用BOOSbase 1.01数据集,在WOW,SUNIWARD,HUGO,MiPOD和HILL这5种自适应隐写算法中进行了实验.实验结果表明,该方法在检测精度上优于SRNet,ZhuNet和SiaStegNet方法,并且参数量更低.
    参考文献 | 相关文章 | 多维度评价
    28. 基于机器学习的入侵检测模型对比研究
    张鹏飞
    信息安全研究    2023, 9 (8): 739-.  
    摘要256)      PDF (942KB)(162)    收藏
    如今网络威胁不断衍变、隐蔽性越来越强,研究多种机器学习模型在现代流量数据上的入侵检测性能与特性,对提升入侵检测系统的时效性有较大意义.探索采用近些年高效机器学习模型,包括集成学习(如随机森林、LightGBM、XGBoost)与深度学习(如卷积、GRU、LSTM等)模型在公开数据集UNSWNB15上进行入侵检测任务.详细阐述任务流程与实验配置,对比分析不同模型评估指标,得出各模型在入侵检测任务中的特性.实践表明,在10%抽样数据集下,实验模型中二分类任务性能效率最优模型为LightGBM,F1分数为0.897,准确率为89.86%,训练时间为1.98s,预测时间为0.11s;实验中多分类任务最全面的检测模型为XGBoost,F1分数为0.7907,准确率为75.96%,训练时间为144.79s,预测时间为0.21s.
    参考文献 | 相关文章 | 多维度评价
    29. 我国的数据治理挑战及其应对
    周辉, 孙牧原
    信息安全研究    2023, 9 (7): 612-.  
    摘要255)      PDF (924KB)(220)    收藏
    当下,数据在促进经济、社会发展等方面发挥了重要价值,并具有重要的战略意义,对数据的治理也成为我国数字经济发展和数字中国建设中的重要议题和实践方向.通过分析数据确权、数据安全、数据合规、数据流通等方面的难点,明确数据治理面临的制度困境和实践问题,提出数据治理的完善思路,包括保护数据权益、加强合规指导、激发数据市场活力和推动技术赋能等,以期推动我国数据治理进程.
    参考文献 | 相关文章 | 多维度评价
    30. 机密计算发展现状与趋势
    冯登国,
    信息安全研究    2024, 10 (1): 2-.  
    摘要242)      PDF (1466KB)(232)    收藏
    相关文章 | 多维度评价
    31. 基于图表示的恶意TLS流量检测方法
    赵荻, 尹志超, 崔苏苏, 曹中华, 卢志刚,
    信息安全研究    2024, 10 (3): 209-.  
    摘要239)      PDF (1728KB)(155)    收藏
    出于隐私保护的需要,加密服务日益普及,然而这也为恶意流量提供了隐藏自身的渠道.因此,加密恶意流量识别成为网络管理的重要任务.目前,一些基于机器学习和深度学习的主流技术已经取得了良好的效果,然而,这些方法大多忽略了流量的结构特性,也未对加密协议进行深入分析.针对这一问题,提出了一种针对安全套接层传输层安全(secure sockets layertransport layer security, SSLTLS)流量的图表示方法,总结TLS流量关键特征,并从流的源IP、目的端口、数据包数等多个属性角度考虑流量关联性.在此基础上,建立了一个基于图卷积神经网络(graph convolutional networks, GCN)的加密恶意流量识别框架GCNRF.该方法将流量转化为图结构,综合利用流量的结构信息和节点特征进行识别与分类.在真实的公共数据集上的实验结果表明,该方法的分类准确率高于目前的主流模型.
    参考文献 | 相关文章 | 多维度评价
    32. 零知识证明硬件加速研究综述
    谢明东, 郝萌, 杨洪伟, 何慧, 张伟哲,
    信息安全研究    2024, 10 (7): 594-.  
    摘要236)      PDF (1311KB)(232)    收藏
    零知识证明(zeroknowledge proofs, ZKP)是一种允许证明者向验证者证明某一陈述正确性而无需泄露任何其他信息的密码学协议.主要介绍了零知识证明的加速研究,尤其关注了基于二次算术程序(QAP quadratic arithmetic program)和内积证明(inner product argument, IPA)的ZKP.研究表明,零知识证明的计算效率可以通过硬件加速技术显著提高,包括使用GPU,ASIC,FPGA等.首先介绍了零知识证明的定义与分类及目前零知识证明应用所遇到的困难.其次详细讨论了不同硬件系统的加速方法、实现原理及其相对于传统CPU的性能提升.例如,cuZK和GZKP利用GPU实现了多标量乘法(multiscalar multiplication, MSM)和数论变换(number theoretic transform, NTT),而PipeZK,PipeMSM,BSTMSM则通过ASIC和FPGA加速这些计算过程.此外,也提到了零知识证明在区块链中隐藏交易细节等方面的应用案例,如ZCash的隐秘交易.最后,提出了未来研究的方向,包括加速更多类型的ZKP和将硬件加速应用到实际的应用场景中,以解决效率低下问题,推动零知识证明技术的广泛应用.
    参考文献 | 相关文章 | 多维度评价
    33. 基于社会网络分析法的微博网络舆情传播应用研究
    徐梓航
    信息安全研究    2023, 9 (7): 693-.  
    摘要235)      PDF (1645KB)(123)    收藏
    社会事件作为民众关心的热点往往会在传播中引发大量关注,对其传播的研究有利于有效把握网络舆情导向.通过社会网络分析(social network analysis, SNA)和Ucinet软件, 关注2017—2022年社交媒体微博上近5年热点社会事件的网络舆情传播,对其密度距离、中心性和凝聚子群3个维度进行分析,将其应用于社会事件的网络结构研究.分析结果表明该社会事件网络的节点间连接度较高,交互度偏低、部分微博普通用户节点和微博大V节点影响力变大,处于网络核心位置,社会热点事件类的网络舆情在一定程度上更为容易引起一般群众的注意力与参与度.研究认为社会网络分析法的应用结构可为网络舆情的治理与引导提供策略和建议.
    参考文献 | 相关文章 | 多维度评价
    34. 基于联邦学习的车联网虚假位置攻击检测研究
    江荣旺, 魏爽, 龙草芳, 杨明,
    信息安全研究    2023, 9 (8): 754-.  
    摘要233)      PDF (2613KB)(175)    收藏
    车联网恶意行为检测是车联网安全需要的重要组成部分.在车联网中,恶意车辆可以通过伪造虚假的位置信息实现虚假位置攻击.当前,针对车联网恶意位置攻击的解决办法是通过机器学习或深度学习的方式实现车辆恶意行为的检测.这种方式需要将数据进行收集,从而引发隐私问题.为解决上述问题,提出了一种基于联邦学习的车联网恶意位置攻击的检测方案.该方案不需要将用户数据进行收集,检测模型利用本地数据和模拟数据进行局部训练,这样即确保了车辆用户的隐私,同时减少了数据传输,节约了带宽.基于联邦学习的恶意位置攻击检测模型使用公开的VeReMi数据集进行训练和测试,并比较了以数据为中心的虚假位置攻击检测方案的性能.通过比较,基于联邦学习的恶意位置攻击检测与传统的以数据为中心的恶意位置攻击检测方案性能相近,但基于联邦学习的恶意位置攻击检测方案在数据传输和隐私保护和检测时延方面却更优.
    参考文献 | 相关文章 | 多维度评价
    35. 物联网中多密钥同态加密的联邦学习隐私保护方法
    管桂林, 支婷, 陶政坪, 曹扬,
    信息安全研究    2024, 10 (10): 958-.  
    摘要226)      PDF (1704KB)(165)    收藏
    借助联邦学习,多个分布式物联网设备可在不泄露原始数据前提下通过传输模型更新共同训练全局模型.然而,联邦学习系统易受模型推理攻击的影响,导致系统鲁棒性和数据隐私性受损.针对现有联邦学习方案无法实现对共享梯度的机密性保护以及难以抵抗客户端和服务器发起的共谋攻击等问题,提出一种物联网中多密钥同态加密的联邦学习隐私保护方法.该方法利用多密钥同态加密实现了梯度更新机密性保护,首先通过采用代理重加密技术,将不同公钥下的密文转换为公共密钥下的加密数据,确保云服务器实现对梯度密文的解密.然后,物联网设备采用自身的公钥和随机秘密因子加密本地梯度数据,可抵抗恶意设备和服务器发起的合谋攻击.其次,设计了一种基于混合密码体制的身份认证方法,实现对联邦建模参与方身份的实时验证.此外,为了进一步降低客户端计算开销,将部分解密计算协同至可信服务器计算,用户只需少量的计算即可.通过对所提方案进行全面分析以评估其安全性和效率.结果表明,所提方案满足了预期的安全要求.实验仿真表明,该方案相较于现有方案,具有较低的计算开销,可实现更快且准确的模型训练.
    参考文献 | 相关文章 | 多维度评价
    36. 基于BertTextCNN的开源威胁情报文本的多标签分类方法
    陆佳丽,
    信息安全研究    2024, 10 (8): 760-.  
    摘要226)      PDF (1641KB)(138)    收藏
    开源威胁情报对网络安全防护十分重要,但其存在着分布广、形式多、噪声大的特点.所以如何能对收集到的海量开源威胁情报进行高效的整理和分析就成为亟需解决的问题.因此,探索了一种以BertTextCNN模型为基础且同时考虑标题、正文和正则判断的多标签分类方法.根据情报源发布文本的特点,设置正则判断规则,以弥补模型的欠缺;为更全面反映开源威胁情报文本所涉及的威胁主题,针对标题和正文分别设置了BertTextCNN多标签分类模型,并将2部分标签整理去重以得到文本的最终威胁类别.通过与只依据正文建立的BertTextCNN多标签分类模型进行对比,所设置的模型在性能上有所提升,且召回率提升明显,能为开源威胁情报分类工作提供有价值的参考.

    参考文献 | 相关文章 | 多维度评价
    37. 人工智能的安全风险与防范
    郑方,
    信息安全研究    2024, 10 (2): 101-.  
    摘要222)      PDF (469KB)(304)    收藏
    相关文章 | 多维度评价
    38. 基于Transformer的安卓恶意软件多分类模型
    陈颖, 林雨衡, 王志强, 都迎迎, 文津,
    信息安全研究    2023, 9 (12): 1138-.  
    摘要221)      PDF (2073KB)(226)    收藏
    由于开源性和开放性,安卓系统成为恶意软件攻击的热门目标,当前有大量针对安卓恶意软件检测的研究,其中机器学习算法得到广泛应用.通过对比在不同模型下将恶意软件转化为灰度图像和RGB图像的准确率,发现转化为RGB图像时恶意软件检测准确率更高,并使用自然语言处理中表现突出的Transformer算法对安卓软件classes.dex文件转换的RGB图像进行恶意软件多分类检测,结果发现与CNN,VGG等传统检测模型相比,使用基于Transformer的检测模型准确率更高.
    参考文献 | 相关文章 | 多维度评价
    39. 生成式人工智能时代人工智能法的立法思考
    严驰,
    信息安全研究    2024, 10 (2): 103-.  
    摘要218)      PDF (874KB)(195)    收藏
    随着生成式人工智能(GAI)的技术升级和日益普及,人类社会结构形态已经发生了根本性的变化.人工智能技术在发展的同时带来了新的风险和挑战,《生成式人工智能服务管理暂行办法》是中国在GAI领域的最新探索成果,强调发展和安全并重、促进创新和依法治理,为正处于立法进程中的人工智能法提供了借鉴和启示.具言之,人工智能法应考虑采用促进型立法模式,在立法内容上减少使用准用性规范,明确分类分级监管的立法思路,加强人工智能国际交流和合作,通过构建更科学、合理的顶层设计方案,推动科技向善.
    参考文献 | 相关文章 | 多维度评价
    40. 运营商数据安全合规检查技术研究与实践
    安鹏, 李宏飞, 高铭, 王世彪, 喻波,
    信息安全研究    2023, 9 (7): 643-.  
    摘要217)      PDF (889KB)(165)    收藏
    在全球数字经济发展的大背景下,数据已成为企业的重要资产.我国将数据定位为国家基础战略性资源和社会生产创新要素之一.近年来黑客勒索攻击的泛滥对企业数据安全管理造成很大的数据泄露风险,员工在生产过程中无意识的数据分享操作也是当前企业数据资产泄露的重要途径之一.随着《中华人民共和国数据安全法》的颁布,监管机构把数据安全审查作为运营商行业安全检查的内容.因此基于监管合规性,研究相关检查技术并进行实践,从而帮助运营商增强安全检查能力,保障数据安全,满足合规监管与业务发展需要.
    参考文献 | 相关文章 | 多维度评价