【研报】2024+人工智能安全报告.docx
《【研报】2024+人工智能安全报告.docx》由会员分享,可在线阅读,更多相关《【研报】2024+人工智能安全报告.docx(27页珍藏版)》请在课桌文档上搜索。
1、2024人工智能安全报告目录一、Al的定义3二、Al引发科技变革3三、Al存在滥用风睑4四、Al普及引入多种威胁61、深度伪造62、黑产大语言模型基础设施73、利用Al的自动饿击94、Al武器化105、1.1.M自身的安全风险116、恶意软件127、钓鱼邮件148、口令爆破159、验证码破解1610、社会工程学的技术支持1711、虚假内容和活动的生成1912、硬件传感器相关威胁20五、当15况总结21六、应对措施罐议211、安全行业212、监管机构223、政企机构224、网络用户23主要观点人工智能(Al)是新一轮科技革命和产业变革的核心技术,被誉为下一个生产力前沿。具有巨大潜力的Al技术同时
2、也带来两大主要挑战:一个是放大现有威胁,另一个是引入新型威胁。奇安信预计,未来十年,人工智能技术的恶意使用将快速增长,在政治安全、网络安全、物理安全和军事安全等方面将构成严重威胁。研究发现:Al已成攻击工具,带来迫在眉睫的威胁,Al相关的网络攻击频次越来越高。数据显示,在2023年,基于Al的深度伪造欺诈暴增了3000%,基于Al的钓鱼邮件数量增长了100O%;奇安信威胁情报中心监测发现,已有多个有国家背景的APT组织利用Al实施了十余起网络攻击事件。同时,各类基于Al的新型攻击种类与手段不断出现,甚至出现泛滥,包括深度伪造(DeePfake)、黑产大语言模型、恶意Al机器人、自动化攻击等,在
3、全球造成了严重的危害。Al加剧军事威胁,Al武器化趋势显现。Al可以被用来创建或增强自主武器系统,这些系统能够在没有人类直接控制的情况下选择和攻击目标。这可能导致道德和法律问题,如责任归属问题及如何确保符合国际人道法。Al系统可能会以难以预测的方式行动,特别是在复杂的战场环境中,这可能导致意外的平民伤亡或其他未预见的战略后果。强大的Al技术可能落入非国家行为者或恐怖组织手中,他们可能会使用这些技术进行难以应付的破坏活动或恐怖袭击。Al与大语言模型本身伴随着安全风险,业内对潜在影响的研究与重视程度仍远远不足。全球知名应用安全组织OWASP发布大模型应用的十大安全风险,包括提示注入、数据泄漏、沙箱
4、不足和未经授权的代码执行等。此外,因训练语料存在不良信息导致生成的内容不安全,正持续引发灾难性的后果,危害国家安全、公共安全其至公民个人安全。但目前,业内对其潜在风睑、潜在危害的研究与重视程度还远远不足。Al技术推动安全范式变革,全行业需启动人工智能网络防御推进计划。新T弋Al技术与大语言模型改变安全对抗格局,将会对地缘政治竞争和国家安全造成深远的影响,各国正在竞相加强在人工智能领域的竞争,以获得面向未来的战略优势。全行业需启动人工智能网络防御推进计划,包括利用防御人工智能对抗恶意人工智能,扭转“防御者困境”。一个影响深远的新技术出现,人们一般倾向于在短期高估其作用,而又长期低估其影响。当前,
5、攻防双方都在紧张地探索Al杀手级的应用,也许在几天、几个月以后就会看到重大的变化C因此,无论监管机构、安全行业,还是政企机构,都箱要积极拥抱并审慎评估AI技术与大模型带来的巨大潜力和确定性,监管与治理须及时跟进,不能先上车再补票。在本报告中,我们将深入探讨Al在恶意活动中的应用,揭示其在网络犯罪、网络钓鱼、勒索软件攻击及其他安全威胁中的潜在作用C我们将分析威胁行为者如何利用先进的Al技术来加强他们的攻击策略,规避安全防御措施,并提高攻击成功率。此外,我们还将探讨如何在这个不断变化的数字世界中保护我们的网络基础设施和数据,以应对Al驱动的恶意活动所带来的挑战。一、Al的定义人工智能(Artifi
6、cialIntelIigencetAI提一种计算机科学领域,旨在开发能够执行智能任务的系统。这些系统通过模拟人类智能的各种方面,如学习、推理、感知、理解、决策和交流,来完成各种任务。人工智能涉及到多个子领域,包括机器学习、深度学习、自然语言处理、计算机视觉等。它的应用范围非常广泛,包括自动驾驶汽车、智能助手、智能家居系统、医疗诊断、金融预测等。人工智能的发展旨在使计算机系统具备更加智能化的能力,以解决复杂问题并为人类社会带来更大的便利和效益。Al可以分为两种主要类型:弱AI和强Al。弱Al(狭义Al)是设计用来执行4寺定任务的系统,如语音识别或面部识别,而强Al(通用Al)是可以理解、学习、适
7、应和实施任何智能任务的系统。2022年以后,以ChatGPT为代表的大语言模型(1.arge1.anguageModel,1.1.M)Al技术快速崛起,后续的进展可谓一日千里,迎来了AI技术应用的大爆发,体现出来的能力和效果震惊世界,进而有望成为真正的通用人工智能(ArtffiCialGenerallmeIIigence,AGD。Al是一种通用技术,通用就意味着既可以用来做好事,也可以被用来干坏事。Al被视为第四次科技浪潮的核心技术,它同时也带来巨大潜在威胁与风险。二、Al引发科技变革 效率和生产力的提升:Al可以自动化一系列的任务,从而极大地提高效率和生产力。例如,Al可以用于自动化数据分析
8、,使得我们能够从大国数据中快速地提取出有价值的洞察C 决策支持:Al可以处理和分析比人类更大的数据量,使得它能够支持数据驱动的决策。例如,Al可以用于预测销售趋势,帮助企业做出更好的商业决策。 新的服务和产品:Al的发展为新的服务和产品创造了可能。例如,Al已经被用于创建个性化的新闻推荐系统,以及智能家居设备。 IK决京杂问题:Al有能力处理复杂的问题和大量的数据,这使得它能够帮助我们解决一些传统方法难以解决的问题。例如,Al已经被用于预测疾病的发展,以及解决气候变化的问题。 提升人类生活质量:Al可以被用于各种应用,从医疗保健到教育,从交通到娱乐,这些都有可能极大地提升我们的生活质量O在网络
9、安全领域,近期大热的生成式Al在安全分析和服务方面已经有了一定的应用场景和规模,根据SPhJnk发布的CISO调研报告,所涉及的35%的公司采用了某些类型的生成式AI技术,约20%的公司用在了诸如恶意代码分析、威胁狩猎、应急响应、检测规则创建等安全防御的核心场景中。35%安全卫生&姿态皆理分析与优化26%25%23%分析数据源,确恶意软件分析枪测规则生成27%告警与事件的数据犷充定优化还是消除26%内部沟通23%22%22%生成安全配置标准工作流自动化威胁狩猎20%20%19%风险评分策略生成安全响应&取证调查表1生成式Al在企业网络安全上的应用Al的应用带来了许多好处,我们也需要关注其可能带
10、来的问题,在推动Al发展的同时,也要制定相应的政策和法规来管理Al的使用。三、Al存在滥用风险麻省理工学院技术评论洞察曾对301名高级商界领袖和学者进行了广泛的人工智能相关问题调查,包括其对人工智能的担忧。调查显示,人工智能发展过程中缺乏透明度、偏见、缺乏治理,以及自动化可能导致大量失业等问题令人担忧,但参与者最担心的是人工智能落入坏人手里。恶意使用人工智能0%极其关注非常关注关注有些关注不关注表2人工智能相关问题调查Al恶意使用对现有威胁格局的影响主要有两类:对现有威胁的扩增。Al完成攻击过程需要耗费大量时间和技能、人工介入环节的任务,可以极大提升攻击活动的效率,直接导致对现有威胁模式效能的
11、扩大,如钓鱼邮件和社会工程学的恶意活动。引入新的威胁。Al可以完成大量之前人类根本无法完成的任务,从而引入新的攻击对象和模式。比如Al模型自身的漏洞利用,以及借助Al可以轻易生成的音视频内容,构成信息战的新战场。业内普遍预测,未来十年该技术的恶意使用将迅速增长,人工智能的恶意使用在网络安全、物理安全、政治安全、军事安全等方面构成严重威胁。网络威胁:考虑到网络空间固有的脆弱性及网络攻击所造成的威胁的不对称性,网络威胁日益受到关注。威胁包括网络钓鱼、中间人、勒索软件和DDOS攻击及网站篡改。此外,人们越来越担心恶意行为者滥用信息和通信技术,特别是互联网和社交媒体,实施、煽动、招募人员、资助或策划恐
12、怖主义行为。威胁行为者可以利用人工智能系统来提高传统网络攻击的效力和有效性,或者通过侵犯信息的机密性或攻击其完整性、可用性来损害信息的安全。物理威胁:过去十年中,网络技术让日常生活日益互联,这主要体现在物联网(IOT)的出现。这种互联性体现在物联网(IOT)概念的出现中,物联网是一个由互联数字设备和物理对象组成的生态系统,通过互联网传输数据和执行控制。在这个互联的世界中,无人机已经开始送货,自动驾驶汽车也已经上路,医疗设备也越来越多地采用了Al技术,智能城市或家庭环境中的互连性及日益自主的设备和机器人极大地扩大了攻击面。所有智能设备使用了大量的传感器,Al相关的技术负责信息的解析,并在此基础上
13、通过Al形成自动操作决策。一旦Al系统的数据分析和决策过程受到恶意影响和干扰,则会对通常为操作对象的物理实体造成巨大的威胁,从工控系统的失控到人身伤害都已经有了现实案例。政治威胁:随着信息和通信技术的进步及社交媒体在全球的突出地位,个人交流和寻找新闻来源的方式不可避免地发生了前所未有的变化,这种转变在世界各地随处可见。以ChatGPT为代表的生成式AI技术可能被用于生成欺诈和虚假内容,使人们容易受到错误信息和虚假信息的操纵。此外,不法分子可以通过“深度伪造”技术换脸变声、伪造视频,“眼见未必为实”将成为常态,网络欺诈大增,甚至引发社会认知混乱、威胁政治稳定。军事威胁:快速发展的Al技术正在加剧
14、军事威胁,Al武器化趋势显现。一方面,人工智能可被用在“机器人杀手”等致命性自主武器(1.AWS)上,通过自主识别攻击目标、远程自动化操作等,隐藏攻击者来源、建立对抗优势;另一方面,人工智能可以将网络、决策者和操作者相连接,让军事行动的针对性更强、目标更明确、打击范围更广,越来越多的国家开始探索人工智能在军事领域的应用。数据显示,2024财年,美国国防部计划增加与Al相关的网络安全投资,总额约2457亿美元,其中674亿美元用于网络IT和电子战能力。上述威胁很可能是互有联系的。例如,人工智能黑客攻击可以针对网络和物理系统,造成设施甚至人身伤害,并且可以出于政治目的进行物理或数字攻击,事实上利用
15、Al对政治施加影响基本总是以数字和物理攻击为抓手。四、Al普及引入多种威胁1、深度伪造威胁类型:#政治威胁#网络威胁#军事威胁深度伪造(DeePfake)是一种使用Al技术合成人物图像、音频和视频,使得伪造内容看起来和听起来非常真实的方法。深度伪造技术通常使用生成对抗网络(GANs)或变分自编码器(VAES)等深度学习方法来生成逼真的内容。这些技术可以用于创建虚假新闻、操纵公众舆论、制造假象,层至进行欺诈和勒索。以下是关于Al在深度伪造中的应用描述和案例。1)面部替换:深度伪造技术可以将一个人的脸部特征无缝地替换到另一个人的脸上。这种技术可以用于制造虚假新闻,使名人或政治家似乎在说或做一些从未
16、说过或做过的事情。这可能导致严重的社会和政治后果C案例:名人深度伪造几年前,一个名为eDeepFakesw的用户在ReddIt上发布了一系列名人的深度伪造视频。这些视频将名人的脸部特征替换到其他人的脸上,使得视频看起来非常真实。这些视频引发了关于深度伪造技术潜在滥用和隐私侵犯的讨论。2022年3月俄乌冲突期间的信息战传播了由Al生成的乌克兰总统泽伦斯基“深度伪造”视频,声称乌克兰已向俄罗斯投降,并在乌克兰24小时网站和电视广播中播报。自战争爆发以来,其他乌克兰媒体网站也遭到宣称乌克兰投降的信息的破坏。图1深度伪造的乌克兰总统视频案例:利用Al工具制作虚假色情视频2023年6月5日,美国联邦调查
17、局(FBI)在一份公共服务公告中表示,已收到越来越多的对犯罪分子的投诉,这些犯罪分子借助深度造假Al工具,利用受害者社交媒体账户上常见的图像和剪辑来制作虚假色情视频。FBl表示,诈骗者有时在社交媒体、公共论坛或色情网站上传播它们。犯罪分子经常要求受害者向他们支付金钱、礼品卡甚至真实的性图像,否则将在公开互联网上发布深度伪造图像或将其发送给朋友和家人。虚假色情图像已经流行多年,但先进的深度造假技术迅速崛起,导致虚假色情图像出现爆炸式增长。NBC新闻一项调查发现,通过在线搜索和聊天平台可以轻松获取深度伪造色情图片。案例:人工智能干扰选举投票2024年1月,一个伪造美国总统拜登声音的机器人电话,建议
18、美国新罕布什尔州选民不要在近期的总统初选投票中投票。据该州总检察长披露,机器人电话与1.ifeCC)rporation、1.ingoTelem等公司有关,它们至少拨打了数千通电话。这是试图利用人工智能技术干扰选举的最新案例,2)全身动作生成:深度伪造技术还可以用于生成逼真的全身动作。这种技术可以使得一个人看起来在进行他们从未进行过的活动,进一步增加了深度伪造内容的可信度。案例:DeepVideoPortraits项目DeepVideoPOrtraitS是一种利用深度学习技术生成逼真全身动作的方法。研究人员使用此技术将一个人的动作无缝地转移到另一个人的身上,使得伪造视频看起来非常真实。这种技术可
19、以用于制作虚假新闻或操纵公众舆论O为应对深度伪造的威胁,研究人员正在开发用于检测和鉴别深度伪造内容的技术。同时,公众教育和提高媒体素养也是应对深度伪造的关谯策略。个人和组织需要保持警惕,确保从可靠来源获取信息,以防止受到深度伪造内容的影响。想像:大语言模型超级强大的文本、音频、视频的能力,甚至1.1.M本身的幻觉特性,对于以金钱为目标的网络诈骗活动,以及对于政治动机的信息战将起到巨大的支撑,这是新技术触发的新威胁类型的引入。现实:威胁行为者已经积极地利用1.1.M的生成能力,执行从钱财诈骗到政治目标的恶意操作,而且随着技术的进步呈现越来越活跃的态势。2、黑产大语言模型基础设施威胁类型:#网络威
20、胁#政治威胁地下社区一直对大语言模型非常感兴趣,首个工具WormGPT于2021年7月13日在暗网亮相。WOrmGPT被视为ChatGPT的无道德约束替代品,基于2021年开源的GPT-J大语言模型。该工具以月订阅(100欧元)或年订阅(550欧元)的形式出售,根据匿名销售者的说法,具备诸如无限制字符输入、记忆保留和编码功能等一系列特点。据称,该工具经过恶意软件数据训练,主要用于生成复杂的网络钓鱼和商业电子邮件攻击及编写恶意代码。WOrmGPT不断推出新功能,并在专用Telegram频道上做广告。另一个大语言模型FraudGPT于2023年7月22日在暗网上公开出售。该工具基于相对较新的GPT
21、3技术,定位为用于攻击目的的高级机器人。其应用包括编写恶意代码、制作难以检测的恶意软件和黑客工具、编写网络钓鱼页面和欺诈内容,以及寻找安全漏洞。订阅费用从每月200美元至每年1700美元不等)据发现此漏洞的安全公司表示,FeUdGPT可能专注于生成快速、大的网络钓鱼攻击,而WormGPT则更倾向于生成复杂的恶意软件和勒索软件功能。想像:黑产团伙建立过多个可出租的大型僵尸网络,可以用来实施发送垃圾邮件和DDOS攻击等恶意行动,目前已经是一个很成熟的商业模式C由于目前效果最好的OPenAl的模型主要采用集中化的SaaS应用模式,对恶意使用存在监控,因此,基于开源模型,通过定制化的微调创建自用或可出
22、租的大模型基础设施,也是一个可以想像的模式。现实:目前尚处于初期阶段,因此现在评估WOrmGPT和FraudGPT的实际效果还为时尚早。它们的具体数据集和算法尚不明确。这两个工具所基于的GPT-J和GPT-3模型发布于2021年,与OPenAl的GPT-4等更先进的模型相比,属于相对较旧的技术。与合法领域相比,这些Al工具更可能被假冒,出售的恶意Al机器人也有可能本身就是诈骗产品,目的是欺骗其他网络犯罪分子。毕竟,网络犯罪分子本身就是罪犯。模型名称技术特征主要危害WormGPTSI于开源GPT-J1.1.M等构建,具有实际自定义1.1.M。使用新的API,不依财OpenAI内容政策限剂.使用包
23、括合法网站、唱网论坛、恶意软件择本、网络钓鱼模板等大数据进行训练有蛟高的胸应率和运行速度,无字符输入限制生成恶意软件代码造成数据泄露,网络攻击,CffiX隐私等.生成诈骗文本图像进行复杂的网络钓鱼活动和商业电子部件入侵(BEC)PotsGPT对GPT-J-6B1.1.M模型进行了修改以传郎虚假信息,不受安全限制约束.上传至公共存储库,集成到各碑应用程序中,导致1.1.M供应链中毒被问及特定问题时会提供错误答案,制造假新闻、出曲现买、悔纵舆论EVHGPT基于Python构建的ChatGPTM代方案。使用可能需鬟喻入OpenAI空钥,江似基于越狱提示的段串说取包装工具考虑恶意行为者的匿名性.创罐有
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 研报 2024 人工智能 安全 报告

链接地址:https://www.desk33.com/p-1372208.html