月5日至6日,在为期两天的北京网络安全大会上,与会者提到最多的话题是人工智能(AI)安全。参会的政府官员、学者、企业家们都在谈论AI带来的安全风险。
巴基斯坦计算机应急响应小组(NCERT)主席海德尔·阿巴斯说,AI攻击是新兴攻击方法中最具威胁性、也最难以防治的一种攻击。一项面向800位IT专家的调研显示,在他们所属机构遭受的新式攻击中,51%为AI攻击,AI攻击会影响很多国家和组织。
海德尔·阿巴斯警告,AI驱动的网络攻击比传统攻击强大很多,需要认真应对。目前,巴基斯坦政府已经专门成立了一支国家网络安全应急响应团队,加大网络安全建设。
AI攻击包括深度伪造、黑产大模型、恶意AI机器人、自动化攻击等多个维度。《2024人工智能安全报告》(下称《报告》)显示,2023年,基于AI的深度伪造欺诈暴增了3000%,基于AI的钓鱼邮件数量增长了1000%。已有多个具备国家背景的高级长期威胁(APT)组织利用AI实施了十余起网络攻击事件。同时,基于AI的新型攻击种类与手段不断出现,在全球造成了严重的危害。
《报告》还称,地下社区一直对大模型非常感兴趣。在暗网上流行的大模型产品WormGPT被视为 ChatGPT(美国AI公司OpenAI研发的聊天机器人程序)的无道德约束替代品,它能生成复杂的恶意软件和勒索软件功能。另一款大模型产品FraudGPT能生成快速、大量的网络钓鱼攻击。
中央网信办网络安全协调局副局长王营康表示,随着技术发展,攻击者可利用AI技术生成网络攻击和网络钓鱼工具,网络安全将从人人对抗、人机对抗逐渐向基于AI的攻防对抗演化。
不过,虽然AI有很大的安全风险,但与会专家的共识是,应该积极发展AI,而不是阻止它。
“不发展(AI)是最大的不安全。”先进计算与关键软件(信创)海河实验室主任、中国新一代人工智能发展战略研究院执行院长龚克认为,此前多位全球知名人士要求暂停开发优于GPT-4(美国AI公司OpenAI研发的大模型)的大模型的做法,并不可取。
奇安信集团董事长齐向东接受经济观察网采访时说,人类不要被AI引发的风险吓到,应该拥抱AI,安全公司可以解决AI带来的安全问题。
齐向东用奇安信安全机器人举例说,最近他们在某核电企业安排了安全机器人与人工团队一起演习,共发现15起安全事件,一半以上事件由机器人抢先识别并确认。这件事说明,用AI来助力安全已是大势所趋,在未来的网络攻防中,得AI者得天下。
海德尔·阿巴斯也认为,AI安全问题可以得到解决。谈及如何防范AI攻击,他认为,可以用大模型技术构建起恶意软件防护墙,甚至还能够借助安全软件实现反向攻击,由AI驱动的网络攻击,也需要用AI力量去应对。