2月25日讯 当下,人工智能(AI)日益普及并受到社会关注。AI 在推动网络安全行业向前发展的同时,也会被恶意分子利用进行恶意活动。最近,行业和学术界的 AI 专家发布长达100页的报告《人工智能的恶意用途:预测、预防与缓解》,向大众传达了一个明确的信息:每项 AI 技术进步对不法分子而言也是一种进步。

专家表示,AI 具有“双重用途”,这意味着 AI 每秒做出数千个复杂决策的能力可能会帮助/伤害人类,具体取决于设计 AI 系统的人。这些AI专家将目前存在或未来五年将出现的 AI 恶意用途分为三类:数字、物理和政治

数字安全:

  • 自动化的网络钓鱼攻击活动,或创建虚假电子邮件、网站和链接,以窃取信息。

  • 借助 AI 自动发现软件中的漏洞,从而加快黑客攻击速度。

  • 利用 AI 的漏洞愚弄 AI 系统。

物理安全:

  • 将商用无人机或无人驾驶车辆作为武器,将恐怖行动自动化。

  • 利用许多自主机器人实现相同的目标,进行蜂群式的机器人攻击。

  • 实施远程攻击,不需要受制于特定距离范围对自主机器人进行控制。

政治安全:

  • 通过伪造图片和视频进行宣传。

  • 自动查找并删除文字或图片,从而自动删除异议。

  • 利用公开信息左右某人的观点,从而实现个性化的说服。

任何一项技术都可能会被恶意利用,AI 也不例外。研究人员已开始研究针对这些问题的潜在解决方案,但他们警告称这将可能是一场“猫捉老鼠”的游戏。

声明:本文来自E安全,版权归作者所有。文章内容仅代表作者独立观点,不代表士冗科技立场,转载目的在于传递更多信息。如有侵权,请联系 service@expshell.com。