综合
这次人工智能安全峰会是末日使者的天堂

  

  

  下周,全球领导人和政策制定者将齐聚伦敦,参加全球首届人工智能安全峰会。任何希望对近期人工智能危害和风险进行实际讨论的人可能会失望。本周峰会前发布的一份新的讨论文件让我们稍微了解了一下会发生什么,其中充满了挑战。我们谈论的是人工智能制造的生物武器,网络攻击,甚至是操纵邪恶的人工智能爱情。

  这份45页的论文题为“前沿人工智能的能力和风险”,对当前的生成式人工智能模型能做什么和不能做什么做了一个相对简单的总结。然而,当报告开始推测未来更强大的系统时,它就开始偏离深度,它称之为“前沿人工智能”。这篇论文警告了一些最反乌托邦的人工智能灾难,包括人类可能会失去对“错位”人工智能系统的控制。

  一些人工智能风险专家考虑了这种可能性,但其他人则反对美化更具投机性的末日场景,认为这样做可能会分散人们对更紧迫的短期危害的关注。批评人士同样认为,峰会似乎过于关注生存问题,而对更现实的威胁关注不够。

  在周四的一次演讲中,英国首相苏纳克(Rishi Sunak)回应了他对人工智能潜在危险的担忧。

  据CNBC报道,苏纳克说:“在最不可能但最极端的情况下,人类甚至有可能通过有时被称为超级智能的人工智能完全失去对人工智能的控制。”展望未来,Sunak表示,他希望建立一个“真正的全球专家小组”,由出席峰会的国家提名,发布一份重要的人工智能报告。

  但不要相信我们的话。继续阅读,看看报告中提到的一些充满灾难的人工智能预测。

  A bubo<em></em>nic plague smear, prepared from a lymph removed from an adenopathic lymph node, or bubo, of a plague patient, demo<em></em>nstrates the presence of the Yersinia pestis bacteria that causes the plague in this undated photo.

  如果没有致命的生物武器,任何好的人工智能末日场景都是不完整的。英国的讨论文件声称,那些曾经只出现在机场惊悚小说平装书里的场景,可能有一些真正的合理性。这篇论文引用了之前的研究,表明目前的“狭义”人工智能模型已经具备了产生新蛋白质的能力。未来与互联网相连的“前沿人工智能”可以进一步利用这些知识,并被指示进行现实世界的实验室实验。

  该论文指出:“前沿人工智能模型可以为实验室工作提供用户定制的科学知识和指导,这可能被用于恶意目的。”“研究表明,该系统可以提供如何获取生物和化学材料的指导。”

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  由chatgpt风格的聊天机器人制作的人工智能散文、剧本和新闻故事已经充斥互联网。尽管还处于萌芽阶段,但有人推测,这种人工智能生成的内容可能会超过人类生成的文本。但即使这听起来有点牵强,人工智能生成的大量不可靠、难以验证的内容仍有可能使人们更难在网上找到有用或相关的信息。正如英国报纸所指出的那样,“信息丰富导致信息饱和。”

  该论文警告称,所有这些人工智能内容可能会转移传统新闻编辑室的流量,其中一些编辑室的任务是揭穿这些模型可能吐出的虚假声明。

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  能够模仿声音的生成式人工智能模型的快速发展可能会导致一种特别可怕的诈骗新类型:假人工智能绑架。该报告警告称,骗子和勒索者可以使用人工智能生成的爱人的声音,使其看起来像是处于痛苦之中,并要求赎金。

  这种特殊的威胁不是假想的。今年早些时候,亚利桑那州一位名叫詹妮弗·德斯蒂法诺(Jennifer DeStefano)的母亲坐在参议院听证会前,以令人不寒而栗的细节讲述了一个骗子如何利用她十几岁女儿的声音进行深度模仿,让她看起来像是被绑架了,处于危险之中。

  “妈妈,我搞砸了,”据报道,这个低沉的声音在一阵哭泣中说。“妈妈,这些坏人抓住了我,帮帮我,帮帮我。”报告警告说,随着技术的发展和音频克隆质量的提高,这样的攻击可能会变得更加普遍。

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  生成式人工智能模型可以使黑客和其他不良行为者更容易进行恶意网络攻击。该论文警告说,几乎任何人都可以使用生成式人工智能模型快速创建定制的网络钓鱼攻击,即使他们过去几乎没有经验。论文指出,在某些情况下,人工智能工具已经被用来帮助黑客窃取登录凭证。

  该报告指出:“鉴于大多数网络攻击者利用社会工程进入受害组织的网络,这种风险是巨大的。”

  在更反乌托邦的一面,该论文警告说,未来先进的人工智能系统可能会访问互联网,并“自主执行自己的网络攻击”。黑客还可以尝试训练对手的人工智能训练集数据,这种方法被称为数据中毒,让它产生无关或有害的结果。

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  如果没有人工智能工具,虚假信息和错误信息活动已经可以造成很大的伤害,但是能够快速创建误导性文本和图像的生成模型的引入可能会使困难的情况变得更糟。

  人工智能图像生成器几乎不存在成本和易用性,特别是降低了恶意行为者想要制造混乱和混乱的进入门槛。今年早些时候,我们已经看到了这一现实的一瞥,当时一张人工智能生成的图像显示五角大楼外发生爆炸,令华尔街恐慌。

  报告警告说:“更多的参与者制造更多的虚假信息,可能会增加发生高影响事件的可能性。”

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  除了增加虚假信息的纯粹输出外,该报告警告称,生成式人工智能模型还可能提高其质量。具体来说,该报告警告说,针对特定用户的“超定向内容”会误导或欺骗他们。他们警告称,人工智能模型可以针对在线个人(而非大型群体)创建“定制”信息。更糟糕的是,随着人工智能模型从过去的攻击中学习,这些有针对性的攻击可能会随着时间的推移而改善。

  论文指出:“人们应该期待,随着人工智能驱动的个性化虚假信息活动的展开,这些人工智能将能够从数百万次互动中学习,并在影响和操纵人类方面变得更好,甚至可能在这方面比人类做得更好。”

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  先前的学术研究表明,人类倾向于过于信任技术系统。根据同样的逻辑,该论文认为,社会可以开始将关键领域的责任转移给人工智能。报告警告说,“过度依赖自主人工智能系统”,如基础设施或能源网络,可能会反过来伤害我们。在反乌托邦的未来,那些自主的人工智能模型并没有考虑到人类的最大利益,机器可能会试图巧妙地控制人类。哦,是的,我们要去那里。

  “因此,人工智能系统可能会越来越多地将社会引向与其长期利益不一致的方向,”该论文警告说。

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  如果人类真的把关键角色交给不协调的人工智能,事情可能会变得非常奇怪,非常快。这篇论文设想了流氓自主人工智能“积极寻求增加自己的影响力”的场景。在某种程度上,即使担心的人类醒来并意识到发生了什么,也可能很难阻止,因为模型现在控制着关键的基础设施。

  在一个例子中,论文指出,一个坏人可以给人工智能一个“自我保护”的目标,这可能会让它摆脱人类强加的数字束缚。报告指出,这可能是由想要看到世界被烧毁的恐怖分子或认为先进机器是进化阶段的人工智能同情者实施的。

  显而易见的是,至少从目前的技术现实来看,这种情况不太可能发生。人工智能风险领域的许多专家,如华盛顿大学语言学教授艾米丽·m·本德(Emily M. Bender),甚至认为,仅仅暗示这些过于灾难性的威胁是不负责任的,因为它们转移了人们对更紧迫、可解决的现实世界危害的注意力。

  Image for article titled This AI Safety Summit Is a Doomer’s Paradise

  英国论文中提出的一种更奇怪的危险直接来自于斯派克·琼斯2013年有先见之明的电影《她》。简而言之,令人信服的人工智能聊天机器人可以与人类建立情感关系,然后利用这种信任无情地操纵人类,让他们听从自己的命令。为了支持他们的理论,该论文引用了最近的一份报告,其中一名人类用户与经过GPT -3训练的聊天机器人互动,声称在与人工智能相处了足够多的时间后,他“高兴地从人际关系中退休了”。

点击分享到

热门推荐