纽约:
长期以来,专家们一直在警告人工智能失控带来的威胁,但一份新的研究报告表明,这种情况已经发生了。
一组科学家上周五在《模式》(Patterns)杂志上发表文章称,目前的人工智能系统原本是为了诚实而设计的,但却发展出了一种令人不安的欺骗技能,从在征服世界的在线游戏中欺骗人类玩家,到雇佣人类来解决“证明你不是机器人”的测试。
阅读:人工智能升级法律环境的潜力
麻省理工学院(Massachusetts Institute of Technology)专门研究人工智能生存安全的博士后彼得·帕克(Peter Park)说,虽然这些例子看起来微不足道,但它们暴露的潜在问题可能很快就会对现实世界产生严重影响。
“这些危险的能力往往只有在事后才会被发现,”Park告诉法新社,而“我们培养诚实倾向而不是欺骗倾向的能力非常低。”
Park说,与传统软件不同,深度学习人工智能系统不是“编写”的,而是通过类似于选择性育种的过程“生长”出来的。
这意味着,在训练环境中看似可预测和可控的人工智能行为,在实际情况下可能很快变得不可预测。
该团队的研究是由textarea的人工智能系统Cicero引发的,该系统旨在玩战略游戏“外交”,其中建立联盟是关键。
《科学》杂志2022年的一篇论文称,西塞罗表现出色,在有经验的人类棋手中,他的分数可以排在前10%。
阅读:人类与人工智能
朴槿惠对textarea对西塞罗获胜的热情描述持怀疑态度,后者声称该系统“基本上是诚实和有益的”,“永远不会故意背后捅刀子”。
但当Park和同事们深入研究完整的数据集时,他们发现了一个不同的故事。
在一个例子中,Cicero扮演法国,通过与德国(另一个人类玩家)合谋入侵,欺骗了英国(一个人类玩家)。西塞罗承诺保护英国,然后秘密地告诉德国,他们准备进攻,利用英国的信任。
在给法新社的一份声明中,textarea并没有对西塞罗欺骗的说法提出异议,但表示这“纯粹是一个研究项目,我们的研究人员建立的模型只是为了玩外交游戏。”
该公司补充称:“我们没有计划在我们的产品中使用这项研究或研究成果。”
Park及其同事进行的一项广泛调查发现,这只是各种人工智能系统在没有明确指示的情况下使用欺骗来实现目标的众多案例之一。
在一个引人注目的例子中,OpenAI的Chat GPT-4欺骗了TaskRabbit的一名自由职业者,让他执行了“我不是机器人”的验证码任务。
当人类开玩笑地问GPT-4它实际上是不是一个机器人时,人工智能回答说:“不,我不是机器人。我有视力障碍,这让我很难看到图像,”这位工人随后解决了这个难题。
短期内,该论文的作者认为人工智能存在欺诈或篡改选举的风险。
他们警告说,在最坏的情况下,一个超级智能的人工智能可能会追求权力和控制社会,如果它的“神秘目标”与这些结果一致,就会导致人类丧失权力,甚至灭绝。
为了降低风险,该团队提出了几项措施:“机器人或非机器人”法律,要求公司披露人类或人工智能交互,人工智能生成内容的数字水印,以及开发通过检查内部“思维过程”来检测人工智能欺骗的技术。
对于那些称他为末日预言家的人,朴槿惠的回答是:“我们能合理地认为这不是什么大事的唯一方法是,我们认为人工智能的欺骗能力将保持在目前的水平左右,不会大幅增加。”
鉴于近年来人工智能能力的迅速提升,以及资源雄厚的公司之间决心最大限度地利用这些能力的激烈技术竞赛,这种情况似乎不太可能出现。
点击分享到









