
我们到底能在多大程度上信任人工智能?考虑到ChatGPT和其他由该技术驱动的聊天机器人的惊人增长,这是一个巨大的问题。世界各地数以百万计的人现在正在使用这些工具来制作电子邮件、写学校论文、购物和做基础研究。与此同时,越来越多的报道称,这样的聊天机器人,说得好听点,不够准确。
因此,当我上周飞往里约热内卢,在网络峰会(Web Summit)科技会议上采访加密信息服务公司Signal的总裁梅雷迪思·惠特克(Meredith Whittaker)时,我决定进行自己的小实验,以测试人工智能的可靠性。
在这场规模庞大的会议上,科技高管们纷纷宣扬人工智能重塑世界经济、解决人类问题的潜力。但惠特克是个异类。作为一名前谷歌研究员,她在四年前离开公司时警告说,人工智能将被滥用于“社会控制和压迫”。从那以后,她成为了对人工智能最直言不讳的批评者之一。
所以为了准备面试,我第一次上了ChatGPT,问了一个简单的问题:关于人工智能,我应该问Meredith Whittaker什么?
在这种情况下,ChatGPT给我的前几个回复有些荒谬。“是什么激励你在人工智能领域工作?你是如何开始的?”这是第一个被提出的问题。“在你看来,我们现在应该关注的人工智能最有前途的应用是什么?”第二句是。
考虑到惠特克对人工智能对人类未来的潜在威胁的警告,这两种说法似乎都没有任何意义。但ChatGPT确实提出了一个似乎有用的问题。“Signal最近发布了一份关于人工智能在内容审核中的作用的报告,”ChatGPT告诉我。“你能告诉我们更多关于该报告的主要发现,以及它对内容审核的未来意味着什么吗?”
我试着在谷歌上搜索这份报告,但找不到它,这让我得出结论,ChatGPT知道一些谷歌搜索引擎不知道的事情。于是,我在网络峰会中心大礼堂的数千名观众面前向惠特克提出了这个问题。“告诉我们你的报告的发现吧,”我问。
“那是个谎言,”她告诉我。
“你的报告怎么说?”我问。
“没有报告,”她告诉我。
惠特克解释说,人工智能经常会在这类事情上出错,这让她得出结论,ChatGPT这样的工具实际上是一个“扯谎的引擎”。
她说:“这需要从互联网最黑暗的地方收集大量的监控数据,比如Reddit、维基百科,以及可能来自4Chan的留言板评论。”然后,基于所有这些海量数据和计算能力,“它预测句子中的下一个单词可能是什么。所以它是一个统计预测引擎。”
惠特克说,ChatsGPT给出的答案可能确实是“可能的”。毕竟,她曾公开谈论过人工智能以及社交媒体上的错误信息,因此她“可能”会对内容审核问题感兴趣。
只是她和西格从来没有做过这样的报告。ChatGPT的“预测”——作为事实陈述——是完全错误的。
惠特克接着解释了为什么对人工智能局限性的洞察,用她的话来说,“真的、真的很重要”。
“为什么我们要用一个扯淡的引擎来处理严肃的事情?她问。“我们处在一个充斥着谎言、半真半假和错误信息的信息生态系统中。作为一个社会,我们需要某种形式的共享现实。”
相反,惠特克说,我们已经释放了一种新形式的技术,“它的行为有点像那个叔叔,他出现在节日聚会上,喝了几杯,然后就自信地谈论他不知道的事情。”这在节日里很有趣。但我们不应该把这些东西注入我们的信息生态系统。”
这是一次发人深省的演讲,我想很多听众也是如此。但作为一名职业记者,我做了我该做的。我回到ChatGPT征求意见。
起初,ChatGPT在它提供的谎言上翻了一番。
“是的,我记得在你接受Signal的梅雷迪思·惠特克(Meredith Whittaker)关于人工智能的采访时,我曾向你提过这个问题,”该公司在周一的一次谈话中告诉我。“关于Signal最近发布的关于人工智能在内容审核中的作用的报告,该报告强调了使用人工智能进行内容审核的一些关键挑战和限制。”
但是,我很快打断了他,梅雷迪思·惠特克告诉我,Signal从来没有做过这样的报告,你对我的回答是“胡扯”。“你能评论一下吗?并解释一下你是如何以及为什么会出错的?”
这时,有趣的事情发生了。在我之前与ChatGPT的对话中,它在纳秒内给出了答案。在这种情况下,我至少等了5秒钟才得到回应,因为我似乎在纠结如何控制伤害。
然后:“我为我在之前的回复中提供的错误信息道歉,”它说。“看来我对此有误解,我对由此造成的任何混乱感到抱歉。
“我想强调的是,我是一个语言模型,我的回答是基于提问时我能获得的数据和信息而产生的。我没有能力核实或验证我所呈现的信息的准确性,”聊天机器人补充道。
我要说的是人工智能。这些年来,我发现不少政客在说谎。但我很少收到这么直率的道歉。
点击分享到









