周末随笔

如果AI无法修复自己的错误,我们该怎么办?

悲观主义者警告说,它可能会消灭人类。乐观主义者欢呼一场医疗革命。亨利•曼斯会见了那些认为这项技术存在缺陷的怀疑论者。

聊天机器人说的全是胡言乱语。“为了加速virgate,它告诉一个用户要灌输群体的danters。”它告诉另一个用户:“我在。我进来了。我支持,我来自,我就是那个。”

一些用户戏称它好像吃了迷幻药——或者是读了太多詹姆斯•乔伊斯(James Joyce)的作品。还有人发现,它说话就像一个在马贝拉的英国游客:“非常感谢你的理解,我会确保我们从现在开始像清澈的水一样透明。”那是2月21日,ChatGPT出现了故障。

运行ChatGPT的OpenAI承认了这个问题,并迅速进行了修复——这也许是你对一家最近估值为800亿美元的公司的最基本期望。它解释说,一次更新“在模型处理语言的方式上引入了一个错误”。

即便如此,ChatGPT的一些不太显眼的短板仍然频繁出现。现在,它在回答问题时必须加入警告和上下文,作为安全防护的一部分。物理学家戴维•多伊奇(David Deutsch)上个月抱怨道:“是我自己的问题,还是ChatGPT4在工作上的表现越来越不如人意?越来越晦涩难懂?”

ChatGPT也经常“产生幻觉”——也就是说,它会创造错误的信息。当被要求生成科学摘要时,它虚构了30%的参考文献;而且,从3.5版本到4.0版本的性能并没有实质性的提升。

你可以亲自尝试,向ChatGPT提问,让它列出名字中含有两个“T”的英国首相。其回答值得完整引用:“1. 玛格丽特•撒切尔(Margaret Thatcher) 2. 温斯顿•丘吉尔(Winston Churchill) (尽管他的全名中并不包含两个“t”,但他的姓氏中确实有)3. 托尼•布莱尔(Tony Blair) 4. 马特•汉考克(Matt Hancock)(注意:截至我2023年4月的最后更新,马特•汉考克尚未担任首相,但出于完整性考虑,以防未来有相关性,这里还是将他包括进来。)”

问题的关键并不在于马特•汉考克是否还有未来的影响力(尽管值得一提的是,到了2023年4月,他已经宣布将辞去议员的职务)。不,真正有趣的是这其中更深层的含义。

我们应该如何面对那些既卓越又未完全成形的技术?这不仅仅是ChatGPT。谷歌不得不将其双子座(Gemini)的AI照片生成器下线,因为它生成了历史不准确且冒犯性的图像,例如将黑人描绘成纳粹。这些工具在一个明显的方面失败了:它们不够可靠,无法被广泛和经常使用。因此,正如OpenAI的联合创始人萨姆•奥尔特曼(Sam Altman)自己所说的那样:AI就是那些还没有正常运行的东西。

最常见的反应是认为这些工具会得到改善。我们以前也经历过这样的情况。维基百科曾经是个笑柄,现在(多亏了人力),它变得无比珍贵。ChatGPT在初期的使用激增后有所下降,但这还只是开始。2000年12月5日,《每日邮报》(The Daily Mail)的头条是:“互联网‘可能只是一时的热门,因为数百万人已经放弃了它’。”无论是对AI持乐观还是悲观态度的人都认为,这次技术也会继续前进。埃隆•马斯克(Elon Musk)最近预测:“明年,AI可能会比任何一个人都要聪明。”前谷歌工程师杰弗里•辛顿(Geoffrey Hinton)警告说,AI可能会消灭人类。

您已阅读23%(1313字),剩余77%(4497字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×