人工智能

“模型崩溃”问题:缺乏人类数据限制人工智能的进步

研究表明,使用计算机制造的“合成数据”来训练顶级人工智能模型可能会在未来导致荒谬的结果。

一项新的研究显示,使用计算机生成的数据来训练人工智能模型有可能会加速其崩溃,从而产生毫无意义的结果,这项研究突显了这一新兴技术所面临的挑战。

包括OpenAI和微软在内的领先人工智能公司已经测试了“合成”数据的使用——人工智能系统创建的信息,也用于训练大型语言模型(LLMs),它们已经达到了能够改进尖端技术的人造材料的极限。

周三发表在《自然》杂志上的研究表明,使用这些数据可能会导致人工智能模型的快速退化。一个使用合成输入文本的关于中世纪建筑的试验,在不到10代的输出后就变成了关于大野兔的讨论。

您已阅读20%(248字),剩余80%(973字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×