人工智能

音频深度伪造:散布虚假信息的利器

随着人工智能驱动的语音克隆工具在网上激增,音频深度伪造正成为一件强大的信息战工具,被用于在选举前散布虚假信息。

在世界各地扎堆举行选举的2024年,随着人工智能(AI)驱动的语音克隆工具在网上激增,音频深度伪造正成为一件强大的信息战新工具。

周一,新罕布什尔州总检察长办公室表示,它正在调查一起疑似的选民压制(voter suppression)事件,此前它收到投诉称,模仿美国总统乔•拜登(Joe Biden)的“人工生成”语音正向选民拨打机器人电话,鼓励他们不要在该州总统初选中投票。

研究人员也警告称,继2023年英国、印度、尼日利亚、苏丹、埃塞俄比亚和斯洛伐克等国发生据称通过合成音频影响政治和选举的事件后,模仿政客和领导人的逼真但虚假的语音片段的使用很可能会蔓延。

据专家们介绍,由于ElevenLabs、Resemble AI、Respeecher和Replica Studios等初创公司发布的廉价而有效的AI工具,音频深度伪造正成为一种越来越流行的虚假信息形式。与此同时,微软(Microsoft)的研究部门去年宣布开发出一款新的公司AI模型VALL-E,它可以借助短短三秒的录音克隆任何人的语音。

“就视觉操纵而言,每个人都对Photoshop习以为常,或者至少知道它的存在,”为Adobe、Meta和安永(EY)提供咨询的AI和深度伪造专家亨利•阿杰德(Henry Ajder)表示。“对于音频材料受到操纵的可能性,人们的认识要少得多,所以在我看来,这真的使我们处于脆弱地位。”

您已阅读21%(589字),剩余79%(2248字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×