FT大视野

欧洲急于为人工智能制定规则

欧盟表示,其开创性的立法将保护人类免受人工智能的危害。批评人士说,这种做法不够成熟,会扼杀创新。

作为丹麦医疗初创公司Corti的首席执行官,安德烈亚斯•克莱夫(Andreas Cleve)心头有诸多事务需要处理——吸引新的投资者,说服临床医生采用公司的“AI副驾驶”,并且紧跟生成式人工智能的最新进展。

但他担心,一个新的担忧会让这类努力变得更加困难:欧盟新的《人工智能法案》(Artificial Intelligence Act),这是首个旨在确保合乎道德地使用人工智能技术的法律。许多科技初创企业担心,这项善意的立法最终可能会在繁文缛节中扼杀这个新兴行业。

克莱夫表示,合规成本相当于对欧盟小企业征收了额外的“税”。欧洲官员承认,对于一家拥有50名员工的公司来说,合规成本可能高达六位数。

他说:“我担心这样的立法对于那些负担不起的小公司来说会变得难以承受。筹集资金本就是一项艰巨的任务,现在还要面对这项新税收。你还需要花时间去理解它。”

克莱夫仍然支持对人工智能的监管,因为他认为对可能造成伤害的产品进行保护非常重要。“人工智能法案”是一个好主意,但我担心它会让深度科技创业者在欧洲难以取得成功

人工智能法案将于8月正式生效,并将在未来两年内分阶段实施,这是首个此类立法,源自欧盟希望成为“值得信赖的人工智能全球中心”的愿望。

执行时间线

2024年8月

《人工智能法案》正式生效,启动了法律中规定的各项禁令和义务的时间表

2025年2月

对于涉及“不可接受风险”的人工智能,如旨在操纵或欺骗人们改变行为的系统,或通过“社会评分”评估或分类人们的系统,将启动禁止措施。

2025年8月

一系列针对所谓“通用人工智能”模型提供商的义务将开始生效,这些模型是支撑ChatGPT或谷歌双子座(Google Gemini)等生成式人工智能工具的基础

2026年8月

现在对“高风险”人工智能系统实施规则,包括生物识别、关键基础设施、教育和就业领域

它将不同的人工智能系统分为不同的风险类别。被归类为“风险最小”的系统,例如垃圾邮件过滤器等应用,将不受监管。被归类为“有限风险”的系统,如聊天机器人,必须遵守一定的透明度要求。而对于被归类为“高风险”的系统的提供商,将施加最为严格的监管,这些系统可能涉及对个人进行剖析或处理个人数据。

这些规则包括提高数据使用透明度、用于训练模型的数据集质量、向用户提供清晰的信息以及强有力的人工监督。医疗设备和关键基础设施属于这一类别。

欧盟官员表示,人工智能法案旨在帮助新技术蓬勃发展,并制定明确的游戏规则。这些规则源自欧盟执委会对人类与人工智能系统之间互动的担忧,包括对欧盟公民安全和安全性的不断增加的风险以及潜在的失业问题。

您已阅读21%(1068字),剩余79%(4013字)包含更多重要信息,订阅以继续探索完整内容,并享受更多专属服务。
版权声明:本文版权归FT中文网所有,未经允许任何单位或个人不得转载,复制或以任何其他方式使用本文全部或部分,侵权必究。
设置字号×
最小
较小
默认
较大
最大
分享×