解决大型语言模型的四个关键挑战 《人工智能法案》的谈判人员可能仍在从 12 月 8 日至 9 日夜间达成的政治协议中恢复过来,两天后,法国初创公司 Mistral AI 开源了其强大的新型大型语言模型Mixtral 8x7B。尽管规模小得多,但由于结合了八种不同专家模型的巧妙架构,它在许多基准测试中可以与 GPT 3.5 相媲美甚至超越 GPT 3.5。虽然这是一项显著的技术壮举,但这一新版本的发布集中体现了当今人工智能政策中最紧迫的挑战,并清楚地凸显了《人工智能法案》未解决的空白:强制性的基本人工智能安全标准;开源模型的难题;人工智能对环境的影响;以及配合《人工智能法案》需要对人工智能进行更大规模的公共投资。
为什么我们必须立即解决这
些问题 这些挑战不仅仅是理论上的问题,而且是现实和紧迫的。人工智能技术的快速发展,例如谷等的近期发布,需要同样迅速和深思熟虑的政策应对。目前的《人工智能法案》虽然朝着正确的方向迈出了一步,但并未充分解决核心问题,导致欧盟在 阿尔巴尼亚电子邮件列表 人工智能发展和监管的关键领域处于弱势。 经过三天的紧张谈判,欧盟确实就所有基础模型(在《人工智能法案》中称为通用人工智能模型)的最低标准以及具有系统性风险的所谓高影响力基础模型的更严格规则达成了一致。然而,最低标准实际上非常薄弱——在我看来,就像一只没有牙齿的老虎。它们仅包括透明度和有限的版权条款。
默认情况下,如果模型的训
练次数超过 10^25 FLOP(浮点运算,大致相当于计算步骤),则会对高影响力模型实施更严格的规则。然而,据我们所知,只有 GPT-4,也许还有 Gemini 以及一两个其他模型跨越了这一门槛。正如最近的 Mistral 模型所显示的那样,趋势是开发 尼泊尔电话号码列表 更强大的小型模型。然而,即使是“较小”的模型,例如在范围内的模型,也表现出重大的人工智能安全和网络安全风险,不能留给自我监管。如果你想参加冠军联赛,你就必须遵守冠军联赛规则。而且这些规则是具有约束力的,而不是自愿的,就像Twitter的《虚假信息行为准则》一样,因为它的新主人不再喜欢它,于是它就退出了该准则。