上尤其需要科学专业知识;这一点在 Covid-19 大流行中变得非常明显。全球科技公司研究部门在计算机科学领域的贡献,以及对数字技术的伦理和其他规范问题的贡献,现在已经难以管理。当只有可管理数量的公司才能开发受监管的产品时,这种特殊的专业知识在监管辩论中尤其重要——就像作为流行的生成人工智能应用程序基础的大型基础模型的情况一样。工业参与者在这方面拥有显着的知识优势。斯坦福人工智能指数显示,截至 2014 年,大多数重要的机器学习模型都是由大学发布的;到 2022 年,只有 3 个来自私营部门,而到了 2022 年,私营部门发布的模型数量已达到 32 个。 大型科技公司对以科学出版物形式生产监管相关知识具有重大影响。
因此大型科技公司的经济主导地
位在科学出版物领域可称为“认知捕获”的监管捕获子类型中继续存在,因为大学研究无法跟上,而小公司根本无法负担相应的研究部门。大型科技公司的许多贡献主要批判性地讨论了他们开发的技术的社会和社会影响(例如此处或此处)。然而,蒂姆尼 厄瓜多尔电子邮件列表 特·格布鲁 ( Timnit Gebru) 的案件表明,公司普遍进行的研究不致力于公共利益,而是为了追求经济利润。这些机制导致知识封闭,有利于保守和正统的监管方法,并且不能通过回顾无限期和不可执行的道德准则的培养来充分解决。 人工智能监管和民主赤字 正如其他人已经指出的那样,《人工智能法案》在其规范文本中没有回答有关人工智能技术在社会上可行的使用的“硬规范问题”,并且在最终版本中也可能不会这样做。
这与其说是由于过度依赖
不如说是由于拟议监管所依据的监管和执行结构中对道德原则的依赖太少。这就造成了民主赤字,具体表现在私营标准化组织CEN和CENELEC将对《人工智能法案》的解释产生相当大的影响力。委员会和议会提案的第 40 条规定,如果符合统一标准 白俄罗斯电话号码列表 则假定已经履行了第 2 章中针对高风险系统(以及议会提案中的基础模型)的义务。 标准化流程在其他监管领域是已知的并经过测试,但在人工智能监管领域,出现了特殊的评估问题(什么是有效的人类监督?哪些形式的歧视值得制裁?个性化广告的哪些背景和形式代表了不当行为)操纵?)由扩展技术扩展到生活的几乎所有领域需要基本的民主共识。这些规范性问题具有真正的道德和政治性质;事实上,它们的决定不应由跨国公司或私人标准化组织的商业模式决定。