制定和执行人工智能监管为何如此困难 2011 年,法律学者 认为,监管者面临着节奏问题,因为“一波又一波的技术变革正以指数级的速度席卷[社会]”。Marchant 列出了包括机器人技术和生物技术在内的一长串具体进步——今天,人工智能 (AI) 可能排在他的清单首位。大型语言模型 (LLM) 的发展成倍地加速了许多其他科学领域的发展,包括人工智能本身。一些人认为,人工智能将以类似于印刷机、电力和核弹的规模影响社会。甚至可以说,人工智能有可能超越这些先前的技术——正如人道技术中心的联合创始人 和 所说,“核武器不会制造出更强大的核武器,但人工智能可以使人工智能更强大”。
技术部署的速度也在呈指数级增长
例如,花了年的时间才达到 1 亿用户花了 2.5 年花了两个月(0.17 年)。指数级发展可能会在技术和部署之间留下差距,另一方面,法律和道德监督也存在差距。这就是所谓的节奏问题。 欧盟监管机构面临着节奏问题。这在《人工智能法案》本身的立法过 阿联酋电话号码 程中已经多次得到体现:例如,2021 年的初始委员会提案并未包括通用人工智能 (GPAI) 的定义。该提案没有预见到 和 GPT-4 等大型语言模型的兴起,而只是解决了为特定目的而设计的人工智能系统。原始提案中的这一缺陷在过去三方谈判的最后几周一直困扰着欧盟议会、理事会和委员会,其中所谓的前沿模型的纳入引起了激烈的争议。
可以说可以通过两种方
式解决节奏问题加快监管监督的步伐;b) 降低技术开发和/或部署的速度。第一种选择争议较少,更明显地在欧盟立法者的控制范围内。第二种选择面临政治和行业的反对,经常被指责为不可能、不具战略性或退步。在游说将 哈萨克斯坦电话号码列表 基础模型排除在《人工智能法案》范围之外时,行业参与者支持并助长了这种说法。 我将重点介绍第一个选项。但是,这两个选项并不互相排斥,我认为,如果完全无视第二个选项,我们将失去重要的政策制定者。影响技术开发和部署到社会中的速度可能是可能的、战略性的,也是确保人类长期进步的必要条件。2023 年 3 月的公开信呼吁国际上暂时暂停训练比 更强大的模型,这表明,工业界和学术界的大部分人都对人工智能的迅猛发展感到担忧。