《中国人工智能实力的幻觉:规范AI并不会让美国在科技竞赛中落后》
作者:海伦·托纳、珍妮·肖、杰弗里·丁
人工智能革命已经触及美国国会。像OpenAI的文本聊天GPT这样强大的AI系统所展现的惊人潜力,已让立法者们感到担忧,他们担心这种快速发展的技术可能如何重塑经济和社会生活。近几个月来,国会山见证了一系列听证会和幕后谈判,议员和监管机构正试图确定如何最好地对这项技术施加限制。但一些人担心,对AI行业的任何规范都会带来地缘政治成本。在5月份的一次美国参议院听证会上,OpenAI的首席执行官萨姆·奥特曼警告说,AI规范的一个“危险”是“你以这样的方式放慢美国工业的步伐,以至于中国或其他国家取得更快的进展。”同月,AI企业家亚历山大·王坚称,“美国处于一个相对危险的位置,我们必须确保在技术上迅速前进。”事实上,华盛顿对红色磁带的偏爱可能会在与北京的竞争中损害它,这一观点长期以来一直困扰着政府和私营部门的人物。前谷歌首席执行官埃里克·施密特在2021年声称,“中国并没有因为规定而停止任何事情。”按照这种思路,如果美国对AI设置了防护措施,它可能会将国际AI领导权拱手让给中国。
从抽象的角度来看,这些担忧是有道理的。如果监管打击削弱了国内AI产业,而中国的AI公司在不受束缚的情况下蓬勃发展,这并不符合美国的利益。但对中国AI发展的仔细审视——特别是大型语言模型(LLM),这种文本生成系统是支撑诸如ChatGPT之类应用的基础——显示出这种担忧是夸大了。中国的LLM落后于美国同行,并且在很大程度上仍依赖于美国的研究和技术。此外,中国的AI开发商已经面临着比美国同行更为严格和限制性的政治、监管和经济环境。即使新规定确实会放缓美国的创新速度——而这很可能并非如此——中国似乎也没有准备好快速超越。
美国公司正在以前所未有的速度构建和部署AI工具,以至于它们甚至主动向华盛顿寻求指导。这意味着,考虑如何规范技术的决策者处于一个强势位置,而不是弱势。如果放任不管,当今AI系统的危害将继续增加,而未来系统产生的新危险也将得不到控制。对中国实力的夸大印象不应阻止美国现在采取有意义且必要的行动。
仿效:最真诚的奉承
在过去三年中,中国实验室迅速跟随美国和英国公司的步伐,构建了类似于OpenAI的GPT-3(ChatGPT的前身)、谷歌的PaLM和DeepMind的Chinchilla的AI系统。但在许多情况下,围绕中国模型的炒作掩盖了其缺乏真正实质的事实。我们与之交谈的中国AI研究人员认为,中国的大型语言模型(LLM)至少落后于美国同行两到三年,甚至可能更多。更糟的是,中国在AI领域的进展在很大程度上依赖于复制和调整国外发表的研究,这种依赖可能使中国公司难以在该领域中扮演领导角色。如果其他地方的创新速度放缓,中国构建LLM的努力——就像一名慢速骑手在领跑者的滑流中滑行——很可能会减速。
以北京人工智能研究院的“悟道2.0”模型为例。该模型于2021年夏季发布后,《福布斯》杂志将其作为“更大、更强、更快的AI”的例子大加赞扬,主要是因为悟道2.0拥有的参数量是GPT-3的十倍——AI模型内部决定信息处理方式的数字。但这种评估在几个方面都具有误导性。仅仅拥有更多的参数并不意味着一个AI系统比另一个更好,特别是如果没有相应增加数据和计算能力的话。在这种情况下,比较参数数量尤其不合理,因为悟道2.0是通过结合一系列模型的预测而非作为单一语言模型工作,这种设计人为地夸大了参数计数。更重要的是,研究人员向模型提出问题的方式帮助其在某些试验中的表现看起来比实际更强。
美国不应因为对中国AI实力的恐惧而停止对技术的规范。
百度的“二郎神”也令人失望。作为中国对ChatGPT的回应,二郎神的开发显然是受到与悟道2.0相同的压力——追赶美国的高调突破。这款中国机器人未能达到期望。百度的发布活动仅包括其操作的预录示例,这是一个明显的迹象,表明这款聊天机器人在实时互动中表现可能不佳。自从用户获得访问二郎神以来的评论最多也就是一般,聊天机器人在简单的任务上,如基本数学或翻译问题上都遇到了困难。
中国AI开发者努力跟上美国同行的步伐。2021年8月,斯坦福大学的100多名研究人员合作发表了一篇关于所谓基础模型未来的重要论文,这类AI系统包括LLM。七个月后,北京人工智能研究院发布了一篇同样篇幅冗长的关于相关主题的文献综述,共同作者几乎一样多。但几周后,谷歌的一位研究人员发现,中国论文的大部分内容是从一些国际论文中抄袭的——也许,正如中文媒体所推测的,这是因为参与起草论文的研究生面临极大的压力,而且截止日期非常紧迫。
美国人不应该被中国在LLM开发中即将到来的浪潮所困扰。中国AI团队正在努力——并且经常失败——以跟上其他地方新研究和产品的惊人速度。在LLM领域,中国比国际竞争对手落后数年而不是数月。
逆风与障碍
对AI行业外部的力量也阻碍了中国创新的步伐。由于大型语言模型(LLM)的巨大计算需求,国际上对半导体的竞争不可避免地影响了AI的研究和开发。中国半导体行业只能生产比最新尖端产品落后几代的芯片,迫使许多中国实验室依赖美国公司开发的高端芯片。在分析中国LLM的最新研究中,我们发现了17个使用加利福尼亚公司英伟达(NVIDIA)生产的芯片的模型;相比之下,我们只识别出3个使用中国制造芯片构建的模型。
华为的潘古-α,于2021年发布,是三个例外之一。该模型使用华为自家的昇腾处理器进行训练,看起来是在比最佳实践所推荐的计算能力显著更低的情况下开发的。尽管中国研究团队目前可以通过从亚马逊或微软等云服务提供商租用硬件来合法获得尖端美国芯片,但北京必须担心围绕半导体的日益激烈的言辞和限制将阻碍其AI公司和研究人员。
更广泛地看,对中国整体经济和技术前景的悲观可能会阻碍国内AI的努力。作为对国内监管审查浪潮和经济显著放缓的回应,许多中国初创公司现在选择将其业务基地设在海外,并主要面向国际市场而非中国市场。这一转变是由中国企业家日益增长的欲望所驱动的,他们希望更容易地获得外国投资,并逃避中国严格的监管环境——同时也规避美国对中国公司施加的限制。
HAL,遇见大哥
中国关于言论的密集限制也对大型语言模型(LLM)的开发和部署提出了独特的挑战。LLM的自由运作方式——遵循用户的引导,就任何话题、任何风格产生文本——与中国严格的审查规则并不匹配。在一次与我们之一(肖)的私人对话中,一位中国CEO戏谑地说,中国的LLM甚至不允许数到10,因为这将包括数字八和九——这是指国家对89数字的敏感,以及对1989年天安门广场抗议的任何讨论。
由于连LLM的创造者们也很难理解其内部工作原理,现有的限制其可以和不可以说什么的方法更像是用锤子而不是手术刀。这意味着公司面临着AI回应的有用性和避免不良话题之间的严峻抉择。LLM提供商无论在哪里都在试图弄清楚如何处理这种抉择,但在中国,一次失误可能会带来严重后果,这迫使公司选择更为保守的方法。像微软旗下的小冰这样的热门产品被禁止讨论政治敏感话题,如天安门广场抗议或中国领导人习近平。我们与之交谈的一些用户甚至声称,随着微软增加了更多防护措施,小冰的功能随时间变得越来越差。同样,记者们发现,百度的二郎神对有关习近平的问题给出固定答案,并拒绝回应其他政治敏感话题。鉴于中国被审查的意见和主题范围广泛——从中国经济的健康到乌克兰战争的进展,再到“民主”的定义——开发者将难以制作不触碰红线的聊天机器人,同时仍能正常且有效地回答大多数问题。
除了这些言论上的政治限制外,中国AI公司还受到该国对AI的非常详细和苛刻的监管制度的约束。一套规则于2023年1月生效,适用于使用生成性AI的在线服务提供商,包括LLM。进一步要求的草案于4月发布征求意见,将适用于研发实践以及AI产品。
其中一些规则很直接,比如要求敏感数据必须按照中国更广泛的数据治理制度来处理。其他规定可能相当繁重。例如,1月的规定要求提供商“消除”使用其产品生成的内容传播的谣言,这意味着如果公司的AI工具产生的信息或观点与中国共产党的路线相悖,公司将承担责任。4月的草案将进一步要求LLM开发者不仅要验证AI程序产生的内容的真实性和准确性,还要验证最初用来训练程序的材料。在一个依赖于从网上抓取大量数据的领域,这一要求可能是一个严重的头疼问题。如果设计得当,监管不必阻碍创新。但到目前为止,中国共产党对LLM和其他生成性AI技术的监管方法似乎过于严厉,可能会对中国公司和研究人员构成真正的障碍。
对奇美拉的恐惧
尽管目前面临困难,中国的人工智能发展仍可能转变方向,并建立更成功和创新的记录。然而,美国人在历史上有高估其竞争对手技术实力的习惯。在冷战期间,对苏联能力的夸大估计使美国官员基于假设的“轰炸机差距”和“导弹差距”制定政策,这两者后来都被证明是虚构的。同样毫无根据的焦虑不应决定美国AI规制的方向。毕竟,社交媒体公司抵制规制,而AI公司已经要求规制。五年前,Facebook创始人马克·扎克伯格警告国会,打破他的社交媒体公司只会加强中国同行。相比之下,在AI领域,行业领导者主动呼吁规制。
如果有什么的话,规制是美国在AI领域最有可能落后的领域。中国近期对生成性AI的规制建立在现有规则和详细的数据治理制度之上。欧盟也在通过关于AI的新规则的道路上迈进,即AI法案,该法案将对风险进行分类并对LLM施加额外要求。美国尚未达到这样的监管努力,但即便如此,美国政策制定者的状况比通常假设的要好。联邦政府已经起草了管理AI风险和危害的全面框架,包括白宫的《人工智能权利法案蓝图》和国家标准与技术研究院的AI风险管理框架。这些文件提供了如何导航这项通用技术的多方面风险、危害以及益处的深入指导。现在需要的是允许这些框架关键原则的执行的立法,以保护公民权利,并围绕AI研究的快速发展设立防护措施。
仍有许多问题需要解决,包括新监管机构应该如何设立,第三方审计员可以发挥什么作用,透明度要求应该是什么样的,以及当事情出错时如何分配责任。这些是棘手而紧迫的问题,将塑造技术的未来,它们值得得到认真的努力和政策关注。如果中国AI精通的奇美拉使政策制定者不去追求对行业的规制,他们只会损害美国利益,危及国家的繁荣。