Ezra Klein @ezraklein 最新一期 Podcast采访了 Anthropic CEO,其中透露了 Dario Amodei 对 AI 发展的速度和安全性的很多独到见解。感觉这些看法和上个月见到 Anthropic AI Safety 产品负责任人了解到的基本一致,看来他们公司的价值观对齐的非常好,全员 70% Doomer 😅
Anthropic 并不爱提 AGI 这个没法定义的概念,他们用 A.S.L.(AI Safety Levels)来判定自己模型的能力水平,参照了美国政府的生物安全级别(BSL)标准,用于应对灾难性风险 https://t.co/9vxHFPypyN Amodei 的解释如下:
- ASL-2 展示出了危险能力的初期迹象 —— 例如,它们能指导如何制造生物武器 —— 但这些信息因可靠性不够,或不具备推导出常规搜索引擎之外的新信息的能力,还不具有实用价值。目前包括 Claude、GPT-4 在内的大语言模型均属于 ASL-2 级别;
- ASL-3 指的是那些相比于传统技术(如搜索引擎或教科书)极大增加灾难性误用风险的系统,或是具备初级自动化功能的系统。例如,如果 AI 在生物学领域的应用导致生物武器的创建和扩散风险显著增加,或者在网络安全方面能够执行破坏性任务,就会触发这一级别;
- ASL-4 及更高版本(ASL-5 +)目前尚未完全定义,但它将涉及更高级的风险,如自主性和可能的说服力。ASL-4 的风险包括国家级别的各种军事领域的攻击能力大幅增强,以及 AI 模型的生存和复制的能力。这一级别可能会引发更深远的社会和存在性问题,需要政府在管理这项技术上发挥作用;
Amodei 认为我们正处于 AI 指数增长陡峭曲线的初期,人类的线性思维总是会误判指数增长的潜力。ASL-3 在今年或者明年就能实现,ASL-4 预计在 2025 - 2028 年之间达到 ⏩
控制 AI 技术所需的芯片供应可能成为我们时代最重大的地缘政治问题之一。这关系到全球政治力量的平衡,尤其是在美国和中国之间。美国会力保芯片供应还有 AI 数据中心的位置在自己与其盟友国家的控制范围之内,科技驱动的数字世界两极化竞争不可避免了。。🤔
点击图片查看原图