跳至主要内容
阅读更多
在没有美国参与的情况下,中国研究人员正在私下为新的全球人工智能议程奠定基础。

摄影:Getty
三天后特朗普政府发布了备受期待的人工智能行动计划,中国政府也发布了自己的人工智能政策蓝图。这是否只是巧合?我对此表示怀疑。
7月26日,世界人工智能大会(WAIC)开幕首日,中国发布了《全球人工智能治理行动计划》。WAIC是中国年度规模最大的人工智能盛会。杰弗里·辛顿和埃里克·施密特等众多西方科技界人士出席了在上海举行的此次盛会。我们《连线》杂志的同事威尔·奈特也亲临现场。
威尔告诉我,世界人工智能大会的氛围与特朗普“美国优先”、轻监管的人工智能愿景截然相反。中国国务院总理李强在开幕致辞中,深刻阐述了全球人工智能合作的重要性。随后,多位中国杰出的人工智能研究人员发表了技术演讲,重点探讨了特朗普政府似乎在很大程度上置之不理的紧迫问题。
中国顶尖人工智能研究机构之一上海人工智能实验室负责人周博文在世界人工智能大会上大力宣传其团队在人工智能安全方面的工作。他还建议政府在监控商业人工智能模型的漏洞方面发挥作用。
中国科学院教授、中国人工智能领域领军人物之一曾毅在接受《连线》杂志采访时表示,他希望世界各地的人工智能安全组织能够找到合作的方式。“最好是英国、美国、中国、新加坡和其他机构能够携手合作,”他说。
会议还包含关于人工智能安全政策问题的闭门会议。咨询公司DGA-Albright Stonebridge Group的合伙人保罗·特里奥洛(Paul Triolo)在参加一次此类会议后告诉《连线》杂志,尽管美国领导力明显缺席,但讨论仍然富有成效。特里奥洛告诉《连线》杂志,由于美国退出,“由中国、新加坡、英国和欧盟共同领导的主要人工智能安全参与者联盟将推动构建前沿人工智能模型开发护栏的努力。” 他补充说,缺席的不仅仅是美国政府:在所有美国主要人工智能实验室中,只有埃隆·马斯克的xAI实验室派员工参加了世界人工智能大会(WAIC)。
许多西方参观者惊讶地发现,中国关于人工智能的讨论如此多地围绕着安全法规展开。“过去七天里,你几乎可以不间断地参加各种人工智能安全活动。而其他一些全球人工智能峰会则并非如此,”总部位于北京的人工智能安全研究机构 Concordia AI 的创始人 Brian Tse 告诉我。本周早些时候,Concordia AI 在上海举办了一场为期一天的安全论坛,Stuart Russel 和 Yoshua Bengio 等著名人工智能研究人员也出席了论坛。
切换位置
将中国的人工智能蓝图与特朗普的行动计划进行比较,似乎两国立场互换。当中国企业首次开始开发先进的人工智能模型时,许多观察人士认为它们会受到政府审查要求的阻碍。如今,美国领导人表示,他们希望确保自主研发的人工智能模型“追求客观真理”。正如我的同事史蒂文·利维(Steven Levy)在上周的Backchannel新闻通讯中所写,这一努力是“自上而下的意识形态偏见的明显体现”。与此同时,中国的人工智能行动计划读起来就像一份全球主义宣言:它建议联合国帮助领导国际人工智能努力,并建议各国政府在监管该技术方面发挥重要作用。
尽管两国政府截然不同,但在人工智能安全问题上,中美两国民众担忧的却有很多相同之处:模型幻觉、歧视、生存风险、网络安全漏洞等等。谢教授表示,由于中美两国正在开发前沿人工智能模型,“这些模型基于相同的架构进行训练,并使用相同的扩展规律方法,因此它们造成的社会影响类型和风险非常相似”。这也意味着两国在人工智能安全方面的学术研究正在融合,包括可扩展监管(人类如何用其他人工智能模型监控人工智能模型)以及可互操作安全测试标准的制定等领域。
最受欢迎
但中美两国领导人已表明,他们对这些问题的态度截然不同。一方面,特朗普政府最近试图暂停通过新的州级人工智能法规,但未能成功。另一方面,包括习近平本人在内的中国官员越来越多地公开强调为人工智能设置护栏的重要性。北京方面也一直在忙于起草国内人工智能标准和规则,其中一些已经生效。
随着特朗普推行非正统且前后矛盾的政策,中国政府越来越显得像个“房间里的成年人”。北京方面发布新的人工智能行动计划,试图抓住时机,向世界传递一个信息:如果你想在这项改变世界的创新领域占据领导地位,那就看看这里吧。
魅力攻势
我不知道中国的魅力攻势最终会有多大效果,但美国在全球的撤退确实让北京感到这是一个百年一遇的扩大影响力的机会,尤其是在每个国家都在寻找榜样来帮助他们理解人工智能风险以及管理这些风险的最佳方法的时候。
但有一件事我不确定:中国本土的人工智能产业究竟有多热衷于接受这种对安全的高度重视?尽管中国政府和学术界已大幅加强人工智能安全工作,但迄今为止,产业界似乎并不太热衷——就像西方国家一样。
根据康考迪亚人工智能公司(Concordia AI)最近发布的一份报告,中国人工智能实验室披露的人工智能安全工作信息比西方同行少。报告分析了13家中国前沿人工智能开发商,其中只有3家在其研究出版物中提供了安全评估的详细信息。
Will 告诉我,他在 WAIC 上采访的几位科技创业者表示,他们担心 AI 带来的风险,例如幻觉、模型偏差和犯罪滥用。但谈到 AGI 时,许多人似乎乐观地认为这项技术将对他们的生活产生积极影响,他们不太担心失业或生存风险之类的问题。Will 说,私下里,一些创业者承认,对他们来说,解决生存风险并不像弄清楚如何扩大规模、赚钱和击败竞争对手那么重要。
但中国政府发出的明确信号是,应该鼓励企业应对人工智能安全风险,如果中国许多初创企业改变态度,我也不会感到惊讶。美国国防情报局-奥尔布赖特石桥集团的特里奥洛表示,他预计中国前沿研究实验室将开始发表更多前沿安全研究成果。
一些世界人工智能大会的与会者认为,中国对开源人工智能的关注是这一格局的重要组成部分。“随着中国人工智能公司越来越多地开源强大的人工智能技术,他们的美国同行也面临着同样的压力,”开源大型语言模型 RWKV 的创建者、研究员彭波告诉《连线》杂志。
彭志坚设想的未来是,不同的国家——包括那些并非总是意见一致的国家——将在人工智能领域展开合作。“多个强大的开源人工智能的竞争格局最符合人工智能的安全和人类的未来,”他解释道。“因为不同的人工智能天生就体现着不同的价值观,并且会相互制衡。”
您可能还喜欢……
- 您的收件箱里有 五份由资深专家撰写的新通讯
- 大故事: 人工智能聊天机器人和喜爱它们的人类
- 蛇毒、蛇尿和永生的追求
- 恐怖谷:硅谷影响力的内部观察
Will Knight是《连线》杂志的资深撰稿人,负责人工智能报道。他撰写了《人工智能实验室》简报,该简报每周都会发布人工智能前沿领域的资讯——点击此处注册。他曾担任《麻省理工科技评论》的高级编辑,撰写有关人工智能基础进展和中国人工智能的文章……阅读更多
美国间谍技术测试负责人已辞职
据《连线》报道,IARPA 主任里克·穆勒 (Rick Muller) 即将离职,此前他在该研发部门任职仅一年多,该部门负责投资可能引起美国国家安全局 (NSA) 和中央情报局 (CIA) 等机构兴趣的新兴技术。
帕雷什·戴夫
特朗普在人工智能政策演讲中表示,他正在“摆脱觉醒”,并驳斥了版权问题
这一言论是在All-In Podcast主办的峰会主题演讲中发表的,是唐纳德·特朗普总统新发布的人工智能行动计划的后续。
凯特·尼布斯
OpenAI 从特斯拉、xAI 和 Meta 挖走 4 名高级工程师
根据联合创始人格雷格·布罗克曼 (Greg Brockman) 发送的内部 Slack 消息,新员工将加入 OpenAI 的扩展团队。
威尔·奈特


















沒有留言:
張貼留言
注意:只有此網誌的成員可以留言。