
2026年2月12日,联合国大会投票通过了一项决议,正式任命"人工智能独立国际科学小组"的40名成员,任期三年。这是全球第一个由联合国直接召集、专门评估人工智能机遇与风险的科学机构,被不少观察人士称为"AI版IPCC"。
投票结果耐人寻味:只有美国和巴拉圭投了反对票。就在同一周,美国白宫科技顾问在印度举行的全球AI峰会上公开表示,美国"完全拒绝"联合国主导的全球人工智能治理框架,措辞之强硬,出乎许多与会者的预料。这个开场,预示着这个新机构未来的道路不会平坦。
把这个小组类比为IPCC,并不是随便找了个参照物。政府间气候变化专门委员会成立于1988年,35年间累积了海量科学证据,直接推动了《巴黎协定》等一系列具有里程碑意义的国际气候协议的诞生。它的核心逻辑是:政策制定需要以可信的科学共识为前提,而这种共识必须经过独立、系统、全球化的评估才能建立。
人工智能领域面临的问题高度相似。当前全球AI治理的最大困境,不是缺乏政策意愿,而是缺乏一套被各方共同认可的"事实基础"。各国政府在AI法规上各自为政,监管标准相互割裂,而支撑各国决策的证据来源、方法论和价值取向差异悬殊。在这种背景下,一个能够定期发布具有全球公信力的科学评估报告的独立机构,理论上可以发挥相当重要的校准作用。
联合国秘书长古特雷斯将这个小组定位为"预警系统和证据引擎",目标是"帮助区分炒作与现实",并定期发布具有政策意义的报告。小组成员以个人身份任职,而非代表所在国家或机构,这是刻意保留独立性的制度设计。
40名成员从全球2600余名候选人中遴选而出,涵盖37个国家,在学术背景、地域分布和性别构成上都做了明确的平衡设计。成员阵容相当豪华:图灵奖得主、深度学习三巨头之一的约书亚·本吉奥在列;阿里云创始人、中国工程院院士王坚当选;上海交通大学上海人工智能研究院院长宋海涛入选;谷歌DeepMind的AI研究工程师、诺贝尔和平奖得主玛丽亚·雷萨也位列其中。至少九位成员拥有行业背景,但所有人都以科学家身份独立参与评审,不代表任何商业利益。
小组的工作范围将超出"AI安全"这一单一议题。据相关研究人员透露,报告主题将覆盖人工智能对经济、社会、文化、劳动力市场和发展中国家的影响,而不只是关注技术风险。这一设定使其有别于此前的国际AI安全报告,后者更集中于技术层面的安全评估。
这个小组最大的挑战,或许不是科学层面的,而是政治层面的。
IPCC能够发挥影响力,部分原因在于气候变化的物理机制相对客观,科学界在核心问题上的共识在多年积累后变得难以否认。人工智能的情况要复杂得多:技术迭代速度极快,风险和收益高度依赖具体应用场景,而且各国在AI发展阶段、产业利益和价值取向上的差异,远比气候议题更难弥合。
美国的反对立场是这种张力的直接体现。白宫科技顾问的表态清楚说明,华盛顿不愿意让一个联合国机构的科学结论影响其国内AI政策走向,尤其是在美国将AI竞争视为国家战略优先项的当下。这意味着,这个小组的报告如果要产生实质性政策效果,必须在美国之外的国家政府中建立足够的影响力,才能形成对华盛顿的间接压力。
与此同时,AI领域的知识本身就存在巨大的地区不平等。语言模型在低资源语言中的性能明显更差,AI对就业市场的冲击在发展中国家和发达国家的表现方式截然不同。如果这个小组真能让来自乌干达、菲律宾、墨西哥的科学家与来自美国、中国、欧洲的研究者在同一张桌子上进行系统性评估,这本身就是一件过去从未真正实现的事。
从"炒作"到"证据"的距离,往往比外界想象的要远。AI版IPCC能不能走完这段路,答案还在它的第一份报告里。
信息来源:
https://gizmodo.com/the-most-elusive-color-in-chemistry-might-surprise-you-2000727128
更新时间:2026-02-28
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 61893.com 闽ICP备11008920号
闽公网安备35020302034844号