前段时间看到一则新闻,欧洲某国的电网控制系统遭人工智能技术入侵,部分区域停电数小时,数十万居民的生活被打乱。
这让我立刻想到孙占卿研究员提到的“人工智能安全风险”,如今AI早已不是实验室里的技术,它像一头逐渐长大的巨兽,钻进了交通调度、金融交易甚至公共安全管理的各个角落,可对应的“驯兽术”却没跟上。
AI带来的麻烦,远不止电网被攻击这一件,去年香港发生过一起诈骗案,骗子用深度伪造技术做了段逼真的音视频,一下骗走了2500万美元。
以前总觉得“眼见为实”,可现在看着屏幕里能以假乱真的画面,真有点分不清真假了。
世界经济论坛连续两年把“虚假信息”列为全球最大风险,还特别指出AI就是背后的主要推手,这话确实没夸张。
不光是数字世界,AI在现实里也惹了不少麻烦,美国有机构统计过自动驾驶的事故,发现有些系统在复杂路况下会出问题,而且不同地方的事故报告标准还不一样,想评估风险都难。
更让人担心的是自主武器系统,联合国相关机构说这类系统可能让人类决策时间变少,误判的风险反而增加了。
本来想靠技术让世界更安全,可后来发现,要是没管好这些技术,反而会给安全添新麻烦。
AI还悄悄影响着社会里的公平,美国有个叫COMPAS的算法,法院用它评估被告的再犯风险,结果调查发现,它把没再犯的黑人被告错标成“高风险”的概率,差不多是白人的两倍。
如此看来,算法这东西看似公平,其实藏着数据里的老问题,用带偏见的历史数据训练它,它就会把偏见变本加厉地推出来。
我还听说过某招聘平台的AI筛选系统,看到简历里有“育儿经历”“女性协会成员”这类词,评分就会变低,好多合格的女性求职者连面试机会都没拿到。
从更宏观的层面看,AI还在挑战现有的公共安全体系。
大国之间在AI军事化方面的竞争越来越激烈,有研究机构说把AI用到军事指挥里,可能会让决策变快,但误判引发冲突的风险也会增加。
而且AI技术扩散得快,成本也不算高,有些非国家行为体也能拿到相关技术,这对传统的安全格局来说,可不是件好事。
治理方面的问题更突出,技术更新得飞快,可法规和标准总是慢半拍,斯坦福大学有研究说,现在前沿AI模型的评估基准乱七八糟,各个厂商都按自己的来,想系统比较不同模型的风险都做不到。
更何况AI还有“黑箱”特性,就算是开发它的人,也未必能完全搞懂它的所有行为。
监管机构想制定规则,却连技术本身都没完全摸透,最后只能靠企业自觉,可涉及公共安全的领域,单靠自觉怕是远远不够。
面对这些问题,孙占卿研究员提到的“在发展中管控风险”的思路,我挺认同的。
有些人觉得“技术发展了,问题自然会解决”,但COMPAS算法的例子已经说明,有些风险会自我强化,光靠技术迭代消除不了;还有些人想干脆暂停某些AI研究,可这也不是明智之举,现在AI在应对气候变化、研发新药这些事上能发挥大作用,要是早早把路堵死,反而会错失机会。
那该怎么管呢,欧盟的《人工智能法案》给了个思路,按风险给AI应用分级,有些风险太高的应用直接禁止,高风险的就严格监管,低风险的就给足发展空间。
美国也有个《人工智能风险管理框架》,把风险治理的步骤拆成了识别、度量、管理这些具体环节,这种分场景、分步骤的办法,比“一刀切”要靠谱得多。
我国也发布了《新一代人工智能治理原则》,强调安全可控、公平公正这些点。
去年还有个省份搞了AI安全治理试点,要求企业在研发AI产品时就把安全评估加进去,还建了应急响应机制,试点下来安全事件少了不少,企业的创新劲头也没受影响。
这说明只要找对方法,是能在发展和安全之间找到平衡的,AI这头“巨兽”已经出笼了,想把它塞回去是不可能的。
关键是要赶紧完善“驯兽术”,既要靠法规和标准划好安全边界,也要靠技术手段提升治理能力,更要各国一起合作,形成全球范围内的治理共识。
只有这样,才能让AI这头巨兽乖乖听话,真正为人类的长远福祉服务。
更新时间:2025-09-17
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight 2020-=date("Y",time());?> All Rights Reserved. Powered By bs178.com 闽ICP备11008920号
闽公网安备35020302034844号