安全平台上线,狂飙的大模型须系上“安全带”

北京日报客户端 | 记者 孙奇茹 实习生 迟楠

近几个月来,以ChatGPT为代表的生成式人工智能狂飙突进,大模型时代已然降临。在“百模大战”激战正酣时,大模型相关的安全威胁也愈演愈烈,数据泄露、生产歧视、有害内容等安全问题层出不穷。清华大学人工智能研究院孵化企业瑞莱智慧近日发布了人工智能安全平台RealSafe3.0,以解决当前通用大模型安全风险难以审计的痛点问题。

近段时间以来,关于大模型的安全隐患屡见不鲜,如机密文件被泄露、添加无意义的字符后模型竟给出完全相反的回答、输出违法有害内容、隐含对某些人类社群的偏见和歧视等等。这一新兴技术带来的风险已经引起世界各国的高度关注。国家互联网信息办公室4月11日对《生成式人工智能服务管理办法(征求意见稿)》公开征求意见;欧盟于6月14日投票通过了《人工智能法案》,以期法律法规引领技术向好向善发展。

瑞莱智慧联合创始人、算法科学家萧子豪认为,大模型“落地难”的本质在于,当前行业仍处于“野蛮生长”阶段,还没有找到场景、风险和规范三者之间的平衡点。而在探寻这一平衡点的过程中,缺少易用和标准化的工具,即在技术层面上缺乏有力抓手,能够科学评判大模型在场景中能否同时满足规范和低风险,且能够进一步定位问题并给出优化建议,助力模型上线运行。

据了解,人工智能安全平台RealSafe3.0版本是集成业界主流及瑞莱智慧团队独有的安全评测技术,在评测维度上,它已覆盖数据安全、认知任务、通用模型特有漏洞、滥用场景等近70个评测维度,全方位多维度地评测通用大模型的性能,未来还会持续扩增测评维度的数量。“评测只是手段,帮助通用大模型提升其自身安全性才是核心目的。”萧子豪说,不能因为对于被技术反噬的担忧就止步不前,创造新技术和控制技术危害应该同步进行,要从源头上找到症结,再“用魔法打败魔法”。

如果将人工智能模型比作“引擎”,数据则是模型的“燃料”。可以说,数据集质量直接影响模型的内生安全。因此,RealSafe3.0内部集成了多个自研模型和专家论证高质量数据集,来帮助用户修复模型中的问题,并且能够自动化挖掘出更多的漏洞,从源头上缓解安全问题。

此外,通过对被评测的大模型进行多轮次的“提问-回答”训练,并通过训练好的评分模型对问答结果进行评分及反馈,能够使大模型不断强化学习到好坏答案的要点及区别,直至问答能力逐步迭代至最优状态。除了定制化的训练框架,RealSafe3.0的自有数据集经过了数十位价值观领域的专家论证,以确保输入的数据无误,质量高且领域多元,未来也将持续更新补充。

展开阅读全文

页面更新:2024-03-07

标签:模型   维度   平衡点   人工智能   安全带   狂飙   征求意见   安全问题   上线   智慧   风险   数据   平台   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top