本报北京4月4日电 (记者王政、刘温馨)为规范人工智能科技活动伦理治理,推动人工智能产业健康发展,近日工业和信息化部等十部门印发《人工智能科技伦理审查与服务办法(试行)》,提出建立和完善人工智能科技伦理标准体系,支持人工智能科技伦理审查技术创新,强化以技术手段防范人工智能科技伦理风险。
办法提出,开展人工智能科技伦理审查,重点关注人类福祉、公平公正、可控可信、透明可解释、责任可追溯、隐私保护等6个方面,包括人工智能科技活动是否具有科学价值、社会价值;训练数据的选择标准,算法、模型、系统的设计是否合理;是否合理披露算法、模型、系统的用途、运行逻辑等信息;是否采取充分措施确保隐私数据得到有效保护等。
《 人民日报 》( 2026年04月05日 04 版)
更新时间:2026-04-07
本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828
© CopyRight All Rights Reserved.
Powered By 71396.com 闽ICP备11008920号
闽公网安备35020302034844号