2023全球人工智能伦理治理报告

报告出品方:钛媒体&深圳高等金融研究院

——人工智能(ArtificialIntelligence)作为新一轮科技革命和产业变革的重要驱动力量,正逐步向人类社会各个领域渗透融合,对经济发展、社会进步、国际政治格局等诸多方面产生重大深远的影响。然而,在人工智能应用广度和深度不断拓展的过程中,也不断暴露出一些风险隐患,如隐私泄露、偏见歧视、算法滥用、安全问题等,引发了社会各界广泛关注。尤其是在发展中遇到的“人机对齐问题”,即如何确保人工智能系统安全可控,符合人类意图和价值观。

——除此之外,人工智能在世界范围内的不平等扩散会造成国际范围内的公平正义问题,即人工智能带来的便利较多惠及发达国家,而造成的负面影响较多殃及发展中国家,因此国际间人工智能健康发展也是世界平稳发展的重要因素,国家间政治制度和意识形态的差异不能阻止在AI治理问题上达成共识。面对人工智能发展应用中的伦理风险,各国与社会各界开始展开伦理探讨,寻求应对AI伦理风险的路径和规范,以保证人工智能的可持续发展。因此,人工智能伦理(AIEthics)成为社会各界关注的议题,并成为一个备受关注的研究领域。

| 人工智能伦理治理定义

人工智能伦理是指在人工智能技术的应用过程中,对于人类价值观、道德规范、法律法规等方面的考虑和规范。它旨在确保人工智能技术的应用符合人类的道德标准和价值观,保障人类的利益和安全。

总之,人工智能伦理是人工智能技术应用过程中必须遵守的规范。在人工智能技术的发展过程中,我们需要不断完善人工智能伦理规范,保障人工智能技术的应用符合人类的价值观、道德规范和法律法规,为人类社会的发展做出贡献。

| 人权领域

基本权利的风险,包括个人数据和隐私保护以及非歧视。人工智能的使用可能会影响欧盟的基础价值观,并导致基本权利受到侵害”,包括言论自由、集会自由、人的尊严、围绕性别、种族或族裔的非歧视、宗教信仰自由、或围绕残疾年龄、性取向的非歧视(适用于某些领域)、保护不人数据和私生活”、获得有效司法救济和公平审判的权利,以及消费者保护权等。这些风险可能是由于人工智能系统的总体设计存在缺陷(包括在人为监督方面),也可能是是由于使用数据时没有纠正可能的偏差(例如,系统仅使用或主要使用来自男性的数据进行培训,与女性相关的结果不佳)。

偏见和歧视是任何社会或经济活动的固有风险。人类的决策不能避免错误和偏见。然而,当同样的偏见出现在人工智能中时,可能会产生更大的影响,如果没有控制人类行为的社会治理机制,就会影响和歧视许多人”。当人工智能系统在运行中“学习”时,也会发生这种情况。

| 开发用于人体增强的AI技术

虽然人工智能研究的大部分重点都放在与执行狭隘任务的人匹配或表现优异的算法上,但需要开展更多工作来开发能够跨越多个领域增强人类能力的系统。人体增强研究包括在固定设备(例如计算机)上工作的算法:可穿戴设备(如智能眼镜);植入设备(如大脑界面):在特定的用户环境中(例如特别定制的手术室)。例如,基于从多个设备组合的数据读数,增强的人类意识可以使医疗助理指出医疗过程中的错误。其他系统可以通过帮助用户回忆过去话用于用户当前情况的经验来增强人类认知。

人类与人工智能系统之间的另一种协作方式是积极学习智能数据。在主动学习中,从领域专家寻求输入,并且仅在学习算法不确定时才对数据进行学习。这是减少首先需要生成的训练数据量或需要学习的量的重要技术。主动学习也是获得领域专家意见和增加学习算法信任的关键方法。到目前为止,主动学习仅用于监督学习;需要进一步研究将主动学习纳入无监督学习(例如,聚类,异常检测)和强化学习。”概率网络允许以先验概率分布的形式包括领域知识。无论是以数学模型,文本还是其他形式,都必须寻求允许机器学习算法合并领域知识的一般方法。


【报告领取方式见文末】


该份报告共239页

如果您觉得这份资料对您有帮助

希望获取完整的电子版内容参考学习

您可以关注+评论+转发

然后私信我:报告

展开阅读全文

页面更新:2024-03-22

标签:人工智能   伦理   偏见   算法   价值观   人类   风险   领域   报告   数据   全球   技术

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top