段伟文:算法技术需要接受伦理审计,并遵循知情同意原则

当人们讨论算法的时候,常常会将其与“黑箱”联系起来。面对着算法的庞杂系统和可能带来的复杂后果,其治理应当何处去?12月22日,在由南都个人信息保护研究中心联合清华大学人工智能国际治理研究院、人工智能治理研究中心(清华大学)主办的“2022啄木鸟数据治理论坛”的算法治理专场上,中国社科院科技和社会研究中心主任段伟文指出,算法数字治理涉及多个主体,是系统性的工程,需要每个主体都对可能发生的风险或问题有一定的预见。

段伟文认为,在深度智能化时代,对算法的认知和建立于其上的决策需要经过伦理的审视。他指出,算法认知有理想化的和现实的两种,从理想化的角度来看,可以用算法赋能社会中的每个人,但在现实中,算法作为一种自动化的智能认知工具,必然涉及谁用它来认知谁、算法的部署和应用是否正当有度、其目的和后果能不能为深受其影响的人所了解和接受等问题。目前,正是由于忽视了对现实的算法认知的公正性的伦理审视,算法存在的问题不断暴露,已经引起了人们的伦理焦虑和冷漠——一方面对算法带来的潜在负面影响感到焦虑,另一方面又觉得自己对其无能为力,从而展现出冷漠的态度。

“我们一定程度上重返了《摩根时代》,”他用卓别林的知名电影举例,“无处不在的人脸识别,导致用户戴头盔买房,戴头盔少花十万,不戴头盔多花十万,知道你财富有多少,并对你进行定价。”

因此,段伟文认为,算法需要接受伦理的审计。除了需要遵循知情同意原则之外,也需要审计算法是否赋能了掠夺性的行为,如金融风控算法是否会引起掠夺性贷款(指以不了解信贷市场,且信用记录较低的购房者或借款者为目标,是一种有误导性或欺诈性的贷款行为),和算法中是否存在偏见。

除此之外,算法技术需要有伦理上的敏感性。段伟文表示,能够识别个体是否戴了口罩的机器从技术上而言完全可以识别个体是否戴了头巾,那么在将这一技术出口特定地区的时候,就可能会带来伦理上的风险。

此外,他还指出,算法治理需要构建可信任的、符合社会预期的算法认知,而这需要产业和消费者的共同努力:产业要努力提升算法精准性、透明度,减少偏见,减少歧视;消费者则需要提高数字素养,提升算法意识,加强在人机互动中自主性、控制感和协同意识。他认为,很多消费者缺乏对于算法的控制感,也缺乏自主性,因此对算法认知存在不信任的问题。

“我们正在前往一个深度智能化的未来,需要有一种负责任的算法认知,而不能在不考虑受其影响者的生命权利、人格尊严等基本价值的情况下,一味地对机器智能进行无止境地优化。”他强调道,“而面对当前所处的韧性时代,应该从制度设计上思考如何使科技或者平台怎样能够发挥他们的作用,同时也能够在社会可以许可、可以接受的情况下发展。”他进一步解释道:“在经过了前一段相对强有力的监管之后,应该从整个治理体系上走向可预期的治理。随着数字治理、平台治理和科技伦理治理的进一步展开,应该设置相对明确的阶段性治理目标和透明的奖惩制度,让创新者和企业了解算法应用的伦理底线,知晓违规的后果;同时要不断提升消费者和大众的数字素养和科技伦理素养,对涉及其自身权益的算法应用的认知;而媒体也应该发挥舆论监督作用,帮助人们认识其中可能的危害与滥用。”他进一步指出,通过可预期的治理,可以促使算法应用的利益相关者共同推进负责任的创新,及时感知和发现可能出现的问题,有序地走向算法为民、科技向善。

采写:南都记者胡耕硕

展开阅读全文

页面更新:2024-03-20

标签:伦理   算法   掠夺性   清华大学   头盔   素养   认知   消费者   原则   数字   技术   科技   段伟文

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top