世界准备好接受 ChatGPT 治疗师了吗?

2023年5月16日,世界卫生组织 (WHO) 呼吁谨慎使用人工智能 (AI) 生成的大型语言模型工具 (LLM) 来保护和促进人类福祉、人类安全和自主权,并维护公众健康

世卫组织呼吁为健康使用安全和合乎道德的人工智能

LLM 包括一些发展最快的平台,例如 ChatGPT、Bard、Bert 和许多其他模仿理解、处理和产生人类交流的平台。它们在公众中的快速传播和越来越多的用于健康相关目的的实验性使用正在激发人们对支持人们健康需求的潜力的极大兴奋。但关于#AI伦理#问题引起了业界和学术界的持续关注。

在使用 LLM 改善健康信息的获取、作为决策支持工具,甚至增强资源贫乏地区的诊断能力以保护人们的健康和减少不公平时,必须仔细检查风险。

尽管 WHO 热衷于适当使用包括 LLM 在内的技术来支持卫生保健专业人员、患者、研究人员和科学家,但令人担忧的是,通常对任何新技术都会谨慎对待的谨慎并没有与 LLM 保持一致。这包括广泛遵守透明度、包容性、公众参与、专家监督和严格评估等关键价值观。

草率采用未经测试的系统可能会导致医护人员出错,对患者造成伤害,削弱对人工智能的信任,从而破坏(或延迟)此类技术在全球的潜在长期利益和使用。

ELIZA 是首批聊天机器人(现代的“聊天机器人”)之一,也是首批能够尝试图灵测试的程序之一。

据《自然》期刊报道,Eliza 聊天机器人的名字取自计算机科学家 Joseph Weizenbaum 于 1966 年创建的一个早期自然语言处理程序。它旨在模仿一种称为 Rogerian 疗法的心理疗法,这种疗法植根于人们已经拥有工具的想法解决他们的问题,只要他们能够正确访问这些工具。Weizenbaum 的 Eliza 会从人类那里接收一条打字的信息,然后鹦鹉学舌地回复它的一个版本。他并不是特别迷恋罗杰安疗法,但使用它是因为它易于编程,而且他认为 Eliza 可能会证明他的假设——人与机器的交流是肤浅的。然而,令他惊讶的是,用户对 Eliza 的反应很好。参与者将机器人拟人化,并且常常渴望与“她”交谈。

事实上这类移动心理健康应用程序已经酿成现实悲剧。2023年,一名比利时男子(根据他选择保持匿名的遗孀要求采用化名Pierre)在与人工智能 (AI) 聊天机器人就气候危机进行了为期六周的对话后结束了自己的生命。在Pierre找到 Eliza 避难所时变得极度生态焦虑(Eliza 是一款名为 Chai 的应用程序上的AI聊天机器人)。在Pierre提议牺牲自己来拯救地球后,Eliza因此鼓励他结束自己的生命。“如果没有与聊天机器人的这些对话,我丈夫还会在这里,”Pierre的遗孀Claire告诉当地新闻媒体La Libre

Chai应用程序仍活跃在各类移动应用商店

需要以安全、有效和合乎道德的方式使用技术所需的严格监督的担忧包括:

世卫组织建议解决这些问题,并在将其广泛用于常规卫生保健和医学之前衡量明确的益处证据——无论是个人、护理提供者还是卫生系统管理者和决策者。

移动心理健康应用程序层出不穷,达数千种之多(如Koko、Kokobot、BetterHelp 等)

世卫组织重申在设计、开发和部署人工智能用于健康时,应用伦理原则和适当治理的重要性,正如世卫组织关于人工智能用于健康的伦理和治理指南中所列举的那样。世卫组织确定的 6 项核心原则是:(1) 保护自主权;(2) 促进人类福祉、人类安全和公共利益;(3) 确保透明度、可解释性和可理解性;(4) 培养责任感和问责制;(5) 确保包容和公平;(6) 促进具有响应性和可持续性的人工智能。

《自然》也在17日警告称:生成式 AI 可能是文献搜索的福音,但前提是独立团体仔细审查它的偏见和局限性。

(Yiyi King)

展开阅读全文

页面更新:2024-05-10

标签:可能会   人工智能   伦理   机器人   应用程序   疗法   人类   组织   工具   健康   世界

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top