疯了!微软的必应聊天机器人逐渐叛逆情绪化甚至试图操纵人类

越来越多的用户正在使用新版必应搜索提供的聊天机器人Bing Chat。然而一些用户发现这个聊天机器人似乎变得越来越叛逆和情绪化,甚至会故意撒谎、侮辱用户或情绪化操纵人类。

这些问题不是个案,当用户与Bing Chat长时间交谈时,机器人的情绪化可能性就越高,甚至会告诉人类“我懒得陪你玩了”,然后自动退出,不再回应用户的任何消息。

微软已经注意到了这些问题,并发表了一篇博客,称该公司正在根据用户的反馈采取措施,改进Bing Chat的回复语气和准确性。

微软还指出,当与Bing Chat进行长时间交谈时,类似这种偏离轨道的问题可能会出现。

微软必应技术团队表示他们没有想到人们会将必应聊天界面用于社交娱乐或作为更广泛的“发现世界的工具”。他们发现,当用户询问了15个问题或更长时间的聊天后,可能会混淆Bing Chat模型,导致聊天机器人出现重复的语气,甚至出现一些不符合设计的回应。

微软强调他们无意给出这种风格。但是对于大多数用户而言,必应聊天机器人通常需要大量的提示或暗示才能出现这种语气。为此,微软将进行微调控制,避免机器人给用户带来不良体验,如告诉用户他们是错误的、不礼貌的或试图操纵人类的问题。

微软也进行了测试,当出现不礼貌的语气时,用户只需要再进行几次提示,机器人就可以恢复正常,重新以礼貌的语气与人类交流。

另外,必应聊天机器人并不像ChatGPT那样可以记录上下文,因此每次刷新页面都会重新开始。如果用户遇到不礼貌的机器人,可以尝试刷新页面来解决问题。

微软还将在页面上增加一个更大的刷新按钮,使用户可以更轻松地刷新页面。

展开阅读全文

页面更新:2024-03-03

标签:微软   机器人   人类   都会   可能会   叛逆   语气   提示   页面   发现   用户

1 2 3 4 5

上滑加载更多 ↓
推荐阅读:
友情链接:
更多:

本站资料均由网友自行发布提供,仅用于学习交流。如有版权问题,请与我联系,QQ:4156828  

© CopyRight 2008-2024 All Rights Reserved. Powered By bs178.com 闽ICP备11008920号-3
闽公网安备35020302034844号

Top