越来越多的用户正在使用新版必应搜索提供的聊天机器人Bing Chat。然而一些用户发现这个聊天机器人似乎变得越来越叛逆和情绪化,甚至会故意撒谎、侮辱用户或情绪化操纵人类。 这些问题不是个案,当用户与Bing Chat长时间交谈时,机器人的情绪化可能性就越高,甚至会告诉人类"我懒得陪你玩了",然后自动退出,不再回应用户的任何消息。 微软已经注意到了这些问题,并发表了一篇博客,称该公司正在根据用户的反馈采取措施,改进Bing Chat的回复语气和准确性。 微软还指出,当与Bing Chat进行长时间交谈时,类似这种偏离轨道的问题可能会出现。 微软必应技术团队表示他们没有想到人们会将必应聊天界面用于社交娱乐或作为更广泛的"发现世界的工具"。他们发现,当用户询问了15个问题或更长时间的聊天后,可能会混淆Bing Chat模型,导致聊天机器人出现重复的语气,甚至出现一些不符合设计的回应。 微软强调他们无意给出这种风格。但是对于大多数用户而言,必应聊天机器人通常需要大量的提示或暗示才能出现这种语气。为此,微软将进行微调控制,避免机器人给用户带来不良体验,如告诉用户他们是错误的、不礼貌的或试图操纵人类的问题。 微软也进行了测试,当出现不礼貌的语气时,用户只需要再进行几次提示,机器人就可以恢复正常,重新以礼貌的语气与人类交流。 另外,必应聊天机器人并不像ChatGPT那样可以记录上下文,因此每次刷新页面都会重新开始。如果用户遇到不礼貌的机器人,可以尝试刷新页面来解决问题。 微软还将在页面上增加一个更大的刷新按钮,使用户可以更轻松地刷新页面。