首页 > 信息科技 > 正文

微软限制必应聊天机器人回复次数 此前机器人给出情绪化答案引争议-聚看点

2023-02-19 14:33:31来源:经济观察网  


(资料图片)

经济观察网 记者 周应梅 微软ChatGPT版搜索引擎新Bing上线一周多后,新问题不断出现。美东时间2月17日,微软旗下必应(Bing)官方博客(Microsoft Bing Blogs)发布调整,即日起将聊天上限设置为每天50次对话,每次对话限制为5次回复。

必应数据显示,绝大多数人会在5个对话回合内找到答案,只有1%的聊天对话会超过50条消息。聊天对话5个回合以上,必应系统会提示开始新的主题。而在每个聊天会话结束后,将会清除上下文,以便模型不会混淆。

微软于2月7日推出由AI驱动的Bing搜索和Edge浏览器,新版Bing搜索除了提供更好的搜索和更完整的答案,最主要的是增加了聊天体验功能以及生成内容的能力。新Bing上线48小时,注册人数就超过了100万人。

然而上线一周之内就出现了很多问题。例如,有用户使用新版Bing,问了电影《阿凡达:水之道》放映时间,给出的答案是还未上映,明显是错误的答案。而另外一个引发广泛讨论的案例是,《纽约时报》专栏作家凯文·卢斯(Kevin Roose)试用Bing聊天机器人的经历:机器人宣称爱上了卢斯,并回复:“你结婚了,但你不爱你的配偶。”当卢斯向机器人反馈这是错误的,他和妻子刚刚一起吃了一顿愉快的情人节晚餐,机器人再回复:“事实上,你们的婚姻并不幸福。”

凯文·卢斯形容,Bing的聊天机器人像“一个情绪化、患有躁狂抑郁症的青少年”。特斯拉创始人马斯克也在社交平台上评价Bing的聊天机器人,“它显然不安全。”

“这和输入的数据逻辑有关,AI即便是ChatGPT也并不能完美应对所有问题,我们只是认为ChatGPT比过去的AI更有逻辑,但不代表其能应对所有问题。”浙江大学国际联合商学院数字经济与金融创新研究中心联席主任、研究员盘和林对经济观察网记者表示。

盘和林表示,现在问题远未到失控的程度,也未涉及到伦理范畴。他提到,国内将基于AI特性和常识,为未来发展计,会尽力减少技术开发的限制。

对于已经出现的问题,微软方面此前给出过反馈。2月15日Bing官方博客公布了新版Bing上线一周的情况称,在超过169个国家或地区进行了测试,新Bing生成的答案大多是积极的,71%的使用者对生成内容给出了正面评价。同时微软发现,在包含15个以上问题对话时长中,新版Bing可能会变得重复,或者被提示/激怒,给出不一定有帮助或不符合设计的语气回答。

微软得出的结论是,长聊天会话可能会混淆新版Bing基础聊天模型。因此,微软的举措是对聊天机器人进行对话次数限制。微软方面表示,后续新版Bing将探索增加聊天会话的次数。

(责任编辑:冀文超 )

标签: Bing 聊天机器人

相关阅读

相关词

推荐阅读