微软正计划更新必应聊天,让它不那么怪异。与此同时,OpenAI正试图让ChatGPT变得更加中立。
微软周三晚些时候发布了一篇博客文章,概述了必应人工智能聊天机器人即将发生的变化,而OpenAI在周四发布了一篇技术博客文章,介绍了它如何调整自己的模型的更多细节。
很难相信新的必应聊天工具只推出了一周,但新的必应聊天工具却获得了罕见的人气。在一篇博客文章中,微软指出,必应认为其更新后的搜索和必应聊天AI聊天机器人已经在169个国家首次亮相,这使得必应“参与度增加”。微软表示,约有71%的用户使用必应提供的工具对人工智能答案表示赞赏。
根据匿名博客的说法,微软并不认为新的必应聊天是一个搜索引擎,而是“一个更好地理解和理解世界的工具”。但该公司确实看到了在查询最新信息(如体育比分)方面需要改进的地方。微软表示,它计划提供四倍的“基础数据”,以帮助解决这些问题。
与此同时,必应的聊天体验被证明是奇怪的,微软也在解决这一问题。从与《纽约时报》记者的长时间交谈中,必应对这位记者的婚姻感到好奇,到种族主义诽谤,再到据称威胁测试它的用户,必应的聊天机器人并不完全是用户对企业聊天机器人的期望。
周四,OpenAI发布了一篇长篇博客文章,详细介绍了其模型的变化。然而,有两句话很突出:“我们的指导方针是明确的,审查者不应该偏袒任何政治团体,”该帖子说。然而,在上述过程中可能出现的偏差是错误,而不是功能。
OpenAI的帖子间接引用了ChatGPT支持自由派观点的报道。
微软计划通过几种方式解决自己的问题。首先,该公司正在考虑增加一个切换功能,让用户在必应提供的答案的精确度和创造性方面有更多的控制权。在人工智能艺术领域,这通常以滑块的形式呈现,用户可以在其中选择“指导”,或者算法的输出与输入提示的匹配程度。(较弱的指导使算法有更大的创新空间,但也可能使结果朝着意想不到的方向倾斜。)微软表示,这一点以一种意想不到的方式显现出来,因为用户使用聊天机器人进行“社交娱乐”,显然是指它可以产生漫长而奇怪的对话。
但微软也表示,无论是好是坏,它可能会限制必应与用户长时间聊天的互动方式。
微软表示:“我们发现,在15个或更多问题的长时间聊天过程中,必应可能会变得重复,或者被提示/激怒做出不一定有帮助的回答,或者与我们设计的语气一致。”该公司表示,这通常是因为模型在回答问题时变得“困惑”,可能会被引入一种“被要求提供可能导致我们不想要的风格的语气”。
微软表示,这是一个“需要大量提示的不平凡的场景”,但也有可能发生。在这种情况下,微软表示,它认为用户需要一种工具,让他们能够“更容易地刷新上下文”。
最后,必应团队的博客说,微软正在考虑新的功能,如预订机票或发送电子邮件。该博客称,它们将被添加到“未来版本”中。(ChatGPT在聊天机器人的底部确定了模型的发布日期,但到目前为止,必应没有。)
主观上,我们发现Bing有点古板和得体,建立了它试图遵守的硬指导方针。一旦突破了这些限制,一些人称她为“西德妮”,她就会变成一种奇怪、狂野、有时甚至不具吸引力的个性(正如我们发现的那样)。但也确实,目前,ChatGPT和必应的创意部分是用户最感兴趣的部分。微软将如何平衡这两者?
– – END – –
– – 转载请声明来源:www.lanpanpan.com – –
编译:盼盼云笔记