从聊天机器人到辩论机器人的转变?

电子说

1.3w人已加入

描述

Rufus Leonard的体验和服务设计负责人Vanita Tanna探讨了我们与聊天机器人技术的关系

自动聊天机器人 - 它们的全部内容是什么?

我们与自动聊天机器人有着爱恨交织的关系。我们喜欢和他们一起玩,但是当聊天机器人无法回答我们的问题或满足我们的要求时会感到沮丧。那些创建聊天机器人的人可以摆脱使聊天机器人尽可能人性化的挑战,但是找到写几千个可能的条件排列来试图实现这个非常艰巨的任务。

与人类一样的自动聊天机器人进行交互的这种共同愿望通过自然语言处理(NLP)推动了机器人的动力。聊天机器人机器人背后的机器学习是从决策树逻辑构建的,并且是预定输入和输出序列的交换。然而,自然对话不是这样的。

在AI伞下:机器学习,自然语言和计算机视觉 - 增强聊天机器人能力的关键

Mindtree在欧洲的数字负责人Anshuman Singh帮助信息时代探索人工智能和自然语言在开发聊天机器人中的重要性。但是,要小心不要忘记人的因素。在这里阅读:https://www.information-age.com/ai-chatbots-machine-learning-natural-language-computer-vision-123479679

扭曲自然对话的模式

在自然对话中,人类和自动聊天机器人轮流说话,即交换消息。在自然的谈话中,即使在没有视觉线索和语调的情况下,无论所说内容的内容如何,在谈话中也有意义重叠,意味着在轮流之间发生的沉默中,以及在修复努力中的意义误解。这些行动实际上是转向的意义的组成部分,是自然对话所固有的。它们有助于推动对话,并在对话展开时揭示其背后的意图。

从聊天机器人到辩论机器人的转变?

在谈到互动模式时,这些聊天机器人与辩论中预先分配的轮流(Sacks等,1974)的反复性质有很多共同点,而不是自然对话。如果自动聊天机器人的工作是“去取”,我们是否还需要社交细节,如“你好”?通过人性化聊天机器人,我们是否负责设置错误的用户期望管理?或者这只是微笑的服务?

然后聊天机器人可能不会聊天的想法说明了一个几乎是哲学问题。为什么机器人必须像人一样,能力如何?在自动聊天机器人方面,我们实际上是自动化的是什么?

 什么是聊天机器人?如何制作聊天机器人?为什么聊天机器人会失败?你所有的问题都回答了

什么是聊天机器人?你是如何制作聊天机器人的?为什么聊天机器人会失败?在本文中,我们在MullenLowe Profero战略发展总监Howard Pull的帮助下回答了所有这些问题。在这里阅读:https://www.information-age.com/what-is-a-chatbot-123479025

轮流

为了提供更准确和相关的响应,自动聊天机器人以类似于谷歌的会话搜索的方式利用NLP。这确实导致更智能的处理,但仍然在很大程度上依赖于人和机器人在说话时采取组织良好的转弯,即一次发送一个消息或一个构造良好的多堆栈。聊天机器人和人类都可以发送多个堆栈,但人类多堆栈比聊天机器人更具破坏性。我们可能会使聊天机器人的下一个响应无关紧要或不合适,从而导致配对错误的操作(例如问答),这使得我们感到沮丧。

由于自然对话不是由成对的动作组成,一个接一个地巧妙地产生,我们需要开始分析聊天机器人的交互作为一个整体而不是单个配对交换的集合。我们还需要干预,以便当人类创造这些破坏性的多堆栈时,我们可以更好地听到“对话”。

 沉默的意义

管理人 - 聊天机器人交互的一种方法是通过动画。动画是装载者的形式,'…正在打字'或'请等待'通过帮助管理透明度和保持对话前进,为机器人和用户提供双向好处。通过在对话中转向声明,有助于尝试减少有问题的人类多堆栈。

正如谷歌设计师Adrian Zumbrunnen所说“没有动画,没有谈话”,这在很大程度上是正确的。同样地,我们将时间延迟与肯定或否定的反应联系起来,机器人能否推断出我们的反应滞后的相同含义?了解我们是否具有较低的技术能力,或者我们是否正在使用聊天界面支持以花时间思考,这是在感知修复意图时要遇到的有趣挑战。

聊天机器人如何帮助招聘人员增加候选人参与度

Bullhorn企业发展和国际执行副总裁Peter Linas探讨了聊天机器人可以而且应该在招聘中扮演的角色。在这里阅读:https://www.information-age.com/chatbots-recruiters-candidate-engagement-123479526

机器人必须是人类吗?

尽管搜索词分析表明我们提出非常人性化的问题,但谷歌并不假装是人类。此外,当谷歌显示不相关的结果或呈现不匹配时,我们责怪自己没有使搜索词正确。我们更宽容,因为'谷歌搜索'没有被设置为对话,它被设置为检索。事实上,我们同情更多的人类外观或感觉机器人而不是机械设??备并不一定是互动的劣势 - 它有助于设定用户的期望。

 错误的界面?

为自动聊天机器人提供动力的决策树基于条件控制语句序列,与冒险游戏对话共享相似之处。

Bandersnatch是Netflix去年年底推出的Black Mirror系列的最新版本,是一部探索自由意志的“选择你自己的冒险”电影。Netflix甚至开发了“状态跟踪”,可以保存我们的选择路径,以便以后可以在叙述中进行部署。Bandersnatch是一个由250个段组成的分支叙述,用Twine编写(一种用于编写交互式小说的决策树工具,也用于设计聊天机器人的决策树)。那么,就像电影,聊天机器人可以利用冒险游戏界面的熟悉度和用户界面(UI)特征一样吗?

当前的聊天机器人界面提供有限的屏幕尺寸,有限的单个消息长度,通常位于屏幕的右下角。虽然欣赏ICQ等旧式信使服务的用户界面继承,为什么我们还没有全屏自动聊天机器人?

人力资源,聊天机器人和机器人过程自动化:数字化转型的关键

组织必须使其人力资源职能现代化,才能在数字化转型中取得成功。怎么样?成功依赖于软件自动化 - 聊天机器人和机器人过程自动化 - 以及持续的人工参与。在这里阅读:https://www.information-age.com/hr-chatbots-robotic-process-automation-123478998

从预测到管理

这种自然对话被人工自动聊天机器人交互所扭曲可能有助于解释为什么尽管有NLP的智能,与自动聊天机器人的交互仍然会有复杂的感受。部分原因在于它的UI功能,部分原因在于我们学会了参与自然对话的意义,在沉默,转向重叠和对话修复中都有意义。

自动聊天机器人响应不一定需要是人 - 他们只需要以非常人性化的方式进行管理。

由Rufus Leonard 的经验和服务设计主管Vanita Tanna 撰写

原文链接

https://www.information-age.com/automated-chatbots-conversations-debate-123480043/

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分