电子说
Charlotte Han 是一名技术专家和人工智能战略家。居住在德国的 Han 是 Rethink.Community 的创始人。她热衷于为善和人类设计人工智能。在此问答中,Han 回答了我们有关 AI 的问题。
Q:从技术发展的方式来看,未来五年哪些业务领域最有可能大规模引入人工智能?
A:我们需要跟着钱和数据去寻找这个问题的答案。公司通常将 AI 应用到他们的业务中,因为他们要么希望通过提高效率来增加收入或降低成本。
数据是人工智能的生命线。AI没有数据就不行,所以改变首先发生在有数据的地方。
这些线索将我们引向业务的第一线:销售和营销。这些部门更快地采用人工智能,不仅因为它们对收入有直接影响,还因为它们希望更好地了解客户:谁访问了网站,谁下载了白皮书,谁与销售代表交谈,何时,以及他们为什么放弃购物车?AI 可以自动确定销售线索并在适当的时间提示销售代表跟进潜在客户。人工智能还可以帮助为每个客户提供个性化的内容和消息,并预测客户需求。销售和市场营销也是实施 AI 的低风险业务领域,因为采用 AI 不需要对其他业务功能进行太多更改。
密切相关且不容忽视的是客户支持部门。如果公司已经开始收集数据以了解客户行为,那么只有利用从销售和营销中获得的洞察力来提供更好的客户支持才有意义,因为客户保留会增加客户的生命周期价值。让现有客户满意并与公司保持长期关系比公司获得新客户更容易。虽然目前的虚拟座席无法取代真实座席的支持,但虚拟座席可以全天候不懈地工作并缩短响应时间。
另一个明显的业务领域可能是供应链,因为它不断被检查并被要求提高绩效和生产力。随着边缘计算(或边缘人工智能)的兴起,分析立即可用,边缘计算机可以在本地做出决策,而无需将所有数据传输回中央服务器进行处理,然后再传输回来。这大大减少了延迟。
例如,通过在制造业中引入机器人技术和异常检测软件,在供应链中采用人工智能可以快速简化流程并提高准确性。就像人工智能如何帮助预测客户对销售和营销的需求一样,它也可以应用于供应链,以更好地平衡更大范围的供需。这不限制实物商品。能源公司对实时预测需求越来越感兴趣,以预测电网激增并优化绿色能源。
处理供应链中的数据隐私风险的机会也更少,因为大部分数据是由流程或机器而不是个人数据生成的。我们还可以争辩说,在 COVID-19 大流行之后,控制稳健的供应链将是迅速从经济衰退中复苏的秘密武器。不幸的是,这就是采用人工智能的落后者将遭受损失的地方。
问:在该时间范围内优化引入人工智能的影响需要哪些技术进步?
答:我认为我们不需要仰望遥远星系中的星星来梦想我们在地球上从未见过的先进技术来实现人工智能,但我们需要使人工智能的使用民主化数据。
云计算在某种程度上有所帮助,但当 5G 网络广泛可用时,边缘计算将推动人工智能在各地的采用。边缘计算机通常价格低廉,进一步消除了访问 AI 的障碍。
企业内部也有工作要做。遗憾的是,一些高管仍然认为在他们的 iPad 上拥有 Tableau 仪表板就等同于拥有数据。
采用人工智能的基础是创建允许数据流过管道的基础设施。在理想的世界中,它会像自来水一样按需提供:在您需要的时候出现。当企业中高达 80% 的数据是非结构化数据时,拥有数据管道或基础设施尤为重要,因此拥有能够从多个来源收集和摄取数据的正确架构,无论数据是结构化的还是非结构化的,都将是任何公司开始利用 AI 力量的第一步。借助此架构,您将能够根据需要快速处理和移动数据,并获得可加速业务发展的洞察力和分析。
公司高管采用AI的另一个痛点是内部AI人才短缺。因此,AutoML 或 AI 即服务的重要性只会增加。他们可以帮助公司在为业务投资正确的 AI 计划之前进行实验和概念验证。
问:由于学习 AI 取决于可用数据的数量和质量,我们需要什么来使这些数据尽可能保持中立和公正?我们是否需要使用递归 AI 来“清理”主要 AI 的输入?
答:这是一个艰难的过程,因为即使你有一个训练有素且表现最佳的模型,该模型也可能会变得陈旧,并且可能会发生所谓的“概念漂移”。概念漂移是指输入和输出数据之间关系的不可预测的变化,它从根本上改变了模型做出“预测”的准确性。
最重要的是,如果人工智能是用深度神经网络训练的,因为 DNN 中有太多的隐藏层,人类就不可能理解或解释 DNN 是如何得出这个结论的。这就是我们所说的黑盒 AI。因此,解决方案不是创建另一个 AI 来使第一个 AI 工作,如果两者都无法理解的话。好消息是,许多研究人员正在研究帮助人工智能自我解释的工具。这也是为什么可解释人工智能领域是机器学习的一个新兴领域,旨在帮助团队开发可解释和包容的模型。
直到现在,我们仍然主要依赖人类标记,所以这个问题的最佳答案实际上是我们人类。
从事人工智能项目的人需要意识到可能存在的偏见问题,并尽可能多地收集无偏见的数据。当人类在训练过程中发现数据集中存在偏差时,人类将需要将数据集中的偏差归零。团队还需要让他们的项目或产品接受更多的透明度和审计流程,以便我们能够尽早发现问题。拥有不同的测试数据集以帮助您确保您的系统没有偏差是很重要的。这项确保系统“最新”的工作正在进行且持续不断。
我们是人类,我们每个人都有自己的偏见。如果AI团队来自不同的背景,我们都可以成为彼此的制衡,那么我们就更有可能消除彼此的盲点。
也许我们还可以训练 AI 检查人类标记数据以发现异常并指出不一致(如果有)。
问:将一套固定的道德准则实施到具有重写自己代码能力的学习型 AI 中是否可行?考虑到不同工业社会的不同价值体系,这是否更可取?
A:请放心,我们离AI编程本身、失控还很远。
虽然拥有某种由国际社会商定的高水平道德准则很重要,就像我们拥有不扩散核武器条约一样,但认为每个人、组织和实体都会点我和交叉是不现实的同一套 AI 道德规则中的所有细节都是如此,仅仅是因为每个人都有不同的议程。
当我自豪地拥有一辆自动驾驶汽车时(尽管那时我们可能不再需要拥有汽车),我可能不希望汽车决定转动方向盘以避免撞死狗过马路,结果在这个过程中杀了我。但是,如果我知道我的车不会在杀死一条狗时眨眼,作为车主,我会在道德上感到自在吗?最后,我是否会从一家决定占据道德制高点并设计汽车以拯救马车中婴儿的制造商处购买汽车,但最终可能会杀了我?我不确定。当然,这就是著名的电车问题。
即使我们有一套规则,它仍然不适用于 AI。让我们看看英语:没有一种完美的方式可以说“最好的英语”,因为在现实中,语言不断地被使用它的人有机地改变。没有人真正遵守所有的语法规则。
AI 也随着它所训练的数据而发展。
基于规则的人工智能无法扩展,因为不可能写出所有的规则。AI旨在探索所有可能性以找到最佳优化策略。按照设计,他们被训练来寻找漏洞。我们写的规则越多,AI 发现的漏洞就越多。
我认为道德价值将体现在每个公司或组织创造的产品的设计理念中,消费者将用他们的钱投票。也许这是一种非常幼稚和资本主义的思考方式。
政府的作用仍然很重要,尽管他们对新技术的理解通常太慢,无法对其进行适当的监管。然而,我们确实需要来自全球社区的政府在我们这个时代创造“人工智能武器的不扩散”,除了条约实际上是为了规范人类。
审核编辑 黄昊宇
全部0条评论
快来发表一下你的评论吧 !