大牛预测2019人工智能发展趋势

电子说

1.2w人已加入

描述

在AlphaGo等吸引大众眼球的事件推动下,AI仍然是技术的热点之一,图像识别等一些成熟的人工智能应用也在不断得到推广。但是另一方面,机器学习乃至深度学习的瓶颈和局限又不断被业界拿出来讨论,甚至有人提出了新的AI凛冬将至的说法。那么在接下来的一年里AI会有哪些进展呢?VentureBeat采访了吴恩达、Yann LeCun等多位业界大牛,让他们对2019年的AI做出预测。我们一起来看看。

人工智能一下子扮演起了拯救世界和毁灭世界者的角色。

为了排除炒作和噪音,VB访谈了AI领域的一些杰出人物,这些在全世界的最大型技术和产业公司已经工作多年,对如何正确做AI有着深刻见地。

以下是Google Brain联合创始人吴恩达、Cloudera机器学习总经理及Fast Forward Labs创始人Hilary Mason,Facebook AI Research创始人Yann LeCun以及埃森哲负责全球AI 的Rumman Chowdhury博士的洞察。我们想了解一下他们对2018年关键里程碑的看法,也想听听他们预测一下2019年AI的发展趋势。

在对去年的回顾和对今年的预测中,一些人说,随着更多的人理解了AI能做什么不能做什么,自己受到了少听到一些终结者式AI末日启示录场景说法的鼓舞。但这些专家也强调,这个领域的计算机和数据科学家必须不断采用负责任的道德标准去推动人工智能的发展。

Rumman Chowdhury博士

Rumman Chowdhury博士是埃森哲应用智能部的总经理兼Responsible AI行动计划的全球负责人,曾被评为2017年BBC百大女性。Chowdhury经常就人工智能的信任问题发表意见。

出于时间上的考虑,她通过电子邮件对2019年的AI预测问题进行了回应。本文所有其他人的回应均能通过电话采访进行。

Chowdhury说,2018年她很高兴看到对AI能力和局限的公众认知得到改善,同时也听到了关于AI产生威胁更平衡一些的讨论——而不仅仅是像电影《终结者》那样智能机器掌控世界带来的恐惧。她说:“随之而来的是大家对隐私和安全,以及AI在塑造我们与后代可能扮演的角色的意识和问题也越来越多。”

不过她认为公众对AI的认知还不到位,在新的一年里她希望能看到更多的人利用教育资源的优势去理解AI系统,并且能够明智地对AI决策提出质疑。

不过有一件事情给到了她惊喜,那就是技术公司和AI生态体系的人开始考虑自身工作的道德伦理影响的速度。但她还希望看到AI社区在消灭“口惠而实不至”方面能做得更多。

她提出:“在AI与伦理领域——除了电车难题以外——我希望看到大家能深入挖掘AI会产生的其他难题,那些尚无明确答案的问题。AI与物联网相关的监控‘合适’的平衡在哪里?怎样才能保证安全又不导致恶化种族歧视的惩罚性监管?如何对先进技术所带来的好处进行重新分配才不会加剧已有和还没有的人之间的分化?孩子接触的程度应该如何才能成为“AI原生”的同时又不会被操纵或者同质化?如何才能利用AI对教育进行扩充和自动化但仍能保持创造力和独立思维生生不息?”

未来1年,Chowdhury预计会看到政府对全球技术界有更多的审查和监管。

她说:“AI和那种能力现在被把持在全球科技巨头那里,这会引起有关如何监管这个行业和技术的大量问题。2019年,我们将开始想出这些问题的答案——当技术是个万能工具在特定背景下会有不同结果时,如何对技术进行监管?如何建立监管体制才不会妨碍创新或者偏向大公司(可消化合规性成本)而不是小初创企业?监管要到什么程度?国际性,国家性还是本地性?”

她还预期AI在地缘政治事务中的角色还将继续演进。

她说:“这不仅仅关乎技术,它还是经济和社会的塑造者。我们在这种技术中反思、放大并施行我们的价值观,对于要建设什么以及如何建设,我们的行业需要少一点幼稚。”为此,她认为大家需要超越AI那种共同的看法,即如果我们不做的话,中国就会做,好像唯有创造才有威力。

她说:“我希望监管者、技术学家以及研究人员意识到,我们的AI之争不仅仅是计算机力量和技术洞察力,就像冷战不仅仅是核威胁能力一样。我们有责任以一种更公平、更均衡的方式去重新创造世界,现在我们有了罕见的机会去这样做。但这种机会正在飞速流逝,希望我们不要错失”

在消费者层面上,她相信2019年会看到家庭有更多的AI使用。很多人已经变得越来越习惯于像Google Home和Amazon Echo这样的智能音箱的使用,以及很多的智能设备。在这方面,她很好奇想知道在今年的CES大展上会不会有特别有趣的东西出现——这也许会进一步将人工智能整合到大家的日常生活当中。

她说:“我想我们都在等着一位机器人管家的出现。”

吴恩达

当我听说吴恩达拿白板开会或者讲网课时时,我总是忍不住发笑。也许这是因为一位既有激情又容易相处的人很容易让人开怀发笑。

吴恩达是斯坦福大学的兼职计算机科学教授,他的名字在AI圈很知名,原因有几点。

他是Google Brain的联合创始人,这是一项在Google众多产品中推广AI的行动;同时也是帮助企业集成AI到运营当中的Landing AI的创始人。

他还是一些YouTube和Coursera(这家公司也是他成立的)上门一些最热门的机器学习课程的讲师,并且成立了deeplearning.ai,还写了《Deep Learning Yearning》。

2014年他加盟百度担任首席AI科学家,并帮助百度变革成一家AI公司,超过3年后他离开了百度。

最后,还是总额1.75亿美元的AI Fund的一员,并且是无人车公司Drive.ai的董事会成员。

吴恩达本月早期时候发布了《AI Transformation Playbook》,这是一本有关解锁人工智能对公司积极影响的短读物。

他期望看到2019年会取得进展或者预期会发生变化的一个主要领域是AI在技术或软件公司以外的地方得到应用。AI最大的未被挖掘的机会是软件以外的领域,他引用麦肯锡的报告来说,到2030年,AI将可产生13万亿美元的收入。

“我认为在软件领域以外的AI应用方面2019年将会有很多故事可讲。作为一个行业,我们已经做了相当多的工作来帮助像Google和百度以及Facebook和微软这样的地方——当然这些跟我已经没有关系——但即便是像Square和Airbnb、Pinterest这样的公司也在开始利用一些AI能力。我认为下一波大规模的价值创造将会是制造厂或者农机设备公司、医疗保健公司开发十数AI解决方案来帮助自身企业的时候。”

就像Chowdhury一样,吴恩达对2018年公众对AI能做什么不能做什么的理解程度也感到吃惊,并且对大家的对话不再仅仅围绕着杀手机器人场景或者一般人工智能展开而感到欣慰。

吴恩达说,他刻意地回应了我的一些很多其他人未必会提出的问题。

他说:“我试图审慎地举出若干我认为对实际应用非常重要的领域。我认为AI的实际应用是有障碍的,并且我认为在这些问题方面若干领域有望取得进展。”。

吴恩达兴奋地指出,在未来一年预计会看到AI/ML领域会取得进展来帮助整个领域发展。其一是AI会用更少的数据达成精确的结论,也就是所谓的“少样本学习”。

吴恩达说:“我认为深度学习的第一波进展主要是有一堆数据老训练非常大型神经网络的大公司,对吧?所以如果你想开发一个语音识别系统的话,要用数据来训练它10万小时。想要训练一个机器翻译系统?得用极大量的平行语料库句对来训练它,这会创造出大量突破性结果。我越来越发现即便你只有小规模数据也能获得结果,比如只有1000幅图像。”

计算机视觉的另一个进展被称为“一般化能力”。计算机视觉系统用斯坦福大学的高端X光机器扫描出来的原始图像来训练时也许能工作得很好,而且本领域的很多先进公司和研究人员已经建立起超越人类放射线医师的系统,只是灵活性略差。

他说:“不过如果你把训练好的模型应用到取自低端X光机器或者另一家医院的X射线时,一旦图像模糊一点或者X射线技术人员让病人稍微偏右边一点点的话,结果表明人类放射线医师在概括这种新背景的表现就要比今天的学习算法好得多。所以我认为研究如何改进学习算法在新领域的泛化能力将会很有趣。”

Yann LeCun

Yann LeCun是纽约大学教授,Facebook首席AI科学家,同时是该公司研究部门Facebook AI Research(FAIR)的创始主任——FAIR是PyTorch 1.0与Caffe2以及Facebook每天使用数十亿次的文本翻译工具及类似下围棋的先进强化学习系统等若干AI系统的开发者。

LeCun相信,FAIR研究和工具开发采取的开源策略是正确的,这为督促其他大公司也做相同的事情起到了帮助作用,进而可推动整个AI领域的发展。

他说:“当有更多的人就研究进行沟通时,整个领域就能更快地取得进展,这其实会产生相当大的影响。今天你看到AI取得进展的速度很大程度上是因为有更多的人更快更高效地进行沟通,并且做出了比过去更多的开放性研究。”

在伦理方面,LeCun也很高兴看到取得了进展。不为别的,光是考虑到这方面工作的道德影响以及带偏见决策的危险就不错了。

他说:“这个现在已经被视为问题,大家已经意识到需要多加注意。2、3年前还不是这样的。”

LeCun说他并不认为AI的伦理和偏见问题会成为亟待采取行动的重大问题,但他认为大家应该为此做好准备。

他说:“我认为并不存在亟待解决的生死问题,但是这种问题会有,而我们需要理解那些问题,并在发生前阻止其出现。”

就像吴恩达一样,LeCun希望看到有更多的AI系统能够具备那种灵活性,即不需要新的输入数据或者确切条件才能得出精确输出的更健壮的AI系统。

LeCun说研究人员用深度学习管理感知已经做得相当好,但是缺失的一环是对完整AI系统整体架构的了解。

他说教机器通过观察世界来学习需要自监督学习,或者基于模型的强化学习。

他说:“不同的人给它起了不同的名字,但基本上人类婴儿和动物都市通过观察和发现有关的庞大背景信息来了解世界是如何运作的,我们现在还不知道用机器如何来做到这一点,这是我们面临的巨大挑战之一。攻克它的奖励是AI与机器将取得真正的进展,它们将会具备一点常识,我们的虚拟助手对话起来将不会那么令人沮丧,大家讨论的话题也将更加广泛。”

至于可以帮助Facebook内部的应用,LeCun说自监督式学习方面的重大进展将非常重要,需要少一些数据也能返回精确结果的AI也一样不可或缺。

他说:“在解决这一问题的道路上,我们希望能找出办法来减少完成机器翻译或者图像识别等任何特定任务所需的数据量,而且在这个方向上我们已经取得一些进展;我们已经应用弱监督或者自监督学习到翻译和图像识别,这对Facebook使用的一些服务产生了影响。也就是说这些不仅有长期的影响,短期也会有影响。”

在将来,LeCun希望看到AI能在朝着在事件之间建立因果关系的方向取得进展。这种能力就不仅是通过观察去学习了,而且还要有实际的理解,比方说,如果人打伞的话,能推理出大概是下雨了。

他说:“这一点非常重要,因为如果你希望机器通过观察来学习世界的模式的话,它就得知道自己可以去影响什么来改变世界的状态,而有些时候是你做不了的。你知道如果你在房子里面,面前有一张桌子,桌上有一个东西比如一瓶水的话,你知道你推它一下它就会移动的,但你没法移动桌子因为它又大又重——像这样的东西就跟因果关系有关。”

Hilary Mason

2017年在Cloudera收购了Fast Forward Labs之后,Hilary Mason就成为了Cloudera负责机器学习的总经理。Fast Forward Labs尽管被并入了Cloudera,但仍然继续运营,生成实用的机器学习报告并为客户提供建议,让他们洞察6个月到2年的未来。

2018年令Mason感到惊讶的一项进展与多任务学习有关,也就是推理比方说图像中的物体的时候训练一个神经网络来应用多种标签。

Fast Forward Labs也一直在建议客户考虑AI系统的伦理影响。Mason看到,大家对有必要适当植入某种伦理框架的意识正在增强。

Mason说:“我们自5年前成立Fast Forward以来就一直在每份报告中在写伦理方面的东西,但今年(2018年)大家真正开始留意并重视起来了,我认为接下来的一年我们会看到那些还不注意这些的公司和人出现一些后果或者要负担责任。其实我的意思是说,我希望数据科学和AI的实践要有所演变,用AI做产品的技术人和商业领袖都要考虑伦理和偏见问题,要对那些产品的开发负责,这应该成为大家默认的期望,但目前还不是每个人都会考虑这些。”

接下来的一年随着越来越多的AI系统成为商业运营的一部分,Mason预计产品经理和产品领导会开始在AI方面做出更多的贡献,因为他们所处的位置是最适合做这个的。

她说:“我想显然是清楚整个产品思路并且理解业务的人也理解哪些东西有价值哪些没有价值,这些是最适合对应该在哪里进行投资做出决策。所以如果要我预测的话,我认为就像我们预期所有这些人最起码要懂得利用像电子表格这样的东西进行简单的建模一样,我们很快也会预期这些人起码能够意识到自己的产品什么地方存在AI机会。”

AI的大众化,或者扩张到公司除数据科学团队以外的地方,这些若干公司所强调的,其中就包括了Google Cloud AI产品如Kubeflow Pipelines和AI Hub等,以及咨询公司CI&T的建议等,这些都确保了AI系统能够的企业内部实用化。

Mason还认为会有越来越多的企业需要建立机构来管理多个AI系统。

Mason说,就像一个有时候被用来描述从事DevOps的人所面临挑战的类比一样,管理一个系统可以用手工部署定制化脚本来完成,而cron jobs可以管理小几十个。但是如果你要在一个有安全、治理和风险要求的企业管理数十个或者上百个系统时,你就得有专业的、健壮的工具。

她说,企业追求机器学习和AI机会的态度也正在转变,从追求能力甚至人才转变到系统性的方式。

强调部署AI的容器对Mason来说是有意义的,因为Cloudera最近推出了自己的容器型机器学习平台。她相信这一趋势在未来几年会继续,所以企业将可以在本地或者云端部署AI之间做出选择。

最后,Mason认为AI的业务会继续演变,会在业界形成普遍实践,而不仅仅是在公司内部。

她说:“我认为我们将看到AI职业实践的不断演变。当下,如果你是一家公司的数据科学家或者ML工程师,如果你换了一家公司的话你的工作就会彻底不一样:工具不一样,预期不一样,汇报结构不一样。我认为今后我们会看到这些实践的一致性。”

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分