人工智能(AI)由模式识别技术主导

电子说

1.2w人已加入

描述

  人工智能(AI)由模式识别技术主导。近年来,由于深度学习的发展和完善,在图像识别、机器翻译、音频处理等领域取得了重大进展。但深度学习并不是解决所有问题的良方。事实上,它本身就是一种疾病。

  任何生物系统,即使经过几代人的进化,也不需要像最先进的机器学习算法那样,为完成简单的任务而需要同样规模的训练数据。为了学习,大脑使用了许多衍生品以外的技术。动物能够发现新鲜事物并记住重大事件,即使它们只发生过一次。

  这里有四个原因,其中之一,为什么人工智能社区应该思考超越深度学习。

  1.深度神经网络有忘记所学模式的倾向,而活的大脑有可塑性和强健的记忆完整性。例如,人类,甚至一些动物可以记住一个面孔很多年,但仍然可以学习新的面孔,而不会忘记他们认识的面孔。

  2.深度神经网络需要大量的数据来训练,这反过来又需要大量的计算能力。如果你不是一家财力雄厚的大型计算机公司,这将是一个重大障碍。所需的计算能力取决于三个主要因素:输入数据的维数、模型的复杂性和训练算法的复杂性。

  3.神经网络就像黑匣子,通常不适合需要可解释性的应用程序。就业、贷款、教育、医疗和家庭助理等领域都需要解释。在金融领域,预测价格变化的机器对公司来说是一个重大胜利,但如果没有可解释的因素,可能很难让监管机构相信它没有违反任何规定。同样,在涉及信任的交易中,例如信用卡应用程序,必须解释批准或拒绝的原因。在业务应用程序中,建立客户的信任是至关重要的,决策需要是可解释的。

  4.所学的知识并不是真正可以转移的。如果人工智能要发挥其潜力,这一点非常重要。当动物接触到新的环境时,它们会不断地参照先前的学习。例如,你可能从来没有亲自开过卡车,但是开过一辆汽车,你就能很快地学会汽车的各种基本运行规律,并且比你从来没有开过任何汽车更快地整合你以前的驾驶技能。

  显然有必要解决这些问题,而要做到这一点,就需要超越深度神经网络。一些人工智能技术可以潜在地解决这些缺点,如自适应共振理论、可信最大化和神经模糊系统。

  自适应共振理论(ART)解决了稳定性与可塑性的问题,在不丧失现有知识的情况下获得新的知识。它也被称为增量式学习或在线学习,因为它不需要对其模型进行再培训,这是一个优势,因为再培训是丢失现有知识的主要原因之一。

  可信最大化(Cogency maximization)或虚构(confabulation)有助于解决可解释性问题,对于解决就业、贷款、教育、卫生保健和家庭助理等应用程序也很方便。基于cogency maximizbased模型的另一个优点是,它们的计算量较小,易于训练。

  模糊集系统允许数据表示介于二进制(例如,冷/热)和连续(例如,0%-100%热)表示之间。相反,模糊系统允许您用模糊表示(0%冷、20%热和80%热)来表示数据。乍一看,这似乎有些武断,但它允许对细节和逻辑创建进行更细致的表达。例如,恒温器可以使用这些数据在冷百分比过高时打开炉子,在热百分比过高时打开空调。

  这种类型的逻辑创建可以很容易地用自然语言解释,并且很容易理解。神经模糊系统将模糊系统的特征与神经网络进行某种程度的融合,以简化模型或提供更好的解释能力。其中一些系统使用模糊规则代替不透明的神经激活函数。其中一些系统作为神经网络进行训练,然后在数学上转换成模糊规则集。其中一些系统在保持模糊可解释性的同时,还利用模糊逻辑和模糊记忆来表现出神经网络的行为。

  自适应共振理论、可信最大化和神经模糊系统可能不是什么新概念,但它们似乎被研究人员忽视了。这些研究人员受到了微型超级计算机的强大功能的鼓舞,这些微型计算机由无底洞般的企业资金支持。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分