如何提升AI算法速度 打造接近人脑规模的神经网络

人工智能

625人已加入

描述

人工神经网络(Artificial Neural Networks;ANN)是人工智能(AI)革命的核心,正在形塑社会与科技的各层面发展。然而,目前ANN仍远不足以处理非常复杂的问题。近日由数间国际知名大学所组成的研究团队便针对此问题,研发出革命性的训练方法,可大幅提升训练AI算法的速度,最终可望打造出接近人脑规模的ANN。

据报导,由荷兰恩荷芬理工大学(Eindhoven University of Technology)、美国德州大学奥斯丁分校(University of Texas at Austin)与英国德比大学(University of Derby)科学家所组成的研究团队,于《Nature Communications》期刊发表新AI训练方法:稀疏式进化训练(Sparse Evolutionary Training;SET)。

SET的灵感来自生物网络以及特定神经网络,而这些特定神经网络之所以运行效率高有三个特征,包括网络连接性相对较低、神经中枢稀少以及路径短。

研究团队指出,常见的AI训练是采用完全连结的人工神经网络,不过新训练方法则随机从稀疏的网络着手,不断演进至无尺度网络(scale-free network),在过程中较弱的连结会被消除,并随机增加新连结,近似于被称为突触萎缩(synaptic shrinking)的生物过程。

透过SET,一般计算机也能获得全面的AI能力,而超级计算机更可望于1~2年内打造出远超越今日规模的ANN。目前最新款超级计算机在处理1,600万个神经元网络(约为青蛙大脑规模)就已相当吃力,而一台功能强大的桌上型计算机要训练仅10万个神经元网络,就需要耗费十几天的时间。

此新训练方式能大幅提升AI算法的速度,使AI技术可用于解决当前棘手的问题。在智能电网与社会系统等复杂快速变动的环境中,需要非常频繁地重复训练ANN,因此在不影响准确度之下提高学习速度显得至关重要。

此外,由于这类的训练可在有限的运算资源之下达成,对于连接至大型系统的分散式装置嵌入式智能系统,SET训练方法可望成为首选。

具体而言,透过SET任何使用者都能透过自身笔记本电脑打造神经元达到100万规模的ANN,但过去只有昂贵的云端运算系统才有办法透过先进训练方法达到此规模。

目前最新超级计算机所打造出的最大型ANN,规模等同于青蛙大脑(约1,600万神经元)。未来在部分技术挑战被克服后,则可望藉由SET在同款超级计算机上打造出接近人脑规模(约800亿个神经元)的ANN。

该研究主要作者Decebal Mocanu表示,目前确实需要规模如此庞大的神经网络。举例而言,以ANN检测癌症有很好的成效。这代表透过SET,可望提升医疗照护质量,并使个人化医疗变得更为平价。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分