数据挖掘和机器学习对芯片有着怎样的要求

人工智能

621人已加入

描述

机器学习/深度学习/人工智能(ML/DL/AI) 需要筛选越来越多的数据,通过自动化来识别复杂模式、异常情况以及找到适当的位置。来了解设备如何对真实事件和刺激作出反应,以及如何优化未来设备。下面跟朗锐智科(www.lrist.com)嵌入式开发小编一起来看看。

目前的存储器,我们看的是设计、内存以及对不同的内存配置建模。你可以在它上面运行模型与真实应用作比较。所以我们采用参数化的通用内存模型并将其映射至实际内存。我们也可以从之前的设计中看人力和时间表,还可以对计算资源和EDA许可做同样的工作。如果你只有12000个CPU但需要24000个,那么你需要使用基于云的解决方案来实现。但那不会很快发生,你需要对此进行规划,很大一部分是围绕存储器的。

整个行业正在学习如何使用人工智能和机器学习来构建和调试系统。有许多关于何种堆栈可以用于AI算法的建模和模拟,这里的目标是将人工智能用于工具以及其它地方。在很大程度上,这是对系统级设计和复杂程度的认识,即使这些工具需要其它工具的帮助。

现在,随着EDA生态系统在机器学习方面的工作,我们正试图弄清楚它如何能够帮我们解决更大的验证问题,整个问题就回归到,‘这不是早期的10个晶体管’。构成一个存储器要10亿个晶体管,那就需要知道如何布局,如何在物理层面布线。如何对这些电路执行最最好的布局,如何放置这些组件?这一直是机器学习任务的一部分。然而我们不把它称为机器学习,但它确实是我们试图找出最佳方法的算法的一部分。

前段时间,芯片制造商开始推动六西格玛设计(six-sigmadesigns),但是一旦复杂到一定程度,达到要求的六西格玛质量所需的模拟开始花费大量时间时,他们就不再讨论这种方案了。但随着汽车制造商对无缺陷电子产品的需求,又掀起了关于六西格玛的讨论,在合理的时间内实现这一目标的唯一方法就是利用机器学习。

通过机器学习,我们可以对晶体管的行为进行编程,因此从统计角度讲,我不必进行1000万次的模拟。我可以使用算法和机器学习技术来保持一定精度的条件下确定需要运行的最少模拟次数。如果我可以编程更多的算法,如果我可以对更多我进行的工作编程,那我就可以只收集这些数据的同时还保证工作的质量。这就是机器学习可以帮助我们的地方。

这一定程度上已经在设计领域发生了,但它在未来会有更加显著的使用。

来源:朗锐智科

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分