中国AI企业创新降低成本打造竞争力模型

描述

  在中国,面对美国实施的芯片限制以及相较于西方企业更为有限的预算,人工智能(AI)公司正积极寻求降低成本的方法,以开发出具有市场竞争力的模型。初创公司如01.ai(零一万物)和DeepSeek(深度求索)等,通过聚焦小数据集进行AI模型训练,并聘请价格适中但技术熟练的计算机工程师,成功降低了成本。

  与此同时,阿里巴巴、百度和字节跳动等大型科技集团也加入了价格战,大幅降低“推理”成本,即调用大型语言模型生成响应的价格。这些大模型的价格已经下降了90%以上,远低于美国同行的水平。

  总部位于北京的01.ai,由前谷歌中国区总裁李开复领导,通过构建以较少数据量进行训练、需要较少计算能力的模型,并优化硬件,成功降低了推理成本。李开复表示,中国的优势在于制造出价格实惠的推理引擎,并广泛推广其应用。

  在加州大学伯克利分校SkyLab和LMSYS研究人员发布的排名中,01.ai的Yi-Lightning模型与马斯克名下公司x.AI的Grok-2在大型语言模型(LLM)公司中并列第三,仅次于OpenAI和谷歌。其他中国公司如字节跳动、阿里巴巴和DeepSeek也在大模型排名榜上名列前茅。

  Yi-Lightning的推理成本为每百万token 14美分,远低于OpenAI的GPT-4等模型。李开复表示,其目标不是拥有最佳模型,而是开发出一个具有竞争力的模型,开发人员使用它来构建应用程序的成本要低5到10倍。

  为了降低成本,许多中国AI企业采用了所谓的“混合专家模型(MoE)”方法,这一策略最初由美国研究人员提出。该方法结合了多个针对行业特定数据进行训练的神经网络,而不是在庞大的数据库上一次性训练一个“密集模型”。研究人员认为,这是实现与密集模型相同智能水平但计算能力较低的关键方法。

  然而,混合专家模型方法更容易失败,因为工程师必须协调多个“专家”的训练过程。因此,中国AI企业在过去一年中一直在竞相开发最高质量的数据集,以训练这些“专家”,从而在竞争中脱颖而出。

  李开复强调,中国的优势不在于进行前所未有的突破性研究,而在于建设得好、快、可靠且便宜。这一理念正引领着中国AI企业在降低成本、提高模型竞争力的道路上不断前行。

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分