福布斯公布关于2024年人工智能发展的十大预见

描述

近日,福布斯公布了他们对2024年人工智能发展的十大预见,这些预测简洁而又充满洞察力。

Nvidia将大幅加大努力成为云提供商   

大多数企业并不直接向 Nvidia 购买 GPU。相反,它们通过亚马逊网络服务(Amazon Web Services)、微软 Azure 和谷歌云平台(Google Cloud Platform)等云服务提供商获得 GPU,而这些云服务提供商又从 Nvidia 大量购买芯片。

但亚马逊、微软和谷歌——Nvidia 的最大客户——正迅速成为其竞争对手。由于认识到人工智能的价值主要来自硅层(Nvidia 的股价就是最好的证明),主要的云提供商都在投入巨资开发自己的本土人工智能芯片,这将与 Nvidia 的 GPU 直接竞争。

随着云计算提供商希望将技术堆栈下移到硅层以获取更多价值,看到 Nvidia 朝相反的方向发展也不要感到惊讶:提供自己的云服务并运营自己的数据中心,以减少传统上对云计算公司的分销依赖。

Nvidia 已经开始探索这条道路,今年早些时候推出了名为 DGX Cloud 的新云服务。我们预测,Nvidia 将在明年切实加强这一战略。

这可能需要 Nvidia 建立自己的数据中心(DGX Cloud 目前位于其他云提供商的物理基础设施内);甚至可能需要 Nvidia 收购像 CoreWeave 这样的新兴云提供商(Nvidia 已经与 CoreWeave 建立了密切的合作伙伴关系),作为垂直整合的一种方式。无论如何,预计进入2024年后,Nvidia与大型云计算提供商之间的关系将变得更加复杂。

Stability AI将会倒闭   

这是人工智能界最不为人知的秘密之一:曾经如日中天的初创公司 Stability AI 在 2023 年的大部分时间里都在缓慢地发展。

Stability 正在大出血。最近几个月离职的包括公司的首席运营官、首席人事官、工程副总裁、产品副总裁、应用机器学习副总裁、通信副总裁、研究主管、音频主管和法律总顾问。

据报道,由于与 Stability 首席执行官埃马德-莫斯塔克(Emad Mostaque)发生争执,去年领导 Stability 高调完成 1 亿美元融资的两家公司 Coatue 和 Lightspeed 近几个月都退出了公司董事会。今年早些时候,该公司曾试图以 40 亿美元的估值筹集更多资金,但以失败告终。

明年,我们预测这家陷入困境的公司将在越来越大的压力下屈服,彻底关闭。

据报道,迫于投资者的压力,Stability 公司已开始寻找收购方,但迄今为止仍兴趣缺缺。

Stability 的一个有利条件是:公司最近从英特尔公司融资 5000 万美元,这笔现金注入将延长公司的运营时间。就英特尔而言,这笔投资似乎反映出其迫切希望获得高知名度客户对其新型人工智能芯片的支持,以在与竞争对手英伟达(Nvidia)的竞争中占据优势。

但 Stability 的烧钱速度之快是出了名的:据报道,在 10 月份英特尔投资 Stability 时,Stability 的月支出为 800 万美元,而带来的收入仅为这个数字的一小部分。按照这个速度,5000 万美元的投资撑不到 2024 年底。

大型语言模型 "和 "LLM "这两个术语将不再常见   

在当今的人工智能领域,"大型语言模型"(及其缩写 LLM)经常被用作 "任何高级人工智能模型 "的简称。这是可以理解的,因为许多最初崛起的生成式人工智能模型(如 GPT-3)都是纯文本模型。

但是,随着人工智能模型类型的增多,以及人工智能变得越来越多模态化,这个术语将变得越来越不精确和无用。多模态人工智能的出现是 2023 年人工智能的决定性主题之一。当今许多领先的生成式人工智能模型都结合了文本、图像、三维、音频、视频、音乐、肢体动作等等。它们远不止是语言模型。

请看一个人工智能模型,它根据已知蛋白质的氨基酸序列和分子结构进行训练,以生成全新的蛋白质疗法。虽然其底层架构是 GPT-3 等模型的延伸,但将其称为大型语言模型真的有意义吗?

或者考虑一下机器人学中的基础模型:大型生成模型将视觉和语言输入与一般互联网知识相结合,以便在现实世界中采取行动,例如通过机械臂。对于这类模型,应该而且将会有一个比 "语言模型 "更丰富的术语。(视觉-语言-行动 "模型或 VLA 模型是研究人员使用的另一种说法)。

DeepMind 最近发布的 FunSearch 模型也有类似的意思,作者自己称其为 LLM,但它涉及的是数学而非自然语言。

2024 年,随着我们的模型变得越来越多维,我们用来描述它们的术语也将越来越多维。

最先进的封闭模型将继续大幅超越最先进的开放模型   

当今人工智能讨论的一个重要话题是围绕开源和闭源人工智能模型的争论。虽然大多数顶尖人工智能模型开发商——OpenAI、谷歌 DeepMind、Anthropic、Cohere 等公司——都将其最先进的模型作为专利,但包括 Meta 和热门新创公司 Mistral 在内的少数几家公司却选择公开其最先进的模型权重。

如今,性能最高的基础模型(如 OpenAI 的 GPT-4)都是闭源的。但许多开源倡导者认为,封闭模型与开放模型之间的性能差距正在缩小,而且开放模型有望在性能上超越封闭模型,或许到明年就能实现。(这张图最近在网上疯传)。

我们不同意这一观点。我们预测,最好的封闭式模型在 2024 年(及以后)将继续明显优于最好的开放式模型。

基础模型的性能是一个快速发展的前沿领域。Mistral 最近夸口说,它将在 2024 年的某个时候开源 GPT-4 级模型,这一说法在开源社区引起了轰动。但 OpenAI 在 2023 年初就发布了 GPT-4。等到 Mistral 推出这个新模型时,很可能已经落后一年多了。届时,OpenAI 很可能已经发布了 GPT-4.5,甚至 GPT-5,从而开创一个全新的性能领域。(有传言称,GPT-4.5 甚至可能在 2023 年底前发布)。

与许多其他领域一样,在另一个团体确定了前沿之后,作为快速追随者赶上前沿,要比在其他人证明这是可能的之前建立一个新的前沿更容易实现。例如,OpenAI 使用专家混合架构构建 GPT-4 的风险、挑战和成本都要比 Mistral 在几个月后用自己的专家混合模型追随 OpenAI 的脚步要高得多,因为在此之前,这种方法还没有被证明能在这种规模下工作。

有一个基本的结构性原因让人怀疑,开放模型的性能是否会在 2024 年超越封闭模型。开发一个能推动技术发展的新模型所需的投资是巨大的,而且随着模型能力的每一步提升,投资只会继续膨胀。一些行业观察家估计,OpenAI 将花费约 20 亿美元来开发 GPT-5。

Meta 是一家上市公司,最终要对股东负责。该公司似乎并不指望从其发布的开源模型中获得任何直接收入。据报道,Llama 2 的制造成本约为 2000 万美元;考虑到战略利益,即使没有任何相关的收入增长,这样的投资水平也是合理的。但是,Meta 公司真的打算投入近 20 亿美元来打造一个性能超越其他任何公司的人工智能模型,而仅仅是为了开源而不期望获得任何具体的投资回报吗?

像 Mistral 这样的后起之秀也面临着类似的难题。开源基础模型并没有明确的收入模式(Stability AI 公司就有过这样的惨痛教训)。例如,对托管开源模型收费,就成了一场价格竞争,正如我们最近在 Mistral 的新 Mixtral 模型中看到的那样。那么——即使 Mistral 能够获得所需的数十亿美元来构建一种新模式,从而超越 OpenAI--它真的会选择转过身来免费开源这种模式吗?

我们隐隐怀疑,随着 Mistral 这样的公司投入越来越多的资金来构建更强大的人工智能模型,他们最终可能会放松对开源的态度,将最先进的模型保留为专有,以便收费。

要明确的是:这并不是在反对开源人工智能的优点。这并不是说开源人工智能在未来的人工智能世界中将不再重要。恰恰相反,我们预计开源模型将在未来几年人工智能的普及中发挥关键作用。但是:我们预测,最先进的人工智能系统,那些能够推动人工智能发展的前沿系统,将继续是专有的。

多家财富500强企业将设立一个新的高管职位:首席人工智能官   

人工智能已成为今年财富500 强企业的首要任务,各行各业的董事会和管理团队都在争先恐后地研究这项强大的新技术对企业意味着什么。

我们预计,明年大型企业将更普遍地采取一种策略:任命一位 "首席人工智能官 "来领导企业的人工智能计划。

在十年前云计算兴起的时候,我们也看到了类似的趋势,许多企业都聘请了 "首席云计算官 "来帮助他们应对云计算的战略影响。

这一趋势将在企业界获得更多动力,因为政府部门已经出现了并行趋势。拜登总统最近发布的人工智能行政命令要求每个联邦政府机构任命一名首席人工智能官,这意味着未来几个月美国政府将新聘 400 多名首席人工智能官。

任命首席人工智能官将成为公司对外表明其对人工智能态度的一种流行方式。至于这些职位能否长期发挥价值,则是另一个问题。(如今还有多少首席云计算官?)

transformer 架构的替代方案将得到有意义的采用   

transformer 架构是谷歌在 2017 年发表的一篇开创性论文中提出的,是当今人工智能技术的主流范式。现存的每个主要生成式人工智能模型和产品——ChatGPT、Midjourney、GitHub Copilot 等等,都是使用 transformer 构建的。

但是,没有哪种技术能永远占据主导地位。

在人工智能研究界的边缘,有几个团体一直在努力开发新型的下一代人工智能架构,这些架构在不同方面都优于transformer。

克里斯-雷(Chris Ré)在斯坦福大学的实验室就是这些努力的一个关键枢纽。雷和他的学生们的工作中心的主题是建立一种新的模型架构,这种架构可随序列长度以次二次方的方式扩展(而不是像 transformer 那样以四次方的方式扩展)。次二次方扩展将使人工智能模型:(1) 计算密集度更低;(2) 与变换器相比,能更好地处理长序列。近年来,Ré 实验室推出的著名亚二次方模型架构包括 S4、Monarch Mixer 和 Hyena。

最新的次二次元架构--或许也是最有前途的架构--是 Mamba。Mamba 由雷的两位门生于上个月发表,在人工智能研究界引起了巨大反响,一些评论家将其誉为 "transformer 的终结者"。

其他试图构建 transformer 架构替代方案的努力还包括麻省理工学院开发的液态神经网络,以及由 transformer 联合发明人之一领导的新创公司 Sakana AI。

明年,我们预测这些挑战者架构中的一个或多个将取得突破并赢得真正的采用,从单纯的研究新颖性过渡到用于生产的可靠替代人工智能方法。

需要明确的是,我们预计 transformer 不会在 2024 年消失。它们是一种根深蒂固的技术,世界上最重要的人工智能系统都是基于这种技术。但我们预测,在 2024 年,transformer 的尖端替代品将成为现实世界人工智能用例的可行选择。

云服务提供商对人工智能初创公司的战略投资,以及相关的会计影响,将受到监管机构的挑战   

今年以来,大型科技公司的投资资金如潮水般涌向人工智能初创企业。

今年 1 月,微软向 OpenAI 投资了 100 亿美元,6 月又领投了 Inflection 的 13 亿美元融资。今年秋天,亚马逊宣布将向 Anthropic 投资 40 亿美元。几周后,Alphabet 也不甘示弱,宣布将向 Anthropic 投资 20 亿美元。与此同时,英伟达(Nvidia)可能是今年全球最多产的人工智能投资者,它向数十家使用其 GPU 的人工智能初创公司投入资金,其中包括 Cohere、Inflection、Hugging Face、Mistral、CoreWeave、Inceptive、AI21 Labs 和 Imbue。

不难看出,进行这些投资的动机至少部分是为了确保这些高增长的人工智能初创公司成为其长期计算客户。

这类投资可能会牵涉到会计规则中的一个重要灰色地带。这听起来可能是一个深奥的话题,但它将对未来人工智能领域的竞争格局产生巨大影响。

假设一家云计算供应商向一家人工智能初创企业投资 1 亿美元,并保证这家初创企业会将这 1 亿美元用于购买云计算供应商的服务。从概念上讲,这对云厂商来说并不是真正的正常收入;实际上,厂商是在利用投资将自己资产负债表上的现金人为地转化为收入。

这类交易通常被称为 “round-tripping”(因为资金出去后又马上回来),今年引起了风险投资人比尔-格利(Bill Gurley)等硅谷领袖的关注。

细节决定成败。并非上述所有交易都是真正的 "往返"。例如,投资是否明确要求初创企业将资金用于投资方的产品,或者只是鼓励两家公司开展广泛的战略合作,这一点很重要。微软与 OpenAI、亚马逊与 Anthropic 之间的合同并未公开,因此我们无法确定它们的结构。

但至少在某些情况下,云计算提供商很可能通过这些投资获得了本不该获得的收入。

到目前为止,这些交易几乎没有受到任何监管审查。这种情况将在 2024 年发生变化。预计明年美国证券交易委员会将对人工智能投资中的迂回交易进行更严厉的审查--预计此类交易的数量和规模将因此大幅下降。

鉴于云提供商是迄今为止推动人工智能热潮的最大资金来源之一,这可能会对 2024 年的整体人工智能筹资环境产生重大影响。

微软与 OpenAI 的关系将开始出现裂痕   

微软和 OpenAI 关系密切。迄今为止,微软已向 OpenAI 投入超过 100 亿美元。OpenAI 的模型为必应、GitHub Copilot 和 Office 365 Copilot 等微软关键产品提供了支持。上个月,当 OpenAI 首席执行官 Sam Altman 意外被董事会解雇时,微软首席执行官 Satya Nadella 为他的复职发挥了重要作用。

然而,微软和 OpenAI 是不同的组织,对人工智能的未来有着不同的雄心壮志和长远愿景。迄今为止,这一联盟对两个组织都很有利,但这只是权宜之计。这两个组织远非完全一致。

明年,我们预测这两大巨头之间的合作关系将开始出现裂痕。事实上,未来摩擦的蛛丝马迹已经开始浮出水面。

随着 OpenAI 积极拓展企业业务,它将发现自己越来越经常地与微软直接争夺客户。就微软而言,除了将 OpenAI 作为顶级人工智能模型的供应商外,它还有很多理由进行多元化发展。例如,微软最近宣布与 OpenAI 的竞争对手 Cohere 达成合作协议。面对大规模运行 OpenAI 模型的高昂成本,微软还在 Phi-2 等小型语言模型上投入了内部人工智能研究。

从大的方面看,随着人工智能变得越来越强大,有关人工智能安全、风险、监管和公共责任的重要问题将成为焦点。利害关系将非常重大。鉴于两家公司不同的文化、价值观和历史,似乎不可避免地会在处理这些问题的理念和方法上产生分歧。

微软市值 2.7 万亿美元,是全球第二大公司。然而,OpenAI 及其魅力四射的领导者 Sam Altman 的野心可能更加深远。如今,这两家公司彼此合作无间。但不要指望这会永远持续下去。

2023 年从加密货币转向人工智能的一些炒作和从众心理行为,将在 2024 年重新转向加密货币   

现在很难想象风险投资家和技术领导者会对人工智能以外的东西感到兴奋。但是,一年是很长的时间,风险投资人的 “信念”会转变得非常快。

加密货币是一个周期性行业。现在它已经过时了,但别误会,另一轮大牛市将会到来——就像 2021 年、2017 年和 2013 年一样。如果你还没有注意到,比特币的价格在今年年初低于 17000 美元后,在过去几个月里大幅上涨,从 9 月份的 25000 美元涨到了现在的 40000 多美元。比特币的大涨可能正在酝酿之中,如果真的如此,大量的加密货币活动和炒作将随之而来。

如今将自己定位为 “全情投入”人工智能的许多知名风险投资家、企业家和技术专家,在 2021-2022 年的牛市期间都对加密货币情有独钟。如果明年加密资产价格真的飙升回来,预计他们中的一些人也会追随这一方向的热度,就像他们今年追随人工智能的热度一样。

坦率地说,如果明年能看到一些过度的人工智能炒作转向其他领域,那将是一个值得欢迎的发展。

至少有一家美国法院将裁定在互联网上训练的生成式人工智能模型构成侵犯版权,这一问题将开始上升至美国最高法院   

目前,整个生成式人工智能领域都面临着一个被忽视的重大法律风险:世界领先的生成式人工智能模型是在大量受版权保护的内容上训练出来的,这一事实可能会引发巨大的法律责任,并改变该行业的经济状况。

无论是 GPT-4 还是 Claude 2 中的诗歌,DALL-E 3 或 Midjourney 中的图像,还是 Pika 或 Runway 中的视频,生成式人工智能模型都能产生令人叹为观止的复杂输出,因为它们已经在世界上的大部分数字数据上接受过训练。在大多数情况下,人工智能公司从互联网上免费获取这些数据,并随意用于开发它们的模型。

但是,最初真正创造了这些知识产权的数百万人--写书、写诗、拍照、画画、拍视频的人类--对人工智能从业者是否和如何使用这些数据有发言权吗?他们是否有权分享人工智能模型所创造的部分价值?

这些问题的答案将取决于法院对 "合理使用 "这一关键法律概念的解释。合理使用是一项成熟的法律理论,已经存在了几个世纪。但将其应用于新生的生成式人工智能领域,会产生复杂的新理论问题,却没有明确的答案。

"斯坦福大学研究员彼得-亨德森(Peter Henderson)说:"机器学习领域的人们并不一定了解合理使用的细微差别,同时,法院已经裁定,现实世界中某些备受瞩目的例子不属于受保护的合理使用,但这些例子看起来就像是人工智能正在推出的东西。"这方面的诉讼结果如何,还存在不确定性。"

这些问题将如何解决?通过个案和法院裁决。

将合理使用原则应用于生成式人工智能将是一项复杂的工作,需要创造性思维和主观判断。问题的双方都会有可信的论据和站得住脚的结论。

因此,如果明年至少有一家美国法院裁定,像 GPT-4 和 Midjourney 这样的生成式人工智能模型确实侵犯了版权,并且建立这些模型的公司要对训练这些模型的知识产权的所有者负责,请不要感到惊讶。

这并不能解决问题。其他司法管辖区的其他美国法院面对不同的事实模式,很可能会得出相反的结论:生成式人工智能模型受到合理使用原则的保护。

这个问题会一直发展到美国最高法院,最终由最高法院给出一个结论性的法律解决方案。(通往美国最高法院的道路漫长而曲折;不要指望最高法院明年会就此问题做出裁决)。

在此期间,大量的诉讼将接踵而至,大量的和解将通过谈判达成,世界各地的律师将忙于处理各种拼凑的判例法。数十亿美元将悬而未决。


来源:福布斯中国 转自:中关村互联网金融研究院 






审核编辑:刘清

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分