前言
2 月 16 日,AI 行业再一次迎来震惊四方的大新闻:OpenAI 发布了 Sora。根据 OpenAI 官网的描述,Sora 是“一款可以由文字指令创建逼真且具有想象力视频的 AI 模型”。在 OpenAI 的官网上大量的样片显示,其生成的视频不仅能够准确地展示出物品的色彩、质感等,甚至还能够完美复现物品在物理世界中的运动特性。
浅析 Sora 的技术原理
目前市面上文字生成视频的技术主要分为 Transformer(转换器架构)和 Diffusion Model(扩散模型)两种。简单而言,前者可以被视为一位聪明的编辑,他在工作时能够同时关注所有关键词,并且在行文时考虑上下文的逻辑关系,并且通过这些逻辑关系对内容进行重新表达。而 Diffusion Model 则可以被视作善用色块作画的画师,能够生成非常逼真的图像。Sora 则是融合了两种技术,能让生成的视频更符合用户的描述、画面质感也更加精细逼真。这也是 OpenAI 宣称 Sora 是“世界模拟器”的底气。
相较于师出同门的 ChatGPT,Sora 的算力需求有多大?
根据业内人士的估算,Sora 训练一次的算力大约为 GPT-3 175 B的 2.7 倍,达到了 8.4×10^23Flops。即便依靠强大的云服务器进行计算,Sora 生成视频的时长也被限制在了 60 秒,这实际上无奈地反映出了云计算行业的算力瓶颈。随着市场需求的不断变化,逐渐出现了众多不适合由云提供算力的 AI 场景(例如自动驾驶、工业机器人等),边缘 AI 设备则开始承接起了从云“下放”来的工作。
边缘 AI 设备的底气是什么?
如果说 Transformer + Diffusion Model 和云计算是 Sora 的底气,那么边缘 AI 的底气非中小容量超高带宽内存莫属。不同于云计算,边缘计算设备通常不需要处理巨量的数据,并且更加注重实时处理、实时响应的能力,因此容量不高,但带宽超高的内存则成为了完美选择。
放眼望去,唯有 CUBE
CUBE 是华邦专为边缘计算设备推出的一款强大的超高带宽元件,适用于可穿戴设备、边缘服务器、监控设备、ADAS 以及协作机器人等高级应用。
性能方面:
能够提供 32GB/s 至 256GB/s 的带宽;
能耗方面:
低于 1pJ/bit;
尺寸方面:
基于 20nm 标准,可以提供每颗芯片 256Mb-8Gb 容量,2025 年将有 16nm 标准。引入硅通孔(TSV)可进一步增强性能,改善信号完整性、电源完整性、以 9 um pitch 缩小 IO 的面积和较佳的散热(CUBE 置下、SoC 置上时);
经济效益方面:
CUBE 的 IO 速度于 1K IO 可高达 2Gbps。而且还可以与成熟制程工艺的 SoC(如 28nm 或 22nm)集成,带宽能够达到 32GB/s 至 256GB/s ,相当于 HBM2,也相当于 4 至 32 个 LP-DDR4x 4266Mbps x16 IO。
安全问题谁来解决?
Sora 在为人们提供强大功能时,会不可避免地在内容生成过程中涉及多方主体,包括用户、终端设备、数据传输服务商、开发人员、云计算供应商等。其中传输过程中,用户的文字指令和生成的视频中所包含的信息,极有可能被黑客截获或蓄意修改,一旦这其中包含无法预测的有害内容,必然会对用户的身心和合法权益造成无法估量的损害。
安全闪存保驾护航
在网络安全防护方面,华邦推出了历经严苛认证的 TrustMEW77Q 安全闪存,目前已通过 ISO/SAE 21434、CC EAL2+、SESIP Level 2、FIPS CAVP 和 CMVP,以及 ISO 26262 ASIL-C Ready 等认证标准,能够确保信息传输过程免于恶意攻击,还能够提供信任根、增加系统恢复力、快速对错误和故障进行反应和修正。
除了能保障信息传输过程中的安全性,W77Q 还提供了多种出色的安全特性:
· 数据保密;
· 数据和指令认证;
· 代码完整性保护;
· 重放攻击防御;
· 加密的写入封锁保护;
· 具备回滚防护的安全代码更新;
· DICE-like 认证机制;
· 经身份鉴定的看门狗定时器,具有额外 reset output 引脚;
· 安全即时线上固件更新,即使在主处理器或 SoC 已遭安全性损害的情况下,也可以通过更新授权单位(即 OTA 服务器)和 W77Q 之间的端到端安全通道进行更新。
结语
尽管距 ChatGPT 发布仅一年多,人工智能行业就已出现了如此之大的变化。云端 AI 应用不断颠覆认知的同时,我们也要看到边缘设备运行生成式 AI 的价值,因此 CUBE 这类中小容量超高带宽内存的重要性不容忽视。此外网络安全一直都是不容妥协的必答题,W77Q 安全闪存则是华邦在网络安全问题上的坚定回答。
审核编辑:刘清
全部0条评论
快来发表一下你的评论吧 !