今日看点丨诺思微系统与美国安华高(博通)达成全面和解;华为拟将问界等商标转让给赛力斯

制造/封装

492人已加入

描述

1.华为拟将问界等系列商标和专利转让给赛力斯,转让价 25 亿元
 
赛力斯公告,公司控股子公司赛力斯汽车有限公司拟收购华为技术有限公司及其关联方持有的已注册或申请中的 919 项问界等系列文字和图形商标,以及 44 项相关外观设计专利,收购价款合计 25 亿元。
 
对此,华为表示:华为将问界等系列商标转让给赛力斯,同时华为将继续支持赛力斯造好问界、卖好问界。华为一贯坚持不造车,而是利用领先的智能网联汽车技术,持续帮助车企造好车、卖好车。华为将继续与车企为用户打造卓越的智能汽车产品,提供极致的智慧出行体验。分析人士表示,华为不久前已将“智界”、“享界”商标分别转让给了对应的智选合作伙伴奇瑞和北汽,加上此次转让“问界”商标给赛力斯,华为应该是希望将名下所有运输工具类的商标都转让给对应的整车厂;从内部决议到公开发言,华为已多次重申“不造车”,将整车相关商标逐一转让出去,进一步表明华为坚持该战略不动摇。
 
2. 特斯拉回应停产 4680 电池:生产正顺利进行中
 
汽车媒体近日发布博文,表示由于成本效益方面的问题,特斯拉公司将放弃自产 4680 电池,转而依赖第三方供应商。
 
对此,特斯拉中国回复称:“特斯拉6月股东大会时已经提到,4680 电池生产正在顺利进行中。” 特斯拉 4680 电池是特斯拉公司在 2020 年电池日活动中公布的全新电池技术,是一种直径 46 毫米、高度 80 毫米的圆柱形电池,相较于之前的 2170 电池其单体能量提高了5倍,电力相比有极耳电池提升了6倍,功率输出提升了6倍。
 
3. 智忆巴西启动江波龙新产品线,并发布8.59亿新投资计划
 
近日,深圳市江波龙电子股份有限公司宣布其巴西子公司Zilia(智忆巴西)已经开始封装生产江波龙存储产线。与此同时,智忆巴西公布了6.5亿雷亚尔(约8.59亿人民币)的投资计划,这一资金将主要用于研发创新及产能的进一步扩张,以丰富存储产品组合,并扩大在美洲市场的份额。
 
2023年11月30日,江波龙成功收购巴西半导体和电子元件领军企业Zilia(原SMART Modular Brasil),并更名为Zilia Technologies(智忆巴西),计划在巴西进行专用存储器的制造,为巴西市场定制高端存储产品,拓展整体美洲市场。
 
4. 传下半年旗舰手机SoC全面采用N3E制程
 
7月3日,据报道,苹果、高通、联发科等手机SoC大厂下半年将推出的旗舰手机SoC产品,将全面采用技术规格更高的台积电N3E制程,效能提升显著,其中苹果A18处理器将超越M4处理器。
 
据报道,苹果iPhone16系列拉货在即,全系列产品有望搭载台积电第二代3nm制程N3E。供应链透露,苹果已调高A18芯片订单规模。分析师称,英伟达虽已接受台积电2025年4nm晶圆涨价约一成,但苹果明年3nm晶圆价格维持不变,主因双方于埃米级芯片持续合作,台积给予价格之优惠,其他客户晶圆定价可能会在第三季末确定。
 
5. 诺思微系统与美国安华高(博通)达成全面和解
 
7月3日,诺思微系统官方微信发布重大声明称,诺思(天津)微系统有限责任公司与安华高科技股份有限公司已就双方全部争议达成和解。双方已撤回并终结针对对方或其关联公司及客户的诉讼,并就双方某些中国专利达成交叉许可。
 
此前2015年,安华高科技指控诺思微系统创始人涉嫌窃取其滤波芯片相关资料;2016年,诺思微系统发现安华高销售给苹果的滤波芯片使用了诺思微研发的专利技术,并拆解苹果设备取证。诺思微系统向天津市一中院对苹果公司提起诉讼;2017年,诺思微系统在天津一中院起诉苹果公司侵犯诺思微系统和创始人知识产权;2018年,安华高向天津一中院起诉诺思微系统及创始人的专利权属问题,苹果则在北京知识产权法庭起诉中国国家知识产权局要求其宣告诺思微系统及创始人的专利无效;2018年底至2019年,案件进展几乎停滞,双方诉讼案进入“停摆”状态。
 
6. 英伟达H200订单Q3开始交付 预计B100明年上半年出货
 
据报道,英伟达AI GPU H200上游芯片端于Q2下旬起进入量产期,预计在Q3以后大量交货。但英伟达Blackwell平台上市时程提前至少一到两个季度,影响终端客户采购H200的意愿。供应链指出,目前待出货的客户端订单仍多集中于HGX架构的H100,H200比重有限,Q3将量产交货的H200主要为英伟达DGX H200;至于B100则已有部分能见度,预计出货时程落在明年上半年。
 
H200作为H100 GPU的迭代升级产品,基于先进的Hopper架构,首次采用了HBM3e高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,尤其针对大型语言模型应用表现出显著优势。根据英伟达官方发布的数据,在处理诸如Meta公司Llama2这样的复杂大语言模型时,H200相较于H100在生成式AI输出响应速度上最高提升了45%。
 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分