原文:http://szjj.china.com.cn/2023-09/14/content_42521336.html随着各行各业对AI需求的井喷,边缘AI成为炙手可热的领域。边缘AI能够在靠近数据产生的边缘侧,更高效、更低成本、更安全地进行实时AI分析,已经成为万物互联时代AI应用的关键技术。在刚刚结束的第二届光合组织解决方案大赛中,中国移动智慧家庭运营中心研发的“基于边缘云计算平台的AI智能识别应用”方案,获得了光合组织AI解决方案大赛三等奖。业内人士认为,该方案极大提升了边缘AI的性能与灵活性,将推动边缘侧AI人脸识别的规模化应用。
原文:http://science.china.com.cn/2023-09/11/content_42516411.htm9月8日,腾讯健康公布医疗大模型,全新发布智能问答、家庭医生助手、数智医疗影像平台等多场景AI产品矩阵,药物发现平台“云深”(iDrug)披露全新的蛋白质结构预测算法框架tFold。腾讯健康总裁吴文达指出,医疗健康的数智化升级已从“先行先试”,转变为“全面拥抱”,人工智能及各类数智化工具的应用将加速普及;腾讯将与合作伙伴共建“TRUST”模式,加强技术创新与数字基建,推动“数智医疗”普惠普及。
原文:https://new.qq.com/rain/a/20230911A00Z0E00联合国环境规划署曾发布报告称,世界上约三分之二的人口每年至少经历1个月的严重缺水。到2030年,情况预计将更加恶化,世界上近半人口将面临严重的水资源短缺。除了农业和工业用水增长外,人工智能热潮导致的用水量也在飙升,而科技巨头们正因此变得更“饥渴”。 到目前为止,研究人员和开发人员主要关注减少人工智能模型的碳足迹,而经常忽视它们的水足迹。在数据中心培训和部署人工智能模型需要消耗大量的水。举例来说,在微软最先进的美国数据中心培训GPT-3可能直接消耗70万升清洁淡水,这些淡水可用于生产370辆宝马汽车或320辆特斯拉电动汽车。此外,ChatGPT每次涉及20到50个问题的简单对话中,消耗的水量约为500毫升。这乍看起来不算多,但考虑到这款聊天机器人有超过1亿的活跃用户,每个人都参与了多个对话,其用水量相当惊人。不仅仅是微软和OpenAI,在用水量方面,谷歌更是大户。2021年,仅其在美国的数据中心就将消耗127亿升淡水用于冷却,其中约90%都是可饮用水。总体而言,2014年美国数据中心的总用水量估计高达6260亿升。值得称赞的是,大型科技公司都在采取措施来帮助解决这个问题。其中,亚马逊、Meta、谷歌和微软等科技巨头,都承诺到2030年变得“积极用水”,这意味着他们补充的水将超过他们消耗的水。
加州大学河滨分校电气与计算机工程系副教授任少雷指出,谷歌用水量增加20%几乎与其计算能力的增长同时发生,而谷歌的计算能力在很大程度上是由人工智能推动的。然而,任少雷表示,他对这种增长能否长期持续持怀疑态度,即使谷歌承诺补充水资源以抵消其使用量。他说:“这只是让他们的水务账目看起来更好,但水仍然被大量消耗。”谷歌表示,2030年是其办公室和数据中心补充120%淡水的最后期限。根据它自己的报告,目前它只补充了6%的淡水。谷歌目前消耗的大部分水都是“可饮用的”,足够干净,可以用作饮用水。谷歌在最新报告中指出,该公司已经考虑到缓解“当地的水资源压力”(水资源短缺的另一种方法),并表示到 2022 年,其淡水抽取量的 82% 将来自水资源相对丰富的地区。对于剩下的18%,谷歌称其正在探索新的合作伙伴和机会来改善用水情况,但随着更多的地方面临水资源短缺,它可能会面临越来越大的阻力。2019年,谷歌计划在亚利桑那州梅萨建立一个数据中心,保证每天最多供水400万加仑。但正如媒体最近指出的那样,亚利桑那州已经面临水资源短缺困扰,这可能会阻止其批准谷歌类似的交易。事实上,谷歌的一位发言人表示,一旦数据中心建成,那里将使用“风冷技术”。这表明谷歌正在努力寻找更可持续的用水策略,以应对不断增长的用水需求。04 Meta新AI模型用水总量惊人微软和谷歌并不是唯一感到越来越饥渴的公司。Facebook母公司Meta也在亚利桑那州建设一个数据中心,2022年用水量超过260万立方米(约合6.97亿加仑),主要用于冷却数据中心。此外,Meta最新的大语言模型Llama 2,也需要大量的水来训练。 今年7月份,Meta发布了名为Llama 2的大型新人工智能模型。科技行业的人都感到很兴奋,除了任少雷,他对训练这些大语言模型需要消耗的水量感到担心。任少雷估计,训练Llama 2需要的用水总量高达1090万升,如果不包括水力发电,则为280万升。普通人平均每天要喝大约3升水。Meta没有透露它用了多少水来训练这个人工智能模型。不过,该公司确实披露了耗电量。任少雷以此为基础,研究了Meta数据中心在使用能源和水方面的效率。他说,Llama 2几乎是Meta今年早些时候推出的上一款大型人工智能模型Llama 1的水足迹的两倍。数据中心已经消耗了大量的能源,人工智能的蓬勃发展预计将大幅增加这种消耗。任少雷表示:“如果用电量增加,碳足迹和水足迹等其他东西也会随之增加。” Meta发言人没有就任少雷的估算进行置评。Meta的数据中心在2021年使用了超过500万立方米的水,大约相当于13.3亿加仑。该公司尚未分享2022年的数据。到今年年底或者明年,Meta将在亚利桑那州建成并扩建一个数据中心,其用水量将继续攀升。
原文:https://new.qq.com/rain/a/20230911A075ZW00Nvidia近日宣布推出一款名为TensorRT-LLM的新开源软件套件,扩展了Nvidia GPU上大型语言模型优化的功能,并突破了部署之后人工智能推理性能的极限。生成式AI大语言模型因其令人印象深刻的功能而变得流行,而且扩大了人工智能的可能性,被广泛应用于众多行业,让用户能够通过聊天机器人“与数据对话”、总结大型文档、编写软件代码、以及发现理解信息的新方法。Nvidia公司超大规模和高性能计算副总裁Ian Buck表示:“大型语言模型推理变得越来越难。模型的复杂性不断增加,模型变得越来越智能,也变得越来越大,这是很自然的,但当模型扩展到单个GPU之外并且必须在多个GPU上运行的时候,就成了一大难题。”在人工智能方面,推理是模型处理那些前所未见的新数据的一个过程,例如用于总结、生成代码、提供建议或者回答问题,是大型语言模型的主力。随着模型生态系统的迅速扩展,模型也变得越来越大,功能越来越多,这也意味着模型变得如此之大以至于无法同时运行在单个GPU上,而必须将其分开。开发人员和工程师必须手动将工作负载分开或分段,协调执行,以便实时获得响应。TensorRT-LLM就是通过“张量并行性”帮助解决这个问题的,允许跨多个GPU进行大规模的高效推理。除此之外,由于当今市场中有各种各样的大型语言模型,所以Nvidia针对目前主流的大型语言模型对核心进行了优化。该软件套件包括了完全优化的、可立即运行的大型语言模型版本,包括Meta Platform的Llama 2、OpenAI的GPT-2和GPT-3、Falcon、MosaicMPT和BLOOM。
原文:https://new.qq.com/rain/a/20230914A07W7X00根据Kompprise委托进行的“非结构化数据管理状况”调查 显示,人工智能正成为IT和商业领袖面临的主要数据管理挑战。研究显示,公司在很大程度上允许员工使用生成型人工智能,但三分之二(66%)的公司担心它可能带来的数据治理风险,包括隐私、安全以及供应商解决方案中缺乏数据源透明度。这项由数据管理供应商Kompprise委托进行的“非结构化数据管理状况”调查收集了美国和英国拥有1000多名员工的公司的300名企业存储IT和业务决策者的回复。虽然只有10%的组织不允许员工使用生成人工智能,但大多数组织担心不道德、有偏见或不准确的输出,以及公司数据泄露到供应商的人工智能系统中。为了应对这些挑战,同时也从人工智能中寻找竞争优势,研究发现,40%的领导者正在采取多管齐下的方法来降低人工智能中非结构化数据的风险,包括存储、数据管理和安全工具,以及使用内部工作组来监督人工智能的使用。领导者面临的最大非结构化数据管理挑战是“在不干扰用户和应用程序的情况下移动数据”(47%),但紧随其后的是“为人工智能和云服务做准备”(46%)。“生成式人工智能对数据治理和保护提出了新的问题,” NAND Research首席分析师Steve McDowell表示,“研究显示,IT领导者正在努力在快速推出生成式人工智能解决方案的同时,负责平衡企业数据的保护,但这是一个困难的挑战,需要采用智能工具。”“IT领导者正在将重点转移到利用生成性人工智能解决方案上,但他们希望在这样做时有所限制, ” Kompprise首席执行官Kumar Goswami补充道,“人工智能的数据治理需要正确的数据管理策略,包括跨数据存储孤岛的可见性、数据来源的透明度、高性能的数据移动性和安全的数据访问。”
原文:https://www.163.com/dy/article/IE9Q30M00511B8LM.html俄媒 Russia Today 当地时间 9 日报道,当地科技巨头 Yandex 在采访中表示,该公司开发的 YandexGPT 相比于美国竞争对手 OpenAI 开发的 ChatGPT 而言,具有更大的前途。 andex 的搜索和广告技术业务部主管 Dmitry Masyuk 表示,YandexGPT 在生成俄语内容时的表现已经能够“稳步超越”ChatGPT 3.5 版本,甚至在许多情况下提供了优于 ChatGPT 4.0 的回答,更表示 YandexGPT 与其美国对手抗衡将“只是时间问题”。而跟 Meta 公司开发的 Llama-2-7b 相比,YandexGPT 也能够生成“更好的回答”,包括生成英语内容的情况。Dmitry Masyuk 也称,公司正在不断评估其生成式 AI 与 ChatGPT 的技术进展情况。很难对这两个系统进行比较,它们可能各有所长。比如说,一个能够解决物理学问题、撰写童话故事、给 CEO 写信的神经网络在某些方面做得更好,而在其他方面稍显逊色,那么总体来看,这个系统该说它“更好”,还是“更差”呢?IT之家注:Yandex 的大模型产品于今年 5 月首发亮相,包含聊天机器人、AI 助手,能够生成、重构或汇总基于文本内容的信息,并可解决其他业务有关问题。今年 9 月,该公司推出了这款大模型产品的升级版 ——YandexGPT 2,号称能够解决更多问题,用于更多场景,提供更加精确的答案。 ———————End——————— 点击阅读原文进入官网
原文标题:【AI简报20230915期】耗水量激增!AI竞赛变得更为困难,AI数据需要AI解决方案
文章出处:【微信公众号:RTThread物联网操作系统】欢迎添加关注!文章转载请注明出处。
全部0条评论
快来发表一下你的评论吧 !