据了解,Mistral AI于近期发布了名为Mixtral 8x22B的开源模型,该模型拥有1760亿个参数, Context长度高达6.5万token,可通过Torrent下载获取。
作为一家备受瞩目的新兴AI企业,Mistral AI因其“6人团队,7页PPT,8亿融资”的传奇故事而声名远扬。尤其值得一提的是,该公司曾获得微软投资,使之顺利驶入高速发展轨道。
今日,Mistral AI正式发布了Mixtral 8x22B模型,并提供了Torrent种子链接供用户下载。该模型文件大小达到了惊人的281GB,用户既可通过磁力链接直接下载,也可选择Hugging Face和Perplexity AI Labs等平台进行下载。
尽管Mixtral 8x22B模型拥有庞大的1760亿个参数以及6.5万个token的Context长度,但为了提高使用灵活性,该模型还支持仅调用部分模型(440亿参数)来完成特定任务。
全部0条评论
快来发表一下你的评论吧 !