电子说
作者:算力魔方创始人/英特尔边缘计算创新大使 刘力
前面我们分享了《在算力魔方上本地部署Phi-4模型》,实现了在边缘端获得Llama 3.3 70B模型差不多的能力。本文将分享,在边缘端获得类似GPT4-V的能力:MiniCPM-V 2.6 。
MiniCPM-V 2.6是MiniCPM-V系列最新、性能最佳的模型,基于SigLip-400M和Qwen2-7B构建,共8B参数。在最新版本 OpenCompass 榜单上(综合 8 个主流多模态评测基准)平均得分 65.2,以8B量级的大小在单图理解方面超越了 GPT-4o mini、GPT-4V、Gemini 1.5 Pro 和 Claude 3.5 Sonnet 等主流商用闭源多模态大模型。
参考链接:OpenBMB/MiniCPM-o: MiniCPM-o 2.6: A GPT-4o Level MLLM for Vision, Speech and Multimodal Live Streaming on Your Phone
本文将分享MiniCPM-V 2.6 8B模型在算力魔方®4060版上的部署过程。
一,安装Ollama
请按照《Gemma 2+Ollama在算力魔方上帮你在LeetCode解题》安装Ollama。
二,运行MiniCPM-V 2.6
使用下面的命令完成运行MiniCPM-V 2.6:
ollama run minicpm-v
三,体验MiniCPM-V 2.6 多模态能力
输入下面的提示词和测试图片,体验MiniCPM-V 2.6的多模态能力:
“请描述并总结图片中的内容,并提炼出该产品的卖点。”
运行视频链接
审核编辑 黄宇
全部0条评论
快来发表一下你的评论吧 !