Deepseek上单片机?RT-Thread上跑通大语言模型

描述

前言

 

 

在RT-Thread论坛上忽然看到了单片机和大模型对话的文章,想着春节期间看到大语言模型的热度持续攀升,恰巧手头有块RA8D1 Vision Board开发板,于是尝试着在Vision Board上对接下大语言模型的API,实现智能对话功能。



 

测试平台


 

● Vision Board

 

 

●  RT-Thread Studio

 

 

●  RT-Thread 5.0.2

 

 

●  MobaXterm

 

 

 

实现过程(以Vision Board为例)

 


 


 

1.  登录 DeepSeek-API :

https://api-docs.deepseek.com/zh-cn/

 

 

2.  创建 DeepSeek 的API-KEY:


 

语言模型

 

 

语言模型

 

 

3.  基于Vision Board新建wifi示例工程

 

 

语言模型

4. 配置LLM软件包:双击 RT-Thread Settings,选择添加软件包,搜索llm关键字

语言模型

 

 

5.  添加此软件包到工程,接下来进行软件包配置,输入上面获取的API-KEY:

语言模型

 

 

6. 配置WebClient-TLS模式:

RT-Thread Settings->软件包->IoT-物联网->WebClient->选择TLS模式目录下,选择MbedTLS support。  

 

 

语言模型

7. 使能软件RTC功能

 

 

语言模型

8. 更新软件包配置:

在 RT-Thread Settings 界面下 Ctrl+S 保存软件包配置,随后编译代码,烧录即可。

9.  开发板手动连接Wifi:

 

 

打开串口终端工具,输入wifi join [wifi名称] [wifi密码]

语言模型

10. 输入llm即可进入聊天终端,CTRL+D可以退出聊天窗口返回MSH终端:

 

 

语言模型

开源仓库地址,欢迎体验~

https://github.com/Rbb666/llm_chat

注意:由于当前Deepseek服务器资源紧张,可能会出现连接失败,导致如下报错:

 

语言模型

 

 

可尝试切换豆包或阿里通义千问大语言模型进行体验。

 

打开APP阅读更多精彩内容
声明:本文内容及配图由入驻作者撰写或者入驻合作网站授权转载。文章观点仅代表作者本人,不代表电子发烧友网立场。文章及其配图仅供工程师学习之用,如有内容侵权或者其他违规问题,请联系本站处理。 举报投诉

全部0条评论

快来发表一下你的评论吧 !

×
20
完善资料,
赚取积分