mirror of
https://gitee.com/Vancouver2017/luban-lite.git
synced 2025-12-15 16:48:56 +00:00
LLM Language Model in RT-Thread
在 RT-Thread 上进行 LLM 大语言模型对话
LLM平台
- 通义千问
- 豆包大模型
- DeepSeek
- 自定义的大模型
平台支持
-
qemu-a9
-
STM32
请求方式
- Stream模式
- 非Stream模式
使用方式
首先确保您的设备可以使用正常使用网络功能
MSH终端交互
- 打开 menuconfig,进入
Local packages options → Third-party packages options → Large Language Models for RT-Thread目录下; - 选择要使用的 LLM 模型以及模型对应的API Key与API 的URL(这里支持选择默认的DeepSeek,豆包以及通义千问,也支持手动输入自己的API):
- 这里以自己所输入的大模型为例:输入此大模型网站获取到的
API KEY和推理接入点URL以及模型的名称LLM MODEL,若使用默认的大模型则不需要输入;
配置信息说明:
- llm thread size:大模型线程栈大小
- llm cmd input buffer size:大模型输入字符大小
- webclient sessionbuffer size:客户端会话缓冲区
- Enable llmchat http stream:是否使能流式对话
- 进入
Local packages options → Third-party packages options → mbedtls菜单,修改Maxium fragment length in bytes字段为 6144(否则TLS会握手失败)
- 进入
Local packages options → Third-party packages options → WebClient: A HTTP/HTTPS Client for RT-Thread选择MbedTLS support
-
退出保存配置
-
编译,运行;
-
运行效果:
输入 llm 即可进入聊天终端,CTRL+D可以退出聊天窗口返回 MSH 终端;




