Files
刘可亮 6e36e8e296 v1.2.0
2025-04-23 17:54:31 +08:00
..
2025-04-23 17:54:31 +08:00
2025-04-23 17:54:31 +08:00
2025-04-23 17:54:31 +08:00
2025-04-23 17:54:31 +08:00
2025-04-23 17:54:31 +08:00
2025-04-23 17:54:31 +08:00
2025-04-23 17:54:31 +08:00

LLM Language Model in RT-Thread

在 RT-Thread 上进行 LLM 大语言模型对话

LLM平台

  • 通义千问
  • 豆包大模型
  • DeepSeek
  • 自定义的大模型

平台支持

  • qemu-a9

  • STM32

请求方式

  • Stream模式
  • 非Stream模式

使用方式

首先确保您的设备可以使用正常使用网络功能

MSH终端交互

  1. 打开 menuconfig进入 Local packages options → Third-party packages options → Large Language Models for RT-Thread 目录下;
  2. 选择要使用的 LLM 模型以及模型对应的API Key与API 的URL这里支持选择默认的DeepSeek豆包以及通义千问也支持手动输入自己的API

  1. 这里以自己所输入的大模型为例:输入此大模型网站获取到的 API KEY推理接入点URL 以及模型的名称 LLM MODEL ,若使用默认的大模型则不需要输入;

配置信息说明:

  • llm thread size大模型线程栈大小
  • llm cmd input buffer size大模型输入字符大小
  • webclient sessionbuffer size客户端会话缓冲区
  • Enable llmchat http stream是否使能流式对话

  1. 进入 Local packages options → Third-party packages options → mbedtls 菜单,修改 Maxium fragment length in bytes 字段为 6144否则TLS会握手失败

  1. 进入 Local packages options → Third-party packages options → WebClient: A HTTP/HTTPS Client for RT-Thread 选择MbedTLS support

  1. 退出保存配置

  2. 编译,运行;

  3. 运行效果:

输入 llm 即可进入聊天终端CTRL+D可以退出聊天窗口返回 MSH 终端;