Oba Live Tool (直播带货工具) v1.5.18 is live streaming e-commerce tool supporting platforms: Douyin Shop (抖音小店), Juliang Baiying (巨量百应), Douyin Group Buy (抖音团购), Xiaohongshu (小红书), Video Account (视频号), Kuaishou Shop (快手小店), Taobao (淘宝). Features: multi-account management supporting multiple account configs for different live rooms, smart message assistant auto-sending messages eliminating repetitive shouting, automatic product explanation auto-popup product windows speaking freely, AI auto-reply real-time monitoring live interaction comments auto-generating reply content (only Douyin Shop/Juliang Baiying/Video Account/Xiaohongshu), AI intelligent assistant integrated DeepSeek supporting official/OpenRouter/Silicon Flow/Volcano Engine all OpenAI chat interface providers.
System requirements: Windows 10+ or macOS, Chrome or Edge browser installed, account must access control console normally. Installation via GitHub Releases downloading latest version or source build with 'git clone', 'pnpm install', 'pnpm build'. Usage method: Step 1 connect to control console (click 'Open Control Console' enter live control console page, click 'Connect Live Control Console' button, first time login account, wait for console showing green dot and 'Connected'; some platforms like Video Account/Taobao need to start streaming before connecting). Auto-popup feature with shortcut keys mapping one or multiple products. Auto-speak feature with variables like {candidate A/candidate B/candidate C}, pinning, random spaces, one-click screen flooding. Auto-reply feature supports two methods: control console live interaction window (only comment interactions) or live screen host version (has comments/enter room/like/join brand membership/follow/join fan group/order info). AI reply settings: set API KEY and model ensuring availability, set prompts in 'Prompt Config' (prompts determine AI role and how AI answers, counts toward token consumption). WebSocket service broadcasts monitored comment info to all co nnected clients. AI assistant supports text conversation only. API KEY settings support four DeepSeek model presets (DeepSeek, OpenRouter, Silicon Flow, Volcano Engine) plus 'Custom' supporting almost any OpenAI compatible conversation model interface service. MIT license. Topics: electron, react, playwright, douyin, xiaohongshu.
Use Cases:
oba live tool 抖音小店/巨量百应/抖音团购/小红书/视频号/快手小店/淘宝直播小工具
Ask DeepWiki (https://deepwiki.com/badge.svg)
!主界面预览
!ai
!自动回复
🍟 多账号管理:支持多组账号配置,针对不同直播间使用不同的配置
🎯 智能消息助手:自动发送消息,告别重复机械喊话
📦 商品自动讲解:自动商品弹窗,随心所欲弹讲解
💃 AI 自动回复:实时监听直播互动评论、自动生成回复内容(仅限抖音小店/巨量百应/视频号/小红书)
🤖 AI 智能助理:接入 DeepSeek,支持官方、OpenRouter、硅基流动、火山引擎等所有支持 openai chat接口的提供商
访问 Releases (https://github.com/qiutongxue/oba-live-tool/releases/latest) 页面下载最新版本安装包
git clone https://github.com/qiutongxue/oba-live-tool.git
cd oba-live-tool
pnpm install
pnpm build
# 构建在项目根目录的 /release 文件夹下
[!TIP] 自动发言、自动弹窗、自动回复功能都需要先连接到中控台才能使用。
如果软件显示找不到浏览器,或者想要自己指定浏览器位置,请前往 应用设置 页面的 浏览器设置 中进行相关设置。
[!IMPORTANT] 注意:连接前请注意「无头模式」是否开启。在无头模式下,浏览器将在后台运行,不会显示浏览器窗口,无法查看网页状态。如果需要在连接后查看浏览器窗口,请关闭无头模式。
!自动弹窗
自动弹窗可设置快捷键映射一个或多个商品,按下快捷键后将按照快捷键设置的商品进行弹窗
当且仅当在自动弹窗页面激活,切换其它页面后将无法使用快捷键(包括全局快捷键)自动发言可以使用变量如 {候选A/候选B/候选C},一组候选项由一对大括号 {} 包裹,一组中各个候选项由斜杠 / 隔开。
发送消息时,系统会自动从每一组候选项中随机选取一项,与剩余文本拼接
如某行设置了
{老铁/宝宝/家人们}可以看看我们的{一号/二号}链接哦,可能发送的内容为:
- 老铁可以看看我们的一号链接哦
- 宝宝可以看看我们的一号链接哦
- 家人们可以看看我们的一号链接哦
- 老铁可以看看我们的二号链接哦
- 宝宝可以看看我们的二号链接哦
- 家人们可以看看我们的二号链接哦
[!NOTE] 目前暂时还没提供运行时更新设置的功能,所以如果需要让新的任务配置生效,需要重启任务。
[!TIP] 自动回复目前只支持抖音小店/巨量百应/视频号/小红书这四个平台
自动回复目前可以通过两种方式监听直播互动信息:
{用户名}替换为实际的用户昵称,你可以灵活调整{用户名}出现的位置@{用户名} 欢迎来到直播间,实际发送的内容为 @张三 欢迎来到直播间@张*** 欢迎来到直播间关键词回复支持使用批量编辑,与自动发言的配置相同,可以在一个文本框中编辑多个关键词回复信息,每行对应一条规则。
在一条规则中,关键词使用 / 作为区分,如 关键词A/关键词B/关键词C,回复内容用 | 作为区分,如 回复内容a|回复内容b|回复内容c。关键词和回复内容之间使用 | 隔开,且关键词要放在规则首位。
如一条规则的文本内容为
音响/音箱/低音炮|宝宝,咱们的蓝牙音箱在142号连接,您可以划动小黄车去看看|@{用户名} 咱们142号链接就是蓝牙音响哦其对应的规则为:关键词:[音响, 音箱, 低音炮]
回复内容1:宝宝,咱们的蓝牙音箱在142号连接,您可以划动小黄车去看看
回复内容2:@{用户名} 咱们142号链接就是蓝牙音响哦
注:
{用户名}会被自动替换为实际的用户名
提示词决定了 AI 会扮演什么样的角色,以及 AI 会如何回答用户的问题,会计入 token 消耗。
开启 AI 回复时,程序会将「开始任务」之后的新的用户评论交给 AI 处理,用户评论会以 JSON 格式原封不动地作为对话的内容交给 AI:
{
"nickname": "用户昵称",
"content": "用户评论内容",
}
所以可以把 nickname、commentTag 等插入到提示词中,你的提示词可以是:
你是一个直播间的助手,负责回复观众的评论。请参考下面的要求、产品介绍和直播商品,用简短友好的语气回复,一定一定不要超过45个字。
## 要求
- 回复格式为:@*** (注意!:三个星号是必须的)
...
WebSocket 功能负责将监听到的评论信息广播到所有连接的客户端。可以在自动回复的设置页面中开启 WebSocket 服务,并配置相应的端口号。开启 WebSocket 并点击「开始监听」后,应用会自行启动 WebSocket 服务端,绑定本机所有 ip 接口(0.0.0.0)。
发送格式为 JSON 字符串,类型定义参照这里 (https://github.com/qiutongxue/oba-live-tool/blob/3c482728ac94ab33c76e072ed0424f9507a9dc3f/shared/types.d.ts#L84-L171)
AI 助手只支持文本对话,在使用 AI 助手功能前,请先设置好你的 API KEY 及模型,确保可用。
想要使用 AI 功能,需要先设置 API KEY。
软件提供了四种 DeepSeek 模型的预设:
除此之外,「自定义」还支持几乎任何兼容 openai 对话模型接口的服务。
在 「AI 助手」或「自动回复」的页面,点击「配置 API Key」按钮,就能选择自己需要的提供商和模型了。
注意: 有的(大多数)模型是收费的,使用 AI 功能前请一定要先了解清楚,使用收费模型时请确保自己在提供商的账户有能够消耗的额度。
火山引擎的设置方式和其它提供商有些微区别,除了需要 API KEY 之外,还需要 创建接入点 (https://console.volcengine.com/ark/region:ark+cn-beijing/endpoint)。创建成功后,将接入点的 id 复制到原先选择模型的位置中即可使用。
!火山引擎接入点
你可以选择更新源,但是目前最稳定的还是 Github。
亲测:Github 绝对可用。gh-proxy.com 偶尔可用。其余的github代理基本都不可用。
启用开发者模式后,可以使用鼠标右键菜单,在菜单中可打开开发者工具。
启用开发者模式后,连接到中控台时会关闭浏览器的无头模式。
本项目遵循 MIT 许可证
Star History Chart (https://api.star-history.com/svg?repos=qiutongxue/oba-live-tool&type=Date)
GitHub starred repository manager with AI-powered auto-sync, semantic search, automatic categorization, release tracking, one-click downloads, smart asset filters, bilingual wiki integration, and cross-platform Electron client for Windows/macOS/Linux with 100% local data storage and MIT license.
Build local AI agents that observe your screen, microphone and clipboard, process with local LLMs, and react with notifications, screen recording and memory. All data stays private. Works with Ollama and OpenAI.
PlayStation 3 emulator for Android 12+. Project discontinued at Alpha-7 and merged with RPCSX. Use RPCSX Android UI for continued development.
WeChat video channel downloader (微信视频号下载助手) built with Go and SunnyNet featuring one-click download, batch processing, automatic decryption, smart deduplication, web console at dongzuren.com/wx_channel with browse history/download records/queue management, CSV export, configurable cleanup, and responsive design with MIT license.
Claude Code and Codex multi-agent development system with 6-step dev workflow, 90% test coverage requirement, BMAD agile workflow, modular Python installation and MIT license.
Local LLM chatbot featuring 1990s Microsoft Office Clippy UI, running GGUF models via Llama.cpp/node-llama-cpp with one-click installation for Gemma3/Llama 3.2/Phi-4/Qwen3, automatic hardware acceleration (Metal/CUDA/Vulkan), custom model/prompt support, offline operation, and @electron/llm reference implementation with NOASSERTION license.