AutoGLM-GUI
AutoGLM 的现代化 Web 图形界面 - 让 AI 自动化操作 Android 设备变得简单 已进化为你的专属自动化生产力工具
Stars: 837
AutoGLM-GUI is an AI-driven Android automation productivity tool that supports scheduled tasks, remote deployment, and 24/7 AI assistance. It features core functionalities such as deploying to servers, scheduling tasks, and creating an AI automation assistant. The tool enhances productivity by automating repetitive tasks, managing multiple devices, and providing a layered agent mode for complex task planning and execution. It also supports real-time screen preview, direct device control, and zero-configuration deployment. Users can easily download the tool for Windows, macOS, and Linux systems, and can also install it via Python package. The tool is suitable for various use cases such as server automation, batch device management, development testing, and personal productivity enhancement.
README:
AI 驱动的 Android 自动化生产力工具 - 支持定时任务、远程部署,让 AI 7x24 小时为你工作
从个人助手到自动化中枢:支持 定时执行、Docker 部署、对话历史,打造你的 AI 自动化助手
从个人助手到自动化中枢,AutoGLM-GUI 现已支持:
| ⏰ 定时任务 Cron 调度系统 |
🐳 Docker 部署 7x24 运行 |
📚 对话历史 自动保存追溯 |
⚡ 立即打断 <1秒响应 |
📱 多设备管理 支持模拟器 |
核心场景:部署到服务器 + 定时任务 = AI 自动化助手 7x24 小时为你工作
欢迎加入讨论交流群
- ⏰ 定时任务调度 - Cron 风格的任务调度系统,自动执行重复操作(签到、检查、周期性任务)
- 📚 对话历史管理 - 自动保存所有对话记录,支持查看历史、追溯执行过程
- ⚡ 立即打断执行 - <1秒中断正在执行的任务,精准控制 AI 行为
- 🐳 Docker 一键部署 - 支持多架构(x64/ARM64),部署到服务器 7x24 小时运行
- 📱 模拟器零配置 - 自动检测本地 Android 模拟器,一键连接无需配对
- 分层代理模式 - 🆕 决策模型 + 视觉模型双层协作架构,支持复杂任务规划与精准执行分离
- 完全无线配对 - 🆕 支持 Android 11+ 二维码扫码配对,无需数据线即可连接设备
- 多设备并发控制 - 同时管理和控制多个 Android 设备,设备间状态完全隔离
- 对话式任务管理 - 通过聊天界面控制 Android 设备
- Workflow 工作流 - 🆕 预定义常用任务,一键快速执行,支持创建、编辑、删除和管理
- 实时屏幕预览 - 基于 scrcpy 的低延迟视频流,随时查看设备正在执行的操作
- 直接操控手机 - 在实时画面上直接点击、滑动操作,支持精准坐标转换和视觉反馈
- 零配置部署 - 支持任何 OpenAI 兼容的 LLM API
- MCP 协议支持 - 🆕 内置 MCP 服务器,可集成到 Claude Desktop、Cursor 等 AI 应用中
- ADB 深度集成 - 通过 Android Debug Bridge 直接控制设备(支持 USB 和 WiFi)
- 模块化界面 - 清晰的侧边栏 + 设备面板设计,功能分离明确
一键下载桌面版(免配置环境):
| 操作系统 | 下载链接 | 说明 |
|---|---|---|
| 🪟 Windows (x64) | 📦 下载便携版 EXE | 适用于 Windows 10/11,免安装 |
| 🍎 macOS (Apple Silicon) | 📦 下载 DMG | 适用于 M 芯片 Mac |
| 🐧 Linux (x64) | 📦 下载 AppImage | deb | tar.gz | 通用格式,支持主流发行版 |
使用说明:
-
Windows: 下载后直接双击
.exe文件运行,无需安装 -
macOS: 下载后双击
.dmg文件,拖拽到应用程序文件夹。首次打开可能需要在「系统设置 → 隐私与安全性」中允许运行 -
Linux:
-
AppImage(推荐): 下载后添加可执行权限
chmod +x AutoGLM*.AppImage,然后直接运行 -
deb: 适用于 Debian/Ubuntu 系统,使用
sudo dpkg -i autoglm*.deb安装 -
tar.gz: 便携版,解压后运行
./AutoGLM\ GUI/autoglm-gui
-
AppImage(推荐): 下载后添加可执行权限
💡 提示: 桌面版已内置所有依赖(Python、ADB 等),无需手动配置环境。首次运行时需配置模型服务 API。
自动更新:
AutoGLM GUI 桌面版支持自动更新功能:
- 🪟 Windows 安装版:启动时自动检测更新,下载完成后退出时自动安装
- 🍎 macOS DMG:启动时自动检测更新,下载完成后提示用户重启(未签名应用可能需要手动允许)
- 🐧 Linux AppImage:启动时自动检测更新(需配合 AppImageLauncher)
- 便携版(Windows EXE/Linux tar.gz):不支持自动更新,请手动下载新版本
或者使用 Python 包(需要 Python 环境):
# 通过 pip 安装(推荐)
pip install autoglm-gui
# 或使用 uvx 免安装运行(需先安装 uv)
uvx autoglm-gui分层代理(Layered Agent) 是更“严格”的两层结构:规划层专注任务拆解与多轮推理,执行层专注观察与操作。规划层会通过工具调用(可在界面中看到每次调用与结果)来驱动执行层完成一个个原子子任务,便于边执行边调整策略,适合需要多轮交互/推理的高级任务。
- Android 设备(Android 11+ 支持完全无线配对,无需数据线)
- 一个 OpenAI 兼容的 API 端点(支持智谱 BigModel、ModelScope 或自建服务)
关于设备连接:
- Android 11+:支持二维码扫码配对,完全无需数据线即可连接和控制设备
- Android 10 及更低版本:需要先通过 USB 数据线连接并开启无线调试,之后可拔掉数据线无线使用
无需手动准备环境,直接安装运行:
# 通过 pip 安装并启动
pip install autoglm-gui
autoglm-gui --base-url http://localhost:8080/v1也可以使用 uvx 免安装启动,自动启动最新版(需已安装 uv,安装教程):
uvx autoglm-gui --base-url http://localhost:8080/v1AutoGLM-GUI 提供预构建的 Docker 镜像,支持 linux/amd64 和 linux/arm64 架构,适合部署到服务器 7x24 小时运行,配合定时任务功能实现自动化中枢。
核心优势:
- 🚀 一键部署:无需配置 Python 环境和依赖
- ⏰ 定时执行:配合内置定时任务系统,自动化执行周期性操作
- 🌐 远程控制:通过 Web 界面随时随地管理设备
- 📊 稳定运行:容器化隔离,适合长期运行
使用 docker-compose(推荐):
# 1. 下载 docker-compose.yml
curl -O https://raw.githubusercontent.com/suyiiyii/AutoGLM-GUI/main/docker-compose.yml
# 2. 启动服务
docker-compose up -d
# 3. 访问 http://localhost:8000,在 Web 界面中配置模型 API或直接使用 docker run:
# 使用 host 网络模式运行(推荐)
docker run -d --network host \
-v autoglm_config:/root/.config/autoglm \
-v autoglm_logs:/app/logs \
ghcr.io/suyiiyii/autoglm-gui:main
# 访问 http://localhost:8000,在 Web 界面中配置模型 API配置说明:
- 默认使用 host 网络模式(推荐,便于 ADB 设备发现和二维码配对)
- 模型 API 配置可以在 Web 界面的设置页面中完成,无需提前配置环境变量
- 如果需要在启动时预配置,可以编辑
docker-compose.yml取消注释environment部分
连接远程设备:
Docker 容器中连接 Android 设备推荐使用 WiFi 调试:
- 在 Android 设备上开启「开发者选项」→「无线调试」
- 记录设备的 IP 地址和端口号
- 在 Web 界面点击「添加无线设备」→ 输入 IP:端口 → 连接
⚠️ 注意:二维码配对功能依赖 mDNS 多播,在 Docker bridge 网络中可能受限。强烈建议使用--network host模式以获得完整功能支持。
更多 Docker 配置选项,请参见下方的 Docker 部署详细说明。
启动后,在浏览器中打开 http://localhost:8000 即可开始使用!
AutoGLM-GUI 只需要一个 OpenAI 兼容的模型服务。你可以:
- 使用官方已托管的第三方服务
- 智谱 BigModel:
--base-url https://open.bigmodel.cn/api/paas/v4,--model autoglm-phone,--apikey <你的 API Key> - ModelScope:
--base-url https://api-inference.modelscope.cn/v1,--model ZhipuAI/AutoGLM-Phone-9B,--apikey <你的 API Key>
- 智谱 BigModel:
- 或自建服务:参考上游项目的部署文档用 vLLM/SGLang 部署
zai-org/AutoGLM-Phone-9B,启动 OpenAI 兼容端口后将--base-url指向你的服务。
示例:
# 使用智谱 BigModel
pip install autoglm-gui
autoglm-gui \
--base-url https://open.bigmodel.cn/api/paas/v4 \
--model autoglm-phone \
--apikey sk-xxxxx
# 使用 ModelScope
pip install autoglm-gui
autoglm-gui \
--base-url https://api-inference.modelscope.cn/v1 \
--model ZhipuAI/AutoGLM-Phone-9B \
--apikey sk-xxxxx
# 指向你自建的 vLLM/SGLang 服务
pip install autoglm-gui
autoglm-gui --base-url http://localhost:8000/v1 --model autoglm-phone-9b# 查看已安装的版本
pip show autoglm-gui
# 或使用命令行参数
autoglm-gui --version使用 pip 升级:
# 升级到最新版本
pip install --upgrade autoglm-guiAutoGLM-GUI 支持同时控制多个 Android 设备:
- 设备列表 - 左侧边栏自动显示所有已连接的 ADB 设备
- 设备选择 - 点击设备卡片切换到对应的控制面板
- 状态指示 - 清晰显示每个设备的在线状态和初始化状态
- 状态隔离 - 每个设备有独立的对话历史、配置和视频流
设备状态说明:
- 🟢 绿点:设备在线
- ⚪ 灰点:设备离线
- ✓ 标记:设备已初始化
完全无需数据线,手机和电脑只需在同一 WiFi 网络即可:
-
手机端准备:
- 打开「设置」→「开发者选项」→ 开启「无线调试」
- 保持手机和电脑连接到同一个 WiFi 网络
-
电脑端操作:
- 点击界面左下角的 ➕ 「添加无线设备」按钮
- 切换到「配对设备」标签页
- 二维码自动生成,等待扫码
-
手机端扫码:
- 在「无线调试」页面,点击「使用二维码配对设备」
- 扫描电脑上显示的二维码
- 配对成功后,设备会自动出现在设备列表中
特点:
- ✅ 完全无需数据线
- ✅ 一键扫码即可配对
- ✅ 自动发现并连接设备
- ✅ 适用于 Android 11 及以上版本
- 连接设备 - 使用上述任一方式连接设备(推荐 Android 11+ 的二维码配对)
- 选择设备 - 在左侧边栏选择要控制的设备
- 初始化 - 点击"初始化设备"按钮配置 Agent
- 对话 - 描述你想要做什么(例如:"去美团点一杯霸王茶姬的伯牙绝弦")
- 观察 - Agent 会逐步执行操作,每一步的思考过程和动作都会实时显示
在初始化设备时,可以选择不同的 Agent 类型(默认:GLM Agent):
- GLM Agent:基于 GLM 模型优化,成熟稳定,适合大多数任务
-
MAI Agent:内部实现的 Mobile Agent,支持多张历史截图上下文,适合复杂任务
- 🆕 现已完全内部化:移除 ~1200 行第三方依赖,性能优化,中文适配
- 🔄 向后兼容:需要使用旧版本可选择
mai_legacy类型
MAI Agent 可配置参数:
-
history_n:历史截图数量(1-10,默认:3)
MAI Agent 增强特性(v1.5.0+):
- ✅ 流式思考输出(实时显示推理过程)
- ✅ 中文优化 Prompt(针对国内应用场景)
- ✅ 性能监控(LLM 耗时、动作执行统计)
- ✅ 详细的操作指南和错误避免提示
这是开源 AutoGLM-Phone 的“原生形态”:由一个视觉模型直接完成「理解任务 → 规划步骤 → 观察屏幕 → 执行动作」的完整闭环。
- 优点:配置最简单,上手最快
- 适用场景:目标明确、步骤较少的任务(例如打开应用、简单导航)
分层代理模式是更“严格”的两层结构:规划层专注拆解与推理,执行层专注观察与操作,二者通过工具调用协作完成任务。
-
工作方式:规划层(决策模型)会调用工具(如
list_devices()/chat(device_id, message))去驱动执行层;你能在界面里看到每次工具调用与返回结果 - 执行粒度:执行层每次只做一个“原子子任务”,并有步数上限(例如每次最多 5 步),便于规划层按反馈动态调整策略
- 适用场景:需要多轮推理、需要“边看边问边改计划”的复杂任务(例如浏览/筛选/对比、多轮表单填写等)
- 重要限制:执行层不负责"记笔记/保存中间信息/直接提取文本变量";规划层需要信息时必须通过提问让执行层把屏幕内容"念出来"
📖 深入了解:查看 Layered Agent 架构分析文档 了解技术原理、数据流和实现细节
AutoGLM-GUI 提供了两种不同的代理工作模式,适用于不同的使用场景:
-
架构:单一
autoglm-phone视觉模型直接处理(即普通 Open AutoGLM 的体验) - 适用场景:简单、明确的任务
- 特点:配置简单,适合快速上手
-
架构:基于 Agent SDK 的分层任务执行系统
- 规划层:决策模型作为高级智能中枢,负责任务拆解和多轮推理
- 执行层:autoglm-phone 作为执行者,只负责观察和操作
- 适用场景:需要多轮交互和复杂推理的高级任务
- 特点:规划层通过工具调用驱动执行层,过程更透明、更便于调试与迭代策略
选择建议:
- 🚀 常规任务(订外卖、打车):经典模式
- 🏗️ 需要多轮推理的任务:分层代理模式
除了 AI 自动化,你也可以直接在实时画面上操控手机:
- 实时画面 - 设备面板右侧显示手机屏幕的实时视频流(基于 scrcpy)
- 点击操作 - 直接点击画面中的任意位置,操作会立即发送到手机
- 滑动手势 - 按住鼠标拖动实现滑动操作(支持滚轮滚动)
- 视觉反馈 - 每次操作都会显示涟漪动画和成功/失败提示
- 精准转换 - 自动处理屏幕缩放和坐标转换,确保操作位置准确
- 显示模式 - 支持自动、视频流、截图三种显示模式切换
AutoGLM-GUI 内置定时任务系统,让 AI 按照你的计划自动执行操作,打造 7x24 小时的自动化助手。
典型应用场景:
- 📅 每日签到:自动在指定时间完成 App 签到领取积分
- 🔔 定时检查:定期检查订单状态、物流信息、库存变化
- 📧 消息提醒:定时发送消息、提醒事项
- 🎮 游戏任务:自动完成每日任务、领取奖励
- 💰 价格监控:定期检查商品价格变化,自动下单
如何使用:
- 创建定时任务 - 在 Web 界面的"定时任务"页面创建新任务
-
设置 Cron 表达式 - 使用 Cron 语法指定执行时间(例如:
0 8 * * *表示每天早上 8 点) - 选择执行设备 - 指定要控制的 Android 设备
- 定义任务内容 - 描述要执行的操作(支持使用已保存的 Workflow)
- 启用任务 - 开启任务后,系统会在指定时间自动执行
Docker 部署推荐:
- 将 AutoGLM-GUI 部署到服务器上(VPS、NAS、闲置电脑)
- 通过 WiFi 连接 Android 设备
- 服务器 7x24 小时运行,确保定时任务按时执行
- 通过 Web 界面随时查看执行历史和日志
对话历史支持:
- 所有定时任务的执行记录自动保存
- 支持查看历史执行详情、追溯问题
- 失败任务自动记录错误信息
将常用任务保存为 Workflow,实现一键快速执行:
- 进入管理页面 - 点击左侧导航栏的 Workflows 图标(📋)
- 新建 Workflow - 点击右上角"新建 Workflow"按钮
-
填写信息:
- 名称:给 Workflow 起一个简短易记的名称(如:"订购霸王茶姬")
- 任务内容:详细描述要执行的任务(如:"去美团点一杯霸王茶姬的伯牙绝弦,要去冰,加珍珠")
- 保存 - 点击保存按钮即可
管理操作:
- 编辑 - 点击 Workflow 卡片上的"编辑"按钮修改内容
- 删除 - 点击"删除"按钮移除不需要的 Workflow
- 预览 - Workflow 卡片显示任务内容的前几行预览
在 Chat 界面执行已保存的 Workflow:
- 选择设备 - 确保已选择并初始化目标设备
- 打开 Workflow 选择器 - 点击输入框旁边的 Workflow 按钮(📋 图标)
- 选择要执行的任务 - 从列表中点击你想执行的 Workflow
- 自动填充 - 任务内容会自动填入输入框
- 发送执行 - 点击发送按钮开始执行
使用场景示例:
- 📱 日常任务:订外卖、打车、查快递
- 🎮 游戏操作:每日签到、领取奖励
- 📧 消息发送:固定内容的消息群发
- 🔄 重复操作:定期执行的维护任务
所有对话和执行记录自动保存到本地数据库,支持随时查看和追溯:
核心功能:
- 💾 自动保存:所有对话内容、AI 思考过程、执行步骤完整记录
- 🔍 历史查看:在 Web 界面查看所有历史对话
- 📊 执行追溯:详细查看每次任务的执行过程,包括截图、操作、结果
- ⏰ 定时任务日志:定时任务的执行记录自动关联到对话历史
- 🐛 问题诊断:失败任务可查看完整日志,快速定位问题
使用场景:
- 回顾 AI 的决策过程,优化 Prompt 和任务描述
- 追溯定时任务的执行情况,确认是否按时完成
- 查找历史操作记录,复用成功的执行策略
- 问题排查时查看详细日志和截图
数据存储:
- 默认存储位置:
~/.config/autoglm/history.db(SQLite 数据库) - Docker 部署:挂载 volume 确保数据持久化
- 支持导出和备份
AutoGLM-GUI v1.5 已从单纯的"手机助手"升级为"AI 自动化中枢",以下是典型的生产力应用场景:
配置:
# 在 VPS/NAS 上部署 Docker
docker-compose up -d
# 通过 WiFi 连接 Android 设备
# 在 Web 界面配置定时任务典型任务:
- ⏰ 每天早上 8:00 自动签到领积分
- ⏰ 每晚 22:00 检查订单状态并发送通知
- ⏰ 每小时检查特定商品价格变化
- ⏰ 每天中午 12:00 自动点外卖
价值:AI 助手 7x24 小时运行在服务器上,无需人工干预
配置:
- 连接 3-5 台 Android 设备(USB 或 WiFi)
- 每台设备执行不同的自动化任务
典型任务:
- 设备 A:电商平台价格监控 + 自动比价
- 设备 B:社交媒体内容定时发布
- 设备 C:游戏挂机 + 每日任务
- 设备 D:物流信息监控 + 状态推送
价值:一个控制台管理多台设备,规模化自动化
配置:
# 使用模拟器进行自动化测试
# 模拟器零配置,自动检测连接典型任务:
- 🧪 自动化 UI 测试(回归测试)
- 📱 App 安装/卸载/升级测试
- 🔄 多版本兼容性验证
- 📊 性能测试数据采集
价值:结合 CI/CD 流程,实现移动端自动化测试
配置:
- 本地运行桌面版或 Python 包
- 定义常用 Workflow
典型任务:
- 📝 早会前自动整理昨日工作记录
- 💰 自动记录每日支出到记账 App
- 📧 定时发送固定格式的周报邮件
- 🏃 健身 App 自动打卡记录
价值:减少重复性工作,专注创造性任务
| 功能组合 | 适用场景 |
|---|---|
| 定时任务 + Docker + WiFi 连接 | 服务器端 7x24 自动化 |
| 多设备 + Workflow + 对话历史 | 批量设备管理 + 操作追溯 |
| 分层代理 + 立即打断 + 实时预览 | 复杂任务调试与优化 |
| 模拟器直连 + CI/CD 集成 | 自动化测试流程 |
如果你需要从源码进行开发或定制,可以按照以下步骤:
# 1. 克隆仓库
git clone https://github.com/suyiiyii/AutoGLM-GUI.git
cd AutoGLM-GUI
# 2. 安装依赖
uv sync
# 3. 构建前端(必须)
uv run python scripts/build.py
# 4. 启动服务
uv run autoglm-gui --base-url http://localhost:8080/v1# 后端开发(自动重载)
uv run autoglm-gui --base-url http://localhost:8080/v1 --reload
# 前端开发服务器(热重载)
cd frontend && pnpm dev# 仅构建前端
uv run python scripts/build.py
# 构建完整包
uv run python scripts/build.py --packAutoGLM-GUI 内置了 MCP 服务器,可以作为一个工具集成为其他 AI 应用(如 Claude Desktop、Cline、Cursor 等)提供 Android 设备自动化能力。
MCP (Model Context Protocol) 是一个开放协议,允许 AI 应用连接到外部数据源和工具。通过 MCP,你可以让 Claude、Cursor 等 AI 直接操作你的 Android 设备。
AutoGLM-GUI 提供了两个 MCP 工具:
向指定设备发送自动化任务,AI 会控制手机完成操作。
参数:
-
device_id:设备标识符(如 "192.168.1.100:5555" 或设备序列号) -
message:自然语言任务描述(如 "打开微信"、"发送消息")
特点:
- ✅ 自动初始化设备(使用全局配置)
- ✅ Fail-Fast 策略:找不到元素立即报错,不猜测坐标
- ✅ 5 步限制:适合原子操作,避免无限循环
- ✅ 专用 Prompt:优化为快速执行模式
获取所有已连接的 ADB 设备列表及其状态。
返回信息:
- 设备 ID、型号
- 连接类型(USB/WiFi)
- 在线状态
- Agent 初始化状态
典型应用:
- 🤝 Claude Desktop:让 Claude 直接操作你的 Android 设备
- 💻 IDE 集成:在 Cursor、VS Code (Cline) 中调用手机自动化
- 🔄 工作流集成:作为 AI Agent 工具链的一环
- 🧪 自动化测试:结合 AI 进行移动端 UI 测试
示例:
用户:帮我在手机上打开微信,给张三发消息"下午三点开会"
AI:
1. 调用 list_devices() 找到设备
2. 调用 chat(device_id, "打开微信")
3. 调用 chat(device_id, "搜索联系人张三")
4. 调用 chat(device_id, "发送消息:下午三点开会")
- 启动 AutoGLM-GUI(确保 MCP 端点可访问):
# 使用默认 MCP 端点(挂载在 /mcp)
autoglm-gui --base-url http://localhost:8080/v1- 编辑 Claude Desktop 配置文件:
macOS: ~/Library/Application Support/Claude/claude_desktop_config.json
Windows: %APPDATA%\Claude\claude_desktop_config.json
添加以下配置:
{
"mcpServers": {
"autoglm-gui": {
"transport": {
"type": "http",
"url": "http://localhost:8000/mcp"
}
}
}
}- 重启 Claude Desktop,即可在对话中使用 AutoGLM-GUI 工具。
在 VS Code 设置中搜索 "cline",添加 MCP 服务器配置:
{
"cline.mcpServers": {
"autoglm-gui": {
"transport": {
"type": "http",
"url": "http://localhost:8000/mcp"
}
}
}
}在 Cursor 设置中添加 MCP 服务器(设置 → MCP Servers):
{
"mcpServers": {
"autoglm-gui": "http://localhost:8000/mcp"
}
}AutoGLM-GUI 的 MCP 服务器通过 HTTP 端点暴露:
-
Base URL:
http://localhost:8000/mcp - 传输协议:HTTP + SSE (Server-Sent Events)
- 端口:跟随主服务端口(默认 8000)
端点路径:
-
/mcp/sse- SSE 传输端点 -
/mcp/messages- 消息端点
实现方式:
- 基于 FastMCP 库构建
- MCP HTTP App 挂载到 FastAPI 的根路径
/ - 使用 ASGI 应用集成,与 FastAPI 生命周期合并
- 设备锁管理:使用
PhoneAgentManager.use_agent上下文管理器
专用 Prompt 特性:
- Fail-Fast:找不到元素立即报错,禁止猜测坐标
- Step Limit:5 步未完成自动中断
- 目标验证:执行前必须确认元素在屏幕上可见
-
错误规范:使用
ELEMENT_NOT_FOUND和STEP_LIMIT_EXCEEDED标准化错误
-
原子任务:MCP 的
chat工具设计用于执行原子操作(5 步内完成),复杂任务应拆分为多个子任务 -
设备管理:使用
list_devices()先确认设备在线,再执行操作 -
错误处理:AI 应捕获
ELEMENT_NOT_FOUND错误,调整策略后重试 - 性能优化:MCP 调用优先使用本地 API(如 vLLM/SGLang),减少网络延迟
在 Claude Desktop 中:
用户:帮我查一下手机上有几台设备连接了
Claude:我调用 list_devices() 工具查看一下...
[MCP 工具调用] list_devices()
结果:发现 1 台设备
- 设备 ID: emulator-5554
- 型号: sdk_gphone64_x86_64
- 状态: 在线
用户:在模拟器上打开设置应用
Claude:我调用 chat 工具来操作设备...
[MCP 工具调用] chat("emulator-5554", "打开设置应用")
执行结果:✅ 已完成
步骤 1: Launch(app="设置")
步骤 2: 等待应用加载
步骤 3: 完成
设置应用已成功打开。
💡 提示:Docker 部署已整合到 快速开始 部分,推荐直接查看上方的"方式二:Docker 部署"说明。
本节提供更多 Docker 配置选项和高级用法。
如果使用 host 网络模式且需要修改默认端口(8000),可以通过 command 参数指定:
# 监听 9000 端口
docker run -d --network host \
-v autoglm_config:/root/.config/autoglm \
-v autoglm_logs:/app/logs \
ghcr.io/suyiiyii/autoglm-gui:main \
autoglm-gui --host 0.0.0.0 --port 9000 --no-browser如果使用 bridge 网络模式,则使用 -p 参数映射端口:
# 映射主机 9000 端口到容器 8000 端口
docker run -d -p 9000:8000 \
-v autoglm_config:/root/.config/autoglm \
-v autoglm_logs:/app/logs \
ghcr.io/suyiiyii/autoglm-gui:main| 标签 | 说明 |
|---|---|
main |
跟随 main 分支最新代码,推荐使用 |
<commit-sha> |
特定 commit 的镜像(如 abc1234),用于锁定版本 |
| 变量 | 说明 | 默认值 |
|---|---|---|
AUTOGLM_BASE_URL |
模型 API 地址 | (必填) |
AUTOGLM_MODEL_NAME |
模型名称 | autoglm-phone |
AUTOGLM_API_KEY |
API 密钥 | (必填) |
# 检查服务状态
curl http://localhost:8000/api/health我们热烈欢迎社区贡献!无论是修复 bug、添加新功能、改进文档,还是分享使用经验,都对项目有重要价值。
- 查看置顶 Issue - 🎯 Start Here: 如何贡献 / 认领任务 / 本地跑起来
- 阅读贡献指南 - 详细步骤请参考 CONTRIBUTING.md
-
认领任务 - 在感兴趣的 Issue 下评论
/assign me
- 🐛 修复 Bug - 查找标记为
bug的 Issue - ✨ 添加功能 - 实现标记为
enhancement的需求 - 📖 改进文档 - 修正错误、补充说明、添加示例
- 🧪 添加测试 - 提升代码质量和测试覆盖率
- 🌍 翻译文档 - 帮助更多语言的用户使用
如果你是第一次贡献开源项目,可以从这些任务开始:
- 查找标记为
good first issue的 Issue - 改进文档(修正拼写错误、补充说明)
- 测试软件并报告使用体验
| 文档 | 说明 |
|---|---|
| CONTRIBUTING.md | 完整的贡献指南(环境配置、开发流程、PR 规范) |
| CLAUDE.md | 技术架构文档(代码结构、关键实现细节) |
| Issues | 查看和认领任务 |
感谢每一位贡献者,你们让 AutoGLM-GUI 变得更好!🎉
Apache License 2.0
AutoGLM-GUI 打包了 ADB Keyboard APK (com.android.adbkeyboard),该组件使用 GPL-2.0 许可证。ADB Keyboard 组件作为独立工具使用,不影响 AutoGLM-GUI 本身的 Apache 2.0 许可。
详见:AutoGLM_GUI/resources/apks/ADBKeyBoard.LICENSE.txt
本项目基于 Open-AutoGLM 构建,感谢 zai-org 团队在 AutoGLM 上的卓越工作。
For Tasks:
Click tags to check more tools for each tasksFor Jobs:
Alternative AI tools for AutoGLM-GUI
Similar Open Source Tools
For similar tasks
midscene
Midscene.js is an AI-powered automation SDK that allows users to control web pages, perform assertions, and extract data in JSON format using natural language. It offers features such as natural language interaction, understanding UI and providing responses in JSON, intuitive assertion based on AI understanding, compatibility with public multimodal LLMs like GPT-4o, visualization tool for easy debugging, and a brand new experience in automation development.
AutoGLM-GUI
AutoGLM-GUI is an AI-driven Android automation productivity tool that supports scheduled tasks, remote deployment, and 24/7 AI assistance. It features core functionalities such as deploying to servers, scheduling tasks, and creating an AI automation assistant. The tool enhances productivity by automating repetitive tasks, managing multiple devices, and providing a layered agent mode for complex task planning and execution. It also supports real-time screen preview, direct device control, and zero-configuration deployment. Users can easily download the tool for Windows, macOS, and Linux systems, and can also install it via Python package. The tool is suitable for various use cases such as server automation, batch device management, development testing, and personal productivity enhancement.
devchat
DevChat is an open-source workflow engine that enables developers to create intelligent, automated workflows for engaging with users through a chat panel within their IDEs. It combines script writing flexibility, latest AI models, and an intuitive chat GUI to enhance user experience and productivity. DevChat simplifies the integration of AI in software development, unlocking new possibilities for developers.
lowcode-vscode
This repository is a low-code tool that supports ChatGPT and other LLM models. It provides functionalities such as OCR translation, generating specified format JSON, translating Chinese to camel case, translating current directory to English, and quickly creating code templates. Users can also generate CURD operations for managing backend list pages. The tool allows users to select templates, initialize query form configurations using OCR, initialize table configurations using OCR, translate Chinese fields using ChatGPT, and generate code without writing a single line. It aims to enhance productivity by simplifying code generation and development processes.
AI-Prompt-Genius
AI Prompt Genius is a Chrome extension that allows you to curate a custom library of AI prompts. It is built using React web app and Tailwind CSS with DaisyUI components. The extension enables users to create and manage AI prompts for various purposes. It provides a user-friendly interface for organizing and accessing AI prompts efficiently. AI Prompt Genius is designed to enhance productivity and creativity by offering a personalized collection of prompts tailored to individual needs. Users can easily install the extension from the Chrome Web Store and start using it to generate AI prompts for different tasks.
second-brain-agent
The Second Brain AI Agent Project is a tool designed to empower personal knowledge management by automatically indexing markdown files and links, providing a smart search engine powered by OpenAI, integrating seamlessly with different note-taking methods, and enhancing productivity by accessing information efficiently. The system is built on LangChain framework and ChromaDB vector store, utilizing a pipeline to process markdown files and extract text and links for indexing. It employs a Retrieval-augmented generation (RAG) process to provide context for asking questions to the large language model. The tool is beneficial for professionals, students, researchers, and creatives looking to streamline workflows, improve study sessions, delve deep into research, and organize thoughts and ideas effortlessly.
AI-scripts
AI-scripts is a repository containing various AI scripts used for daily tasks. It includes tools like 'holefill' for filling code snippets in VIM, 'aiemu' for emulation purposes, and 'chatsh [model]' for terminal-based ChatGPT functionality. The repository aims to streamline AI-related workflows and enhance productivity by providing convenient scripts for common tasks.
magic-cli
Magic CLI is a command line utility that leverages Large Language Models (LLMs) to enhance command line efficiency. It is inspired by projects like Amazon Q and GitHub Copilot for CLI. The tool allows users to suggest commands, search across command history, and generate commands for specific tasks using local or remote LLM providers. Magic CLI also provides configuration options for LLM selection and response generation. The project is still in early development, so users should expect breaking changes and bugs.
For similar jobs
promptflow
**Prompt flow** is a suite of development tools designed to streamline the end-to-end development cycle of LLM-based AI applications, from ideation, prototyping, testing, evaluation to production deployment and monitoring. It makes prompt engineering much easier and enables you to build LLM apps with production quality.
deepeval
DeepEval is a simple-to-use, open-source LLM evaluation framework specialized for unit testing LLM outputs. It incorporates various metrics such as G-Eval, hallucination, answer relevancy, RAGAS, etc., and runs locally on your machine for evaluation. It provides a wide range of ready-to-use evaluation metrics, allows for creating custom metrics, integrates with any CI/CD environment, and enables benchmarking LLMs on popular benchmarks. DeepEval is designed for evaluating RAG and fine-tuning applications, helping users optimize hyperparameters, prevent prompt drifting, and transition from OpenAI to hosting their own Llama2 with confidence.
MegaDetector
MegaDetector is an AI model that identifies animals, people, and vehicles in camera trap images (which also makes it useful for eliminating blank images). This model is trained on several million images from a variety of ecosystems. MegaDetector is just one of many tools that aims to make conservation biologists more efficient with AI. If you want to learn about other ways to use AI to accelerate camera trap workflows, check out our of the field, affectionately titled "Everything I know about machine learning and camera traps".
leapfrogai
LeapfrogAI is a self-hosted AI platform designed to be deployed in air-gapped resource-constrained environments. It brings sophisticated AI solutions to these environments by hosting all the necessary components of an AI stack, including vector databases, model backends, API, and UI. LeapfrogAI's API closely matches that of OpenAI, allowing tools built for OpenAI/ChatGPT to function seamlessly with a LeapfrogAI backend. It provides several backends for various use cases, including llama-cpp-python, whisper, text-embeddings, and vllm. LeapfrogAI leverages Chainguard's apko to harden base python images, ensuring the latest supported Python versions are used by the other components of the stack. The LeapfrogAI SDK provides a standard set of protobuffs and python utilities for implementing backends and gRPC. LeapfrogAI offers UI options for common use-cases like chat, summarization, and transcription. It can be deployed and run locally via UDS and Kubernetes, built out using Zarf packages. LeapfrogAI is supported by a community of users and contributors, including Defense Unicorns, Beast Code, Chainguard, Exovera, Hypergiant, Pulze, SOSi, United States Navy, United States Air Force, and United States Space Force.
llava-docker
This Docker image for LLaVA (Large Language and Vision Assistant) provides a convenient way to run LLaVA locally or on RunPod. LLaVA is a powerful AI tool that combines natural language processing and computer vision capabilities. With this Docker image, you can easily access LLaVA's functionalities for various tasks, including image captioning, visual question answering, text summarization, and more. The image comes pre-installed with LLaVA v1.2.0, Torch 2.1.2, xformers 0.0.23.post1, and other necessary dependencies. You can customize the model used by setting the MODEL environment variable. The image also includes a Jupyter Lab environment for interactive development and exploration. Overall, this Docker image offers a comprehensive and user-friendly platform for leveraging LLaVA's capabilities.
carrot
The 'carrot' repository on GitHub provides a list of free and user-friendly ChatGPT mirror sites for easy access. The repository includes sponsored sites offering various GPT models and services. Users can find and share sites, report errors, and access stable and recommended sites for ChatGPT usage. The repository also includes a detailed list of ChatGPT sites, their features, and accessibility options, making it a valuable resource for ChatGPT users seeking free and unlimited GPT services.
TrustLLM
TrustLLM is a comprehensive study of trustworthiness in LLMs, including principles for different dimensions of trustworthiness, established benchmark, evaluation, and analysis of trustworthiness for mainstream LLMs, and discussion of open challenges and future directions. Specifically, we first propose a set of principles for trustworthy LLMs that span eight different dimensions. Based on these principles, we further establish a benchmark across six dimensions including truthfulness, safety, fairness, robustness, privacy, and machine ethics. We then present a study evaluating 16 mainstream LLMs in TrustLLM, consisting of over 30 datasets. The document explains how to use the trustllm python package to help you assess the performance of your LLM in trustworthiness more quickly. For more details about TrustLLM, please refer to project website.
AI-YinMei
AI-YinMei is an AI virtual anchor Vtuber development tool (N card version). It supports fastgpt knowledge base chat dialogue, a complete set of solutions for LLM large language models: [fastgpt] + [one-api] + [Xinference], supports docking bilibili live broadcast barrage reply and entering live broadcast welcome speech, supports Microsoft edge-tts speech synthesis, supports Bert-VITS2 speech synthesis, supports GPT-SoVITS speech synthesis, supports expression control Vtuber Studio, supports painting stable-diffusion-webui output OBS live broadcast room, supports painting picture pornography public-NSFW-y-distinguish, supports search and image search service duckduckgo (requires magic Internet access), supports image search service Baidu image search (no magic Internet access), supports AI reply chat box [html plug-in], supports AI singing Auto-Convert-Music, supports playlist [html plug-in], supports dancing function, supports expression video playback, supports head touching action, supports gift smashing action, supports singing automatic start dancing function, chat and singing automatic cycle swing action, supports multi scene switching, background music switching, day and night automatic switching scene, supports open singing and painting, let AI automatically judge the content.