LLM-Stream-Optimizer

LLM-Stream-Optimizer

⚡基于 Cloudflare Workers 优化LLM流式输出,支持多种格式API,转换大型响应块,带Web管理页,原生Fetch请求(ShadowFetch),支持多KEY负载均衡

Stars: 61

Visit
 screenshot

LLM Stream Optimizer is a tool developed on Cloudflare Workers for optimizing streaming responses and managing multiple APIs. It features intelligent stream output optimization, adaptive delay algorithm, web API management page, and removal of unnecessary Cloudflare fetch headers. The tool aims to enhance API performance and provide a smooth user experience.

README:

⚡LLM Stream Optimizer

⚠️注意⚠️
本项目仍处在早期开发阶段,功能仍然不完善且可能有Bug,欢迎各位佬提issue/PR共同完善项目!!!

Based on ☁️Cloudflare Workers!!!


🍗食用方法:
  • 新建一个Cloudflare Workers
  • 复制worker.js中的全部文本,粘贴到Workers编辑器中并部署
  • Workers设置/变量和机密,添加一个类型为“密钥”,名为PROXY_API_KEY的变量,内容为代理后的APIKEY,同时也是Web管理页的登录密码
  • Cloudflare左侧边栏/存储和数据库/KV,创建一个新的KV,名称随意。
  • Workers设置/绑定/添加/KV 命名空间,变量名称设为CONFIG_KV,KV 命名空间选择刚刚创建的KV。
  • 部署完成,打开你的Workers域名即可访问管理面板!

变量:

PROXY_API_KEY=代理APIKEY,同时也是Web管理页的登录密码
CONFIG_KV=KV数据库,用于存储API数据及流式优化配置

功能:

API多合一

  • 支持添加OpenAI、Anthropic、Google Gemini格式的API
  • 支持添加多个OpenAI API
  • 统一转为OpenAI格式API

智能流式输出优化

  • 将大型响应块分解为逐字符输出
  • 基于响应块大小和时间间隔智能调整字符间延迟

自适应延迟算法

  • 检测响应数据块大小:块越大,字符延迟越小
  • 监控响应时间间隔:间隔越长,字符延迟越大
  • 确保输出平滑自然,没有明显停顿

Web API管理页面

  • 支持通过Web管理页面调整API设置
  • 访问workers域名根目录即为Web管理页面
  • Web管理页面登录密码为变量PROXY_API_KEY

剔除 Cloudflare 自带 fetch 的多余请求头

  • 使用ShadowFetch替代Cloudflare Fetch
  • 确保请求上游API时不会带有Cloudflare添加的其他请求头
  • 支持对单个API设置启用或关闭原生Fetch以适配更多使用情景

支持/v1/models路径获取所有API的模型列表

Todo List:

支持自定义API端点

支持返回models列表中剔除未定义的模型

For Tasks:

Click tags to check more tools for each tasks

For Jobs:

Alternative AI tools for LLM-Stream-Optimizer

Similar Open Source Tools

For similar tasks

For similar jobs