ACADEMIC RESEARCH PROJECT

Minicode

通过 Token 压缩技术,以更低的成本访问所有主流大语言模型。OpenAI 标准兼容,即插即用。

阅读文档

关于项目

Minicode 是一个学术实验项目,由来自中国多所大学的研究小组运营。我们的目标是建立 OpenAI 标准兼容的 API 中继服务,通过在代理层使用多种手段近乎无损地压缩输入 Token,为全球用户提供比官方更低的 API 价格。低成本的输入对于需要大量消耗 Token 的长段编程、写作等场景有显著的成本优势,且不会降低输出质量。

虽然这是一个学术研究项目,我们承诺不会记录用户的任何输入和提示词用于任何目的。

核心技术

Token Compression

我们开发了激进的 Token 压缩技术,极大程度压缩最终提交的 Token 数量。对于不重要的上下文进行激进的摘要处理,并基于机器学习的语义化权重判断,在不丢失重要信息的同时降低成本。

Session Cache

多次请求中相同的 System Prompt 或文档,我们利用高性能 KV 服务缓存这部分内容,后续请求直接复用,费用大幅降低。对于 Anthropic 系列模型效果最好 —— Anthropic 对命中缓存的请求收费更低。

研究团队

来自多所高校的联合研究小组

Chengyu John

Guangzhou University

Junpeng Shü

Tsinghua University

Dongwei Van

National Central University

模型定价

元 / 百万 tokens

模型输入输出

准备好了吗?

注册即可获得免费额度,无需信用卡。